방통대 [딥러닝의통계적이해] 2024 출석과제물 (30점 만점 인증 / 표지제외 18페이지 분량 / 코드 및 해설 포함)
- 최초 등록일
- 2024.05.22
- 최종 저작일
- 2024.04
- 19페이지/
한컴오피스
- 가격 15,000원
![할인쿠폰받기](/images/v4/document/ico_det_coupon.gif)
과제정보
학과 |
통계·데이터과학과 |
학년 |
4학년 |
과목명 |
딥러닝의통계적이해 |
자료 |
1건
|
공통 |
1. Teachable Machine을 이용하여 충분한 데이터(10개 이상)로 자신의 머신러닝 모형을 만들고 그 결과를 정리하시오.(8점)
2. 다층신경망의 학습과정을 ChatGPT(또는 Bard, Bing Chat 등)에 물어서 찾고, 이를 기반으로 다층신경... 더보기
1. Teachable Machine을 이용하여 충분한 데이터(10개 이상)로 자신의 머신러닝 모형을 만들고 그 결과를 정리하시오.(8점)
2. 다층신경망의 학습과정을 ChatGPT(또는 Bard, Bing Chat 등)에 물어서 찾고, 이를 기반으로 다층신경망의 학습과정을 스스로 다시 정리하시오.(6점)
3. http://playground.tensorflow.org/ 접속하여 분류과제(Classification) 중 하나를 학번 끝자리에 따라 선택하고, 이 과제에 대해 하이퍼파라미터를 달리하여 신경망 2개를 만들고, 이 2개 신경망 성능을 비교하여 하이퍼파라미터의 특성을 정리하시오.(8점)
4. 구글 Colab을 이용하여 MNIST에 대한 완전연결신경망을 작성하고 그 과정을 설명하시오. 코드 작성할 때 교재의 코드를 참고하되 그대로 작성하지 않고 신경망 구조(은닉층 수, 뉴런 등)을 부분 수정하여 작성하시오.(코드와 최종결과 캡처해서 넣으시오.)(8점) 접기
|
* 본 문서(hwp)가 작성된 한글 프로그램 버전보다 낮은 한글 프로그램에서 열람할 경우 문서가 올바르게 표시되지 않을 수 있습니다.
이 경우에는 최신패치가 되어 있는 2010 이상 버전이나 한글뷰어에서 확인해 주시기 바랍니다.
소개글
방통대 [딥러닝의통계적이해] 2024 출석과제물
- 30점 만점 인증
- 표지제외 18페이지 분량
- 코드 및 해설 포함
목차
1. Teachable Machine을 이용하여 충분한 데이터(10개 이상)로 자신의 머신러닝 모형을 만들고 그 결과를 정리하시오.(8점)
2. 다층신경망의 학습과정을 ChatGPT(또는 Bard, Bing Chat 등)에 물어서 찾고, 이를 기반으로 다층신경망의 학습과정을 스스로 다시 정리하시오.(6점)
3. http://playground.tensorflow.org/ 접속하여 분류과제(Classification) 중 하나를 학번 끝자리에 따라 선택하고, 이 과제에 대해 하이퍼파라미터를 달리하여 신경망 2개를 만들고, 이 2개 신경망 성능을 비교하여 하이퍼파라미터의 특성을 정리하시오.(8점)
4. 구글 Colab을 이용하여 MNIST에 대한 완전연결신경망을 작성하고 그 과정을 설명하시오. 코드 작성할 때 교재의 코드를 참고하되 그대로 작성하지 않고 신경망 구조(은닉층 수, 뉴런 등)을 부분 수정하여 작성하시오.(코드와 최종결과 캡처해서 넣으시오.)(8점)
본문내용
1.
Teachable Machine에 판다 이미지 54개와 레서판다 이미지 21개를 각 클래스로 나누어 입력하고 학습시켰다. 학습 시도 횟수인 에포크는 50으로 설정되었다. 일반적으로 에포크 횟수가 클수록 모델이 잘 학습하여 좋은 성능을 나타낸다. 데이터 크기가 작을 때에는 에포크 횟수를 늘리는데에 대한 부담이 적으나 대용량의 데이터일 경우 학습이 오래 걸릴 수 있다. 배치 크기는 16으로 설정되었다. 배치시 매 학습마다 몇 개의 샘플을 사용할지를 정한다. 판다 이미지는 총 54개, 레서판다 이미지는 총 21개이므로 판다 샘플은 4번의 배치가 피드되고, 레서판다 샘플이 2번 배치가 피드되면 그 때 1 에포크가 완료된다. 학습률은 0.001로 설정되어 있으며 모델의 성능에 배치 크기나 에포크보다 많은 영향을 끼칠 수 있다.
<중 략>
1. 다층신경망의 학습 과정. 이를 기반으로 다층신경망의 학습과정을 스스로 다시 정리
입력층과 출력층으로 이루어진 단순신경망에 여러 개의 은닉층을 추가한 신경망을 다층신경망이라고 한다. 입력층의 뉴런은 은닉층의 뉴련과 연결된다. 은닉층은 다음 은닉층으로 연결되다가 마지막에는 출력층과 연결된다. 은닉층은 입력층과 출력층이 단순한 선형관계가 아니더라도 은닉층에서는 입력값의 다양한 특징을 찾아내고 결함한 결과를 다음 층으로 전달한다. 다음층으로 전달할 때도 비선형 형태의 활성화 함수를 사용함으로써 결과적으로 입출력 간 복잡한 비선형 관계더라도 설명이 가능하도록 모델을 만들 수 있다. 다층신경망의 학습과정은 데이터 전처리→모델 구조 만들기→활성화함수 선택하기→손실함수 정하기→옵티마이저 선택하기→학습 진행하기→하이퍼파라미터 조정하기의 과정으로 진행된다.
참고 자료
없음