방송대 컴퓨터과학과 딥러닝 출석수업과제물 정답

방송대 컴퓨터과학과 딥러닝 출석수업과제물 정답(1번~11번)

1 - C 

2 - B 

3 – C 

4 – B 

5 – B 

6 – D 

7 – A 

8 - 입력층에서 은닉층으로 전달되는 특성값이 5 개이므로 첫번째 units=5 가 된다. 즉, 하나의 은닉층에 5 개의 노드를 설정하고, 

9 - 출력층에서 나오는 값이 3 개 이므로 두번째 units=3 이 된다. 출력층의 노드 수는 3 으로 설정 할 수 있다. 

10 - 경사하강법과 역전파는 둘다 가중치 업데이트를 통하여 어떤 패턴을 찾아내는 모델 학습 혹은 훈련에 사용이 됩니다. 하지만, 경사하강법은 역전파 대비, 좀 더 일반적인 최적화 알고리즘 이라고 할 수 있고, 역전파는 신경망에 특화된 방법이라고 할 수 있습니다. 즉, 경사하강법은 손실함수를 최소화하기 위해 모델의 가중치를 조절하기 위하여, 손실함수의 기울기를 따라 이동하면서 최소값을 찾아가게 됩니다. 반면에 역전파는 입력과 실제 결과간의 오차를 역으로 전파하여 가중치를 조정합니다. 이러한 특징으로 인해 경사하강법은 인공신경망뿐만 아니라 머신러닝 등 다양한 분야에서 사용이 됩니다. 하지만, 역전파는 출력과 실제 결과사이의 오차를 역방향으로 전파하면서 각 층의 가중치를 조정하는데, 이는 인공신경망 분야에서 특화되어 사용된다고 할 수 있습니다. 이러한 차이로 인해 적용 범위에 있어서도, 경사 하강법은 인공신경망을 비롯 회귀, 분류, 클러스터링 등 다양한 분야에 사용이 가능하고, 역전파는 신경망내에서 오차를 계산 및 가중하기에, 신경망 분야가 더 적합하다고 할 수 있습니다. 

11 - 다층 퍼셉트론의 구조를 확장한다는 것은 인공신경망을 복잡하고 어려운 문제를 해결 할 수 있도록 고도화 하는 것이라고도 할 수 있습니다. 어떤 문제를 해결하기 위해 다양한 시각과 다차원화여 접근한다고 할 수 있습니다. 이러한 다층 퍼셉트론의 구조 확장에는 일반적으로은닉 드랍아웃, 뉴런수 증가, 순환 신경망, 추가 은닉층, 다중 출력이 있습니다. 먼저 드랍아웃은 과적합을 줄이고 일반성을 높이기 위해 몇몇 뉴런을 랜덤하게 비활성화하는 기술입니다. 두번째로 은닉 뉴런수 증가는, 모델을 확장하는 기법으로서, 더 복잡한 패턴의 학습이 가능할 수 있습니다. 세번째로, 순환신경망은 다른 유형의 신경망 구조를 다층 퍼셉트론에 결합하여 모델을 확장하는 기법으로서 역시 복잡한 문제를 다각적으로 접근하여 유의미한 패턴을 찾는데 도움을 줄 수 있습니다. 추가 은닉층 방법도 역시 복잡한 문제의 패턴을 이해하는데 도움을 주는 기법으로 다층 퍼센트론의 은닉층을 추가함으로써 가능한 방법입니다. 이외에도 다양한 확장방법이 있습니다만, 지나친 확장은 과적합 및 패턴의 오인식을 발생 시킬 수도 있으므로 적절한 확장을 통해 인공신경망을 최적의 수준으로 고도화 하는 것이 중요할 것입니다

댓글

이 블로그의 인기 게시물

image_insert_vba (vba로 만든 이미지 자동 삽입기)

IT 개발자 다이어리 - 2024년 6월 7일 금요일 / 날씨: 흐리다가 맑아짐

Privacy Policy(Chicken Fight - 닭싸움)