<가장 기초가 되는 인공 신경망 구조>
# 퍼셉트론의 가중치 갱신
*가중치 = 입력값이 출력에 끼치게 되는 영향의 강도 조절하는 역할
*편향 = 노드들이 얼마나 쉽게 활성화 되도록 할 것인지 조절하는 역할
# 활성화 함수 (Activation Function)
- 퍼셉트론은 계단함수(step function)을 사용함 (계단함수->특정 값 기준 활성화 or 비활성화)
# 단층 퍼셉트론의 한계
- 학습이 종료되기 위해서는 모든 출력이 실제값과 일치해야 함. (현실성 떨어짐)
- 정확한 선형 결정 경계를 찾는 모형이므로 비선형 데이터에 대해서는 처리 불가능
ex) OR 및 AND 연산은 선형으로 분리되므로 수행 가능 // 배타적 논리합(XOR)연산은 선형 X
결론
선형분리만 가능하다는 한계점 때문에 현재 쓰이지는 않지만 딥러닝의 시작이 되었다.
'Research > Deep Learning' 카테고리의 다른 글
생성적 적대 신경망(GAN) + a (0) | 2021.07.23 |
---|---|
순환 신경망(RNN; Recurrent Neural Network) (0) | 2021.07.23 |
합성곱 신경망 (CNN; Convolution Neural Network) (0) | 2021.07.21 |
심층 신경망 (DNN; Deep Neural Network) (0) | 2021.07.21 |
다층 퍼셉트론 (0) | 2021.07.21 |