본문 바로가기

Research/Deep Learning

단층 퍼셉트론

인공신경망의 위치

 

<가장 기초가 되는 인공 신경망 구조>

퍼셉트론

 

# 퍼셉트론의 가중치 갱신

갱신된 가중치  = 가중치 + (학습률) x (입력 노드 i의 입력값) x (오차)

*가중치 = 입력값이 출력에 끼치게 되는 영향의 강도 조절하는 역할

*편향 = 노드들이 얼마나 쉽게 활성화 되도록 할 것인지 조절하는 역할

 

 

# 활성화 함수 (Activation Function)

- 퍼셉트론은 계단함수(step function)을 사용함 (계단함수->특정 값 기준 활성화 or 비활성화)

 

# 단층 퍼셉트론의 한계

- 학습이 종료되기 위해서는 모든 출력이 실제값과 일치해야 함. (현실성 떨어짐)

- 정확한 선형 결정 경계를 찾는 모형이므로 비선형 데이터에 대해서는 처리 불가능

ex) OR 및 AND 연산은 선형으로 분리되므로 수행 가능 // 배타적 논리합(XOR)연산은 선형 X

 

결론

선형분리만 가능하다는 한계점 때문에 현재 쓰이지는 않지만 딥러닝의 시작이 되었다.