신경망 학습
인간의 뇌세포 뉴런을 본딴 classifier
Collection => Processing => Dissemination(전파) 과정을 거침
단일 신경망
기본 구조
뉴런 : input(입력), weight(학습, 기억), net(활성화 레벨), 활성화 함수
분석
뉴런의 weight는 학습, 기억의 역할을 함 ( ==뉴런의 기능 )
변경되면 뉴런의 기능이 변경됨
x [input] * w [weight] = net
O = f(net) [activation function]
Error = T [answer] - O [f(net)]
이러한 흐름으로 계산하는 것을 forward propagation이라고 함
목표 : input에 따른 output이 정확히 분류되어 나와야 함
Error가 0에 가까워지도록 학습해야함
학습은 w를 바꾸는 것
반응형
'컴퓨터과학 (CS) > AI' 카테고리의 다른 글
인공지능 정리 [부록] :: Restricted Boltzmann Machine (RBM) (0) | 2020.02.08 |
---|---|
인공지능 정리 [본론4] :: 딥러닝의 시작 (0) | 2020.02.01 |
인공지능 정리 [본론3] :: 학습 (feat. weight의 조정) (0) | 2020.01.31 |
인공지능 정리 [본론1] :: 인공지능의 목표 (0) | 2020.01.29 |
인공지능 정리 [서론] :: 인공지능이란? (0) | 2020.01.29 |
Comment