![](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdyFxBR%2FbtqBGqO5Hrh%2FmQvV0ORbJajEbA6h6R5lk0%2Fimg.png)
딥러닝의 시작 이러한 multi-layer 의 forward-propagation 과정을 식으로 나타내보면, h1 = f(x11*w11+x12*w21) net = h1*w13+h2*w23 = f(x11*w11+x12*w21)*w13+f(x11*w12+x12*w22)*w23 여기서 f 즉, activation fuction이 linear한 function이라고 가정해보자. 그렇다면 f(x) = ax의 형태이므로, net = x11*a(w11*w13+w12*w23)+x12*a(w21*w13+w22*w23) 으로 나타낼 수 있다. 그리고 이러한 net은 가장 처음에 주어진 input layer에다가 상수를 곱한 꼴이므로 one-layer로 나타낼 수 있다. 즉, 여러 개의 layer를 거쳤음에도 쉬운 문제로 ..
![](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FuF6DB%2FbtqBE1PP2pE%2FKbikgn6uyvy26o9ZcaQbnK%2Fimg.png)
weight의 변화 1. 랜덤 실습 one-layer perceptron weight를 랜덤으로 학습하는 퍼셉트론 만들기 input, weight 갯수는 입력받기 output은 1개로 고정 /* 2020-01-28 W.HE one-layer perceptron */ #include #include #include main() { /* variable set */ int input_num; float* input; float* w; float output = 0; float answer = 3; int try_num = 0; /* input input_num */ printf("enter number of inputs\n"); scanf_s("%d", &input_num); /* memory allocat..
![](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdxG2jU%2FbtqBD1JzhTQ%2F4RZoAj9zoDHIa1Pni0hlP1%2Fimg.png)
신경망 학습 인간의 뇌세포 뉴런을 본딴 classifier Collection => Processing => Dissemination(전파) 과정을 거침 단일 신경망 기본 구조 뉴런 : input(입력), weight(학습, 기억), net(활성화 레벨), 활성화 함수 분석 뉴런의 weight는 학습, 기억의 역할을 함 ( ==뉴런의 기능 ) 변경되면 뉴런의 기능이 변경됨 x [input] * w [weight] = net O = f(net) [activation function] Error = T [answer] - O [f(net)] 이러한 흐름으로 계산하는 것을 forward propagation이라고 함 목표 : input에 따른 output이 정확히 분류되어 나와야 함 Error가 0에 가까워지..
Comment