인공지능 정리 [본론4] :: 딥러닝의 시작
컴퓨터과학 (CS)/AI 2020. 2. 1. 00:50

딥러닝의 시작 이러한 multi-layer 의 forward-propagation 과정을 식으로 나타내보면, h1 = f(x11*w11+x12*w21) net = h1*w13+h2*w23 = f(x11*w11+x12*w21)*w13+f(x11*w12+x12*w22)*w23 여기서 f 즉, activation fuction이 linear한 function이라고 가정해보자. 그렇다면 f(x) = ax의 형태이므로, net = x11*a(w11*w13+w12*w23)+x12*a(w21*w13+w22*w23) 으로 나타낼 수 있다. 그리고 이러한 net은 가장 처음에 주어진 input layer에다가 상수를 곱한 꼴이므로 one-layer로 나타낼 수 있다. 즉, 여러 개의 layer를 거쳤음에도 쉬운 문제로 ..

인공지능 정리 [본론3] :: 학습 (feat. weight의 조정)
컴퓨터과학 (CS)/AI 2020. 1. 31. 16:24

weight의 변화 1. 랜덤 실습 one-layer perceptron weight를 랜덤으로 학습하는 퍼셉트론 만들기 input, weight 갯수는 입력받기 output은 1개로 고정 /* 2020-01-28 W.HE one-layer perceptron */ #include #include #include main() { /* variable set */ int input_num; float* input; float* w; float output = 0; float answer = 3; int try_num = 0; /* input input_num */ printf("enter number of inputs\n"); scanf_s("%d", &input_num); /* memory allocat..

인공지능 정리 [본론2] :: 신경망 학습
컴퓨터과학 (CS)/AI 2020. 1. 31. 16:13

신경망 학습 인간의 뇌세포 뉴런을 본딴 classifier Collection => Processing => Dissemination(전파) 과정을 거침 단일 신경망 기본 구조 뉴런 : input(입력), weight(학습, 기억), net(활성화 레벨), 활성화 함수 분석 뉴런의 weight는 학습, 기억의 역할을 함 ( ==뉴런의 기능 ) 변경되면 뉴런의 기능이 변경됨 x [input] * w [weight] = net O = f(net) [activation function] Error = T [answer] - O [f(net)] 이러한 흐름으로 계산하는 것을 forward propagation이라고 함 목표 : input에 따른 output이 정확히 분류되어 나와야 함 Error가 0에 가까워지..