ai/Deep Learning(16)
-
Deep Learning 역사
perceptron을 다중 Layer (MultiLayer)로 사용하면 학습이 가능 (xor예제) → 가장 큰 문제는 "시간이 오래걸린다" → 결국 machine learning 1차 침체기 → 1974년에 (폴 웨어보소) 가 "획기적인 논문을 발표" 하지만 "외면" (아무도 안하고 있어욬) → 1982년에 다시 논문 발표 (아무리 생각해도 자기가 맞다고 생각) → 반응 x → 1986년에 (제프리 힐튼교수) "이 논문에 대한 재조명" → 정말 되네요 ! 너무 좋아요 ! (machine Learning의전성기) 그래서 86년 이후 편미분이 아닌 이 개념을 사용한다. 이 개념이 "오차역전파 (Backpropagation)" : 뒤쪽layer에서 앞쪽layer로 w와 b를 편미분이 아닌 Matrix(행렬곱)..
2021.09.16 -
MNIST Multi layer ver 코드
# 기존의 MNIST 예제를 multi layer 형태의 neural network을 이용해서 # 구현해 보아요! # 두가지로 해 볼꺼예요! # 첫번째는 MNIST 예제를 hidden layer없이 input layer와 output layer만 이용해서 구현 # => 기존의 multinomial classification # 두번째는 MNIST 예제를 hidden layer를 사용해 구현 # => multilayer를 이용한 nueral network 형태의 multinomial classification # 기본적으로 sklearn으로 MNIST를 구현합니다. # 그리고 각각의 case에 대해서 tensorflow 1.15버전과 tensorflow 2.x버전으로 구현합니다. # 처리된 결과를 비교해 ..
2021.09.16 -
Multi layer (NN기초) 코드
# tensorflow 1.15버전 # # tensorflow 1.15버전을 이용해 AND, OR, XOR Gate에 대한 진리표를 학습시켜보아요! import numpy as np import tensorflow as tf from sklearn.metrics import classification_report # Training Data Set x_data = np.array([[0,0], [0,1], [1,0], [1,1]], dtype=np.float64) # AND Gate # t_data = np.array([[0], [0], [0], [1]], dtype=np.float64) # OR Gate # t_data = np.array([[0], [1], [1], [1]], dtype=np.floa..
2021.09.15 -
MLP [ Multi layer perceptron (NN기초) ]
AI를 구현하기 위한 machine Learning - Regression - SUM - Decision Tree - KNN - Neural Network [ NN이 초창기 나머지 위 알고리즘들은 나중에 나왔다 ] 어떻게 생각하는지 모르지만 사람의 뇌의 비슷한 형태로 컴퓨터를 modeling하자는 단순한 생각에서 시작 → 사람 뇌속에는 신경세포 (neuron) 이 있는데 data를 수집해서 다음 neuron에게 전파해서 사고를 한다 → 신경세포 : 자극이 들어와서 전달 한다음 결정하고 다음 neuron에게 전달 위 사진은 neuron 사진과 비교하면서 보면 logistic 과비슷하다는걸 알수 있다 여러 X는 자극 자극에 가중치는 W 모든 자극을 곱하고 부가적인 정보 +b 를 더한다 이렇게 나온 값을 일정..
2021.09.15