ai(42)
-
Deep Learning 역사
perceptron을 다중 Layer (MultiLayer)로 사용하면 학습이 가능 (xor예제) → 가장 큰 문제는 "시간이 오래걸린다" → 결국 machine learning 1차 침체기 → 1974년에 (폴 웨어보소) 가 "획기적인 논문을 발표" 하지만 "외면" (아무도 안하고 있어욬) → 1982년에 다시 논문 발표 (아무리 생각해도 자기가 맞다고 생각) → 반응 x → 1986년에 (제프리 힐튼교수) "이 논문에 대한 재조명" → 정말 되네요 ! 너무 좋아요 ! (machine Learning의전성기) 그래서 86년 이후 편미분이 아닌 이 개념을 사용한다. 이 개념이 "오차역전파 (Backpropagation)" : 뒤쪽layer에서 앞쪽layer로 w와 b를 편미분이 아닌 Matrix(행렬곱)..
2021.09.16 -
MNIST Multi layer ver 코드
# 기존의 MNIST 예제를 multi layer 형태의 neural network을 이용해서 # 구현해 보아요! # 두가지로 해 볼꺼예요! # 첫번째는 MNIST 예제를 hidden layer없이 input layer와 output layer만 이용해서 구현 # => 기존의 multinomial classification # 두번째는 MNIST 예제를 hidden layer를 사용해 구현 # => multilayer를 이용한 nueral network 형태의 multinomial classification # 기본적으로 sklearn으로 MNIST를 구현합니다. # 그리고 각각의 case에 대해서 tensorflow 1.15버전과 tensorflow 2.x버전으로 구현합니다. # 처리된 결과를 비교해 ..
2021.09.16 -
Multi layer (NN기초) 코드
# tensorflow 1.15버전 # # tensorflow 1.15버전을 이용해 AND, OR, XOR Gate에 대한 진리표를 학습시켜보아요! import numpy as np import tensorflow as tf from sklearn.metrics import classification_report # Training Data Set x_data = np.array([[0,0], [0,1], [1,0], [1,1]], dtype=np.float64) # AND Gate # t_data = np.array([[0], [0], [0], [1]], dtype=np.float64) # OR Gate # t_data = np.array([[0], [1], [1], [1]], dtype=np.floa..
2021.09.15 -
MLP [ Multi layer perceptron (NN기초) ]
AI를 구현하기 위한 machine Learning - Regression - SUM - Decision Tree - KNN - Neural Network [ NN이 초창기 나머지 위 알고리즘들은 나중에 나왔다 ] 어떻게 생각하는지 모르지만 사람의 뇌의 비슷한 형태로 컴퓨터를 modeling하자는 단순한 생각에서 시작 → 사람 뇌속에는 신경세포 (neuron) 이 있는데 data를 수집해서 다음 neuron에게 전파해서 사고를 한다 → 신경세포 : 자극이 들어와서 전달 한다음 결정하고 다음 neuron에게 전달 위 사진은 neuron 사진과 비교하면서 보면 logistic 과비슷하다는걸 알수 있다 여러 X는 자극 자극에 가중치는 W 모든 자극을 곱하고 부가적인 정보 +b 를 더한다 이렇게 나온 값을 일정..
2021.09.15 -
ai 단어
colab - 런타임 - 런타임유형 : gpu 개인pc : (1) nvdia(gforce)인지확인 [gpu활용 library가있다] (2) 쿠다? 치유엔엠? 같은 library로 jupyter notebook으로 편하게 setting [ 어려움 ] (3) 그래픽카드가 좋으면 colab보다 좋음 (data가 많아야 차이 느낌) / colab은 일반12시간, 유료 24시간만 session유지 separation : 분리 depth : 깊이 raw : 날것의, 익히지 않은, 원자재의, 가공되지 않은 inplace : 제자리에(있는).. , (가동) 준비가 된, 가동중인 Supervised : 관리자 / 지도학습 (Supervised Learngin) continuous : 연속적인 discrete : 별개의 ..
2021.09.13 -
KNN ( K - Nearest Neighbor )
# Keras에 대한 기본적인 설명을 했으니 # Ozone량 예측에 대한 linear regression을 TF 2.0으로 구현해 보아요! # 우리가 사용하는 데이터에 결측치가 존재했어요! # 초기에는 결측치를 모두 삭제해서 머신러닝을 진행했어요! # 결측치를 삭제하는 대신 보간(Imputation)할꺼예요! # 데이터량이 아주 많고 상대적으로 결측치가 적으면 삭제가 가장 좋아요! # 우리예제는 데이터량이 적기때문에 삭제하면 곤란해요! # Imputation(결측치 보간)을 진행할때는 2가지 정도의 방법이 존재 # 대체값으로 평균화 기법을 이용해서 평균, 중앙값, 최빈값등을 이용 # 머신러닝기법을 이용(예측기법)해서 데이터를 보간시킬 수 있어요! # 일반적으로 독립변수에 NaN(결치값)이 있을경우 => ..
2021.09.11