ai/Machine Learning(26)
-
ai 단어
colab - 런타임 - 런타임유형 : gpu 개인pc : (1) nvdia(gforce)인지확인 [gpu활용 library가있다] (2) 쿠다? 치유엔엠? 같은 library로 jupyter notebook으로 편하게 setting [ 어려움 ] (3) 그래픽카드가 좋으면 colab보다 좋음 (data가 많아야 차이 느낌) / colab은 일반12시간, 유료 24시간만 session유지 separation : 분리 depth : 깊이 raw : 날것의, 익히지 않은, 원자재의, 가공되지 않은 inplace : 제자리에(있는).. , (가동) 준비가 된, 가동중인 Supervised : 관리자 / 지도학습 (Supervised Learngin) continuous : 연속적인 discrete : 별개의 ..
2021.09.13 -
KNN ( K - Nearest Neighbor )
# Keras에 대한 기본적인 설명을 했으니 # Ozone량 예측에 대한 linear regression을 TF 2.0으로 구현해 보아요! # 우리가 사용하는 데이터에 결측치가 존재했어요! # 초기에는 결측치를 모두 삭제해서 머신러닝을 진행했어요! # 결측치를 삭제하는 대신 보간(Imputation)할꺼예요! # 데이터량이 아주 많고 상대적으로 결측치가 적으면 삭제가 가장 좋아요! # 우리예제는 데이터량이 적기때문에 삭제하면 곤란해요! # Imputation(결측치 보간)을 진행할때는 2가지 정도의 방법이 존재 # 대체값으로 평균화 기법을 이용해서 평균, 중앙값, 최빈값등을 이용 # 머신러닝기법을 이용(예측기법)해서 데이터를 보간시킬 수 있어요! # 일반적으로 독립변수에 NaN(결치값)이 있을경우 => ..
2021.09.11 -
tensor flow 2.0 ver
from tensorflow.keras.models import Sequential model = Sequential() # 큰 box를 만들 수 있어요! # Sequential() : 순차적인이라는 뜻을 가지며 data가 순차적으로 # model을 생성한 후 그 다음에 할일은 # layer를 추가하는 거예요 # model.add() # layer를 추가할 수 있어요! # 설정을 잡아야 해요! # model.compile() # Optimizer(SGD, Adam, etc..) # loss 설정 , metrics # 학습을진행 # model.fit() # 평가진행 # model.evaluate() # 예측작업진행 # model.predict() # 모델을 저장 # model.save() Goole Ten..
2021.09.10 -
MNIST(Multinomial classification)/model평가
Multinomial classification(다중분류) → "MNIST" → Machine Learning 계의 Hello world 2차원 pixel안에 값이 있으면 1 없으면 0 해서 사람들의 숫자글씨체를 표현 높은 수일수록 더 어두움 vision : 사진 동영상같이 보이는거 class : label의 갯수, 종류 왜 만들었을까 ? 손 편지 쓰던 시절 미국에서 사람들이 우편번호 분리하기 힘들어 MNIST를 만들어 machine learning으로 학습해서 쉽게하기 위해 - mnist는 2차원 + 사람수 = 3차원 / 인데 ravel()로 mnist를1차원으로 변경 - class 가 10개이므로 binary classfication도 10개있어야 한다 == multinomial classficati..
2021.09.10 -
Multinomial classification(다중분류)
Multinomial classification(다중분류) : logistic이 여러개 모여 다중분류 독립변수 1개 → 2차원상에 점이 찍히고 linear regresiion이 직선으로 나온다 독립변수 여러개 →독립변수에 갯수에 따라 hyperplane(초평면)이 변하는데 차원이 올라갈수록 선 면 공간이 생긴다 (위 사진 참고) hyperplane(초평면) : 2진분류에서 어느쪽에 있니의 기준선 위 식은 각각을 구하는 linear regression이다 이를 아래쪽식과 같이 풀어서 사용할수 있다 linear legression모델이 학습이 끝나서 prediction한다 가정해보자 → Cross Entropy를 각각 계산하면 A일 확률0.7123 /B일 확률 0.8585 /C일 확률 0.2347로 나온다 ..
2021.09.09 -
Regulerization(규제)
https://sungin.tistory.com/142?category=1044420 SGDClassifier, StandardScaler 에서 이어지는 내용 정규화(Standardization)까지 적용해서 model이 많이 향상 되었어요 !! 추가적으로 어떤 작업이 더 정확도를 올릴까요 ?? 과적합 → 과대적합(overfitting) - trainning data에 너무 잘 맞춰저 validation에서는 평가를 잘못함 - trainning data(99%), validation data(80%)는 과대적합 = 대부분의 case → 과소적합(underfitting) - data가 적거나 학습이 덜되어 문제가 발생 하지만 굉장히 드문 경우 - trainning data, validation data 둘..
2021.09.08