2021. 8. 30. 21:32ㆍai/Machine Learning
Machine Learning 학습방법
-supervisde Learning(지도학습)
-unsupervisde Learning (비지도학습)
-semisupervisde Learning (준지도학습)
-inforcementLearning(강화학습)
supervisde Learning(지도학습) → Regression(회기) → classical Linear Regression (회기중 가장 기본적인 회기기법)
1. Training Data Set [입력값(x), Lable(t)]
2. y = Wx +b 의 loss function을 구하기 위해 w 와 b를 랜덤으로 잡는다
3. loss값이 최적(0)인가요 ? yes면 model 완성 / no라면 w와 b를 갱신해서 다시 반복
learning rate(a) 와 w, b 는 customizing
Loss function의 최소값을 구하기위해 "Gradient Descent algorithm"
조건 - loss function의 모양이 conuex function(볼록함수)의 형태가 되야해요
볼록함수가 두개일때 - local minima (지역 최솟값) 이라면 오류
블록함수가 최적일때 - global minima
그러나 보통의 lossfunction은 거의 대부분 conuex function을 사용
Simple Linear Regression(독립변수 1개일떄)
'ai > Machine Learning' 카테고리의 다른 글
Sklearn(사이키런), 이상치처리 (0) | 2021.08.31 |
---|---|
ozone.csv를 python,sklearn으로 LinearRegression 처리 (0) | 2021.08.30 |
loss function(손실함수), Gradient Desert Algorithm(경사하강법) (0) | 2021.08.30 |
편미분, Regression(회기) (0) | 2021.08.28 |
미분 (0) | 2021.08.27 |