Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- logistic regressionlogistic
- metacode metacodem
- lest square method
- map
- 메타코드M
- 메타코드
- F1 Score
- 재현도
- 우도확률
- variacne
- 로지스틱 회귀
- cross entropy loss
- l2 loss
- logit
- metacode
- lasso regression
- 머신러닝
- hyperplane
- 사후확률
- AdaGrad
- colab
- MLE
- Multiclass
- k-Fold
- loss function
- Learning Rate
- metacodem
- l1 loss
- Ridge regression
- regularization
Archives
- Today
- Total
목록l1 loss (1)
go hard to Hardware
[머신러닝 입문] 메타코드 강의 후기_머신러닝 입문 올인원_1강 회귀(6)
http://mcode.co.kr/video/list2?viewMode=view&idx=21 메타코드M빅데이터 , AI 강의 플랫폼 & IT 현직자 모임 플랫폼ㅣ메타코드 커뮤니티 일원이 되시기 바랍니다.mcode.co.krRidge Regression- 머신러닝 모델의 MSE 오차와 Ridge 를 합함- β_1, ..., β_n 중 β_2가 MSE를 이용해서 오차가 잘 안 구해지는 상황일 때- β_2를 특정 값으로 만들어서 loss 값을 올릴 바에, 0으로 만들어서 Loss를 줄이고자 함- 그래서 파라미터의 크기를 식 뒤에 붙여줌- L2 : norm의 제곱값을 사용한다는 의미Lasso Regression- 머신러닝에서 L1 정규화 손실함수는, β에 절대값의 합을 넣어 준다.- 0에서의 오차값의 차이를 ..
ML,DL/ML 입문
2024. 4. 28. 16:19