[Information Theory] Relation of Likelihood Estimation and SoftMAX and CorssEntropy
in Math / DeepLearning on Tech, Math
https://hyunw.kim/blog/2017/10/26/Cross_Entropy.html 본 내용은 위 사이트에 친절하게 나와있으니 크로스엔트로피 개념이 기억나지 않는다면 방문하자
in Math / DeepLearning on Tech, Math
https://hyunw.kim/blog/2017/10/26/Cross_Entropy.html 본 내용은 위 사이트에 친절하게 나와있으니 크로스엔트로피 개념이 기억나지 않는다면 방문하자
in DeepLearning on Tech, Machinelearning
in DeepLearning on Tech, Machinelearning
Randomforest는 ensemble(양상블) machine learning 모델이다. 여러개의 decision tree를 형성하고 새로운 데이터 포인트를 각 트리에 동시에 통과 시키며 각 트리가 분류한 결과에서 민주적이게도? 투표를 실시하여 가장 많이 득표한 결과가 최종 분류결과로 결정된다. 랜덤포레스트가 생성한 일부 트리는 과적합 될 수 있지만 많은 수의 트리를 생성함으로써 과적합이 예측하는데 있어 큰 영향을 미치지 못하도록 예방한다- 큰 수의 법칙?
in DeepLearning on Tech, Machinelearning
이번글은 https://nurilee.com/2020/04/03/lightgbm-definition-parameter-tuning/위 블로그에서 그대로 배워서 정리한것에 불과하다.
in DeepLearning on Tech, Tensorflow
in DeepLearning on Tech
Normalization이란?
머신러닝 또는 딥러닝에서 정규화의 목표는 값 범위의 차이를 왜곡시키지 않고 데이터 세트를 공통 스케일로 변경하는 것이다. 데이터처리에 있어 각 특성의 스케일을 조정한다는 의미로, feature scaling 이라고도 불린다. 이러한 과정을 통해 모델의 훈련을 더욱 효과적으로 할 수 있게 만들어 준다.
in DeepLearning on Tech, Tensorflow
in DeepLearning on Tech
in DeepLearning on Tech
in DeepLearning on Tech
in DeepLearning on Tech
in DeepLearning on Tech
in DeepLearning on Tech
in DeepLearning on Tech