↓폴밍끼 유튜브 채널 자세히보기

AI/Machine Learning 6

mAP를 알아보자(간단 명료 설명)

Precision-Recall curve는 가로축이 Recall 세로축이 Precision일 때 Precision과 Recall의 값을 그린 그래프이다. Precision과 Recall이 평가 시 하나만 존재하는데 여러 개로 Precision-Recall curve를 그릴 수 있는 이유는 각 confidence score 별 Precision과 Recall를 계산한 것이기 때문이다. 보통 confidence score의 threshold를 0.5로 해서 그 이상이면 True(1), 이하면 False(0)로 분류하고 Precision과 Recall을 계산한다. 이 때 threshold를 0~1까지로 변화를 주면 0과 1로 분류되는 개수가 달라지게 된다. 따라서 threshold가 0~1로 변화할 때 모든 ..

AI/Machine Learning 2023.09.14

F1 score가 산술평균이 아닌 조화평균을 사용하는 이유

데이터 불균형이 심한 경우 Accuray를 평가지표로 삼지 않는다 Accuracy = (TP+TN) / (TP+FP+FN+TN) 객체인식 데이터의 경우 데이터 불균형이 심한 편이다 Precision, Recall(Sensitivity), F1 score의 대안이 있다. Precision = TP/(TP+FP) Recall(Sensitivity) = TP/(TP+FN) F1 score = 2(Precision×Recall)/(Precision+Recall) Precision과 Recall(Sensitivity)은 (항상 그런 것은 아니지만) trade-off 관계가 있기 때문에 F1 score를 사용한다 F1 score를 계산 시 Precision과 Recall(Sensitivity)의 산술평균이 아닌 조..

AI/Machine Learning 2023.09.14

[펌] [이석중의 알기쉬운 인공지능] 과적합(overfitting) 해결 방법: regularization

http://www.ytimes.co.kr/news/articleView.html?idxno=3288 [이석중의 알기쉬운 인공지능] 과적합(overfitting) 해결 방법: regularization - YTIMES청년신문 머신 러닝을 통해 학습 데이터 뿐 만 아니라 한번도 보지 못한 새로운 데이터나 테스트 데이터까지 척척 잘 인식할 수 있는 모델을 개발하고 싶어하지만, 과적합(overfitting) 문제로 인해 그러지 www.ytimes.co.kr

AI/Machine Learning 2021.10.22

light gbm, xgboost 예제 코드 및 하이퍼파라미터 튜닝

http://machinelearningkorea.com/2019/05/18/lightgbm%EC%9D%84-%EC%9D%B4%EC%9A%A9%ED%95%9C-%ED%9A%8C%EA%B7%80%EC%98%88%EC%B8%A1-%ED%8C%8C%EC%9D%B4%EC%8D%AC-%EC%B9%98%ED%8A%B8%EC%BD%94%EB%93%9C/ lightGBM을 이용한 회귀예측 파이썬 치트코드 – Go Lab machinelearningkorea.com https://nurilee.com/2020/04/03/lightgbm-definition-parameter-tuning/ LightGBM 이란? 그리고 Parameter 튜닝하기 LightGBM에 관한 좋은 medium 포스트가 있어서 한글로 번역한 내용을..

AI/Machine Learning 2021.09.17

[펌] 파이썬 데이터 스케일링(정규화, 표준화) 관련 조언, 방법

https://m.blog.naver.com/PostView.naver?isHttpsRedirect=true&blogId=wideeyed&logNo=221614354947 [Numpy] MinMaxScaler(0~1 스케일링) MinMaxScaler에 대해서 알아보겠습니다. 각 Feature마다 값의 범위가 다릅니다. 예를들어 물품 구매 수... blog.naver.com https://junklee.tistory.com/18 데이터 스케일링(Data Scaling) 코드 머신러닝을 위한 데이터셋을 정제할 때, 특성별로 데이터의 스케일이 다르다면 어떤 일이 벌어질까요. 예를 들어, X1 특성은 0부터 1사이의 소수값을 갖는다 비해, X2 특성은 1000000부터 1000000 junklee.tistory..

AI/Machine Learning 2021.07.21

파라미터와 하이퍼 파라미터의 공통점과 차이점

공통점 둘 다 머신러닝 모형의 특징을 나타내는 요소 차이점 파라미터 (parameter) - 데이터에 기반한 값으로 머신러닝 모형의 특징을 나타냄 - 파라미터는 새로운 데이터를 예측 또는 분류하는 데 영향을 미침 ex) 정규분포의 파라미터는 평균과 분산 (평균과 분산이 얼마냐에 따라 정규 분포의 형태가 달라짐) 하이퍼 파라미터 (hyper parameter) 주어진 데이터로부터 구하는 것이 아닌 외부 사용자가 직접 입력해야 하는 값 ex) k-평균 알고리즘의 모형 생성 시 k값 데이터로부터 최적의 파라미터를 구하고 적절한 하이퍼 파라미터 튜닝을 통해 모형 성능을 높일 수 있다. 참고 : (선형대수와 통계학으로 배우는) 머신러닝 with 파이썬 :최적화 개념부터 텐서플로를 활용한 딥러닝까지 _ 장철원 지음

AI/Machine Learning 2021.06.21