특성 선택3 [scikit-learn] SelectKBest scoring 함수, f_regression vs mutual_info_regression 목차1. 서론2. 주요 scoring 함수 소개2-1. f_regression2-2. mutual_info_regression3. 실전 예제 비교4. 결론1. 서론특성 선택(Feature Selection)은 머신러닝 성능을 높이는 핵심 과정 중 하나입니다. 특히 SelectKBest는 특정 기준에 따라 가장 중요한 피처를 골라주는 유용한 도구입니다. 하지만 어떤 scoring 함수를 사용하느냐에 따라 결과가 크게 달라질 수 있습니다.이번 글에서는 회귀(Regression) 문제를 중심으로, f_regression과 mutual_info_regression 두 가지 스코어링 함수를 비교하고 각각의 특징과 활용 방법을 정리해보겠습니다.2. 주요 scoring 함수 소개2-1. f_regressionf_re.. 2025. 4. 28. [scikit-learn] 특성 선택 기법 비교: VarianceThreshold, SelectKBest, RFE, SelectFromModel 목차1. 서론2. 주요 기법 소개2-1. VarianceThreshold2-2. SelectKBest2-3. RFE (Recursive Feature Elimination)2-4. SelectFromModel3. 결론1. 서론머신러닝 모델의 성능을 높이고, 해석 가능성을 높이며, 과적합을 방지하기 위해 꼭 필요한 과정이 바로 특성 선택(Feature Selection)입니다. 특성 선택은 모델에 불필요한 피처를 제거함으로써 학습 속도를 높이고, 모델을 단순화하며 예측 성능 향상에도 기여할 수 있습니다.이번 글에서는 scikit-learn에서 제공하는 대표적인 특성 선택 기법 4가지를 비교합니다. VarianceThreshold, SelectKBest, RFE, SelectFromModel 각각의 동작 원.. 2025. 4. 24. [scikit-learn] 모델 성능을 높이는 전처리 핵심 - 특성 선택(Feature Selection) 목차1. 서론2. 주요 함수 소개2-1. VarianceThreshold2-2. SelectKBest2-3. mutual_info_classif2-4. RFE (Recursive Feature Elimination)2-5. SelectFromModel3. 결론1. 서론머신러닝 모델의 성능은 좋은 알고리즘뿐 아니라, 올바른 입력 특성(feature)을 선택하는 데 달려 있습니다. 너무 많은 피처는 과적합을 유발하고, 불필요한 피처는 노이즈로 작용하여 성능을 저하시킵니다. 이번 글에서는 scikit-learn에서 제공하는 특성 선택(Feature Selection) 도구들을 정리하고, 실전 예제와 함께 사용하는 법을 소개합니다.특성 선택은 모델 학습 전에 사전 처리로 수행하거나, 모델 기반 방식으로 학습 결.. 2025. 4. 18. 이전 1 다음