第一名 林佳穎
- svm:0.98130
- GaussianNB:0.55580
- Random Forest:0.96960
- XGBoost:0.98130
- LightGBM:0.80560
- KNN:0.97050
- DecisionTree:0.75680
- Catboost:0.85170
- 最佳方法:Svm與XGBoost,其訓練準確率均為0.98130
- 最差方法:GaussianNB,其訓練準確率為0.55580
|
第二名 唐宜暄
- svm:準確度97.92%,試過增加gamma但準確度皆下降
- GaussianNB:model單純貝氏:準確度55.58%,沒有找到可調整的參數
- Random Forest:準確度97.14%,是將n_estimators由200調整至180獲得的最高數據,再往下或往上調則數據下降
- XGBoost:準確度97.29%,是將n_estimators調至125、learning_rate調至0.6獲得的最高數據
- lightGBM:準確度97.92%,是將n_estimators調至200、learning_rate調至0.1獲得的最高數據
- CatBoost:準確度97.27%
- KNN近鄰演算法:準確度96.91%,是將n_estimators調1獲得的最高數據
- 聚類分析K-Means:準確度9.8%,原本沒有參數試試0.049,增加參數後0.098已是最高數據
- 決策樹:準確度88.64%,是將max_depth調至22獲得的最高數據,在往上或往下調都會使數據下降
測試結果聚類分析K-Means方法最差
|
第三名 張鳳詩
SVM的測試結果最佳,其測試出的準確率為0.97920,不過加上訓練時間來看的話,以準確率為0.97270的lightGBM更佳。
DecisionTree的測試結果最差,其測試出的準確率只有0.49180,加上訓練時間,比同樣準確率低的GaussianNB(準確率:0.55580)還差。
|