111-1 大數據處理與分析競賽

  • 2023-02-24
  • 陳欣
找出最佳的機器學習訓練模型預測手寫數字
(keras.datasets-mnist)
第一名 林佳穎
  • svm0.98130
  • GaussianNB0.55580
  • Random Forest0.96960
  • XGBoost0.98130
  • LightGBM0.80560
  • KNN0.97050
  • DecisionTree0.75680
  • Catboost0.85170
- 最佳方法:SvmXGBoost,其訓練準確率均為0.98130
- 最差方法:GaussianNB,其訓練準確率為0.55580
第二名 唐宜暄
  • svm:準確度97.92%,試過增加gamma但準確度皆下降
  • GaussianNB:model單純貝氏:準確度55.58%,沒有找到可調整的參數
  • Random Forest:準確度97.14%,是將n_estimators200調整至180獲得的最高數據,再往下或往上調則數據下降
  • XGBoost:準確度97.29%,是將n_estimators調至125learning_rate調至0.6獲得的最高數據
  • lightGBM:準確度97.92%,是將n_estimators調至200learning_rate調至0.1獲得的最高數據
  • CatBoost:準確度97.27%
  • KNN近鄰演算法:準確度96.91%,是將n_estimators調1獲得的最高數據
  • 聚類分析K-Means:準確度9.8%,原本沒有參數試試0.049,增加參數後0.098已是最高數據
  • 決策樹:準確度88.64%,是將max_depth調至22獲得的最高數據,在往上或往下調都會使數據下降
  • 測試結果svmlightGBM方法最佳
測試結果聚類分析K-Means方法最差
第三名 張鳳詩
SVM的測試結果最佳,其測試出的準確率為0.97920,不過加上訓練時間來看的話,以準確率為0.97270lightGBM更佳。
DecisionTree的測試結果最差,其測試出的準確率只有0.49180,加上訓練時間,比同樣準確率低的GaussianNB(準確率:0.55580)還差。