尋找網(wǎng)站優(yōu)化公司seo網(wǎng)絡推廣招聘
時序預測 | MATLAB實現(xiàn)基于SVM-Adaboost支持向量機結合AdaBoost時間序列預測
目錄
- 時序預測 | MATLAB實現(xiàn)基于SVM-Adaboost支持向量機結合AdaBoost時間序列預測
- 預測效果
- 基本介紹
- 模型描述
- 程序設計
- 參考資料
預測效果
基本介紹
1.Matlab實現(xiàn)SVM-Adaboost時間序列預測(風電功率預測);
2.運行環(huán)境為Matlab2020b;
3.data為數(shù)據(jù)集,excel數(shù)據(jù),單變量時間序列數(shù)據(jù),SVM_AdaboostTS.m為主程序,運行即可,所有文件放在一個文件夾;
4.命令窗口輸出R2、MAE、MAPE、RMSE多指標評價。
模型描述
SVM-AdaBoost是一種將SVM和AdaBoost兩種機器學習技術結合起來使用的方法,旨在提高模型的性能和魯棒性。具體而言,AdaBoost則是一種集成學習方法,它將多個弱學習器組合起來形成一個強學習器,其中每個學習器都是針對不同數(shù)據(jù)集和特征表示訓練的。SVM-AdaBoost算法的基本思想是將SVM作為基模型,利用AdaBoost算法對其進行增強。具體而言,我們可以訓練多個SVM模型,每個模型使用不同的數(shù)據(jù)集和特征表示,然后將它們的預測結果組合起來,形成一個更準確和魯棒的模型。
程序設計
- 完整源碼和數(shù)據(jù)獲取方式:私信回復MATLAB實現(xiàn)基于SVM-Adaboost支持向量機結合AdaBoost時間序列預測。
%% 預測
t_sim1 = predict(net, p_train);
t_sim2 = predict(net, p_test ); %% 數(shù)據(jù)反歸一化
T_sim1 = mapminmax('reverse', t_sim1, ps_output);
T_sim2 = mapminmax('reverse', t_sim2, ps_output);%% 均方根誤差
error1 = sqrt(sum((T_sim1' - T_train).^2) ./ M);
error2 = sqrt(sum((T_sim2' - T_test ).^2) ./ N);%% 相關指標計算
% R2
R1 = 1 - norm(T_train - T_sim1')^2 / norm(T_train - mean(T_train))^2;
R2 = 1 - norm(T_test - T_sim2')^2 / norm(T_test - mean(T_test ))^2;disp(['訓練集數(shù)據(jù)的R2為:', num2str(R1)])
disp(['測試集數(shù)據(jù)的R2為:', num2str(R2)])% MAE
mae1 = sum(abs(T_sim1' - T_train)) ./ M ;
mae2 = sum(abs(T_sim2' - T_test )) ./ N ;disp(['訓練集數(shù)據(jù)的MAE為:', num2str(mae1)])
disp(['測試集數(shù)據(jù)的MAE為:', num2str(mae2)])%% 平均絕對百分比誤差MAPE
MAPE1 = mean(abs((T_train - T_sim1')./T_train));
MAPE2 = mean(abs((T_test - T_sim2')./T_test));disp(['訓練集數(shù)據(jù)的MAPE為:', num2str(MAPE1)])
disp(['測試集數(shù)據(jù)的MAPE為:', num2str(MAPE2)])% MBE
mbe1 = sum(abs(T_sim1' - T_train)) ./ M ;
mbe2 = sum(abs(T_sim1' - T_train)) ./ N ;disp(['訓練集數(shù)據(jù)的MBE為:', num2str(mbe1)])
disp(['測試集數(shù)據(jù)的MBE為:', num2str(mbe2)])%均方誤差 MSE
mse1 = sum((T_sim1' - T_train).^2)./M;
mse2 = sum((T_sim2' - T_test).^2)./N;disp(['訓練集數(shù)據(jù)的MSE為:', num2str(mse1)])
disp(['測試集數(shù)據(jù)的MSE為:', num2str(mse2)])
參考資料
[1] https://blog.csdn.net/kjm13182345320/article/details/128577926?spm=1001.2014.3001.5501
[2] https://blog.csdn.net/kjm13182345320/article/details/128573597?spm=1001.2014.3001.5501