中文亚洲精品无码_熟女乱子伦免费_人人超碰人人爱国产_亚洲熟妇女综合网

當前位置: 首頁 > news >正文

公司門戶網(wǎng)站該怎么做seo建站營銷

公司門戶網(wǎng)站該怎么做,seo建站營銷,WordPress中的傳媒主題,寧波seo快速優(yōu)化怎么做SCI一區(qū) | Matlab實現(xiàn)NGO-TCN-BiGRU-Attention北方蒼鷹算法優(yōu)化時間卷積雙向門控循環(huán)單元融合注意力機制多變量時間序列預測 目錄 SCI一區(qū) | Matlab實現(xiàn)NGO-TCN-BiGRU-Attention北方蒼鷹算法優(yōu)化時間卷積雙向門控循環(huán)單元融合注意力機制多變量時間序列預測預測效果基本介紹模型…

SCI一區(qū) | Matlab實現(xiàn)NGO-TCN-BiGRU-Attention北方蒼鷹算法優(yōu)化時間卷積雙向門控循環(huán)單元融合注意力機制多變量時間序列預測

目錄

    • SCI一區(qū) | Matlab實現(xiàn)NGO-TCN-BiGRU-Attention北方蒼鷹算法優(yōu)化時間卷積雙向門控循環(huán)單元融合注意力機制多變量時間序列預測
      • 預測效果
      • 基本介紹
      • 模型描述
      • 程序設計
      • 參考資料

預測效果

在這里插入圖片描述
在這里插入圖片描述
在這里插入圖片描述
在這里插入圖片描述
在這里插入圖片描述
在這里插入圖片描述

在這里插入圖片描述

基本介紹

1.Matlab實現(xiàn)NGO-TCN-BiGRU-Attention北方蒼鷹算法優(yōu)化時間卷積雙向門控循環(huán)單元融合注意力機制多變量時間序列預測,要求Matlab2023版以上,自注意力機制,一鍵單頭注意力機制替換成多頭注意力機制;
2.輸入多個特征,輸出單個變量,考慮歷史特征的影響,多變量時間序列預測;
3.data為數(shù)據(jù)集,main.m為主程序,運行即可,所有文件放在一個文件夾;
4.命令窗口輸出R2、MSE、MAE、MAPE和RMSE多指標評價;
5.優(yōu)化學習率,神經(jīng)元個數(shù),注意力機制的鍵值, 正則化參數(shù)。

模型描述

多變量時間序列預測是一項重要的任務,它涉及對具有多個變量的時間序列數(shù)據(jù)進行預測。為了改進這一任務的預測性能,研究者們提出了許多不同的模型和算法。其中一種結合了時間卷積網(wǎng)絡(Temporal Convolutional Network,TCN)、雙向門控循環(huán)單元(Bidirectional Gated Recurrent Unit,BiGRU)和注意力機制(Attention)的模型。

該算法的核心思想是利用時間卷積網(wǎng)絡來捕捉時間序列數(shù)據(jù)中的長期依賴關系,通過雙向門控循環(huán)單元來建模序列數(shù)據(jù)的上下文信息,并通過注意力機制來自適應地加權不同變量的重要性。

步驟如下:

時間卷積網(wǎng)絡(TCN):使用一維卷積層來提取時間序列數(shù)據(jù)中的局部和全局特征。時間卷積能夠通過不同大小的卷積核捕捉不同長度的時間依賴關系,從而更好地建模序列中的長期依賴。

雙向門控循環(huán)單元(BiGRU):將TCN的輸出作為輸入,使用雙向門控循環(huán)單元來編碼序列數(shù)據(jù)的上下文信息。雙向GRU能夠同時考慮序列數(shù)據(jù)的過去和未來信息,提高了對序列中重要特征的捕捉能力。

注意力機制(Attention):通過引入注意力機制,模型可以自適應地關注輸入序列中不同變量的重要性。注意力機制可以根據(jù)序列數(shù)據(jù)的不同特征,動態(tài)地調(diào)整它們在預測任務中的權重,從而提高模型的表達能力和預測準確性。

輸出層:最后,根據(jù)模型的具體任務需求,可以使用不同的輸出層結構,如全連接層來進行最終的預測。

通過將時間卷積網(wǎng)絡、雙向門控循環(huán)單元和注意力機制相結合,NGO-TCN-BiGRU-Attention鯨魚算法能夠更好地建模多變量時間序列數(shù)據(jù)的復雜關系,并提高預測性能。然而,需要注意的是,該算法的具體實現(xiàn)可能會根據(jù)具體問題和數(shù)據(jù)集的特點進行適當?shù)恼{(diào)整和優(yōu)化。

程序設計

  • 完整源碼和數(shù)據(jù)獲取方式私信博主回復Matlab實現(xiàn)NGO-TCN-BiGRU-Attention北方蒼鷹算法優(yōu)化時間卷積雙向門控循環(huán)單元融合注意力機制多變量時間序列預測。

%% %% 算法優(yōu)化TCN-BiGRU-Attention,實現(xiàn)多變量輸入單步預測
clc;
clear 
close allX = xlsread('data.xlsx');
num_samples = length(X);                            % 樣本個數(shù) 
kim = 6;                      % 延時步長(kim個歷史數(shù)據(jù)作為自變量)
zim =  1;                      % 跨zim個時間點進行預測
or_dim = size(X,2);%  重構數(shù)據(jù)集
for i = 1: num_samples - kim - zim + 1res(i, :) = [reshape(X(i: i + kim - 1,:), 1, kim*or_dim), X(i + kim + zim - 1,:)];
end% 訓練集和測試集劃分
outdim = 1;                                  % 最后一列為輸出
num_size = 0.9;                              % 訓練集占數(shù)據(jù)集比例
num_train_s = round(num_size * num_samples); % 訓練集樣本個數(shù)
f_ = size(res, 2) - outdim;                  % 輸入特征維度P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);%  數(shù)據(jù)歸一化
[p_train, ps_input] = mapminmax(P_train, 0, 1);
p_test = mapminmax('apply', P_test, ps_input);[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);%  格式轉換
for i = 1 : M vp_train{i, 1} = p_train(:, i);vt_train{i, 1} = t_train(:, i);
endfor i = 1 : N vp_test{i, 1} = p_test(:, i);vt_test{i, 1} = t_test(:, i);
end%% 優(yōu)化算法優(yōu)化前,構建優(yōu)化前的TCN_BiGRU_Attention模型outputSize = 1;  %數(shù)據(jù)輸出y的維度  
numFilters = 64;
filterSize = 5;
dropoutFactor = 0.1;
numBlocks = 2;layer = sequenceInputLayer(f_,Normalization="rescale-symmetric",Name="input");
lgraph = layerGraph(layer);     convolution1dLayer(filterSize,numFilters,DilationFactor=dilationFactor,Padding="causal")layerNormalizationLayerreluLayerdropoutLayer(dropoutFactor) additionLayer(2,Name="add_"+i)];% Add and connect layers.lgraph = addLayers(lgraph,layers);lgraph = connectLayers(lgraph,outputName,"conv1_"+i);% Skip connection.if i == 1% Include convolution in first skip connection.layer = convolution1dLayer(1,numFilters,Name="convSkip");lgraph = addLayers(lgraph,layer);lgraph = connectLayers(lgraph,outputName,"convSkip");lgraph = connectLayers(lgraph,"convSkip","add_" + i + "/in2");elselgraph = connectLayers(lgraph,outputName,"add_" + i + "/in2");end% Update layer output name.outputName = "add_" + i;
endtempLayers = flattenLayer("Name","flatten");
lgraph = addLayers(lgraph,tempLayers);tempLayers = gruLayer(NumNeurons,"Name","gru1");
lgraph = addLayers(lgraph,tempLayers);tempLayers = [FlipLayer("flip3")gruLayer(NumNeurons,"Name","gru2")];
lgraph = addLayers(lgraph,tempLayers);tempLayers = [concatenationLayer(1,2,"Name","concat")

參考資料

[1] https://blog.csdn.net/kjm13182345320/article/details/128577926?spm=1001.2014.3001.5501
[2] https://blog.csdn.net/kjm13182345320/article/details/128573597?spm=1001.2014.3001.5501

http://www.risenshineclean.com/news/21764.html

相關文章:

  • 企業(yè)網(wǎng)站功能模塊長春做網(wǎng)站推廣的公司
  • 營銷型網(wǎng)站建設教學淘寶優(yōu)秀軟文范例100字
  • 億瑪酷網(wǎng)站建設域名注冊新網(wǎng)
  • 網(wǎng)絡營銷中自建網(wǎng)站平臺推廣方式
  • 鞍山建設局的網(wǎng)站seo快速排名系統(tǒng)
  • 專門做微信推送的網(wǎng)站廣東疫情動態(tài)人民日報
  • wordpress 多語言切換東莞seo排名外包
  • 做鉆石的網(wǎng)站如何推廣我的網(wǎng)站
  • quercus wordpress長沙網(wǎng)站優(yōu)化價格
  • 網(wǎng)站的做公司鄭州seo建站
  • 怎么讓百度搜索靠前北京seo工程師
  • .net網(wǎng)站設計seo技術優(yōu)化
  • 壽光網(wǎng)站建設湖南有實力seo優(yōu)化哪家好
  • 石家莊網(wǎng)站制作費用搜索大全引擎入口
  • 東城建站推廣競價排名的弊端
  • 北京網(wǎng)站開發(fā)網(wǎng)站建設seo引擎搜索
  • 網(wǎng)絡管理系統(tǒng)設備seo優(yōu)化公司信
  • 廣州市品牌網(wǎng)站建設公司蘇州網(wǎng)絡推廣seo服務
  • WordPress錯誤返回寧波谷歌seo推廣
  • 企業(yè)的建站方式競價排名是什么意思
  • 張家港網(wǎng)站制作公司優(yōu)化大師電視版
  • 網(wǎng)頁模板網(wǎng)站生成免費建站的網(wǎng)站有哪些
  • 網(wǎng)站開發(fā)非常之旅開發(fā)網(wǎng)站用什么軟件
  • 河南錦路路橋建設有限公司網(wǎng)站高端網(wǎng)站建設定制
  • 做漫畫網(wǎng)站空間多大文案短句干凈治愈
  • 我國市級政府網(wǎng)站建設分析平面設計
  • 網(wǎng)站建設企業(yè)蛋糕怎么做公司網(wǎng)頁
  • 黃金做空網(wǎng)站長沙本地推廣聯(lián)系電話
  • 裝飾工程施工工藝流程口碑優(yōu)化
  • wordpress banseo前景