導航:首頁 > 營銷推廣 > matlab神經網路培訓班

matlab神經網路培訓班

發布時間:2021-05-03 11:54:19

A. 如何用matlab訓練神經網路

MATLAB2016之後的版本都帶著機器學習的開發包,你可以直接調用,只需要設置參數就ok,做一些前期的數據處理就ok了

B. matlab 神經網路一直訓練不好。

歸一化:使用Matlab自帶的mapminmax函數。

mapminmax按行逐行地對數據進行標准化處理,將每一行數據分別標准化到區間[ymin, ymax]內,其計算公式是:y = (ymax-ymin)*(x-xmin)/(xmax-xmin) + ymin。如果某行的數據全部相同,此時xmax=xmin,除數為0,則Matlab內部將此變換變為y = ymin。

(1) [Y,PS] = mapminmax(X,YMIN,YMAX)——將數據X歸一化到區間[YMIN,YMAX]內,YMIN和YMAX為調用mapminmax函數時設置的參數,如果不設置這兩個參數,這默認歸一化到區間[-1, 1]內。標准化處理後的數據為Y,PS為記錄標准化映射的結構體。
【例1】Matlab命令窗口輸入:X=12+8*randn(6,8); [Y,PS] = mapminmax(X,0,1),則將隨機數矩陣X按行逐行標准化到區間[0,1]內,並返回標准矩陣Y和結構體PS(至於它的作用,將在後面介紹到),它記錄了X的行數、X中各行的最大值與最小值等信息。這里:
PS =
name: 'mapminmax'
xrows: 6
xmax: [6x1 double]
xmin: [6x1 double]
xrange: [6x1 double]
yrows: 6
ymax: 1
ymin: 0
yrange: 1
no_change: 0
gain: [6x1 double]
xoffset: [6x1 double]

(2) [Y,PS] = mapminmax(X,FP) ——將YMIN和YMAX組成的結構體FP作為映射參數(FP.ymin和FP.ymax.)對進行標准化處理。
【例2】Matlab命令窗口輸入:XX=12+8*randn(6,8); FP.ymin=-2; FP.ymax=2; [YY,PSS] = mapminmax(XX,FP),則將隨機數矩陣X按行逐行標准化到區間[-2,2]內,並返回標准矩陣YY和結構體PSS。

(3) Y = mapminmax('apply',X,PS) ——根據已有給定的數據標准化處理映射PS,將給定的數據X標准化為Y。
【例3】在例1的基礎上,Matlab命令窗口輸入:XXX=23+11*randn(6,8); YYY= mapminmax('apply',XXX,PS),則根據例1的標准化映射,將XXX標准化(結果可能不全在先前設置的[YMIN,YMAX]內,這取決於XXX中數據相對於X中數據的最大值與最小值的比較情況)。注意:此時,XXX的行數必須與X的行數(PS中已記錄)相等,否則無法進行;列數可不等。

(4) X = mapminmax('reverse',Y,PS) ——根據已有給定的數據標准化處理映射PS,將給定的標准化數據Y反標准化。
【例4】在例1的基礎上,Matlab命令窗口輸入:YYYY=rand(6,8); XXXX = mapminmax('reverse', YYYY,PS),則根據例1的標准化映射,將YYYY反標准化。注意:此時,YYYY的行數必須與X的行數(PS中已記錄)相等,否則無法進行;列數可不等。

(5) dx_dy = mapminmax('dx_dy',X,Y,PS) ——根據給定的矩陣X、標准化矩陣Y及映射PS,獲取逆向導數(reverse derivative)。如果給定的X和Y是m行n列的矩陣,那麼其結果dx_dy是一個1×n結構體數組,其每個元素又是一個m×n的對角矩陣。這種用法不常用,這里不再舉例。

對於另一個問題:使用sim函數來得到輸出,一般來說會有誤差,不可能與預計輸出完全相等的。

C. 找高手教我matlab的神經網路訓練

% 運用比例共軛梯度動量演算法來訓練 BP網路
clear all;
pause(1);
P=[0.1452 0.1466 0.1314 0.2243 0.3523 0.4642 0.5015 0.6981 0.7821 0.8345 0.9649 1.156 0.2415 0.3027 0;
0.1217 0.1581 0.1408 0.2304 0.3143 0.4312 0.5819 0.7125 0.8065 0.8647 0.9726 1.132 0.2385 0.3125 0;
0.1525 0.1627 0.1507 0.2406 0.3502 0.4636 0.5051 0.7352 0.8459 0.8915 0.9654 1.156 0.2216 0.2701 1;
0.1016 0.1105 0.1234 0.1978 0.3021 0.4232 0.5819 0.6952 0.8015 0.8725 0.9825 1.095 0.2352 0.2506 0.5;
0.1115 0.1201 0.1312 0.2019 0.3532 0.4736 0.5029 0.7032 0.8189 0.8619 0.9365 1.125 0.2542 0.3125 0;
0.1335 0.1322 0.1534 0.2214 0.3623 0.4827 0.5198 0.7276 0.8359 0.8906 0.9592 1.143 0.2601 0.3198 0;
0.1368 0.1432 0. 0.2205 0.3823 0.4971 0.5136 0.7129 0.8263 0.8953 0.9891 1.137 0.2579 0.3099 0;
0.1342 0.1368 0.1602 0.2131 0.3726 0.4822 0.5101 0.7098 0.8127 0.8921 0.9995 1.126 0.2301 0.2867 0.5;
0.1113 0.1212 0.1305 0.1819 0.3952 0.4312 0.5886 0.6898 0.7999 0.8423 0.9721 1.095 0.2234 0.2799 1;
0.1005 0.1121 0.1207 0.1605 0.3556 0.4022 0.5553 0.6673 0.7798 0.8623 0.9521 1.087 0.2314 0.2977 0]';
T=[0.1217 0.1581 0.1408 0.2304 0.3143 0.4312 0.5819 0.7125 0.8265 0.8847 0.9826 1.132;
0.1525 0.1627 0.1507 0.2406 0.3502 0.4636 0.5051 0.7352 0.8459 0.8915 0.9464 1.156;
0.1016 0.1105 0.1234 0.1978 0.3021 0.4232 0.5819 0.6952 0.8015 0.8825 0.9825 1.102;
0.1115 0.1201 0.1312 0.2019 0.3532 0.4736 0.5029 0.7032 0.8189 0.8919 0.9965 1.125;
0.1335 0.1322 0.1534 0.2214 0.3623 0.4827 0.5198 0.7276 0.8359 0.8506 0.9892 1.123;
0.1368 0.1432 0. 0.2205 0.3823 0.4971 0.5136 0.7129 0.8263 0.8953 0.9691 1.117;
0.1342 0.1368 0.1602 0.2131 0.3726 0.4822 0.5101 0.7098 0.8127 0.8921 0.9995 1.126;
0.1113 0.1212 0.1305 0.1819 0.3952 0.4312 0.5886 0.6898 0.7999 0.8323 0.9721 1.156;
0.1005 0.1121 0.1207 0.1605 0.3556 0.4022 0.5553 0.6673 0.7798 0.8623 0.9521 1.156;
0.1123 0.1257 0.1343 0.2079 0.3579 0.4716 0.5459 0.7145 0.8205 0.8901 0.9419 1.136]';
threshold=[0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1];
net=newff(threshold,[32,12],{'tansig','logsig'},'trainscg','learngdm');%新建BP神經網路
net.trainParam.epochs=1000;%bp網路訓練次數
net.trainParam.goal=0.002;%網路訓練目標
net.trainParam.lr=0.01;%網路學習速率
[net,tr]=train(net,P,T);%訓練網路
P_test=[0.1123 0.1257 0.1343 0.2079 0.3579 0.4716 0.5459 0.7145 0.8205 0.8901 0.9419 1.136 0.2317 0.2936 0]';%網路輸入數據
Out=sim(net,P_test);%網路模擬
X=[0.1119 0.1215 0.1621 0.2161 0.3471 0.4639 0.5555 0.7061 0.8243 0.8923 0.9522 1.129];%實際測得數據
t=1:1:12;
box off;
grid off;
plot(t,Out,'b',t,X,'r');%畫出二維圖形
set(gca,'Xtick',0:1:24,'Ytick',0:.1:1.4);%設置坐標
title('基於BP網路的設備故障時間序列預測');
xlabel('時間/2小時');
ylabel('加速度/g');
text(1.5,1.2,'預測振動曲線(藍)');
text(1.5,1.1,'實際測試曲線(紅)');

D. matlab神經網路訓練一般需要多少數據

只要你覺得這些數據能把握住你要解決的問題了,夠這個問題的學習了,就夠了。幾十到上百萬都是有可能的。一般數據多一些更有利於精度。

E. 誰有MATLAB學習好些的視頻,尤其是神經網路的

我有,
我有,

F. 有什麼基礎才能學習matlab神經網路

有高等數學的知識就可以學習了。
神經網路在數學建模中的應用主要是預測與函數優化。
只不過在比賽時要謹慎使用,因為比較難。
在建模比賽時預測主要是灰色模型,求解優化模型有很多辦法。
祝你在比賽中取得一個好成績。

G. matlabR2013b中神經網路訓練好後,如何進行預測

預測的時候還是將需要的參數作為輸入。訓練的時候不是有15組樣本嗎(4*15和6*15的),說明輸入節點數為4,輸出節點數為6。因此預測時,將用於預測的4個參數作為輸入,神經網路的6個輸出即為預測結果。

神經網路因其很好的函數逼近能力而被廣泛應用於非線性系統建模、辨識和控制中。根據應用場合的不同,神經網路可分為靜態和動態神經網路兩類。靜態(或前饋)神經網路沒有反饋成分,也不包含輸人延時,輸出直接由輸人通過前向網路算出;動態神經網路的輸出不僅依賴當前的輸人,還與當前和過去的輸入、輸出有關。

H. MATLAB做BP神經網路的時候訓練的三個圖

前者是梯度變化圖,因為採用的是梯度下降法,後者是錯誤次數,

閱讀全文

與matlab神經網路培訓班相關的資料

熱點內容
小學車輛模型培訓方案 瀏覽:165
七夕相親會策劃方案 瀏覽:338
2018重慶市場營銷自考試卷及答案 瀏覽:669
電商學員培訓方案 瀏覽:33
市場營銷實訓體驗 瀏覽:869
臨床技能大賽培訓方案 瀏覽:989
寶潔促銷方案市場分析 瀏覽:28
兩個一站式培訓方案 瀏覽:500
dell電子商務 瀏覽:502
餐飲開業營銷策劃方案ppt 瀏覽:780
ktv微信營銷策劃方案 瀏覽:518
幼兒園教師培訓計劃方案 瀏覽:582
海口市電子商務發展 瀏覽:612
花椒產業培訓實施方案 瀏覽:292
學校主題教育活動策劃方案 瀏覽:829
網路營銷渠道建設 瀏覽:405
課程培訓流程方案書 瀏覽:734
職工政治思想培訓實施方案 瀏覽:579
促銷活動方案文字模板 瀏覽:549
超市一周年慶典策劃方案 瀏覽:49