日本综合一区二区|亚洲中文天堂综合|日韩欧美自拍一区|男女精品天堂一区|欧美自拍第6页亚洲成人精品一区|亚洲黄色天堂一区二区成人|超碰91偷拍第一页|日韩av夜夜嗨中文字幕|久久蜜综合视频官网|精美人妻一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時(shí)間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營(yíng)銷解決方案
機(jī)器學(xué)習(xí)之神經(jīng)網(wǎng)絡(luò)及Python實(shí)現(xiàn)

神經(jīng)網(wǎng)絡(luò)在機(jī)器學(xué)習(xí)中有很大的應(yīng)用,甚至涉及到方方面面。本文主要是簡(jiǎn)單介紹一下神經(jīng)網(wǎng)絡(luò)的基本理論概念和推算。同時(shí)也會(huì)介紹一下神經(jīng)網(wǎng)絡(luò)在數(shù)據(jù)分類方面的應(yīng)用。

成都做網(wǎng)站、成都網(wǎng)站建設(shè),成都做網(wǎng)站公司-創(chuàng)新互聯(lián)建站已向上千多家企業(yè)提供了,網(wǎng)站設(shè)計(jì),網(wǎng)站制作,網(wǎng)絡(luò)營(yíng)銷等服務(wù)!設(shè)計(jì)與技術(shù)結(jié)合,多年網(wǎng)站推廣經(jīng)驗(yàn),合理的價(jià)格為您打造企業(yè)品質(zhì)網(wǎng)站。

首先,當(dāng)我們建立一個(gè)回歸和分類模型的時(shí)候,無論是用最小二乘法(OLS)還是***似然值(MLE)都用來使得殘差達(dá)到最小。因此我們?cè)诮⒛P偷臅r(shí)候,都會(huì)有一個(gè)loss function。

而在神經(jīng)網(wǎng)絡(luò)里也不例外,也有個(gè)類似的loss function。

對(duì)回歸而言:

對(duì)分類而言:

然后同樣方法,對(duì)于W開始求導(dǎo),求導(dǎo)為零就可以求出極值來。

關(guān)于式子中的W。我們?cè)谶@里以三層的神經(jīng)網(wǎng)絡(luò)為例。先介紹一下神經(jīng)網(wǎng)絡(luò)的相關(guān)參數(shù)。

***層是輸入層,第二層是隱藏層,第三層是輸出層。

在X1,X2經(jīng)過W1的加權(quán)后,達(dá)到隱藏層,然后經(jīng)過W2的加權(quán),到達(dá)輸出層

其中,

我們有:

至此,我們建立了一個(gè)初級(jí)的三層神經(jīng)網(wǎng)絡(luò)。

當(dāng)我們要求其的loss function最小時(shí),我們需要逆向來求,也就是所謂的backpropagation。

我們要分別對(duì)W1和W2進(jìn)行求導(dǎo),然后求出其極值。

從右手邊開始逆推,首先對(duì)W2進(jìn)行求導(dǎo)。

代入損失函數(shù)公式:

然后,我們進(jìn)行化簡(jiǎn):

化簡(jiǎn)到這里,我們同理再對(duì)W1進(jìn)行求導(dǎo)。

我們可以發(fā)現(xiàn)當(dāng)我們?cè)谧鯾p網(wǎng)絡(luò)時(shí)候,有一個(gè)逆推回去的誤差項(xiàng),其決定了loss function 的最終大小。

在實(shí)際的運(yùn)算當(dāng)中,我們會(huì)用到梯度求解,來求出極值點(diǎn)。

總結(jié)一下來說,我們使用向前推進(jìn)來理順神經(jīng)網(wǎng)絡(luò)做到回歸分類等模型。而向后推進(jìn)來計(jì)算他的損失函數(shù),使得參數(shù)W有一個(gè)***解。

當(dāng)然,和線性回歸等模型相類似的是,我們也可以加上正則化的項(xiàng)來對(duì)W參數(shù)進(jìn)行約束,以免使得模型的偏差太小,而導(dǎo)致在測(cè)試集的表現(xiàn)不佳。

Python 的實(shí)現(xiàn):

使用了KERAS的庫

解決線性回歸:

 
 
 
 
  1. model.add(Dense(1, input_dim=n_features, activation='linear', use_bias=True))
  2. # Use mean squared error for the loss metric and use the ADAM backprop algorithm
  3. model.compile(loss='mean_squared_error', optimizer='adam')
  4. # Train the network (learn the weights)
  5. # We need to convert from DataFrame to NumpyArray
  6. history = model.fit(X_train.values, y_train.values, epochs=100, 
  7.  batch_size=1, verbose=2, validation_split=0)

解決多重分類問題:

 
 
 
 
  1. # create model
  2. model = Sequential()
  3. model.add(Dense(64, activation='relu', input_dim=n_features))
  4. model.add(Dropout(0.5))
  5. model.add(Dense(64, activation='relu'))
  6. model.add(Dropout(0.5))
  7. # Softmax output layer
  8. model.add(Dense(7, activation='softmax'))
  9. model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
  10. model.fit(X_train.values, y_train.values, epochs=20, batch_size=16)
  11. y_pred = model.predict(X_test.values)
  12. y_te = np.argmax(y_test.values, axis = 1)
  13. y_pr = np.argmax(y_pred, axis = 1)
  14. print(np.unique(y_pr))
  15. print(classification_report(y_te, y_pr))
  16. print(confusion_matrix(y_te, y_pr))

當(dāng)我們選取***參數(shù)時(shí)候,有很多種解決的途徑。這里就介紹一種是gridsearchcv的方法,這是一種暴力檢索的方法,遍歷所有的設(shè)定參數(shù)來求得***參數(shù)。

 
 
 
 
  1. from sklearn.model_selection import GridSearchCV
  2. def create_model(optimizer='rmsprop'):
  3.  model = Sequential()
  4.  model.add(Dense(64, activation='relu', input_dim=n_features))
  5.  model.add(Dropout(0.5))
  6.  model.add(Dense(64, activation='relu'))
  7.  model.add(Dropout(0.5))
  8.  model.add(Dense(7, activation='softmax'))
  9.  model.compile(loss='categorical_crossentropy', optimizeroptimizer=optimizer, metrics=['accuracy'])
  10.  
  11.  return model
  12. model = KerasClassifier(build_fn=create_model, verbose=0)
  13. optimizers = ['rmsprop']
  14. epochs = [5, 10, 15]
  15. batches = [128]
  16. param_grid = dict(optimizer=optimizers, epochsepochs=epochs, batch_size=batches, verbose=['2'])
  17. grid = GridSearchCV(estimator=model, param_gridparam_grid=param_grid)
  18. grid.fit(X_train.values, y_train.values)

分享標(biāo)題:機(jī)器學(xué)習(xí)之神經(jīng)網(wǎng)絡(luò)及Python實(shí)現(xiàn)
網(wǎng)頁地址:http://www.dlmjj.cn/article/dpjcgoj.html