日本综合一区二区|亚洲中文天堂综合|日韩欧美自拍一区|男女精品天堂一区|欧美自拍第6页亚洲成人精品一区|亚洲黄色天堂一区二区成人|超碰91偷拍第一页|日韩av夜夜嗨中文字幕|久久蜜综合视频官网|精美人妻一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時(shí)間:8:30-17:00
你可能遇到了下面的問(wèn)題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營(yíng)銷解決方案
用自己的數(shù)據(jù)構(gòu)建一個(gè)簡(jiǎn)單的卷積神經(jīng)網(wǎng)絡(luò)

在本文中,我們將構(gòu)建一個(gè)卷積神經(jīng)網(wǎng)絡(luò),將對(duì)7種類型的數(shù)千個(gè)圖像進(jìn)行訓(xùn)練,即:鮮花,汽車,貓,馬,人,自行車,狗,然后能夠預(yù)測(cè)是否給定的圖像是貓,狗或人。

富寧網(wǎng)站制作公司哪家好,找創(chuàng)新互聯(lián)建站!從網(wǎng)頁(yè)設(shè)計(jì)、網(wǎng)站建設(shè)、微信開(kāi)發(fā)、APP開(kāi)發(fā)、響應(yīng)式網(wǎng)站設(shè)計(jì)等網(wǎng)站項(xiàng)目制作,到程序開(kāi)發(fā),運(yùn)營(yíng)維護(hù)。創(chuàng)新互聯(lián)建站成立于2013年到現(xiàn)在10年的時(shí)間,我們擁有了豐富的建站經(jīng)驗(yàn)和運(yùn)維經(jīng)驗(yàn),來(lái)保證我們的工作的順利進(jìn)行。專注于網(wǎng)站建設(shè)就選創(chuàng)新互聯(lián)建站。

 

該CNN實(shí)現(xiàn)使用自己的圖像數(shù)據(jù)集涵蓋以下主題

  • 加載和預(yù)處理自己的數(shù)據(jù)集
  • 在Keras設(shè)計(jì)和訓(xùn)練CNN模型
  • 繪制損失和準(zhǔn)確度曲線
  • 評(píng)估模型和預(yù)測(cè)測(cè)試圖像的輸出類
  • 可視化CNN的中間層輸出
  • 繪制結(jié)果的混淆矩陣

加載和預(yù)處理自己的數(shù)據(jù)集:

我們將使用的數(shù)據(jù)集包括從互聯(lián)網(wǎng)收集并標(biāo)記的7個(gè)類。Python代碼如下;

 
 
 
  1. PATH = os.getcwd()   
  2. #Define data path  
  3. data_path = PATH + '/data'  
  4. data_dir_list = os.listdir(data_path)  
  5. data_dir_list 

輸出:

 
 
 
  1. ['bike', 'cars', 'cats', 'dogs', 'flowers', 'horses', 'human'] 

可視化一些圖像,我們可以看到圖像是128x128像素,Python代碼如下:

 
 
 
  1. #Visualize some images  
  2. image = X_train[1441,:].reshape((128,128))  
  3. plt.imshow(image)  
  4. plt.show() 

用自己的數(shù)據(jù)構(gòu)建一個(gè)簡(jiǎn)單的卷積神經(jīng)網(wǎng)絡(luò)

接下來(lái),我們開(kāi)始在Keras中設(shè)計(jì)和編譯CNN模型,Python實(shí)現(xiàn)如下:

 
 
 
  1. #Initializing the input shape  
  2. input_shape = img_data[0].shape   
  3. #Design CNN sequential model  
  4. model = Sequential ([  
  5.  Convolution2D(32,3,3, border_mode = 'same', activation = 'relu', input_shape = input_shape),  
  6.  Convolution2D(32,3,3, activation = 'relu'),  
  7.  MaxPooling2D(pool_size = (2,2)),  
  8.  Dropout(0.5),   
  9.  Convolution2D(64,3,3, activation = 'relu'),  
  10.  MaxPooling2D(pool_size = (2,2)),  
  11.  Dropout(0.5),   
  12.  Flatten(),  
  13.  Dense(64, activation = 'relu'),  
  14.  Dropout(0.5),  
  15.  Dense(num_classes, activation = 'softmax')  
  16. ])   
  17. #Compiling the model  
  18. model.compile(  
  19.  loss = 'categorical_crossentropy',   
  20.  optimizer = 'adadelta',  
  21.  metrics = ['accuracy']) 

在擬合模型之后,我們可以在整個(gè)迭代過(guò)程中可視化訓(xùn)練和驗(yàn)證。

 
 
 
  1. ist = model.fit (X_train, y_train,  
  2.  batch_size = 16,  
  3.  nb_epoch = num_epoch,  
  4.  verbose=1,  
  5.  validation_data = (X_test, y_test)  
  6.  ) 



我們現(xiàn)在可以使用我們的模型使用以下代碼預(yù)測(cè)新圖像的新類:

 
 
 
  1. # Predicting the test image  
  2. print((model.predict(test_image)))  
  3. print('Image class:', model.predict_classes(test_image)) 

正如我們?cè)谙旅婵吹降?,我們的模型正確地將圖像分類為class [0] - bike。


 
 
 
  1. [[3.6560327e-01 2.7960737e-06 1.2630007e-03 2.9311934e-01 1.6894026e-02  
  2. 3.0998811e-01 1.3129448e-02]]  
  3. Image class: [0] 

這是一個(gè)混淆矩陣,沒(méi)有歸一化

我們現(xiàn)在可以保存模型和權(quán)重,以便在實(shí)際應(yīng)用程序中實(shí)現(xiàn)。


網(wǎng)站標(biāo)題:用自己的數(shù)據(jù)構(gòu)建一個(gè)簡(jiǎn)單的卷積神經(jīng)網(wǎng)絡(luò)
文章位置:http://www.dlmjj.cn/article/cooigge.html