日本综合一区二区|亚洲中文天堂综合|日韩欧美自拍一区|男女精品天堂一区|欧美自拍第6页亚洲成人精品一区|亚洲黄色天堂一区二区成人|超碰91偷拍第一页|日韩av夜夜嗨中文字幕|久久蜜综合视频官网|精美人妻一区二区三区

RELATEED CONSULTING
相關咨詢
選擇下列產(chǎn)品馬上在線溝通
服務時間:8:30-17:00
你可能遇到了下面的問題
關閉右側工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
Keras可視化神經(jīng)網(wǎng)絡架構的四種方法

我們在使用卷積神經(jīng)網(wǎng)絡或遞歸神經(jīng)網(wǎng)絡或其他變體時,通常都希望對模型的架構可以進行可視化的查看,因為這樣我們可以 在定義和訓練多個模型時,比較不同的層以及它們放置的順序對結果的影響。還有可以更好地理解模型結構、激活函數(shù)、模型參數(shù)形狀(神經(jīng)元數(shù)量)等。

keras 中有一些現(xiàn)成的包可以創(chuàng)建我們的神經(jīng)網(wǎng)絡模型的可視化表示。前三個包可以在模型訓練之前使用(只需要定義和編譯模型);但是Tensor Boards 要求用戶在架構可視化之前根據(jù)準確的數(shù)據(jù)訓練模型。

在開始進行可視化之前,我們先需要安裝相應的包:

pip install visualkeras
pip install ann_visualizer
pip install graphviz

然后我們創(chuàng)建一個模型,并用這4個包來進行可視化:

在實際使用時我們希望的是通過可視化來對比模型架構,所以這里定義三個具有不同超參數(shù) CNN 模型。我們創(chuàng)建了用戶定義的函數(shù)來分別構建具有不同數(shù)量的 CNN 層、池化層和最后的密集層的三個不同模型。

架構1:淺層CNN+分類頭

 def construct_model():
model = Sequential()
model.add(Conv2D(filters=64, kernel_size=(3, 3), input_shape=(128, 128, 1), activation=’relu’))
model.add(Conv2D(filters=64, kernel_size=(3, 3), activation=’relu’))
model.add(MaxPool2D((2, 2)))
model.add(Flatten())
model.add(Dense(256, activation=’relu’))model.add(Dense(12, activation=’softmax’))
model.compile(loss=’categorical_crossentropy’, optimizer=’adam’, metrics=[‘a(chǎn)ccuracy’])
return model

架構2:深層CNN+mlp分類頭

 def sconstruct_model():
smodel = Sequential()
smodel.add(Conv2D(filters=64, kernel_size=(3, 3), input_shape=(128, 128, 3), activation=’relu’))
smodel.add(Conv2D(filters=64, kernel_size=(3, 3), activation=’relu’))
smodel.add(MaxPool2D((2, 2)))
smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
smodel.add(MaxPool2D((2, 2)))
smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
smodel.add(MaxPool2D((2, 2)))
smodel.add(Flatten())
smodel.add(Dense(256, activation=’relu’))
smodel.add(Dense(12, activation=’softmax’))
#optimizer = Adam(lr=0.001)
smodel.compile(loss=’categorical_crossentropy’, optimizer=’adam’, metrics=[‘a(chǎn)ccuracy’])
#model.summary()
return smodel

架構3:深層CNN+分類頭

 def cconstruct_model(learningRate):
smodel = Sequential()
smodel.add(Conv2D(filters=32, kernel_size=(3, 3), input_shape=(128, 128, 1), activation=’relu’))
smodel.add(Conv2D(filters=32, kernel_size=(3, 3), activation=’relu’))
smodel.add(MaxPool2D((2, 2)))
smodel.add(Conv2D(filters=64, kernel_size=(3, 3), activation=’relu’))
smodel.add(Conv2D(filters=64, kernel_size=(3, 3), activation=’relu’))
smodel.add(MaxPool2D((2, 2)))
smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
smodel.add(MaxPool2D((2, 2)))
smodel.add(Flatten())
smodel.add(Dense(256, activation=’relu’))
smodel.add(Dense(256, activation=’relu’))
smodel.add(Dense(12, activation=’softmax’))
optimizer = Adam(lr=learningRate)
smodel.compile(loss=’categorical_crossentropy’, optimizer=optimizer, metrics=[‘a(chǎn)ccuracy’])
smodel.summary()
return smodel

有了這3個模型,我們將使用4種方法來可視化cnn的結構

ANN Visualizer

ANN Visualizer 的 Python 模塊可以通過幾行代碼來可視化神經(jīng)網(wǎng)絡。它使用 Keras 和 Python 的 Graphviz 模塊來生成一個整潔的神經(jīng)網(wǎng)絡圖。它是最早的幾個可視化包之一,但是最近已經(jīng)不更新了,我們先介紹他是因為它算是最早出現(xiàn)的,也是最有名的。

ANN Visualizer可視化需要首先編譯模型

model=construct_model()

主要參數(shù)如下:

  • ann_viz(model, view=True, filename=”network.gv”, title=”MyNeural Network”)
  • model—Keras的模型
  • view—在調用ann_viz()之后顯示可視化圖形
  • filename—文件名
  • title—自定義標題
from ann_visualizer.visualize import ann_viz
ann_viz(model, view=True, filename=”cconstruct_model”, title=”CNN — Model 1 — Simple Architecture”)

上面就是使用ANN Visualizer創(chuàng)建的construct_model()的可視化圖。可以看到,如果模型太大顯示效果不會太好,這可能也是ANN Visualizer被淘汰的一個原因。

Visual Keras

Visualkeras可以更容易地查看Keras的神經(jīng)網(wǎng)絡設計(可以單獨查看,也可以作為TensorFlow的一部分)。

model1=construct_model()
model2=sconstruct_model()
model3=cconstruct_model(0.009)

import visualkeras
from PIL import ImageFont
visualkeras.layered_view(model1, legend=True)
visualkeras.layered_view(model2, legend=True)
visualkeras.layered_view(model3, legend=True)
model1=construct_model()
model2=sconstruct_model()
model3=cconstruct_model(0.009)

import visualkeras
from PIL import ImageFont
visualkeras.layered_view(model1, legend=True)
visualkeras.layered_view(model2, legend=True)
visualkeras.layered_view(model3, legend=True)

可以通過可視化來對比出不同層的大小,這個還是很有用的。

Keras Model Plot

keras.utils.plot_model是keras的內建繪制Keras模型函數(shù),它使用了Graphviz和pydot包。從圖上可,它不如上面使用的包直觀,但它概述了順序模型的基本體系結構。

tf.keras.utils.plot_model(model1,to_file="model.png",show_shapes=True,show_dtype=False,show_layer_names=True,rankdir="TB",expand_nested=True,dpi=96,layer_range=None,show_layer_activatinotallow=True,)

一下是幾個參數(shù)的介紹:

  • model: Keras編譯后的模型或模型對象的實例
  • to_file:保存的文件名
  • Show_shapes:顯示神經(jīng)網(wǎng)絡中每一層的尺寸和形狀
  • show_layer_activation:顯示神經(jīng)元內部使用的激活函數(shù)

TensorBoard

TensorBoard 允許用戶可視化不同模型運行的日志。日志的范圍可以從跟蹤任何模型驗證度量(不同輪次的準確率、召回率、RMSE、MAPE 和 MSE)到創(chuàng)建模型的架構圖。它是一個強大的工具,可以可視化預期模型是否與預期設計匹配,同時深入了解如何使用操作級圖更改模型。

我們需要先加載 TensorBoard,然后創(chuàng)建一個日志目錄。

%load_ext tensorboard
from datetime import datetime
from tensorflow import keras

logdir="logs/fit/" + datetime.now().strftime("%Y%m%d-%H%M%S")
tensorboard_callback = keras.callbacks.TensorBoard(log_dir=logdir)

使用Keras TensorBoard回調函數(shù),在訓練前指定日志目錄。然后通過向model.fit()提供這個回調來保證數(shù)據(jù)被記錄在TensorBoard中。

model.fit(X2_train, Y2_train,batch_size=64,epochs=5,callbacks=[tensorboard_callback])

X2_train和Y2_train是上面代碼中沒有反映的訓練數(shù)據(jù)集。你可以用你自己的任何訓練數(shù)據(jù)來替換它。

可以看到TensorBoard 始終會顯示操作級別的圖表,雖然對于每一層的架構并不明顯,但是對于每一個操作缺失非常詳細的。

還需要注意的是,與代碼相比該圖是上下顛倒的,因為數(shù)據(jù)從底部流向頂部。但是該圖大致類似于 Keras 模型的描述,有額外的邊通向其他計算節(jié)點。


當前標題:Keras可視化神經(jīng)網(wǎng)絡架構的四種方法
本文URL:http://www.dlmjj.cn/article/djcshsh.html