新聞中心
這里有您想知道的互聯(lián)網(wǎng)營(yíng)銷解決方案
Keras中LeakyReLU等高級(jí)激活函數(shù)怎么用-創(chuàng)新互聯(lián)
創(chuàng)新互聯(lián)www.cdcxhl.cn八線動(dòng)態(tài)BGP香港云服務(wù)器提供商,新人活動(dòng)買多久送多久,劃算不套路!
這篇文章主要介紹Keras中Leaky ReLU等高級(jí)激活函數(shù)怎么用,文中介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們一定要看完!
在用Keras來(lái)實(shí)現(xiàn)CNN等一系列網(wǎng)絡(luò)時(shí),我們經(jīng)常用ReLU作為激活函數(shù),一般寫法如下:
from keras import layers from keras import models model = models.Sequential() model.add(layers.Conv2D(32, (3, 3), activation='relu', input_shape=(28, 28, 1))) model.add(layers.MaxPooling2D((2, 2))) model.add(layers.Conv2D(64, (3, 3), activation='relu')) model.add(layers.MaxPooling2D((2, 2))) model.add(layers.Conv2D(64, (3, 3), activation='relu'))
分享文章:Keras中LeakyReLU等高級(jí)激活函數(shù)怎么用-創(chuàng)新互聯(lián)
本文鏈接:http://www.dlmjj.cn/article/dshhoi.html