2020年2月10日 星期一

[密技]解決keras的loss卡在0.69不下降的問題

剛剛使用Keras卷積神經網路訓練模型時,遇到一個可怕的狀況:
無論參數怎麼調,loss始終卡在0.69,即使一開始不為0.69,過了幾個epoch後loss依然會回到0.69

解決方法:

從keras.layers import BatchNormalization後
在神經網路的最尾端加入:
model.add(BatchNormalization())
再跑一次程式,loss卡在0.69的情況就消失了


沒有留言:

張貼留言

有興趣或有疑問的歡迎提問與交流喔!!!