歡迎您光臨本站 註冊首頁

淺談keras中的目標函數和優化函數MSE用法

←手機掃碼閱讀     月球人 @ 2020-06-12 , reply:0

mean_squared_error / mse 均方誤差,常用的目標函數,公式為((y_pred-y_true)**2).mean()

  model = Sequential()    model.add(Dense(64, init='uniform', input_dim=10))    model.add(Activation('tanh'))    model.add(Activation('softmax'))         sgd = SGD(lr=0.1, decay=1e-6, momentum=0.9, nesterov=True)    model.compile(loss='mean_squared_error', optimizer=sgd)

 

補充知識:(Keras)――keras 損失函數與評價指標詳解

1、目標函數

(1)mean_squared_error / mse 均方誤差,常用的目標函數,公式為((y_pred-y_true)**2).mean()

(2)mean_absolute_error / mae 絕對值均差,公式為(|y_pred-y_true|).mean()

(3) mean_absolute_percentage_error / mape公式為:(|(y_true - y_pred) / clip((|y_true|),epsilon, infinite)|).mean(axis=-1) * 100,和mae的區別就是,累加的是(預測值與實際值的差)除以(剔除不介於epsilon和infinite之間的實際值),然後求均值。

(4)mean_squared_logarithmic_error / msle公式為: (log(clip(y_pred, epsilon, infinite)+1)- log(clip(y_true, epsilon,infinite)+1.))^2.mean(axis=-1),這個就是加入了log對數,剔除不介於epsilon和infinite之間的預測值與實際值之後,然後取對數,作差,平方,累加求均值。

(5)squared_hinge 公式為:(max(1-y_truey_pred,0))^2.mean(axis=-1),取1減去預測值與實際值乘積的結果與0比相對大的值的平方的累加均值。

(6)hinge 公式為:(max(1-y_truey_pred,0)).mean(axis=-1),取1減去預測值與實際值乘積的結果與0比相對大的值的的累加均值。

(7)binary_crossentropy: 常說的邏輯迴歸, 就是常用的交叉熵函

(8)categorical_crossentropy: 多分類的邏輯

2、性能評估函數:

(1)binary_accuracy: 對二分類問題,計算在所有預測值上的平均正確率

(2)categorical_accuracy:對多分類問題,計算再所有預測值上的平均正確率

(3)sparse_categorical_accuracy:與categorical_accuracy相同,在對稀疏的目標值預測時有用

(4)top_k_categorical_accracy: 計算top-k正確率,當預測值的前k個值中存在目標類別即認為預測正確

(5)sparse_top_k_categorical_accuracy:與top_k_categorical_accracy作用相同,但適用於稀疏情況         


[月球人 ] 淺談keras中的目標函數和優化函數MSE用法已經有238次圍觀

http://coctec.com/docs/python/shhow-post-238274.html