最近中文字幕高清中文字幕无,亚洲欧美高清一区二区三区,一本色道无码道dvd在线观看 ,一个人看的www免费高清中文字幕

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

如何選擇張量流中的交叉熵損失?

如何選擇張量流中的交叉熵損失?

如何選擇張量流中的交叉熵損失?分類問題,例如邏輯回歸或多項邏輯回歸,優(yōu)化了交叉熵損失。通常,交叉熵層遵循softmax層,其產(chǎn)生概率分布。在tensorflow中,至少有十幾種不同的交叉熵損失函數(shù):tf.losses.softmax_cross_entropytf.losses.sparse_softmax_cross_entropytf.losses.sigmoid_cross_entropytf.contrib.losses.softmax_cross_entropytf.contrib.losses.sigmoid_cross_entropytf.nn.softmax_cross_entropy_with_logitstf.nn.sigmoid_cross_entropy_with_logits...哪個只適用于二進制分類,哪個適用于多類問題?你何時應該使用sigmoid而不是softmax?如何在sparse功能與別人不同,為什么僅是它softmax?
查看完整描述

2 回答

?
慕尼黑的夜晚無繁華

TA貢獻1864條經(jīng)驗 獲得超6個贊

但是對于版本1.5,softmax_cross_entropy_with_logits_v2必須使用它,而使用其參數(shù)argument key=...如下>

softmax_cross_entropy_with_logits_v2(_sentinel=None, labels=y,\
logits = my_prediction, dim=-1, name=None)


查看完整回答
反對 回復 2019-08-24
  • 2 回答
  • 0 關(guān)注
  • 1291 瀏覽

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動學習伙伴

公眾號

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號