先來梳理一下我們之前所寫的代碼,原始的生成對抗網(wǎng)絡(luò),所要優(yōu)化的目標(biāo)函數(shù)為:

電腦培訓(xùn),計(jì)算機(jī)培訓(xùn),平面設(shè)計(jì)培訓(xùn),網(wǎng)頁設(shè)計(jì)培訓(xùn),美工培訓(xùn),Web培訓(xùn),Web前端開發(fā)培訓(xùn)

 此目標(biāo)函數(shù)可以分為兩部分來看:

①固定生成器 G,優(yōu)化判別器 D, 則上式可以寫成如下形式: 

 電腦培訓(xùn),計(jì)算機(jī)培訓(xùn),平面設(shè)計(jì)培訓(xùn),網(wǎng)頁設(shè)計(jì)培訓(xùn),美工培訓(xùn),Web培訓(xùn),Web前端開發(fā)培訓(xùn)

可以轉(zhuǎn)化為最小化形式: 

電腦培訓(xùn),計(jì)算機(jī)培訓(xùn),平面設(shè)計(jì)培訓(xùn),網(wǎng)頁設(shè)計(jì)培訓(xùn),美工培訓(xùn),Web培訓(xùn),Web前端開發(fā)培訓(xùn)

我們編寫的代碼中,d_loss_real = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits = D_logits, labels = tf.ones_like(D))),由于我們判別器最后一層是 sigmoid ,所以可以看出來 d_loss_real 是上式中的第一項(xiàng)(舍去常數(shù)概率 1/2),d_loss_fake 為上式中的第二項(xiàng)。

②固定判別器 D,優(yōu)

網(wǎng)友評論