先來梳理一下我們之前所寫的代碼,原始的生成對抗網(wǎng)絡(luò),所要優(yōu)化的目標函數(shù)為:

電腦培訓,計算機培訓,平面設(shè)計培訓,網(wǎng)頁設(shè)計培訓,美工培訓,Web培訓,Web前端開發(fā)培訓

 此目標函數(shù)可以分為兩部分來看:

①固定生成器 G,優(yōu)化判別器 D, 則上式可以寫成如下形式: 

 電腦培訓,計算機培訓,平面設(shè)計培訓,網(wǎng)頁設(shè)計培訓,美工培訓,Web培訓,Web前端開發(fā)培訓

可以轉(zhuǎn)化為最小化形式: 

電腦培訓,計算機培訓,平面設(shè)計培訓,網(wǎng)頁設(shè)計培訓,美工培訓,Web培訓,Web前端開發(fā)培訓

我們編寫的代碼中,d_loss_real = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits = D_logits, labels = tf.ones_like(D))),由于我們判別器最后一層是 sigmoid ,所以可以看出來 d_loss_real 是上式中的第一項(舍去常數(shù)概率 1/2),d_loss_fake 為上式中的第二項。

②固定判別器 D,優(yōu)