chainer.functions.
softmax_cross_entropy
(x, t, normalize=True,
cache_score=True, class_weight=None, ignore_label=-1, reduce='mean', enable_double_backprop=False)[source]¶
プレ-ソフトマックス活性化のための交差エントロピー損失。
Parameters: |
|
---|---|
Returns: |
交差エントロピー損失のスカラ配列を持つvariable。 |
Return type: |
この関数は x
でのみ微分可能です。
Example
>>> x = np.array([[-1, 0, 1, 2], [2, 0, 1, -1]]).astype('f')
>>> x
array([[-1., 0., 1., 2.],
[ 2., 0., 1., -1.]], dtype=float32)
>>> t = np.array([3, 0]).astype('i')
>>> t
array([3, 0], dtype=int32)
>>> y = F.softmax_cross_entropy(x, t)
>>> y
variable(0.4401897192001343)
>>> log_softmax = -F.log_softmax(x)
>>> expected_loss = np.mean([log_softmax[row, column].data
for row, column in enumerate(t)])
>>> y.array == expected_loss
True