1. BCELoss

class torch.nn.BCELoss(weight=None, size_average=True, reduce=True)

* 作用:
计算target 和output 间的二值交叉熵(Binary Cross Entropy)

 

N :batchsize

如果reduce =True
l(x,y)=mean(L),if size_average=True l(x,y)=sum(L),if size_average=False
用于计算重构误差,如anto-encoder 中

targets y的值是在0和1之间

* 参数 weight(Tensor,optional) - 每个batch 元素的权重. size_average- 默认为True.
True,losses 在minibatch 结合weight 求平均average. False,losses 在minibatch 求相加和sum.
当reduce=False 时,忽略该参数. reduce 默认为True True,losses 在minibatch 求平均或相加和
False,losses 返回per input/target 元素值, 并忽略size_average 输入-input x,(N,*) 输入-target
y,(N,*) 输出- 如果reduce=True,输出标量值,如果reduce=False,输入和输出一致,(N,*)
* 示例 import torch import torch.nn as nn sig = nn.Sigmoid() loss =
nn.BCELoss() input = torch.randn(3, requires_grad=True) target =
torch.empty(3).random_(2) output = loss(sig(input), target) output.backward()
2. BCEWithLogitsLoss

class torch.nn.BCEWithLogitsLoss(weight=None, size_average=True, reduce=True)

* 作用
该loss 层包括了 Sigmoid 层和BCELoss 层. 单类别任务.

数值计算稳定性更好(log-sum-exp trik), 相比于Sigmoid +BCELoss.

如果 reduce =True,
l(x,y)=mean(L),if size_average=True l(x,y)=sum(L),if size_average=False
用于计算重构误差,如auto-encoder 中.

target t[i] 的值是0 和1 之间的数值.

* 参数 weight(Tensor,optional) - 每个batch 元素的权重. size_average- 默认为True.
True,losses 在minibatch 结合weight 求平均average. False,losses 在minibatch 求相加和sum.
当reduce=False 时,忽略该参数. reduce 默认为True True,losses 在minibatch 求平均或相加和
False,losses 返回per input/target 元素值, 并忽略size_average 输入-input x,(N,*) 输入-target
y,(N,*) 输出- 如果reduce=True,输出标量值,如果reduce=False,输入和输出一致,(N,*)
 

技术
©2020 ioDraw All rights reserved
【2020最牛小程序:你想要的各种资源都能搜的到?】C语言简易学生成绩管理系统运维工作梳理韭菜的愤怒:谷歌删除近10万条对Robinhood的负面评论Tampermonkey(油猴)的获取方法【技巧】简单几招解决Mac磁盘空间不足的问题惹什么猫都别惹熊猫!「功夫熊猫」20年对人类拿下4血为什么保持代码整洁如此重要?玩转指针重难点(1) 如何用SSL减少网站不必要的漏洞