目录
- 简介
- torch.nn.LeakyReLU()
- 语法
- 作用
- 举例
- 参考
- 结语
简介
Hello!
非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出~ଘ(੭ˊᵕˋ)੭
昵称:海轰
标签:程序猿|C++选手|学生
简介:因C语言结识编程,随后转入计算机专业,获得过国家奖学金,有幸在竞赛中拿过一些国奖、省奖…已保研
学习经验:扎实基础 + 多做笔记 + 多敲代码 + 多思考 + 学好英语!唯有努力
本文仅记录自己感兴趣的内容
torch.nn.LeakyReLU()
语法
torch.nn.LeakyReLU(negative_slope=0.01, inplace=False)
作用
构建一个LeakyReLU函数,明确此函数中的一些参数
参数
- negative_slope:x为负数时的需要的一个系数,控制负斜率的角度。默认值:1e-2
- inplace:可以选择就地执行操作。默认值:False
举例
m = nn.LeakyReLU(0.1) # 构建LeakyReLU函数input = torch.randn(2) # 输入output = m(input) # 对输入应用LeakyReLU函数print(input)print(output)
参数inplace为True时
相当于 x < 0x<0x<0,LeakyReLU(x) = x (与大于0时一致了,输入是啥,输出就是啥)
参考
- https://pytorch.org/docs/stable/generated/torch.nn.LeakyReLU.html#torch.nn.LeakyReLU
结语
文章仅作为个人学习笔记记录,记录从0到1的一个过程
希望对您有一点点帮助,如有错误欢迎小伙伴指正