【深度大白话】——曲则全,谈谈深度学习中的激活函数

1. 什么是激活函数

备注:橙色的线表示原函数,蓝色的线表示导函数。特点leaky relu是为了解决relu的dead relu问题而设计的,将relu的前半段用“ax”(通常a取值为0.01)替换0。这样在理论上就解决了dead relu的问题。

备注:在实践中,并没有证明leaky relu在效果上完全优于relu。

3.3.3 ELU

表达式

elu的表达式如下所示:

elu(x)=f(x)= {{x,x>0 \\atop a(e^{x}-1), x \\leq 0}}

elu导函数的表达式如下所示:

elu'(x)=f'(x)={{1, x>0 \\atop ae^{x}, x \\leq 0}}

图像

在这里插入图片描述

备注:橙色的线表示原函数,蓝色的线表示导函数。

特点

elu也是为了解决relu的dead relu问题而设计的,elu除了具有relu的优点之外还具有以下优点:

  1. 解决dead relu问题;
  2. 输出的均值接近于0,即满足zero-centered;小缺点
  3. 计算量比relu和leaky relu大;
    备注:在实践中,并没有证明elu在效果上完全优于relu。
本站文章资源均来源自网络,除非特别声明,否则均不代表站方观点,并仅供查阅,不作为任何参考依据!
如有侵权请及时跟我们联系,本站将及时删除!
如遇版权问题,请查看 本站版权声明
THE END
分享
二维码
海报
【深度大白话】——曲则全,谈谈深度学习中的激活函数
如上图所示,激活函数(Activation Function)是在人工神经网络神经元上运行的函数,负责将神经元的输入映射到输出。激活函数为人工神经网络引入非线性...
<<上一篇
下一篇>>