字体
关灯
返回目录 阅读足迹 更多章节
第(2/3)页
位“只给正面反馈的老师”或“专注于进步的运动员”,让 ai 更快地学习有效的信息,丢弃无用的数据,从而提高计算效率!
    思考:你在生活中,有没有遇到类似 relu 的情境?比如某些人只关注好消息,而不理会坏消息?这种策略在什么情况下是优点,什么情况下可能有缺点?
    relu 的优缺点:只关注“好消息”,但可能忽略重要信息
    虽然 relu 在神经网络中非常流行,但它并不是完美的,它的特点决定了它既有优点,也有一些潜在的问题。
    relu 的优点:更快、更强、更稳定
    1 计算速度快
    relu 只需要简单地判断“是否大于 0”,不像 sigmoid 或 tanh 需要复杂的指数运算,因此它能让神经网络计算得更快。
    2 解决梯度消失问题
    在深度神经网络中,传统的 sigmoid 函数容易让梯度变得越来越小(导致网络学不会东西)。但 relu 由于保持正值不变(直接 y=x),不会导致梯度消失,从而让神经网络可以学习更复杂的模式。
    3 让神经网络更容易训练深层结构
    relu 是现代深度学习的核心激活函数,因为它让深度神经网络(dnn、cnn、transformer 等)可以稳定地训练数百层,甚至更深。
    relu 的缺点:可能会忽略一些“负面信息”
    虽然 relu 能够高效处理正数输入,但它也有一个潜在的问题——如果输入是负数,它就会直接变成 0,不再参与计算,这可能会导致一部分神经元“死亡”,无法再学习任何东西。这个现象被称为“神经元死亡”问题。
    解决方案:relu 的改进版本
    科学家们为了让 relu 更强大,开发了一些变种,比如:
    leaky relu(泄漏 relu)
    让负数部分不过完全归零,而是保留一个很小的值,比如 001x,避免神经元完全失效。
    比喻:就像一个更有耐心的老师,虽然还是以鼓励为主,但偶尔也会给一点点负面反馈,让学生知道哪里可以改进。
    paramet
第(2/3)页
本章还未完,请点击下一页继续阅读
上一页 目录 下一页
都在看:张小曼洛尘天武神帝这个出马仙有点强!镇国王侯渣男死遁逃婚?我烧灵堂杀穿侯府!都市仙尊洛尘张小曼开局一座核心舱让你办军校,你佣兵百万震慑鹰酱修罗剑神王腾大反派也有春天2