機械学習
差分
このページの2つのバージョン間の差分を表示します。
次のリビジョン両方とも次のリビジョン | |||
機械学習 [2021/04/24 09:54] – 作成 yajuadmin | 機械学習 [2021/04/24 11:52] – yajuadmin | ||
---|---|---|---|
行 1: | 行 1: | ||
====== 機械学習 ====== | ====== 機械学習 ====== | ||
+ | ===== Tips ===== | ||
+ | |||
+ | ==== なぜReLUを使うのか ==== | ||
+ | 隠れ層(中間層)の活性化関数において、シグモイド関数ではなくReLUを使用するのか? | ||
+ | |||
+ | シグモイド関数の微分では最大値が0.25であるため、勾配消失問題が発生していた。その点、ReLUの微分では最大値は1.0になるため、勾配消失を防ぐことができる。\\ | ||
+ | [[https:// | ||
+ | |||
機械学習.txt · 最終更新: 2021/04/24 12:05 by yajuadmin