内容へ移動
八寿のナレッジベース
ユーザ用ツール
ログイン
サイト用ツール
検索
ツール
文書の表示
以前のリビジョン
バックリンク
最近の変更
メディアマネージャー
サイトマップ
ログイン
>
最近の変更
メディアマネージャー
サイトマップ
トレース:
機械学習
この文書は読取専用です。文書のソースを閲覧することは可能ですが、変更はできません。もし変更したい場合は管理者に連絡してください。
====== 機械学習 ====== ===== Tips ===== ==== なぜReLUを使うのか ==== 隠れ層(中間層)の活性化関数において、シグモイド関数ではなくReLUを使用するのか? モデルの学習の最中に、誤差関数の勾配が0になってしまう問題を、勾配消失問題と呼びます。\\ シグモイド関数の微分では最大値が0.25であるため、勾配消失問題が発生していた。その点、ReLUの微分では最大値は1.0になるため、勾配消失を防ぐことができる。\\ * [[https://masamunetogetoge.com/gradient-vanish|勾配の更新に関する問題]] * [[http://marupeke296.com/IKDADV_DL_No6_vanishing_grad_prob.html|勾配消失問題とは?]]
機械学習.txt
· 最終更新: 2021/04/24 12:05 by
yajuadmin
ページ用ツール
文書の表示
以前のリビジョン
バックリンク
文書の先頭へ