ReLU関数をpythonで表示してみる

>>> 本サイトのTOPはこちら。

こんにちは。株式会社マックスネット 人工知能・AI開発チームのIsoです。
今回はディープラーニングによく出てくる、ReLU関数と呼ばれるものをグラフ化してみます。

**********

前々回にシグモイド関数というのが出てきたが、
今回はReLU関数というものを紹介しよう。

ニューラルネットワークの各層の出力部分には、非線形関数を入れるのだが、この関数はそのうちの1種。

このReLU関数を入れることで、シグモイド関数とは違う値を出力することができる。

まずこの関数をグラフ化したものがこちら。

ご覧の通り、0以下の値は全て0で出力され、0より大きい値は、入力した値がそのままグラフに出力される。

このReLU関数のpythonコードはこちら。

非常にシンプルなコードだ。

では、上記のグラフを書くためのコードを実装してみよう。
下記をpythonのインタプリタで実行する。

さて、グラフが表示されただろうか。

結構、このReLU関数は使われることが多いので、グラフ化して
己の目で見てみることも、知識のひとつになると思う。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です