えっと、ディープラーニング(AI)って何?
データから学習するコンピュータープログラムを構築する技術のこと。「人間の脳の働き」を大ざっぱに真似たものです。
まず、「ニューロン」(neuron: 神経細胞)と呼ばれる単位機能を層(layer)の中に複数作成し、また層も複数作成したうえで、各層間でそれぞれのニューロンがメッセージをやり取りできるように結合(connections)させて、ネットワークを形成します。
次に、そのネットワークに問題を繰り返し与えて、解かせていきます。これが学習です。学習のたびに、正解に導く結合は強め、不正解に導く結合は弱めていくことで、問題に対して正解を答える精度(accuracy:正解率)が徐々に高まっていきます。逆に言うと、誤差(error、もしくはloss:損失)が小さくなっていくということです。
これをニューラルネットワークと呼び、中間層が2層以上のものをディープラーニングと呼び、AI(人工知能)の実装として使われています。
それぞれの色の意味は?
ニューラルネットワークの学習過程を視覚化するために、青色とオレンジ色を使っています。
色の使い方が微妙に異なる部分はありますが、基本的に、青色は「正の値」(positive values)を表し、オレンジ色は「負の値」(negative values)を表しています。
入力層(input layer)においては、データの点(points: 小さな円で表現されている)それぞれが、もともと青色かオレンジ色で着色されています([出力]のグラフ図を参照)。
つまり、各点が初めから「正の値」か「負の値」(正解ラベル)に対応付けられているということです。
中間層(hidden layers)においては、ニューロン間の結合の重み(weights)によって、線が着色されています。
青色の線は「正の重み」(positive weight)を表し、オレンジ色の線は「負の重み」(negative weight)を表しています。
正の重みとは、その線の接続元にあるニューロンから与えられた出力を、他のニューロンの入力として使用する可能性が高い(=発火を促進する)ということです。
逆に、負の重みとは、使用しない可能性が高い(=発火を抑制する)ということです。
線の色の濃さは、その結合の強度を表します。
出力層(output layer)においては、前述したように、データの点それぞれが、もともとの値(正解ラベル)に基づき、青色かオレンジ色で着色されています。
また、背景色が塗られた領域は、学習済みのネットワークによって出力された予測結果が「正」か「負」のどちらの領域に入るかを視覚的に表現しています。
背景色の濃さは、その予測結果の信頼度を表します。
何のライブラリを使っているの?
このページが提供するソフトウェアの目的は、教育用にニューラルネットワークを視覚化することです。これを実現するために独自に書いた、小さなニューラル ネットワーク ライブラリを使っています。実世界のアプリケーション向けには、TensorFlow ライブラリの利用を検討してください。
これはすごいね、他でも使っていい?
ぜひ、やってみてください! ニューラルネットワークが少しでもアクセスしやすく学びやすくなることを願って、GitHub(オリジナル版)、もしくは独自運用と日本語化を行っている Deep Insider による Fork 版、もしくは少し調整した Code for FUKUI による Fork 版 でオープンソース(Apache 2.0 ライセンス)にしています。このライセンスに従ってさえいれば、どんな使い方でも自由です。また、もし追加や変更の提案があれば、ぜひお知らせください。
さらに、特定のトピックやレッスンに対応する Playground(実験場)として調整できるように、いくつかのカスタマイズ項目を提供しています。具体的には以下から、「表示したい機能」を選択するだけです。あとは、 このページを再読み込み してください。
を保存するか、
※注意: [損失関数]欄にある「平均二乗誤差」は、実際には「二乗和誤差」になっています。
対応する記事での実装方法に合わせて、「平均二乗誤差」と表記しています。
※Tips 1: ページの枠デザインやテキスト部分を非表示にするには、下記のパラメーターに手動で修正してください。
&hideText=false
※Tips 2: 各項目を非表示にするには、下記のパラメーターを手動で指定してください。
&x_hide=true
&y_hide=true
&xSquared_hide=true
&ySquared_hide=true
&xTimesY_hide=true
&sinX_hide=true
&sinY_hide=true
&prepare_hide=true
&description_hide=true
&cnum1_hide=true ~ &cnum8_hide=true
&numNodes1_hide=true ~ &numNodes6_hide=true
&epoch_hide=true
ちなみに、上記のチェックボックスでは、<既存パラーメーター名>_hide = true が自動的に指定されます。これと同じことを手動でする必要があります。
※Tips 3: オリジナル版の重みやバイアスの値で初期化する場合は、下記のパラメーターを手動で指定してください。
&initOrigin=true
※Tips 4: 乱数シードを指定するには、下記のパラメーターを手動で指定してください。
&seed=0.12345
※Tips 5: 各パラメーターの初期値は以下のとおりです。
[問題種別]関連のパラメーター:
【problem】 classification
【dataset】 circle
【regDataset】 reg-plane
[前処理/データ生成]関連のパラメーター:
【percTrainData】 50
【noise】 0
【seed】 0.XXXXX(ランダム)
[学習とデータ]関連のパラメーター:
【batchSize】 10
【batchFull】 false
[入力(特徴)]関連のパラメーター:
【x】 true
【y】 true
【xSquared】 false
【ySquared】 false
【xTimesY】 false
【sinX】 false
【sinY】 false
[中間層]関連のパラメーター:
【networkShape】 4,2
[ニューロン]関連のパラメーター:
【activation】 tanh
[リンク(重みとバイアス)]関連のパラメーター:
【initOrigin】 false
[学習の実行]関連のパラメーター:
【learningRate】 0.03
【regularization】 なし(L1、L2)
【regularizationRate】 0
[出力]関連のパラメーター:
【showTrainData】 false
【showValidationData】 false
【showTestData】 false
【discretize】 false
[全体表示]関連のパラメーター:
【hideText】 false
クレジット
このページとソフトウェアは、Daniel Smilkov 氏 と Shan Carter 氏 が作成しました。
これは、多くの人の過去の成果を継承することで成り立っています。とりわけ Karpathy 氏の convnet.js デモと、Chris Olah 氏のニューラルネットワークに関する記事が役立っています。
また、元となるアイデアで助けていただいた D. Sculley 氏や、フィードバックと指導を頂いた Fernanda Viégas 氏と、Martin Wattenberg 氏、その他の Big Picture & Google Brain チームの皆さんに、感謝を申し上げます。