ニューラルネットワークを使用するうえで気おつけなければならない問題として、過学習があります。ニューラルネットワークではこの過学習を防ぐための方法の一つとしてDropoutという手法があります。
今回はこのDropoutについて調べました。
ニューラルネットワークを使用するうえで気おつけなければならない問題として、過学習があります。ニューラルネットワークではこの過学習を防ぐための方法の一つとしてDropoutという手法があります。
今回はこのDropoutについて調べました。
ニューラルネットワーク・ディープラーニングで学習を行う際には重要となるものはいくつかありますが、その中の一つとして活性化関数があります。
この活性化関数によってネットワークの学習精度や時間に大きな差が出てしまいます。
そこで今回はニューラルネットワーク・ディープラーニングで使用されている基本的な活性化関数について調べました。
KerasはTensorFlowのラッパーであり、TensorFlowと比べ簡単にモデルを作成することができます。
そこで今回はKerasを用いて多層パーセプトロンを作成し、MNISTの学習を行いました。
近年盛んに利用されている技術としてAIや機械学習があります。
その機械学習の中でもよく話題になるものとして、ディープラーニングがあります。
そこでディープラーニング・ニューラルネットワークに関する記事をまとめました。
多層パーセプトロンを使用して画像認識を行うことができます。
しかし多層パーセプトロンで画像認識を行うにはいくつか問題点があります。
そこで今回はより効率的に画像認識を行うことができる畳み込みニューラルネットワークについて調べました。
機械学習のデータセットとして有名なものに MNIST というものがあります。
これは手書きの数字画像とその正解データを集めたもので、機械学習の画像認識能力のテストとしてよく利用されます。
今回はこのMNISTを用い、多層パーセプトロンで画像認識を行いました。
ニューラルネットワークの学習方法として勾配下降法があります。
この学習法は損失関数の数値微分を用いることでニューラルネットワークの重みを変更し、任意の関数を表すようネットワークを学習させます。
今回はこの勾配下降法・損失関数・数値微分について調べました。