パーセプトロン(perceptron)

パーセプトロン(perceptron)は、心理学者・計算機科学者のフランク・ローゼンブラットが1957年に考案し、1958年に論文を発表した、人工ニューロンやニューラルネットワーク(neural network)の一種。パーセプトロンは1943年に発表された形式ニューロン(formal neuron)に基づく。

パーセプトロンは視覚の機能をモデル化したものであり、パターン認識を行う。シンプルなネットワークでありながら学習能力を持つ。1960年代に爆発的なニューラルネットブームを巻き起こしたが、1969年に人工知能学者マービン・ミンスキー(Marvin Minsky)らによって線形分離可能な物しか学習できない事が指摘された事によって下火となった。

他の研究者によって様々な変種が考案されており、ニューロン階層を多層化し入出力が二値から実数になったボルツマンマシン(1985年)やバックプロパゲーション(backpropagation)(1986年)などによって再び注目を集めた。現在でも広く使われている機械学習アルゴリズムの基礎となっている。

ローゼンブラットは形式ニューロンの考え方を基にしてパーセプトロンを開発した。S層(感覚層、入力層)、A層(連合層、中間層)、R層(反応層、出力層)の3つの部分からなる。S層とA層の間はランダムに接続されている。S層には外部から信号が与えられる。A層はS層からの情報を元に反応する。R層はA層の答えに重みづけをして、多数決を行い、答えを出す。

1970年頃、デビッド・マー(David Marr)とジェームズ・アルブスによって小脳はパーセプトロンであるという仮説があいついで提唱された。のちに神経生理学者伊藤正男らの前庭動眼反射に関する研究によって、平行繊維-プルキンエ細胞間のシナプスの長期抑圧(LTD, long-term depression)が見つかったことで、小脳パーセプトロン説は支持されている。

単純パーセプトロン

入力層と出力層のみの2層からなる、単純パーセプトロン(Simple perceptron)は線形非分離な問題を解けないことがマービン・ミンスキーとシーモア・パパートによって指摘された。

多層パーセプトロン

デビッド・ラメルハートとジェームズ・マクレランドはパーセプトロンを多層にし、バックプロパゲーション(backpropagation)(誤差逆伝播法)で学習させることで、線型分離不可能な問題が解けるようにし単純パーセプトロンの限界を克服した。

関連