読者です 読者をやめる 読者になる 読者になる

フリー哲学者ネコナガのブログ

人間にまつわること、哲学や科学、宗教、社会の問題、生き方のことなど書いています。基本的にエッセイです。

「人工知能」への誤解はなぜ生まれるのか─人工知能(AI)とは何か

www.itmedia.co.jp

 

 IT調査会社のガートナージャパンが、「人工知能に関するよくある誤解」10のリストを発表した(https://www.gartner.co.jp/press/html/pr20161222-01.html)。「ガートナーの顧客の間で」ということだが、かなり一般的な誤解のリストになっていると言えるだろう。ひとまず、10のリストを以下に引用しておこう。

 

  1. すごく賢いAIが既に存在する。
  2. IBM Watsonのようなものや機械学習、深層学習を導入すれば、誰でもすぐに「すごいこと」ができる。
  3. AIと呼ばれる単一のテクノロジが存在する。
  4. AIを導入するとすぐに効果が出る。
  5. 「教師なし学習」は教えなくてよいため「教師あり学習」よりも優れている。
  6. ディープ・ラーニングが最強である。
  7. アルゴリズムをコンピュータ言語のように選べる。
  8. 誰でもがすぐに使えるAIがある。
  9. AIとはソフトウェア技術である。
  10. 結局、AIは使い物にならないため意味がない。

 

 このうち、特に誤解が多いものとして個別に解説されているのは最初の二つだが、「企業は、SFの話と今の話を明確に分けておくことが重要です」と書かれているくらいだから、相当なギャップがあることは間違いない。

 

 ということで、ここでは個別の話は脇に置くとして、こうした誤解をそもそも生じないように、誰もが理解しておくといいのではないかということを少しだけ書いてみたい。とりあえず、二つの区別を頭に置いておくと、いろんなことが見通しやすくなるのではないかと思われる。

 

 まず一つは、科学者が言う「人工知能」と、企業やマスメディアが言う「人工知能」は、言葉の意味からして根本的に異なるということである。

 誤解を恐れず簡略化するが、科学者が言う「人工知能」とは「人間と同じような知能を持つ存在」ということである。これは「人間と間違えてしまうくらい」ということだから、今はやりの「人工知能」が本当の意味での人工知能ではないことは明らかだろう。つまり、科学者にとっての人工知能は「まだできていない」のであって、いかにしてこれを作るかを考え続けているのが科学としての人工知能研究である。

 一方、企業やマスメディアが言う「人工知能」とは、何か一つのきわめて特殊なことにおいて人間よりすごい、というくらいの語感である。しかしこれは、処理速度が爆発的に伸びるにしたがってできることが増えてきたというだけの話であって、最近になって急に何か新しい発想が出てきたわけでもないし、根本的に異なる原理で動くコンピュータが登場したわけでもない。要するに、企業やマスメディアは注目を集めればそれでいいわけだから、細かいことはどうでもいいのである。

 

 二つ目は、サイエンスとエンジニアリング、つまり「科学」と「工学」は違うものであるということである。もちろん、科学者とエンジニアでは興味の対象も異なる。

 科学者の仕事は、人工知能研究に関して言えば、どこまでも「理論を作ること」である。つまり、それが何にどう役に立つかは関係なく、「人工知能なんてものが作れるのかどうか」ということを徹底的に探求したいのである。だからこそ最先端の科学者たちは、他の誰よりも早くありとあらゆるいろんなことを考えつく。そうした理論の中から「役に立ちそうなもの」を見出して実用化するのがエンジニアの仕事だ。

 だから工学は科学にある意味で従属しているのだが(もちろん優劣があるということではなく、興味がどこにあるかの違いである)、昔は技術が先でのちに理論化というのもありえたのだが、今ではどんな分野でも事実上は理論が先行している。そして答えから言えば、基本的にどんな分野でも、最先端の科学者たちの成果が技術という形で次第に身近なものになり、さらにそれを多くの人が「理解」するまでには数十年かかると言われている。

 つまり、最先端の場で新しい発見・発明があっても、まずは一部のほんの狭い範囲でしか共有されず、基本的に次にはそのまま軍事利用されて(ここで大体のちに民間の企業が真似する技術が出揃う)、何世代も変わってその技術が使い物にならなくなったころに民間に下りてきて、それを一般人が「最新技術」として知るわけである。そこで初めて「何か新しいものが出てきたけど、よくわからない」ということになるから、それが理解されるようになるにはさらに年月を要するということだ。

 そして、これに当てはめれば今はやりの「人工知能」もだいぶ前からすでにあったことになるが、実際「ディープラーニング」にしても、理論としては80年代にすでに出来上がっていたということらしい。だから当時の最先端の研究者からすれば「なつかしい」というくらいなのであろうが、要するに当時と今ではコンピューター自体の性能が上がったというくらいしか違いはないのである。ちなみに、ディープラーニングは原理そのものが人間の脳とは異なるので、このままいくら進んでもそれだけで「知能」が生じることはない。

 

 もっとも、これだけ「すごい」と言われていたら、やはり科学者が「いつまで経ってもコンピュータはあまりにもバカだ」と言う意味がいまいちわからないという人もいるかもしれないので、最後に有名な「フレーム問題」を取り上げておこう。これは人工知能研究が行き詰まった一つの大きな原因でもあるのだが、かなり早い段階から指摘されていたにもかかわらず、今もまだ解決されていない問題である(人間においては、解決しているかのように振る舞っているだけではないかとも言われている)。

 フレーム問題は、ジョン・マッカーシーとパトリック・ヘイズの1969年の論文「Some Philosophical Problems from the Standpoint of Artificial Intelligence」で提起されたのが最初であるが、現代的にわかりやすく紹介される際にはダニエル・デネットの「Cognitive Wheels: the Frame Problem of AI」にある例が引かれることが多い。それは、ある部屋の中にある予備のバッテリーをとってくるというタスクを課されたロボットの話である。ただし、不幸にも部屋には時限爆弾が仕掛けられている。

 かいつまんで言うと、まずロボット1号は部屋に入り、幸いにもワゴンに載ったバッテリーを発見したが、実は爆弾もワゴンに載っていた、というものである。しかしロボット1号は、ワゴンを運び出せば爆弾も一緒に運び出してしまうことを理解できなかったので、爆弾ごとバッテリーを運びだし、そのまま爆弾が爆発した。

 そこで、自分の行動の結果として生じる「波及効果」まできちんと考慮に入れるようにプログラムしたロボット2号を作る。ロボット2号は、同様に部屋に入ってワゴンに載ったバッテリーと爆弾を発見するが、しかし、そこで動かなくなってしまう。ロボット2号は、爆弾やバッテリーを動かしても天井は落ちてこないか、壁の色は変わらないか等々、あらゆる可能性を無限に考慮し続けていた。結局、爆弾は爆発した。

 そこで、現在の目的にとって「関係のあること」だけを考慮するようにしたロボット3号が送り出されたが、ロボット3号はもはや部屋にも入らずに動かなくなってしまった。ロボット3号は、ありとあらゆる物事を関係のあることとないことに分ける作業に夢中だったのである。やはり爆弾は爆発したのであった。

 要するに、コンピューターは人間のように不完全な情報から暫定的な解を見出したり、不測の事態に対応したりといったことができないのである。別の言い方をすれば、コンピューターには「常識がない」。よく挙げられる例として「一人で地下鉄にも乗れない」というのもあるが、人間なら5歳の子どもでもできるこうしたタスクができなくて、どこに知能があるんだということだ。コンピューターと人間の間にあるこうした根本的なギャップを埋めない限り、本物の人工知能はあり得ないのである。

 

心の仕組み 上 (ちくま学芸文庫)

心の仕組み 上 (ちくま学芸文庫)

 
心の仕組み 下 (ちくま学芸文庫)

心の仕組み 下 (ちくま学芸文庫)

 

 最後に書いたような話に興味があれば、人間の知能についてかなりのトピックを扱っている本書はとりあえず読んでおくといいだろう。結局、人間の知能のすごさを知れば知るほど、現在言われている「人工知能」もやはり人間が作ったただの道具に過ぎないことがよく理解できる。本物の人工知能かそれに近いものができて、人間と「共存」するようになるのはまだ先の話だ。

 

nekonaga.hatenablog.com

nekonaga.hatenablog.com

 


© 2015 ネコナガ (id:nekonaga)
Amazon.co.jpアソシエイト