×スポンサーサイト

上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。

×言葉ノート - 学問2 - 人工知能

不気味の谷
日本のロボット工学の研究者である森政弘博士は、『一般的にロボットの外観を人間に近づけていくと親近感は高まっていくが、人間らしさがある点を超えた途端に親近感がガクンと落ち込み、それ以降は人間に近づけば近づくほどどんどん不気味に感じられるようになる』と主張し、この親近感の落ち込みを不気味の谷を名づけた。さらに氏は、不気味の谷に落ち込んだロボット同士を比較した場合、動かないものより動くもののほうがより不気味さを感じさせるとも主張している。

フレーム問題
有限的な処理能力しか持たない人工知能が現実的な問題に対処する際に、どこまでを認識させどこまでを処理させるかという枠(フレーム)を定める必要がある、という問題。
例えば「ある物をAからBへ移動させる」という動作を人工知能に行わせる場合を考える。人間であれば特に難しいと感じないであろうこの行為を、もし人工知能がフレームを設けない状態で行おうとすると、まず「その物が持ち上がるかどうか」、「その物を持ち上げても他の物は動かないかどうか」や、「移動させても他の物に影響しないかどうか」、「Bに置くことで問題が発生しないかどうか」など、普段人間が意識しないような事象に対してまで判断を行おうとしてしまい、結果オーバーフローを起こしてしまう。つまり、人間であれば当たり前のこととして無視してしまっている前提条件に対しても判断を行おうとしてしまうので、何を無視してよいか、何を判断しなければならないかを予め設定する必要があるということだ。
また、一見フレーム問題を解決しているように思える人間も、実は上手く誤魔化しているだけで完全に解決できているわけではない、とする説もある。これは、例えば何か新しい機械の操作法を覚えようとする際に、最初は全てのスイッチやパネルに対して思考を巡らせ、注意を払ってしまい、非効率的な操作しかできないが、次第に「どういうときに何を見、触ればいいか」、言い換えれば「何を無視してよいか」を学習していく、というその過程を、自らフレームを作り上げていくという作業に重ね合わせて考える説だ。

チューリング・テスト
エニグマの解読で有名なイングランドの数学者アラン・チューリングによって考案された、人工知能の完成度を測定するためのテスト。
簡単に説明すると、まず外界から隔絶された二つの部屋を用意し、それぞれに人間とテストしたい人工知能を入れ、判定者は外からそれぞれの部屋に対して質問を投げかけ、それに対する反応を見る、というもの。質問や回答はキーボードからの打ち込みによって行われ、また判定者はどのような質問をしても構わないし、回答する側の人間も、どのような回答を(機械的な回答や誤答でも)しても構わないとする。テストの結果、判定者が人工知能が入った部屋を人間的だと判定すれば、その人工知能は十分に知的であると結論付けられる。
このテストに対する論駁として、サールの中国語の部屋の思考実験がある。

中国語の部屋
アメリカの哲学者ジョン・サールが提唱した、チューリング・テストに対する反論的思考実験。
ある部屋に、英語しか話せない人間を閉じ込めるとする。その部屋には、外からの質問に対して回答するための筆談の道具と、あらゆる質問とそれに対する回答のパターンが網羅された中国語の辞典、そしてその辞典の使い方が書かれた英語の説明書が置いてある。この状態で、中国人が部屋の外から質問文をこの部屋に投げ入れると、中の人は中国語が全く読み書きできないにも関わらず、その質問文に対する回答を中国語で返すことができる。すると、外の中国人は、部屋の中にいる人間が中国語が全く理解できないにも関わらず、あたかも中国人であるかのように錯覚してしまうというもの。
つまり、チューリング・テストでは「中国語の辞典」と「中の人の作業効率」の完成度の度合いしか判定することができず、「中の人がどれだけ中国語を理解しているか」という本質的な部分の判定は行えていない、という反論である。
ただ、この中国語の部屋の例えでは、辞典を含めた部屋そのものを人工知能に当てはめて例えているため、チューリング・テストが人工知能の知性を判定していないと結論付けるためには中国語の部屋全体が中国語を理解できていないということを証明しなければならない。また、サールは「量(スケール)」の存在を無視しているため、作業を続けるうちに中の人が中国語の文法を理解していく可能性や、複雑な質問に対する回答を導くための作業量に対する推量などを欠いている、という指摘もある。

自由意志
その言葉が表す通り、人間の選択はそれぞれの自由な意志によって行われているという学説。予め決定された選択肢に沿って行動するのではなく、自らの意志によって行為を決断するという自由を持つということは、一般的な機械と完成された人工知能との間にある大きな差異の一つであると考えられる。
絶対的な自由意志を保障するためには、基本的に「将来起こる全ての事象は現在の状態によって予め決定されている」という決定論よりも、それを否定する立場の非決定論的な観念が必要であると一概には考えられているが(決定論と自由意志は両立し得ないという非両立主義)、ホッブズのように、決定されているかどうかは問題ではなく、人がある行為を意志したときにその行為とは別の行為を行うことも可能であったという場合にのみ、人間は自由意志を持ち得るという主張もある(両立主義)。この『「別の行為も行えた」ということが必要である』という原理は選択可能性の原理と呼ばれる。
前者の立場においては、しばしば「神の存在証明」が問題とされた。なぜなら、キリスト教的な「全知全能の神」がもし存在するのであれば、その神によって全ての事象の帰結は予め決定付けられており、まるでチェスの駒であるかのような人間の自由意志など、存在し得るはずがないということになるからだ。

神の存在証明
中世哲学において、観念的に存在が自明であるとされていた神を、実態的な或いは理性的な論証によってその存在を証明しようと考え出されたのが始まりである。その証明方法によって、
・「これほど完成された自然界が存在するのだから、
 それを作り出した何者かが存在しないわけがない」とする目的論的証明
・「存在を属性として捉え、その存在属性を最大化したものが神であると定義すると、
 故に神は最大限に自明に存在する」とする逆説的とも言える本体論的証明
・「全ての事象には原因と結果があるが、その原因の原因、さらにその原因、
 と辿っていくと最終的に原因の出発点たる神に辿り着かねばならない」とする宇宙論的証明
・上記三つの証明を否定した上でカントが導き出した道徳論的証明
という四種類の存在証明に分類することが出来る。


人工知能に関する雑考:
もし将来的に、外部刺激に対して人間と全く変わらない反応を返す人工知能が開発された場合に、それを人間とは異なると断定することが果たして可能なのだろうか。確かに、「生物的な体を持たない」などのように、物質的な面からその区別を行うことは可能かもしれない。しかし、中国語の部屋による反駁と同じように、その内部で人間と同様の処理が行われ、人間と同様の意識を持ち、自由意志によって行動を選択しているかどうかの判断を外部から行うことができるのか。
もっと直接的に言うなら、「それは自我であるか否か」の判断をどうやって下せばいいのだろう。
人間の意識活動を行動主義心理学や認知心理学によって機械的に分解し、それを人工的に再構築することで究極的な人の模造物である人工知能は完成する。さらにその人工知能が人間と同様の運動を行うことが可能な、また人間と全く同じ外見を持つボディを手に入れたとした場合、我々人間は、彼らを「ロボット」と見るだろうか、それとも「人間」として扱うのだろうか。

「不気味の谷」の問題がなぜ起きるのか、ということを考えた場合に、それは我々人間が人間とそっくりのロボットをあくまでもロボットと見なしているからであると考えられる。つまり、人間の手によって作られた筐体を我々はどうやっても人工物としか見なせないのだ。
例え完全な人工知能と完全な人工筐体を備えたロボットが完成したとしても、それはどうやっても人間たりえない。ならば、「人間と全く同じ情動を催すもの」と「人間」との差異を生む何かが、そこには確かに存在していなければならないはずだ。
恐らくそれは、我々の中にあるものなのではないだろうか。もし一見すると人間と全く変わらないロボットがいるとして、それがロボットだと知らされることなく相対すると、恐らく我々は「不気味の谷」による恐怖感を抱かないだろう。それが「人工物」であるとわかった瞬間に、我々はそれを「ロボットである」と見なす。つまり、「完全に人間に近い人工物」と「人間」を分けるファクターは、それを判断する人間がその対象に投げかける意識によって左右されると考えられないだろうか。
スポンサーサイト

コメント


コメントの投稿














管理者にだけ表示を許可する


トラックバック

[トラバURL]http://neoblog.blog6.fc2.com/tb.php/217-215e6b6a
この記事にトラックバックする(FC2ブログユーザー)
上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。