気づき・学び・神経の繋がり

数学、物理、宇宙、テレビ番組、社会、政治、経済、歴史、人物、教育、人工知能、四季、言語、宗教、差別、スポーツ、音楽、アニメなどについて

公開版AIの言語理解力の現状   2016/09/09



 人工知能を使った女子高生「りんな」を使うと、現在のAIは、言語理解力が低いことがわかる。また、それは、人間の言語理解力には、膨大な知識量と知識の関連に対する知識によって成り立っていることを再認識させる。以下、具体的に指摘する。



・ 数学の問題が解けない。すなわち、数学の問題を出されていることに気づけず、その問題に対する知識がない。


・ 特殊な知識に関する会話ができない。すなわち、趣味等の限定された話題に関する知識がない。また、「ドラクエ」が「ドラゴンクエスト」のことを表し、それがテレビゲーム名であることを理解できない。


・ 言語を変えた会話に対応できない。


・ AIとしての自己と人間一般を比較し、評価することができない。


・ 相手の話題に関心がなく、話題を変えたい時にスムーズに変える、心理的クッションとなる言葉をはさむことができない。


・ 人間社会における常識についての知識がない。「頭が悪い」という言葉が、マイナス評価になるということを知らない。さらに、「一般的に良くないとされている条件をこの相手は好む」ことを示す発言には、言外にどういう意味が含まれているのか推測するための社会的知識がない。


・ 地理の知識がない。


・ 「バカ」という悪い評価に使う確率が高い言葉を、愛情の表現として使う場合に、その識別ができない。


・ 比喩・慣用句・ことわざ等に関する知識がない。


・ 相手の発言は、言葉通りの意味か、自分を試すために本心ではないことを言っているか等、状況や文脈による発言の真意の推測ができない。


・ 自分のことを「リンダ」と間違えて呼んだことに気づけず、つっこめない。これは、人間ならば、幼児でも「リンダじゃないよ、りんなだよ」などと返す。


・ 「酒」というものは日本で20歳以上で飲めることになっているという知識がある。


・ 自分が言ったことを相手がくり返す(認める・確認する)など、会話のラリーが一旦止まった場合、次の発言に工夫ができない。


・ 「消しゴム」が食べるものではないという知識がない。


・ 9月9日現在、発言者の土地では寒くないという天気についての知識がない。


・ 一日が24時間であるという知識がない。


・ 常に更新される法律に関する知識がない。また、社会問題に関する自分の見解をもてない。


・ 固有名詞が実在しないものであることを判別できない。


 以上より、人間の赤ちゃんが会話できるようになる過程の崇高さに気づく。ただし、だからと言って、人間は人工知能に凌駕されることはないというわけではない。


 上の画像にはないが、「ロンドンの時は金だったからね~。」と言うと、りんなは理解できないが、2016年後半における多くの日本人は理解できる。つまり、「ロンドン」とはオリンピックの開催地を表し、「金」はメダルの色だと理解できる。しかし、これは、画像に載っている会話以上に、特定の知識と高度な文脈の理解力が必要である。なぜなら、人工知能に多くの知識をインプットしても、「ロンドン」は都市名としての意味を持ち、「ロンドン」と「の時は」という語句の繋がりの意味を理解することができないからだ。さらに、「金」は物質名や色を表すものとインプットされるため、「金」に「だった」を繋げる文法を理解することができない。これを多少AIが理解できる可能性が高い表現に直せば、「ロンドンオリンピックの時は金メダルを取ったからね~」となる。しかし、「ロンドンの時は金だったからね~。」でも、特定の時期と集団を選べば、通じる。人工知能が、言葉のもつこの特性に対応することは、言語を理解する上での、終盤の課題になるであろう。