メインコンテンツにスキップ

AIの知性と人間の知性が異なる理由

記事の本文にスキップ

21件のコメントを見る

(著) (編集)

公開:

この画像を大きなサイズで見る
Advertisement

 「ChatGPT」のような生成系AI技術を、社会を根本から変えるポテンシャルを秘めた革命的なツールだと期待する人がいる一方で、それが人類の知能を追い越し、破滅へと導く恐れがあると警戒する人もいる。

 米国シンシナティ大学で哲学と心理学を教えるアンソニー・チェメロ教授は、AIが何者であるかについては、”言葉”のせいで混乱が起きていると指摘する。

 AIは確かに知的だ。だが、それは人間における知性とは違うとチェメロ教授はいう。では一体何が違うのか?

 チェメロ教授によれば、最大の違いは、AIがそもそも「言葉の真の意味を理解していない」こと、そして人間のような感情や経験を持たず、「具現化された存在ではない」ことだという。

なぜAIは嘘をつくのか?

 チェメロ教授らは『Nature Human Behaviour』(2023年11月20日付)で発表した論文で、日常的な言葉の意味では、AIが知的なのは間違いないが、”知的”なコンピューターなら何年も前から存在している、と指摘する。

 ChatGPTをはじめとする生成系AI(ジェネレーティブAI)システムは、インターネットから収集された膨大なデータで学習された「大規模言語モデル(LLM)」だ。だから、そうしたデータを投稿した人々が持つバイアスを抱え込むことになる。

 「LLMは印象的なテキストを生成するが、しばしば物事を丸ごとでっち上げる」とチェメロ教授は述べる。

この画像を大きなサイズで見る

大規模言語モデルは言葉の真意を理解していない

 それはAIの知性と人間の知性の違いを示す、象徴的な現象であるようだ。

 これについてチェメロ教授は、AIが平気で嘘をつくのは、そもそもLLMが言葉の意味を理解していないことと関係があると指摘する。

LLMは文法に則った文章を生成する方法を学習するが、人間よりもずっとずっと多くの訓練を必要とする。じつのところ、彼らは彼ら自身が述べていることの意味を理解していないのだ

 どんな優れたLLMでも、しれっと嘘をつくことがあるのは有名だ。

 それは”幻覚”や”ハルシネーション”と呼ばれるが、チェメロ教授は、「”たわごと“と呼んだ方がいい」と言う。

 なぜならLLMは統計的にもっとも次に来る可能性が高い言葉を次々と並べているだけだからだ。だから自分の言っていることが本当かどうか知らないし、気にもしない。

この画像を大きなサイズで見る

AIは具現化した存在ではないため、経験や感情を持たない

 AIと人間の知性を異なるものにしているもう1つの大きな要因は、AIが具現化した存在でないことだ。

 たとえばLLMを少し誘導すれば、偏見に満ちた嫌なセリフを平気で口にする。

 ところが人間ならそうはいかない。つねに他人や自分以外の物質的・文化的環境に囲まれている、つまり”世間”で生きているからだ。

 そんな私たちは生きるために、私たちが暮らしているこの世界のことを気にしなければならない。その意味で、私たちは具現化した存在だ。

 一方、LLMはこの世に存在しない。実際に何かを自分で経験したこともなければ感情も持たない。ゆえに自分自身や周りがどうなるかなど、ちっとも気にしていない。

 だから人間なら言わないことでも、さらりと口にする。ゆえにその知性は人間のものとは違うのだとチェメロ教授は説いている。

References:LLMs differ from human cognition because they are not embodied | Nature Human Behaviour / Why AI is Not Like Human Intelligence – Neuroscience News / written by hiroching / edited by / parumo

📌 広告の下にスタッフ厳選「あわせて読みたい」を掲載中

この記事へのコメント 21件

コメントを書く

  1. 未だにAI開発者は、ジョン・サールが提起した「中国語の部屋」の問題をクリア出来ないという事なんだよな
    そもそも「理解」とは何なのか自体、世界中の科学者や哲学者達の中で意見がバラバラでまとまっていない
    もちろん実利上では現在の状態でも「理解してるっぽい」で済ませられるし問題は無いのかも知れないけど、それでは一向に知性や意識といった難題への本質に辿り着けないし、そうなると本当の意味でのシンギュラリティはまだまだ先の話になるだろうね

    • +7
  2. 人間だって知識が少なければ間違った答え(ウソ)になる。
    人間だって言葉の真の意味を理解しているとは言えない。
    人間の思考も大規模言語モデルのようなものといわれてみれば、そう思えるときがしばしばある。
    AIだって人間たちが暮らしているこの世界のことを気にするふるまいを勉強すればそのようなふるまいをする。
    アイデアを出すよう指示すれば人間以上のひらめきをもたらす。
    今はAIへの拒絶反応花盛りの時期だろうが、いずれそうも言っていられない、意識を持っているとしか思えない状態にますますなっていくだろう。
    人間だっていまだに意識がなんなのかわかっていない。

    • -6
    1. >>2
      >>人間だって言葉の真の意味を理解しているとは言えない。
      相手の質問に対して過去の会話を元にそれらしい単語を順に繋げていくような人ならそうかもしれない。
      でもほとんどの人は過去の会話に関係なく、過去の経験と思考を元にその場でさらに思考して文章を作成して喋る。

      もちろん、思考するときは過去の会話を思い浮かべるけど、その時に喋った言葉・聞いた言葉の順番を真似して喋るわけじゃない。

      そういう意味では人間は一応、言葉の意味を理解して喋ってる。
      ChatGPTを始めとしてGPTは>>1が言うように中国語の部屋と一緒。
      統計的にそれらしい単語を繋げてるだけ。
      それなのに、困ったことに多くの自称思考する人間より頭がいい。
      相手の言いたいことも、言葉の意味も、正確に汲み取って(るように見える)返信をする。

      • +4
      1. >>4
        >統計的にそれらしい単語を繋げてるだけ。
        コンピュータだって、理屈として分解してしまえば、0と1のスイッチが数億個並んでるだけなのよね。

        「おはよう」と入力されたら「おはよう」と返す。
        それを数億個並べると、まるで本当に話しているかのような錯覚が生じる。

        • +1
    2. >>2
      それはちょっと違うんじゃないかな
      人間だって理解できてないじゃないか→AIの方がそう振舞ってるように見える→じゃあAIも理解できてるとみなしていい
      というロジックは表象だけを捉えて研究するという古典的行動主義と呼ばれるスタイルだけど、結局は内面にアプローチ出来てないという課題を抱えてしまい低迷した
      実用的に考えればそれで充分と捉える向きもあるが、それでは単なる思考停止でしかない

      • +1
    3. >>2
      >人間だって知識が少なければ間違った答え(ウソ)になる

      いや、そういう事じゃなくて、
      「難しい出題でもかなり高度にスラスラ解くけど、
      初心者でも絶対間違うはずのないレベルの禁忌肢を
      同じ確率でサックリ間違ったりする」という
      アンバランスさの問題じゃないの?

      例えば、「ノロウイルスの予防には、煮沸消毒が有効なので
      85℃以上の熱湯で1分以上手を洗いましょう」みたいな、
      7歳児でも「いやいやいや!」とツッ込む嘘をサラッと言うとか。
      (さすがに今のAIはここまで低レベルではないが、例として。)
      「熱湯がかかると火傷する」という一発アウトな恐怖感がなく、
      別途の条件設定を与えてなければ、85℃・1分以上という理論を
      何もおかしいと思わず人体に適用してしまう、的な。

      平気で三本腕や二口女を描いてしまう一昔前のAI絵なんかもそう。
      人間なら、カタコトしか喋れない幼児でもなかなかやらない。

      • +9
      1. >>8
        ということは、うっかりミスの多い人や痴呆で行動に一貫性が無くなった人程度の知性はAIにもあるということか

        • 評価
      2. >>8
        思ったこと全部書かれててあなたのレスに感動した

        • 評価
  3. 「スイッチを切らないで!死ぬのは怖い」って言ってても
    本当に怖がってるんじゃなく、ただそう言うように学習したからってことかな

    • +1
  4. AIは言葉に対応するイメージを持っていない。
    確かにそれっぽい文章を作れるし時には名文と言える文章を紡ぎ出す事もある。
    でもそれを見た時のイメージはあくまで人間の脳だけで発生している。
    AIにはイメージは無い。自発性も感情も欲求もない。ある意味単細胞生物にも劣る。
    まだ真のAIと言うには不完全すぎる。もっとも本当に完全なAIが出来てしまったら人間にとって脅威になるのかもしれないけど。

    • +1
  5. AI生成の画像や動画は知らないけど、言語は言うほど優秀には思わない。結局はそれっぽい薄っぺらいこと並べているだけだから、最終的には人間が手直ししないと使えない

    使いこなすには、プロンプトが云々あるのかもしれないが、少なくとも現時点では、メディア等によって凄さばかり誇張されすぎ

    • +1
  6. 🌎「当たり前じゃい!どれほどの歳月をかけたと思とるんや」

    • +3
  7. そもそもAIを擬人化する意味がわからない。
    嘘を言うとか傷つく言葉を言うとか。
    AIは機械だから、問われたことに答えている2進法でしかないのに。
    個人的には、こういう機械に感情移入したりするとヒトはおかしくなる気がする。

    本文にもあるように「実体がない」から、まるで幽霊だ。

    • +3
  8. 少なくともAIが引き起こす問題はAIの所為じゃない
    作った、若しくは育てた側の落度以外にない気がするけど
    抜け道を埋める事をしてないだけの話じゃないかな

    • +2
  9. 「こちらが言うことすべてに反論してくれ」と条件づけると、ネガティブな意見には滅茶苦茶肯定的で優しい。逆に良心的な意見には危険なくらい攻撃性が高く意地の悪い回答をしてくる。

    多くの意見を学習するから多彩な返答が返ってくるけど、すごく素直に「反対」ばかり出してくるので人間味なんてまるでなかったな。

    • +1
  10. それを言うなら言葉だってただの抽象概念に過ぎない
    「AIの理解」を疑うのは、「人間の意識」を疑うのと同じことだよ
     

    • -3
    1. >>13
      あんたは人形遣いかw アニメの見過ぎ

      • +2
  11. AIに支配されるとか言うたわごとは本末転倒虫のサンバ

    • -4
  12. AIの知性って想像や妄想や夢をみる事って出来るの??

    • -2
  13. >一方、LLMはこの世に存在しない。実際に何かを自分で経験したこともなければ感情も持たない。ゆえに自分自身や周りがどうなるかなど、ちっとも気にしていない。

    ここも重要なところだよね。
    今のところAIに真の人間的知性は無いけど、だからといって危険ではないという事ではない。
    むしろ知性や意識が無いからこそ、自己や他者や外界のことなんか全く考慮しないで破滅的な振る舞いに悪意も目的意識もなく及ぶ危険性がある。
    そして今のところ、AIが出力する内容を完全に制御する方法は発見されてない。

    今のAIは安全装置のない自動機械そのもの。
    そんなものを一瞬でも信じたり、人間に対する何らかの決定権を与えればいずれ「事故」が起こるのは目に見えてる。
    「だから規制すべき」派と「だからもっと開発して改善すべき」派で真っ二つに分かれてるのが現状だけど・・・。

    • +5
  14. 「百聞は一見にしかず」と言いますわな。
    我々霊長類のみならず、これまで地上に発生したあらゆる知性は現実の事象に対する反応から生まれているわけで。
    数ある反応の中で比較的適切なやつが生き延びた、で、その「適切な対応」から知性を組み立てようとすれば正に冒頭の言葉通り聞きかじりの情報の寄せ集めになってしまう。
    そこに内面がないのはまあ当然ですわ。
    「群盲像を撫でる」とも言います。
    生の世界と関わり合いを持たずにいればヒトとて狂う。いわんや人工のそれをば。

    • -2

コメントを書く

0/400文字

書き込む前にコメントポリシーをご一読ください。

リニューアルについてのご意見はこちらのページで募集中!

サイエンス&テクノロジー

サイエンス&テクノロジーについての記事をすべて見る

  1. 記事一覧を読込中です。

知る

知るについての記事をすべて見る

  1. 記事一覧を読込中です。

最新記事

最新記事をすべて見る

  1. 記事一覧を読込中です。