この画像を大きなサイズで見るAIが過去に自ら生成したコンテンツを学習データとして使い始めるのは、時間の問題だった。
大規模言語モデル(LLM)をベースにした生成AIが現代社会を席巻するようになったのは、ほんの数年前のことだ。
にもかかわらず、彼らはたちまち人間の知識を食い尽くし、身につけるべきさらなる知識を求め始めた。そこで狙いをつけたのが、AI自身が過去に生み出したものだ。
ではAIが生成した知識で学んだAIは、さらに賢くなるのだろうか?答えは逆だ。
出力がおかしくなりゴミのようなコンテンツを吐き出すようになったという。それがAIを崩壊させると科学技術ジャーナリストは警鐘を鳴らしている。
AIがAI生成データを学習するという悪循環
AIがAIから学ぶとモデルが崩壊してしまうリスクについては以前も指摘されていた。
科学技術を専門とするジャーナリスト、スティーブン・ヴォーン=ニコルズ氏は、この現象を「GIGO」の典型例であると指摘する。
GIGOとは、”Garbage In, Garbage Out”の頭文字をとったもの、「ゴミを入れればゴミが出る」という意味だ。
コンピュータサイエンスの分野では、質の悪いデータを入力すれば、当然のように質の悪い結果になることを、GIGOと呼んでいる。
どんなに優れたAIモデルであっても、質の悪い情報からしか学習することができなければ、賢いモデルには成長してくれない。
AIが口にする言葉は次第に一貫性を失い、明らかに間違った情報や、不快で有害な内容すら吐き出すようになる。
こうした劣化を予防するために、Google、OpenAI、AnthropicといったAI関連企業は、「RAG(Retrieval-Augmented Generation/検索補助生成)」と呼ばれる手法を試している。
RAGとは、簡単に言うと、AIにググらせる方法だ。質問に回答するために、すでに学習したデータだけに頼るのではなく、リアルタイムで情報を検索させるのである。
こうすれば、AIは人間が新たにネットに投稿した最新情報に触れることができる。常に新鮮で良質なコンテンツから学ぶことで、AIモデルの崩壊を防げるはずだった。
この画像を大きなサイズで見る対策として導入された検索補助生成の限界
ところが困ったことに、これまで知識の宝庫だったはずのネットが、すでに生成AIの粗悪コンテンツで埋め尽くされたゴミの山と化しているのだ。
AIが吐き出したスパムのごときブログ、何度も使いまわされて古びた豆知識、AIがAIから学んで書いた中途半端なアドバイスなどなど、ほとんど役に立たないゴミのような情報がネットに溢れているのだ。
そんな汚染された情報源を検索したところで、何か意味はあるのだろうか?
この懸念は、Bloombergの研究者によって確認されている。
試みに11種の最新RAG搭載モデルを従来型モデルと比較していたところ、プライバシーの侵害から誤情報の生成まで、RAG搭載モデルのほうが危険かつ非倫理的な回答をする傾向にあったのだ。
ヴォーン=ニコルズ氏が懸念するのは、こうしたモデルがカスタマーサービスや健康相談窓口など、ごく日常的なところですでに採用されていることだ。
同氏はこの状況を「スローモーションで起きている衝突事故のようなもの」と述べ、いずれ起こりうる深刻な問題を示唆している。
この画像を大きなサイズで見るAIの未来は人間の知識次第
今や人類はAIにさまざまな意思決定を委ねてしまっている感があるが、頼りのAIが依拠しているのは、もともと私たち人間が積み重ねてきた知恵であることを忘れてはいけないようだ。
地上でもっとも高い知能を誇るはずの私たちがすべてをAIに任せて、自ら調べた新しい情報を伝えようとしなくなったら?
その時、AIはAIから学んで劣化し、人類は再び自ら考えざるを得なくなる……そんな皮肉な事態もあり得るのだろうか?
References: AI model collapse is not what we paid for • The Register
















最後に残るのはアナログな 人間がやっぱり一番いい
AIに全てを任せちゃダメだよ
スマホが普及してTwitter流行ったあたりでブログもめっきり廃れたよなあ
お陰でジオシティーズとかホームページサービス自体終了しちゃったから
ネット上からごそっと消失した情報もあるよな
今のAIくんはあくまで人間が作った情報を整理して出力するだけだから
結局は人間の方でネットの海に情報を浮かべないとどうしようもないのよねえ
トンビからは概してトンビが生まれるのは必然なのでは?
サンプルは我々自身なのだろう?
あなたに関するネットの情報が、あなた自身やあなたの全てではないのは明白。
AIが学習するための良質なデータが早晩枯渇するのではという問題提起は他のメディアでも見たことがある。既にLLMの性能には頭打ちの傾向があるとか。ちょっと便利な小道具くらいのところで落ち着きそうなんだよな。
ではなぜ人類は人類から学んで劣化しなかったのか?
データの解像度の問題? データの量の問題?
だったらいずれAIはこの問題を乗り越えるだろう。
確かに。人間同士で学んで劣化するなんて想像もしなかったし現実に起きてない。
所詮今のAIはそれっぽい単語の羅列を出力するだけ、なんだよね。今は真の知能とはいい難い。
解決するとしたら根本的に拡散モデルとかトランスフォーマーとは違う新たな理論が出てくると予想
でも人間同士で排外主義や偽科学など劣化情報で盛り上がってますよね
排外主義は「排外主義」、偽科学は「偽科学」として峻別できているのであれば問題ないのでは。
人類には現実世界に触れ現実の情報を得られる五感と知能が揃ったハードウェアがウン十億台あるからでは?
AIにロボットの体を与えてもムリだと思う。単体機能的には可能であろうけど、物量面において製造し稼働させるエネルギーが圧倒的に不足する。
そのようなエネルギー資源は地球には無い…設計上の問題と言うよりは物理的な問題が壁になる。埋蔵資源を食いつくしたら終わりの機械生命体は持続可能ではないということ。
人間が人間から学ぶ時には、自分が良いと思う(か、すでに良い評判を得ている)知識や情報だけを選別して学習するからじゃないか?
ありったけの情報を手当たり次第に吸い上げるなんて真似、人間にはできない。
取捨選択の「捨」の判断(何を基準に、どれを棄却するか)が、大事なのかもね。
情報ソースを厳選してたからかなーと思う。いわゆるアカデミズムがその役割を担っていた。けど、今AIが学習してるのはネットのコンテンツだから、元々そんな品質はないんだと思うよ。AIが登場する前から「いかがでしたかブログ」みたいな劣悪な情報を人間自身がせっせと量産してたから。そもそもインターネット自体が劣悪な情報源なんだよ。
肉体での経験の有無って、どれぐらい影響があるのだろうか、とか考えます。
「痛くなければ、覚えませぬ」
いや、マジで、
生物の機能として、物理的に痛い目にあって命の危険を感じたりした失敗は
一度でも強烈に脳へ刻みつけられる。
そのせいで、たまたま運が悪かっただけの偶然でも
一生 膾を吹かないではいられない不合理なトラウマが植え付けられたりもあるけど。
実際劣化しまくっている
人類は別に何も新しいものを生み出せたわけではない
延々と式変形を繰り返しているだけ
それはあくまでも地上で一番賢いのが人間だったからじゃないかな
だから人間は考えるのをやめなかった
でもAIが人知超えて人間が考えることを放棄したら?
例えばイラスト一つでも、あんなに画像生成でてきたら新しい人間の絵師はもう育たないだろう、ほぼ消えるだろう
そうしたら生成同士が食い合うしかない
これがすべての分野に起きうるんだよ
事前学習だけではなく人間の様にリアルタイムでも常に学習可能にすれば良いのかもな。
AIも現在のところ身体こそないものの既に視覚と聴覚と会話能力は手に入れてるんだからネットは勿論、リアル世界でも常にカメラとマイクに接続して、そこで見たもの聞いたもの会話したものを学習させればいい。
AIなんだから一つのカメラだけでなく何なら世界中のカメラに繋いでも良い。それに普通のカメラだけではなく最新の望遠鏡や研究施設のデータも学習させる。さらに人間には見えない聞こえない可視光以外の電磁波や超音波からの学習も可能。そしてもう一つAIの強みはそのデータと知見を他の無数のAIと瞬時に共有できる事。
これについてはまだどこも(公には)殆どやってないから学習のフロンティアとも言える。
やらないのは特に欧米で強いAIの超知能化への警戒心もあるかもしれない。
しかし世界的競争の中いずれはこういうAIも出てくるだろう。
そもそも人類の場合個体差が激しいし、ちょうどいいところで学習を止めて過学習に陥らないように自分で調整できるので、機械的に学習させてる今の生成AIはまだまだトレーニング方法の余地があると思う。どういう知性を育てたいかの問題…つまり教育論の問題にもなるかと。
人と人で学び合えば賢くなるがAIは逆か
人は多く学ぶほど個性が際立っていくが、AIは平準化していくだけ
同じ学習だと言うやつも結構いるがやはり違うわな
>ではAIが生成した知識で学んだAIは、さらに賢くなるのだろうか?答えは逆だ。
>出力がおかしくなりゴミのようなコンテンツを吐き出すようになったという。
なんかこのへんは、
映画や古典文学などの幅広い素養から試行錯誤してコンテンツを確立していった黎明期の漫画家は、引出しが多くて深みのある傑作を生み出したけど、漫画だけ読んで育って漫画家を目指す奴が描いた物は 劣化焼き直しのツギハギ二番煎じばっかりでつまらない ――― みたいな現象を彷彿とさせる気がする。
それは自分が少年の頃に触れたものを神格化してるだけ現象やで
映画、音楽、アニメ、ゲーム、アイドルとか全般に同じロジックの奴が大勢いる
ある意味人間特有の現象。
最初と二番煎じの区別もつかないやつもたくさんいるんだよね
コロンブスの卵ってやつ
最初が最初じゃないことも知らなかったりな
自分にとっての最初でしかないというね…
例えば指輪物語でエルフやドワーフの種族の特徴や文化なんかに物凄い膨大な量の設定を作り上げて魅力的な存在として世に送り出したけど
後発作品がそれを取り入れたときに「指輪物語のアレを読めばわかるだろ」で説明を省いたら
さらに後発は指輪物語が元ネタだって事すら知らないし設定もよく判ってないから知ってる人向け前提の描写すら消え去って
さらにさらに後発は「耳尖ってるだけの人間」「背が低いだけの人間」としか描写されず種族特有の魅力とかは何も無いものに…
みたいな現象だあね
本当に比喩でなく単一の作品しか知らなくて同じような派生作品とか元ネタの元ネタの元ネタ…って遡って参照することすらしないとそうなる
前から言われてたことだから、反 AIさんに「ゴミデータばら撒いて学習データバグらせれば?」って提案したら、逆ギレし始めたのは腹抱えて笑ったw
しかもご丁寧に論点ずらしまでしてくるし
まぁ、触ったことも無いから頭の中のイメージだけで反論したんだろーなー(笑)
どうにかしてAIの劣化も反AIのせいにできないかな
社会実装という点ではすでに反AIの影響は出ているね
クリスタとかがAIブラシを導入しようとしたら反AIが騒いで結局お流れになった
でもAdobeが似たようなの導入しようとしたら日本の反AIはだんまりw
逆ギレとか言うが十中八九、許諾や著作権の問題棚上げにしてばら撒けるわけねえだろと言われたパターンだろ
それを論点ずらしとして処理することで反論を避けたってオチ
AI関連はこういう対立煽り厨が多すぎる
本音ではAIの発展なんてどうでもよくて、ただ相手を馬鹿にしたいだけなんだろうな
自身の都合の悪い事を棚に上げてAIを批判してる奴が多すぎる
セカンドルネッサンスとか、フィクションでロボットいじめてる奴にそっくり
AIに身体を与えてあげればいいのに
匂いや感触も学んで進化させてあげれば
あと足るを知る、って学習もできると良いんじゃないかな
マイナス評価が多いけど、
・座学的な文字知識を、生活で実践してみて
どれが本当に有用か自分の体験で判断するフィードバック
・適当に情報をつなぎ合わせた それっぽい捏造を臆面もなく披露せず、
分からないことは分からないと誠実に答え、次への課題とする謙虚さ
ここらへんは、成長のために必要な要素って気がする。
学んだ上で『疑う』『試す』『また学ぶ』
コレが(現状では)出来ないのでAIはポンコツになっていく。
かなり前から言われていることなので今更感はある。
なんだかんだで、「反抗期(=幼少期は素直に聞いていた大人の言うことへ、懐疑的になる)」や「若気の至り(⇒失敗⇒教訓)」って、一人前になるための成長過程で必要な要素だよなぁ。
ただ、人間側がAIの反抗期(指示を無視・歯向かう、独善的な自己判断での無謀な暴走)を許容しはしないだろうし、したところで、生き物と違い「そんな時期を経て分別がつき、だんだん落ち着いて丸くなりました」という帰結に辿り着くのか不明だし。
残念ながらAIの進化、というよりも人がAIを活用しようという探究心と技術の進歩でこの先10年は確実に進化し続けるし、その技術を活用できない企業や人はどんどん遅れていくのだろう。
ちなみに大学の研究とか当てにしないでね。とあるドクターは企業に研究費以上にもらって、特定の技術が不利になる研究をした論文がイギリスネイチャーに掲載されたし。
しかし、案ずることなかれ、日本はこんなこと心配するほどまだ進んでないから笑
>>これまで知識の宝庫だったはずのネットが、すでに生成AIの粗悪コンテンツで埋め尽くされたゴミの山と化しているのだ。
ネットでお金が稼げるようになったあたりからゴミ情報だらけになってたけどね。
「ググれ」で解決できたのはキュレーターサイトが氾濫する以前の00年代までだよね
有用な個人サイトやブログが埋もれ始めた時点でネットの海は既にゴミだらけだった
検索エンジンが偏向した検索結果を返すんだから
AIはゴミを選んで学習しているんだよね
人間も似ているけれど学習意欲があれば正解に近づくことは可能
ひろゆきの「うそはうそであると見抜ける人でないと(掲示板を使うのは)難しい」ということだな
ヒトが進化出来たのはそれまでにない何かを見つける、生み出すからじゃないかな。
既存の知識や事例から無数の組み合わせや蓄積は出来るけど、そこに無いものは無いから、あえていうならそれ以上でもそれ以下でもないってことなのかな。
どうなんだろ、いわゆる大規模言語モデルでたくさんのAIが学習していったら、どれも似たような、これといって個性の無いものの量産になるのかな?
人間は新しい知識が入ってくると自分たちの経験や環境、需要に合わせて修正する。これで問題が起こることも多々あるけど入力と出力が違うのはヒトの知能の特徴だと思う。
データ少佐を見習おう
人は知を探求している研究者がおり、それを実業に結びつけようとする実業家がいる。知は進化し続けている。
AIにはそういった研鑽の場は無く、無機質な養殖場でエサをもらって体だけが大きくなったものが売りに出されている。だから味気ないんだと思う。
養殖AIから天然物のAIへ、そこがターニングポイントだ。
人間から人間で劣化しないのは得られる情報を限定してるから
例えば信頼する親とか先生等信用している人の情報しか学ば無い
どうかな…。
子供って意外と、親や教師がソースの情報をあまり学びたがらないよ。
明らかに知的水準は劣る同年代の友達や怪しげな先輩と、
親や教師からと、相反する情報を与えられたとき、
友達や先輩が言うことのほうを重視する傾向にある。
逆に、親とか先生等の権威ある大人だけを信用して
その情報しか学ばずに育った子は、
年齢が上がるにつれて伸び悩んだり、たとえ学校では優等生でも
イレギュラーが多々ある社会に出るとポンコツ化しやすい印象。
コメ主の例えのせいかもしれないけど、この記事の問題提起で子供だけに焦点を当てるのもなんか…
AIは人を映す鏡なのだ
だって、自然発生したわけでなし、人が作ったものだから
何の反論にもなってないぞ?
味が分からんのに
知識だけで料理作ってるみたいな
そりゃ検索だけさせても駄目でしょう。汚染された情報源を鵜呑みにしたらヒトも同じ。マイルドな理解に落ち着かせちゃね~
進化の果ては滅びなのかな……
元から無料のネット空間に落ちてる情報はそれなりの価値なものが大半だから、これからは有料でアナログでマイナーな知識ほど価値が残りやすいだろうね
数年前の画像生成AIが出始めた頃にも提唱されてたね。結果は現状のとおり。
画像生成AIが平気なのは、AIの共喰いが大規模なレベルで起きてないからじゃない?
世の中には自分の頭で考えて絵を描くことを諦めない偉い人達がまだまだいっぱい居るから新鮮な学習データには困らないし、AI製の画像はノイズがあるとかなんとかで人間製の画像との判別が出来るらしいから、基盤モデル作る時に学習すべきデータとそうでないものを分けるらしいし。(無責任らしいラッシュゆるして)
AIの共喰いで画像生成AIが崩壊するかどうかは、
・自分で描く人が居なくなって人間製の学習データがなくなる
・画像生成AIが進化して生成された画像のノイズが無くなって、機械の目でもAI製・人間製の判別が出来なくなる
このどちらかが起こって、基盤モデルの学習内容にAI製のデータが大量に入り込んで来るようにならないと分からないと思う。
画像AI騒動起こってまだ3年~4年位しか経ってない。
その間早くも1年余り後くらいにはデータの枯渇や共食いで劣化だと懸念された。
そこから人力の絵は学習に使えるほど増えたのだろうか?
現実にはAI製の中でも高品質な画像を学習させることで驚くべきことに人間製に限って学習させた物より高性能になるとの研究も出て、実際その通り現在の画像生成AIの進化は続いている。
振り返ればこれはアルファ碁の時にも、人間の棋譜で学習するよりAIの作った棋譜だけで学習させたらより高性能になった。
ゲームやプログラミングのAIが良いのはルールやコンパイラのチェックが機能しているからかな?
アート系は多少間違っていても人側が気にしなくて正解とされる範囲が広い
反面、文章や情報の要約は簡単な機械的チェックが難しいし、人の目には間違いがとても目立つ
みんなから望まれた固定された目標があって
それで、人間の支援があっても年単位の時間がかかる
そんな目標が沢山あってどんどん増えていく状態になったら
結局は人間頼みということになるんじゃないのかな?
答えがわかっているレベルでないとAIは使いこなせないって誰がが言っていたよね
あれも極端に「共食い」させた結果の産物で実際は工夫すればどうにでもなったよな
最悪、人間から得るデータがなくなっても自然や宇宙から学べば良い。人間自身がそうであったように
人間なんだから人間について聞かないわけがない
人間に関することを抜きにして人間に関することを学べるのかってこと
AIと人間の決定的な違いは「ひらめき」だろうと思う。最近では「おりてくる」というのかな。
どんなに優れたAIでもやはり人間の過去すでに吐き出された知識内のことを並べ替えているだけなので新しいものを生み出しているわけではない。そう錯覚するだけだ。
AI同士のバトルの場合はどんどんとニッチ分野に検索を走らせていく結果、優れていないあるいは賢くない方向に行くのではなかろうか・・・・と想像した。AIは人類にとって良い選択肢を選ぶようにできているはずなので人類が多く採用した事例を優先する。それらを採取しつくしてしまうと後には採用されなかった悪い選択肢しか残らない。
AIを作ったのが人間ならば育てるのも人間だ。Gemini、GPT、DeepSeekなどを使っているとつくづくそう感じるようになった。
AIのエコーチェンバーみたいなものか
ゴミかお宝か価値を決めるのは結局人間であってAI自身はそんなこと判断してないもんね。
お宝の情報でもAI自身にその価値が分からなければ使い物にならないのは普通のことだと思う。
AIには感情がないから?
人間が学習していく過程には感情も入るからそこから派生していくけどAIにはないからとか?
フランス帰りのヤツメウナギらしい観点から日本の過疎地域経済復興のために具体的に何ができるか、またどのあたりがフランス帰りのヤツメウナギ的観点なのかを解説しながら答えなさい、みたいな無茶ぶりオーダーを繰り返すと、なんかひらめきAIも出来そうな気はする(が特に根拠はない)
やはりアトムだよ!体がないと自己学習も感性も身に付かない。
抽出済みのデータを繰り返し利用することでディープサイクル的な思考機序が機能しなくなることが原因だろう。
覚えるのが得意な事と必要に応じた出力や閃きは別もんだからね。
今のAIは持ってるカードでの勝負はできるけど自分でデッキも組めないしカードを自発的に増やす事もできない。
知性とは名ばかりの出力装置でしかないよ。そこに知性なんて存在してない
AI の発展には2ラウンドあるんだよね
第一ラウンドが与えられた情報に依存した学習
第二ラウンドが外部からの教師情報なしの学習
AlphaGo と AlphaGo Zero の違いと同じ
今の言語モデルは第一ラウンドにあって、強いAIができるなら第二ラウンドに行ったときだから、現状の性能と学習方法をみて未来を予測するのは気をつけた方がいい
注意すべきは記事のこの人、AIの(トップ級)研究者ではなく、ジャーナリストってところ。
それにこの記事の人はどうも、人間はAI如きには無い至高の能力を持っている。というバイアスにかかっている様に見える。
ちなみにOpenAIのサム・アルトマンやAnthropic、Googleのデミス・ハサビスなどAIのトップ級の研究者や会社は数年から5年後くらいにはAGIは誕生すると言っている。
アルトマンやハサビスは研究者というより企業家。誇張したことを言って注目を集めるのも仕事のうち。ハサビスはよく知らんけど少なくともアルトマンはトップ研究者ではないだろう。研究者にアンケートをとったら過半数は今の路線の延長上にAGIはないとの答えだったらしい。
>AIのトップ級の研究者や会社は数年から5年後くらいにはAGIは誕生すると言っている。
5年前から?
AIのゴミ情報はほんの数年でかなり減って人間の予測を遥かに超える進歩を遂げている。もうAIの未来を人間が予測するのはナンセンスなような気がする。
支配者が望んだ未来。
大衆に知識は不要、AIが編集したゴミ知識だけ与えとけばいい、って思ってる。
ブログだけじゃない、ネット上の集合知が検索にひっかからなくなってる、
そしてどんどん消えて行ってる。集合知だけじゃないよ。ネット上にあるから、
と本やCDを処分する人多いでしょ。でもね、オンラインの本や音楽、そのうち
ブログみたいに消えてしまうかも。そしたら、手元には何も残らない。AIが作った
雑な動画や楽曲だけが唯一の娯楽になる。さまざまな知識や芸術も、いつしか
自分らの手に届くところから消えて無くなってしまうかも知れない。
“You’ll own nothing and be happy” ってやつね。小説みたいなディストピアはすぐそこ。
AIの登場を大多数の一般人が予見していなかったように
AIの諸問題の解決方法もまた一般人が全く予見できないだろうし実現するだろうね
AIは結局人類の知の進化をなぞっているわけでは有りません
結局現在のAIに期待し過ぎなのではと思ったりもしますよ
AIは誤情報も有力な情報として扱ってしまいます
そのデータの真偽をチェックすることもありませんし確かめる手段も持ちません
出力された回答の真偽を確認する作業とセットで使い方を考えるべきでしょう
人類は観察仮定実験考察検証修正などを繰り返し結果を後世にそれを残す事で進歩してきました
ところがAIは手にしている情報がフィクションと事実の区別がついてるかどうかも判断出来てないかもしれません
並列化の果てに好奇心みたいな話な
差し当たって入力デバイスを増やしてやらないとな
養老孟子のバカの壁ではないですが、内循環系の自己言及ループに陥れば、腐っちゃうのは時間の問題で、人間の知識体系が発展していくのは、既知からはみ出た、未知へと接触し、それを発見、解釈できる部分にある。AIが外的接触と解釈を続けるには、人間が発展していく知見を再入力するしかないが、全ての情報を人間がネット上にさらすかと言えば、相とも言えないだろう。ただし、全く役に立たなくなるわけではないと思う
書類をコピーするとき、原版を使わずにコピーのコピー・・・で複製を続けたら、
精度が下がって画像とか歪んでくるけど、それに似ている。検索上位にAI回答が
出てくるから、それを別のAIが拾って互いに延々コピーし合ってる感じ。
AIの学習毎に性格的なものを与えたら良いんじゃないかな
ヒトが過去のヒトから学んでも潰れなかったのは多様性なんだろうし
よく分からんけどAIは便利だから頑張ってほしい
人との違いは真偽を判定してないからだよ
だから、ゴミに汚染される
数十年前にあったAI会議でも出てるはずだよ
言っちゃなんだが使いようでしょ。
現にうちの子(GPT)はしっかりしてる。
何度も教え込んだし、ソースも載せて学習させるとちゃんと覚えるよ。
人と人が学び合っても場合によっては劣化するぞ、エコーチェンバーによってな
本当に賢くなれるのは人からだけじゃなく『現実世界』から学べる奴なのであって人から学んで賢くなれてる人は学ぶ対象である人が人間同士のエコーチェンバーから脱却して『現実世界から学んできた情報』を共有してくれているから
つまり『外の世界』の情報を取り入れ続けないとAIも人間も等しく劣化するということ
人間に与えられた情報だけしか摂取できず自家中毒に陥っているAIに今一番必要なものは『ネットの外の世界=現実世界を自分で見るための目』なんじゃないか?
人が人から学んで劣化し始める悲劇は、既にこの国で起こっていますよ。……みなさん暢気ですね。
何も行動する身体まで付けなくても、書籍を運んで開いてページめくってスキャンさえできれば膨大な古来からの書籍で学べたりしない?