この画像を大きなサイズで見る「スマホやパソコン、そしてAIがあれば、なんでもすぐに答えがわかる。」便利な時代に生きる私たちは、頭を使う機会を失っているかもしれない。
最近の研究では、AIツールの使いすぎが「考える力」に悪影響を与える可能性があることが明らかになった。特に若い世代でこの傾向が強いという。
AIに頼りすぎると考える力が弱くなる?
スイスの研究者マイケル・ガーリッヒ氏が行った調査によると、AIツールを多用する人ほど「自分で深く考える力」が低下する可能性があるという。
例えば、昔は電話番号を覚えるのが当たり前だったけど、今はスマホが全部記録しているから、自分で覚える必要がほとんどなくなった。
同じように、学校の宿題をAIに頼ると、答えはすぐに手に入る。つまり、それを自分で考えたり、記憶したり、調べたりする機会は失われてしまう。
AIに頼りすぎると、「頭を使わずに済ませてしまう」という習慣ができてしまう。つまり、自分で物事を判断したり、深く考えたりする力がどんどん弱くなる可能性があるのだ。
この画像を大きなサイズで見る若い世代ほど危険度が高い
この研究では、666人を対象にアンケートとインタビューを実施した。
その結果、若い世代ほどAIを頻繁に使い、その分「考える力」が低い傾向が明らかになった。
一方で、年配の世代(46歳以上)はAIの利用が少なく、逆に考える力が高いという結果だった。
また、大学教育を受けた人はAIの利用にかかわらず考える力が高いこともわかった。つまり、教育の質や学ぶ姿勢が、AIの影響を和らげる可能性があるという。
この画像を大きなサイズで見るAIをうまく使うために必要なこと
だからといって、AIを利用するのが悪いということではない。便利に使えば、時間を節約したり、新しいことを学んだりする助けになる。
ガーリッヒ氏は「AIツールは便利だが、その使い方を間違えると、考える力を奪われてしまう可能性がある、しかし、正しい使い方を学べばこの問題を克服できる」とも述べている。
AIはあくまでも「手助けしてくれるアシスタント」だ。
AIを使う時には、まずは自分で考え、AIの出した答えをそのまま受け入れるのではなく、「これは本当に正しいのか?」と疑問を持ち、何度も調べ直すことが大切だという。
ChatGPTやジェミニのような、生成系Aは、インターネットから収集された膨大なデータで学習された「大規模言語モデル(LLM)」だ。そのため、収集されたデータが偏っている場合には、間違った答えを導き出すこともある。
自信満々にしれっと嘘をつくこともある。これはハルシネーション(幻覚)と呼ばれており、AIが常に正しいとも限らない。
また、聞き方(プロンプト)次第で回答にぶれが生じたり、聞くたびに違った答えが出ることもある。
フランスの哲学者・パスカルは「人間は考える葦(あし)である」という有名な言葉を残した。
「人間は自然界の中において、葦(水辺に生える弱く細い多年草)のように弱い存在だが、人間は頭を使って考えることができる。考える事こそ人間に与えられた偉大な力である」と言う意味だ。
考える力が奪われてしまったら人間は本当の葦になってしまう。そうならないよう全部AIに任せっきりにせず、自分で考える時間や覚える時間を確保しよう。
この研究は『 Societies.』誌(2024年12月24日付)に掲載された。
References: Study Links Frequent AI Use With Lower Critical Thinking Abilities | IFLScience
















これは本当に正しいのか?
ということを疑うのは調べ物をする上で当然ではあるんだけれど
情報を得るためのツールが出してくる情報を疑わなければならないのは
そもそも本末転倒なのではという気がしてきた
あくまで情報であって正解ではないからね
そこを見極める力が「考える力」だ
Google検索の結果とか人伝に聞いた話も全部同じなんだけどね
人のうわさ話もAIがやらかすハルシネーション問題もそうだし
Wikiなどを意図的に改変して書き込んだり、
SNSならで何も考えないでネガティブな情報を垂れ流したり
現状でも山ほど例題がありますけどね
AIは文章まとめたりするには良いかもしれないが、専門的なこと聞くとジャンルによっては間違ったことばかり教えるのでとても使い物にならない
交通が発達して、それこそほとんどの人は一日千歩も歩かなくなった。
ましてや、考えることなんてのは外から見えるものでもない。自覚もないんだよね。
相手が何言いたいのかなんて、推測すらしないだろ。
AIは参考にこそするけどあまり信用してない
それでも音楽とか絵はかなり凄いと思ってる
前に海外の大学教授が騙されたというAIソフトで適当に
作った論文を知り合いに見せたら、なんじゃいこの内容と
一から勉強してる人にはネタでしかなかった
勉強に関しては古風でも本や自力で学ぶしか道はない
膨大な検索結果から必要な情報を探すことを考えるとずっと楽になるんだが
もっともらしい口調で正反対の答えを返してくることもあるからこわい
使えない結果を返されるよりおそろしい
ExcelVBAを学び始めたところなんだが
Copilotに書いてもらったら簡単なやつが1時間程度で完成した
簡単だから書いてもらった内容は理解できるけど自力ではまだそこまでできなかったと思う
自力で書かなくてもいいとは思うが
自分の考える力がどの程度影響されるか不安もある
チャットGPTのような高性能なAIが出てまだ2年といったところなのにもう考える力が落ちたと言えるくらい影響が出てるのか…
若い人にとっての2年は長いからね。これから考える力のない人間が量産されると思うと恐ろしい
AIに限らない話だけどね
便利な物が増えればその分人間は頭使わずに済む
と言う事は脳を鍛える機会は失われると言う事だし
開発する人は最先端の技術持ってるかも知れんけどほんの一握りの人だし
便利に成れば成るだけ人類全体の平均知能は下がって行くのでは
AIの道具になっちゃう人はこれからも増えていくんやろな
人類が主体性を失っていく
文字もやめて口伝にでも戻れば更に脳を使うようになるかもよw
それはただの文化の後退ですがな。
口伝は脳を使うけど、情報ロストもしやすいバグがあるから…
少なくとも2025年末までにはマルチモーダルエージェントの博士号取得並みのAIが超高速でコンピューター上で複雑なタスクを実行するようになると想定してください。これを前提として世界観や企業計画を更新することを強くお勧めします。
チーターが現れても合法的に狩してもいいみたいな思考のハイランカーみたいな環境が必要かもね
AC6のチーターのキリト騒動みたいなパターンでそれに目覚めれば良いのだが
こどおじが過ぎる
だからディベートが大事になるんだよ。
ディベートで一番しちゃだめなのが「教科書に載っているから」ってやつ。
その真偽を議論してるんじゃねーか!
「教科書に載っているから」
「あの人が言っているから」
「AIが答えてくれたから」
自分で情報・知識を理解しないと何も出来ないし生み出せない。
AIは自分の知識を深め理解するために利用しないとダメですよ。
記事中にある通りAIは有能なアシスタント。先生ではないよね。
ちょうどパソコンの普及がはじまった頃に社会人になった世代ですが、漢字は読めても手で書けなくなって来ています。かな漢字変換機能に頼り切ってきたせいなんでしょうが、まあ何のスキルであれ、日々使わなければ錆び付くのは当然ですよねえ。
電卓使うようになって暗算力も落ちたわ
人類が知恵により生き延びてきた結果強靭な肉体を失ったように、頭脳も使わなくなったら今度は知能が退化しそうで怖い
つまり極端に言えばヒトは今以上の発見や進歩をしなくなるということ?
便利って言葉に安心して目新しさとちょっぴりのかっこよさでAIを駆使することは、成長ではなく退化なのかな。確かに、手軽に情報が手に入ったりまとめや文章が出来ちゃったら、やることないなとは思う。
個人的には、知的好奇心や探求心を満たすためには、誰でも手に入る情報ではなく、図書館でほとんどの人がスルーしているような隅っこ本にそのヒントがある気がしてる。パッと見関係ないような事でも、ある日突然繋がることもある。これは、AIには出来ますまいと思う。
あぁ、図書館に行きたくなった。
>パッと見関係ないような事でも、ある日突然繋がることもある
これ将来的にはAIの得意分野になると思う
まじで?!
マジどころか現代でも結構それが起きているし、むしろそれはAIの特異分野まである
何故ならば、いまは専門分野が難解・先鋭化しすぎて横のつながりが弱いの
あと人間だからどうしても思い込みがあるから、なかなか専門外への繋がりも発見しにくい
そういう部分を補っていく道具としてのAIは超優秀
一番身近でわかりやすいのは病院かなぁ? 臓器単位で専門の外来あるでしょ?
あの専門分野の情報が全部横に繋がれば、病気原因の特定や発症理由がもっとわかりやすくなると思う
病院の話は私も経験がある。詳細は長くなるので控えるけど、あの現場でもしAIが一発で原因究明をしてくれたなら、半年くらい苦しまずに済んだ。
便利で合理的なツールとしては上手く使いたいけれど、人しか出来ない部分は死守したい気持ちがある。
世の中がどんどん便利になって、たとえ人が考えなくなっても、「人しか出来ないこと」はひとつでも多く残って欲しいなと思います…。
そういう本を出すと売れるかもw
便利になって頼るとその能力は落ちますね。 でも利用して自身の能力向上に向けて活動ってのもいいんじゃないでしょうか。 私は物事を調べるけど憶える気がなくなりました。 まだ AI に頼った思考はしてないので考えるほうはそれほどやられてないと信じたいなぁ
AIはプログラムを書くのにとても便利だし、自分の想像しなかった答えを書いてくることもある。ただ、ミスもあるので修正は自分でする。AIに教わっている感覚ではある。考える力が本当に悪影響を受けているとはあまり思えない。藤井さんもAIを使っているらしいし。逆にAIにプログラミングの問題を俺は出してもらっている。教科書より質のたかい問題を出してくれることが多い。
Googleで調べればなんでもわかるんだよ!今の世の中は!とか言ってた人達の同類が、対象AIに変えただけで、いつの時代もそう言う方いらっしゃいますよね。
所詮人の作ったもので、背後にいる人の思想色濃く出るものです。
今のAIだってそうでしょ。政治めっちゃ絡んでますよ。
人を幸せにするのも不幸せにするのも、やっぱり人なんですよね
答えのないものや不確かなものに答えを求めようとするとノイズを拾ってきてしまうんだよね
「ずんだもん」の公式が設定していない身長を質問したら「ずんだどん」の設定をまるごと引用してしまうようなことが起こるのは普通のことだと理解すべきだけど
もっともっともらしいものを引用されたら気が付く自信があるといえる所まで到達するのは大変だと思いますね
車ができて歩かなくなった、
本や文字ができたせいで記憶力が衰えた、
服を着たせいで体毛が不要になり、
武器を得たせいで牙も爪も失った。
そして今、AIが考える能力を代行しようとしている。
生物としての基礎能力をテクノロジーに外部化することで手放す、
ってのは人類が何万年もずっと続けてきたことで、ここ最近始まったことではなく、たぶん人類という種の進化の既定路線なんだと思う。
記事で紹介された主張は,妥当な意見には見えるんだけど.
でも「年とってて,ai使ってないから考える力があるのじゃ」っていうのは,具体的な反例が身の回りにありすぎて(含む自分),ちょっとどうかな って思う.
仕事の効率を上げる補助で使う以外は能動的に自分の頭使ってれば…だけどそこも侵食されると
知ってるだけじゃ面白くないし
自分で考えなかったら脳がヒマ なはず
人の創造性が殺がれるのは怖い
私は今AIに思い通りのイラストを描かせるために
必死に頭を働かせているところだ
右から左へ簡単に描いてくれる思っている人が多いやね
どれだけ頭を使っても、思い通りの絵はこの世で自分一人しか描けないんだぞ
感覚や衝動の連続から生まれる、自己表現ってやつさ😎
自作の絵をXに20だか30だか載せている事が使用条件だけど、それを元にした作風で描いてくれるAIがあるよ
自分はプライベートのストックが少ないのですぐには無理だしAI作品をそのまま使うのは抵抗があるけど、ラフ制作にならぜひ利用したいかな
宿題をAIに頼る奴はAIが存在しなかったとしても他人に頼るorやらないからそれほど変わらないんじゃないかな
AIほど気軽に頼めるわけじゃないと思うし、AIがなければ自分でやる
人だっていると思う。
これはAIを全否定してるわけじゃなくて、そういう面もあるよって話。
宿題うつさせてって定番ですよね
それはそれで、人間同士なら別の能力を鍛える訓練にはなっていたと思う。
誰に写させてもらうよう頼めば、OKしてくれる確率や 正答率が高い(ただし普段の自分の実力に比して不自然に高すぎない)かの見極めとか、写させてもらう見返りに何を提示するかの交渉力(or有無を言わさずノートを出させる威圧、尤も嫌がる相手に強引に出すぎると後で先生にチクられるリスクもある諸刃の剣)とか。
タップ1つの操作で、「AIが言うなら正しいだろう」で盲目的に依存するのに比べれば。
科学が発達して文明が進化しても
昔と変わらず人間は愚かなままだっていうのが
鉄腕アトムのテーマだったわね
AIツールを使って、論文などの長文や長時間の解説動画を要約させているけど、AIが”やりすぎて”、大切な情報が欠落することがしょっちゅうある。だから、結局あとで読み直したり、視聴し直すことがある。
多分本当に考える力のある人だったら、この記事にマイケル・ガーリッヒがどのように「自分で深く考える力」を定義して測定したかが一切触れられていないことに気づくはずです。
アンケートとインタビューだけでどのように「自分で深く考える力」を測定できるのでしょうか?それがどのくらいあてになるのでしょうか?
そういう批判的な思考力をこのコメント欄に書き込んでいる多くの諸君が持っていない気がする。寒気がするわ。
いや、そこは、
ここのサイトはいつもキッチリ引用論文のリンクを付けてくれているんだから、
詳細が気になるなら見に行こうよ…。
>どのように「自分で深く考える力」を定義して測定したか
記事でザックリ「自分で深く考える力」としてあるのは、
具体的には「批判的思考(=本当にそうか疑いの目で情報を分析し、多角的・論理的に総合評価)」だそうで。
「アンケートとインタビュー(調査票への筆記回答と直接面談)」という手法に関しても、
批判的思考レベルの尺度として確立している既存の
「ハルパーン批判的思考評価(HCTA)」「テレンジーニの批判的思考の自己申告尺度」などから項目が組み立てられているとのこと。
前者は選択肢問題と自由記述(「常習犯を早期釈放した審査官を解任するか決める喚問でしたい質疑、および各質疑への応答が決定に影響する度合い」的なの)、後者は1つの事に別視点も考える「反省的判断」を見る。
批判するならきっちり批判したら?
曖昧に言うから論破される
>AI ツール以外で、深い集中力と批判的思考力を必要とする活動にどのくらいの頻度で参加していますか?
>(例: 本を読む、パズルを解く、討論に参加する)? (1 = まったく行わない、6 = 常に行わない)
>意思決定に AI ツールをどの程度活用していますか?
>AI ツールは情報検索の時間を節約するのに役立つと思います。
.>AI ツールが提供する推奨事項を信頼しています。
>私は AI ツールによって提供される情報を他のソースと頻繁に照合します。
記事下添付の論文にはアンケ内容からグラフや表まで詳細に書いてあるよ。紹介記事の部分だけで十分だけどな
学者や科学誌という出処への信頼性があるから、それ以上疑う余地がない
陰謀論ハマるやつみたいに見境なく疑うのも違うぞ
たまたま「ビッグデータ」について調べようと思って、めんどくさいからグーグルアシスタントに質問したんだけど、口語で検索できるのがありがたいなっておもった。言葉の定義の説明(これは一応わかってたので正しかった)から、自分がもった疑問もそのまま、おしゃべりで質問できるのが便利。可能性の話だから、検索で探しにくいものも自分とは別の視点で答えてくれたし。
研究方法には以下の点で適切な要素がありますが、いくつかの問題点も存在します:
適切な点:
– 混合研究法の採用(量的・質的データの統合)
– 十分なサンプルサイズ(666人)
– 複数の統計手法による分析
– 確立された評価ツール(Halpern Critical Thinking Assessment)の使用
問題点:
1. 因果関係の推論が困難
– 横断的研究デザインのため、AIツール使用と批判的思考能力の低下の因果関係を確実に特定できない
– 実験的デザインや縦断的研究が必要
2. サンプリングの偏り
– オンラインでの募集により、デジタルリテラシーの高い層に偏っている可能性
– 英国のみのデータで文化的な一般化が限定的
3. 測定の信頼性
– 自己報告式データへの過度の依存
– 批判的思考の客観的な測定が不十分
学者や科学誌という出処への信頼性があるから、それ以上疑う余地がない
これがまさに「自分で深く考えられない」という状態です。あなたはルイセンコの研究もルイセンコが”学者”であり、”科学誌”に論文を提出していたというだけで信じる人と同じなのです。
後知恵で間違っていることを知って
それをもとに自説を構築する人も同じなんですよ
専門知識ゼロのド素人がその場の思いつきで独自考察しても、長年研究積み重ねた学者や専門機関には決して匹敵しない。「自分の体は自分が一番分かってる」って医者の言うこと聞かない奴と同じだな
今の時代信頼性を見極めるのが肝心。学者、公的機関、専門機関を無意味に疑った末、YouTuberや匿名ド素人の独自考察を真に受ける反知性主義者が多すぎる
毎日毎日そんな奴らが息するようにデマ流してニュースになる。素人考えなんか当てにしないよ
とりあえず、「何でもいいから答えを出力しろ」みたいな基本命令をAIに仕込むのやめろ。
調べても判りませんでしたと素直に出力することを教えないから、どこで拾ってきたのか不明どころか人間が探しても出典が見つからない、AI自身が創作したのかレベルで適当な嘘や間違いを出力するAIが出てしまってるんだ。
別にそういう命令をAIに仕込んでるわけではなく、
そもそも現行のAI(大規模言語モデル)は
前段の文から後に続く可能性の最も高い文を大量の文例を元に推測して生成する、
っていう仕組みで文章を作ってる(オートコンプリートを高度にしたようなもの)
つまり「無理やり答えを出すな」ってのは「前の文章から後の文章を推測するな」と言うようなもので、
今のAIの仕組みからしたら根本から矛盾してるんだよ。
大規模言語モデルがAIの主流である限りハルシネーション(幻覚)の問題を解決するのはなかなか難しいだろうって言われてる。
全く別系統の新しい仕組みで動くAIが発明されない限りはたぶん無理。