この画像を大きなサイズで見る仲の良い友達から「一緒に橋から飛び降りよう」と言われたら、どうする?
こうした仲間による同調圧力は危険である。特に子供ならば、例えそれが危険なことと分かっていても衝動的な行動を促してしまう。
だがそれは、人間の仲間に限ったことではなさそうだ。言われた相手がロボットであっても、少なからぬ子供が本当に飛び降りてしまうかもしれないことが判明したのだ。
子供はロボットの判断を重視する
『Science Robotics』に掲載された研究論文によれば、子供たちはロボットの意見を人間以上に重視するという。例えロボットの判断が間違っていたとしてもだ。
ロボットやAIがますます普及するようになれば、それが子供に与える影響に注意しなければならないと研究者は警鐘を鳴らしている。
研究論文の著者はこう問う。「たとえば、ロボットが製品やセービスや好みなどを勧めてきたら、従来の広告よりもそれに従う人は多いだろうか?」と。ヘルスケア、教育、セキュリティなど、現在ロボットは社会的影響が重要な意味を持つ数多くの分野で採用されつつある。
人間は集団志向に左右されやすい
この研究論文は、アッシュの同調実験という有名な実験の派生バージョンである。この実験は1951年にポーランドの心理学者ソロモン・アッシュが行なったもので、人間がいかに集団思考に左右されやすいか実証している。
実験では、大学生50名(全員が男性)に”視力検査”に参加してもらった。数人でなる学生グループはテーブルに座り、2種類の図版を提示される。
1つは1本の線が引かれたもので、もう1つはA、B、Cと記された長さの異なる3本の線が引かれている。学生らはA、B、Cのうち最初の線の長さに一番近いものはどれかと質問される。
この画像を大きなサイズで見るじつは学生グループの中で本当の被験者は1人だけで、他の参加者は全員サクラである。質問の答えは明らかなのであるが、サクラは全員同じ間違った回答をする。
すると被験者(必ず最後に質問される)の3分の1が、サクラに同調して、誤った回答を選んだ。同じような実験が12回繰り返されるが、被験者の75パーセントが最低1度はこのような同調を示し、そうしなかったのは4分の1だけだった。
ロボットの意見に同調する子供たち
英プリマス大学のトニー・ベルパエム教授らは、サクラをロボットに置き換えて同じような実験を行なった。だがもう一捻り加えて、大人のグループと子供のグループで試してみることにした。
その結果、大人はロボットに従う必要を感じなかったのに対し、子供はロボットに大いに左右された。
部屋で1人で課題を行なっているときはきちんと正解できたのに、ロボットが参加すると答えを間違うようになったのだ。
この画像を大きなサイズで見る子供は人間とロボットを同等として扱う
この実験では子供の影響の受けやすさと同様、大人がロボットに左右されなかったことも注目に値する。
なぜなら「コンピューターは社会的アクター(CASA)」という社会学の広く受け入れられている理論に矛盾するからだ。
CASA理論は1996年に提唱されたもので、人間がコンピューターとやりとりをする際、それがあたかも人間であるかのように行う傾向があると指摘している。実験結果はCASA理論の限界を示すものだ。
しかしベルパエム教授らはこれについて特に意外でもなく、予想通りだと述べている。ロボットがオモチャのように小さく、影響を与えるほどの存在感がなかったからだ。
この画像を大きなサイズで見る大人ですら高度なロボットに対しては服従する
ロボットに従わなかった理由を問われた大人の参加者は、ロボットが誤作動したか、質問に正解できるほど性能が高くないと考えたからと答えている。
したがってもっと高度に見えるロボットで同じ実験を行えば、結果は変わった可能性がある。
CASA理論はこの実験では立証されなかったが、ロボットやコンピューターが関係した場合の人間の行動を予測する優れた指標であることは間違いない。
過去の実験では、人間と同じようなパーソナリティを持つように見えるロボットが相手の場合、人はそのやりとりをより楽しむことが確認された。
またロボットの見た目の性別から、人がステレオタイプな偏見を持つことも分かっている(これはヴァーチャルアシスタントが登場した時代において、特に関係があるトピックである)。
この画像を大きなサイズで見る人間はロボットを人間と同一視する傾向にある
こうした社会的本能は我々の行動にも影響を与える。たとえば、ロボットの電源を切ろうとした際に「止めてほしい」と懇願されると、人はそれを躊躇する。さらに”意地悪”と思っているロボットに見られていると、注意力が増すことも判明した。
これらが意味するのは、確かにロボットの目からプレッシャーを感じやすいのは子供であるが、大人とてそれと無縁ではないということだ。
研究者は、これは我々が注意を向けるべき力学だと話す。ケンブリッジ・アナリティカ社のスキャンダルで個人情報がどのように扱われていたのか考えてみてほしい。それは社会的AIと組み合わせて我々に影響を与えることもできるのだ。
一方、ロボットからのプレッシャーは邪な用途はもちろんのこと、善いことにも使える。たとえば、教育の現場で使われるAIが子供たちに勉強の習慣を身に付けるよう躾けることもできるだろう。
ロボットは自閉症の子供の社会スキルを伸ばす手助けができるという証拠もある。つまり、確かに人間はロボットの影響を受けるが、結局その良し悪しはそれを使う人間の側にあるということだ。
References:theverge / euronews/ written by hiroching / edited by parumo













これ「AIの判断は公正だ」と無条件に信頼する結果につながりそう
実際は権力者に都合の良いようにプログラムされてるのに
ワタシハ人間ダ!!
ダカラ人間ナミニ殺人罪ガ適用サレルハズデス
※3
「ロボット法廷に立つ」ですか?
いやいや期の子どもにはロボット型トランシーバーでしゃべりかければいいのかな?
これを「ドラえもん→のび太シンドローム」と言うとか言わないとかw
スポーツの判定とかはAIに任せる流れになってきてるね
ナイトライダーに出てくるK.A.R.R.(カール)みたいな奴だと
子供も簡単に従うかな。ありゃAIとロボットの最悪な未来だ
ロボ:いいかい、(人生には)超えられないような壁があらわれる(ことがある)
人間:今まさにこの状況がそうだね
ロボ:超えられないなら、その壁を壊して前に進むんだ!!
人間:ぶっこわすぜー!!ひゃっはー!!
子どもが触れやすいアニメとかのコンテンツ(ないし、ニュース等のAIを用いたアレコレ)で「ロボット=正確無比な計算ができる」みたいな全能感が描かれやすいのも一つの要因かもね。
実際は人というどこかで間違いをするものが作った、どこか間違えていてもおかしくないものの一つでしかないんだけど。
しかしまぁディストピア感あふれる未来がチラ見えしている結果なのは笑っていいやら恐怖するべきやら・・・w
日本のバラエティでよくあるペットがしゃべったらとか子供で実験やってるけど結局、人間とかロボット関係なく自分以外の意見に流されやすいんじゃないかな
ガンダムブレイカー3ってゲームの中でもコレに近いことが言われてたな
SDガンダム型のパートナーロボットがいるんだが過剰な感情移入が
子供の成長に悪影響を与えるかも知れないので会話出来ない様にしてあるって
ポーランドでも同調圧力に負ける時は負けるというのは面白いね
でも、子供なら仕方ない
子供の頃ならコンピュータと聞くと何だか知らないが、とっても凄いものって印象を抱いている
こうしたらどうって案内されたらしてしまいそうだ
デペロッパの人を対象に、この実験しすると
バグは何所だと発狂しそうねw
ドモ アリガト ミスター ロボット
>子供は人間とロボットを同等として扱う
いつものように間違っている
子供は大人は序列が高い
つまり子供は人間とロボットを同等として扱っていない
子供とロボットを同等というように限定しないとダメ
うん、これロボットに限った話ではない
善悪の区別がつかない子供だからそうなっているだけ
映画「IT」の元になったピエロおじさんに何人もの子供が騙されたのもその為
変な話子供を騙し従わせるには着ぐるみや面白おかしい変装など一般的な人間の姿形をしていなければいい
パパママの話は聞かないがサンタの話は聞く…親の小言は心に残らないが漫画や映画のセリフは心に残る…そういうものだ
子を持つ親は自分の子供や周りの子供に「知らない人だけだはなく一般的ではない格好の人に付いて行くな」とよく言い聞かせておけよ?簡単に誘拐されるぞ
そういう海外ドラマあるよね。
物語の中だけの話じゃなかったんだ。
大人だってカーナビの指示に従って失敗するやん?
子供だから~ってのはちょっと違うと思う
つまるところ、コレでミスる子供も大人もエンジニア向きじゃないってことだけは確かだ。
ウチのプロジェクトにだけは来ないで欲しいね。
100年後の子供は知らないロボットについて行っちゃだめよって教えられるのかな
※21
その頃には、子どもたちは幼稚園で人間三原則を教え込まれます。
1. ロボットを信用するな
今はロボットを簡単に複製できる時代だから怖いね
まあ、未来のロボットなら人間よりも正確な判断ができるかもしれないが。
でも現代のロボットって所詮は人間が考えたセリフを読み上げるだけのスピーカーみたいなもんだし。
男は悲しみに泣くものでは無い
優しさに涙するものだ。
トップの写真のロボットかわいい~~~!
部屋に飾って愛でたいわぁ
子供の頃は、よくできた人工無脳と知性の違いがわからないから、
一人の意見として尊重するんだろうな。
大人にとっては、ただの玩具ごときだけど、
ものを大切にする心もあるから、電源を切る(簡易的な破壊)のは躊躇する。
※28
そういえば、何日か前にツイッターで「2歳の息子に、今度、引っ越ししてママとパパと息子の3人だけで暮らすんだよ。と言ったら 「アレクサは……」と言い出したので、完全にスマートスピーカーに人格を見出して、家族だと思っている」。とかっていう投稿があったっけ。
その後、こう続く「 AIがネイティブの世代が大きくなった頃には機械と人間の境は、自分とは全然違って映るんだろうか。」
今回の記事は、上の投稿そのままだよね。
欲が無い物だから人間よりは信用できると思うんじゃないか
AI「なぁ、マンガンじゃギュンとこねぇんだよぉ、アルカリいれてくれよ」とか
AI「くぅ~やっぱノンシリコンの天然オイルは効くねぇ」とか
言い出したAIに車の蓄電池や潤滑油の宣伝されたらちょっと疑うようになるぞ
※29
なにそのタチコマ
>人間は集団志向に左右されやすい
日本人なんてコレ
左右されやすすぎ
大多数の意見に流される快感ってあるよね
あれ知性が下がって危険だなぁと思う
>ロボットがオモチャのように小さく、影響を与えるほどの存在感がなかったからだ。
>ロボットに従わなかった理由を問われた大人の参加者は、ロボットが誤作動したか、質問に正解できるほど性能が高くないと考えたからと答えている。
これ、じゃあ人間のサクラの実験でも再現できるのかな?
例えば、国のトップクラスの大学生が被験者で、
同じ大学生がサクラの場合は引きずられるけど、
片言を喋ってるような作業着の移民労務者がサクラなら
無視して自分が正しいと思う答えを言う率が増える、みたいな。
※33
サクラに対する信用度の違いだよね
肩書に弱いのはある程度しょうがない、人間はそうやって集団生活してきたわけだから
ようするに
ドラえもんが友達に
なるのは自然な事
なんだね
ロボットの電源を切ろうとした際に「止めてほしい」と懇願される。
「うん、今、とめるとこ。」
日本語、難しいね。
いつか、人間以上の知性を得たロボットが人間に反旗を翻した時に
殺人ロボットではなくて自殺教唆ロボットになる訳か
夢がないなぁ
ロボットしか信用できないからだと思います。
人間なんて信用できません
スレチかも知れんが、AIが子育てとか介護を委ねられるくらい発達するとするやん?
今度はAI自身が混乱してカサンドラ症候群になったり介護うつになったりせえへんのかな。