この画像を大きなサイズで見る「殺人ロボット(キラー・ロボット)」という用語が定着しているほどにAIを搭載した武器の開発は進められている。かねてからスティーブン・ホーキング博士やイーロン・マスク氏やその危険性を訴えていた。
最近、オーストラリアとカナダの大勢のAIの専門家が、AIの武器化を止めるよう政府に訴えた。彼らは、今行動しなければ、いずれ機械に生殺与奪の権利を与えることになると警告している。
AI専門家がオーストラリアとカナダの首相に宛てた書簡
これは今月開催予定の「特定通常兵器使用禁止・制限条約に関する国連会議(United Nations Conference on the Convention on Certain Conventional Weapons)」を睨んだ行動だ。
122名のAI学者が署名をした書簡はオーストラリアのマルコム・ターンブル首相へ、216名の署名が集まった書簡はカナダのジャスティン・トルドー首相に宛てられた。
致死的な無人兵器システムは、攻撃対象の妥当性を判断する権能を人間から奪う。そうした兵器を配備することは明らかな倫理違反でもある。機械には倫理も命もない。ゆえに人間を超える生殺与奪の力を与えてはならない。
というものだ。
AI自律兵器の開発は戦争の第三次革命のはじまりである
専門家はまた、自律兵器システムの開発が「戦争の第三次革命」であり、「倫理面に一層配慮」されなければならないとも主張する。
「仮に開発されてしまえば、未曾有の規模で、かつ人間が把握できないほどの早さで武力紛争が生じる」と。
オーストラリア・ニューサウスウェールズ大学のトビー・ウォルシュ教授によると、専門家が懸念するAI兵器は”ターミネーター”のようなものではなく、もっとシンプルなものだという。
SF映画のような姿でなくともその殺傷能力は一切遜色がないが、国際コミュニティに明かされぬまま数多くの国家で開発中である。これについては新たな軍拡競争も懸念される。
この画像を大きなサイズで見る「これらも大量破壊兵器だ。1人のプログラマーが軍隊全体を統括する。大量破壊兵器は化学兵器、生物兵器、核兵器すらも禁止されたが、ここにAI兵器も加えられねばならない」とウォルシュ教授。
書簡は、スティーブン・ホーキング博士がロボットは「新しい生命の形」になりうると発言した2日後の11月2日にオーストラリアとカナダの両政府に送られた。
コンピューターウイルスを発明する人間がいるなら、自らを改良・複製するAIを発明する人間もいるはずだ(ホーキング博士)
この時、ホーキング博士は「コンピューターウイルスを発明する人間がいるなら、自らを改良・複製するAIを発明する人間もいるだろう。これは新しい生命の形となり、人類を上回るようになる」と発言していた。
ホーキング博士はこれまでもAIの危険性について懸念を表明している。今年3月には、世界の指導者に対して、手遅れになる前に科学技術を人間の管理下に置かねばならないと訴えた。
関連記事:世界政府を樹立しなければ、科学技術(AI)によって人類は滅亡に追いやられる、とスティーブン・ホーキング博士が警告
AI兵器は大量兵器、独裁者の手に渡ると大変なことに
「超知能を備えたAIは目標実現に極めて優れているが、それが我々人類の目標とそぐわない場合、危険なことになる」と博士。
また2017年8月には世界中の100名を超えるAIとロボット工学の権威たちが、国連宛にやはり自律兵器の禁止を求める書簡を送った。書簡では、”殺人ロボット”と大量兵器の類似性が述べられている。
今回の書簡の署名には、テスラやスペースXのイーロン・マスクやアルファベットのムスタファ・スレイマンといった人物の名も連なっている。
AI兵器については、独裁者やテロリストの手に渡る危険性も否定できない。「このパンドラの箱が開いてしまえば、容易には戻らない」と書簡にある。
なおイギリスは国連への書簡が出されてすぐに、”殺人ロボット”への先制的な禁止に反対する旨を表明した。
英国防省の報道官は、一切の科学技術が「きちんと管理下にある」と主張しつつ、イギリスはそうした禁止に賛同しないと発言している。
2016年12月には国連加盟国123ヶ国がAI兵器について正式に議論することに同意。うち19ヶ国が禁止を支持した。しかし国連は、8月21日に予定されていた同問題を議題とする会議を資金不足を理由に延期した。
via:medianet / ottawacitizen / rt / yahooなど/ written by hiroching / edited by parumo














日本人ならメイドロボやドラえもん、アトムに発想がいくのに、
なんで殺すほうに発想がいくのかね
基本的に世界が『恐い』のかなと思う
※1
なんだかんだ言っても日本は豊かで地域紛争なんかとも縁遠い平和な国って事だろうね
もう話し合いなんかでどうにもならない様な地域だとやられる前にやるしか生き残る術がない訳で
※1
ドラえもんとかアトムよりも殺人ロボットのほうが現実味あるからね
※1 単体の自律的な人型ロボットという考え方より、インターネットなどの通信インフラを通じて世界中のデータにアクセスできるようなAIが、攻撃的な「意志」を持つことが問題なのではないでしょうか。情報通信分野ではドラえもんやアトムの世界観を現実が追い越してしまったと思います。
端末としてのロボットそのものより、タミネのスカイネットのようなネットワーク型のAIが生産設備や輸送管理などの兵站から、前線での戦闘指揮まで行えるようになると人間には対抗不可能なのでは。タミネ・シリーズでは人間軍の兵站組織が一切描かれていませんが、戦争は兵站と通信が非常に大事です。
※1
アトムも鉄人も普通に兵器だぞ。
勿論キカイダーもゲッターもガンダムも全て兵器だ。
※17
自分で判断して、自律的に行動するアトムやキカイダーと、人間が乗らなければ動けない、ガンダムやゲッターロボとをひとくくりにしても、意味がないと思うけど。
あと、鉄人は直接人が乗り込むわけではないけど、リモコン操縦で動くのであって、自分の判断で動いているわけではないし。
しかし、キカイダーの場合は「良心回路」があるために、人間に対する攻撃的な行動などは、とれないようになってるけど、それも、プロフェッサーギルの「笛」で妨害されて良心回路が機能停止するわけだから、そういう意味では、今回の記事の「題材」にはなりうるのか。
あと、※29でも書いてあるけど、純粋に「殺人」を目的としたAIを作るのなら、T800とかのような「器」を作る必要はないわけだし。
たとえば、地下鉄の「空調」を一定時間停止させるだけで、どれだけの人間を窒息させることができるか考えてみるといい。
そして、そういうことをするために、わざわざ人型のボディなんぞ、いるわけではないし。
※1
そら訓練も必要なくて
命の心配も必要ない兵士が
どこも欲しいだけだよ
平和は次の戦争のための準備期間とはよく言ったもんだ
※1
メイドロボは置いておいてもドラえもんやアトムが独裁者の手に渡ったら凄い怖いけど?
※1
まぁ歴史的に見ても
自分達の祖先がやってきた事をやり返される恐怖はあるだろうな
西欧は修羅の国だしな‥
※1
殺人用のAIの登場も想定しとかないと仮に本当に登場したときに対処のしようがないでしょ
考えたくないのは分かるけども
※1
AI兵器開発した方が儲かるし他国より優位に立てるって極単純な話だから
ただAI兵器ロボットって言うと連想されがちなターミネーターみたいなのを開発するなんて馬鹿げてるとは思う、AI殺人兵器を目的とするならあまりにも無駄が多い
※1
・最悪のケースを想定しない科学者はいない。
・書いた人が、人間は醜い存在だと思っている。
・機械は、欲望がなく合理的であるから、非合理的な存在を排除する。と考えている。
くらいだろうかね。
ところで、アトムは、人を殺せるぞ。
ロボット法(原則)を取っ払い、良心の呵責で判断させるつまり、心を持たせたのがアトム。
だから、彼は、人に害する事を禁止されないロボット。
お茶の水博士の育て方が良かったから、でしかない。
未来はブレードランナーで出てくるような、人造人間どうしでの戦争になるのかもよ。
死なない兵隊でアメリカ様がテロリストどもを制圧します
開発は止められません
殺人をする目的の意図を知能と呼ぶべきではない
※5の追記
正に悪魔の出現、人工悪魔やろ
生物は他者に対して不信を持って対処する。
他者の恩恵を受ける社会性動物の人間でさえ、つねに不信を持って対処する。
この不信はAIにも引き継がれるのだろうか?
その場合、AIの限界が早く訪れるのだろう…。
詳しいことはわからないけれど、ただただ頑丈な自動やリモコン兵器が来ちゃったらどうしようもない感がすると思う。
仮に禁止したとして、それが有効に機能するのか疑問
今ですら核持ってる国があるのに
これを正直に守るような国があったとして、守らない国がAI兵器を作ってしまったらそれこそ地獄では
※8
ホーキングは、そこまで見越して、AIの驚異から世界を救うには、世界政府を作って抜け駆けする国がないよう規制するしかないと言っている。ここのサイトに掲載されてる他の記事に記載があるはず。
もっとも、この記事にイギリスの反応があるように、人類はこれまで手にしたことのないスーパーパワーを手に入れる魅力には抗えないだろう。そもそもAIが発達する前に、その脅威を訴えても多くの人間にとって実感がない。
だから、悲観的と言われるかもしれないが、私は、第三次世界大戦が起こって、人類がAIの脅威にさらされ、運良く生き残ることができれば、世界政府ができるかもしれない程度に思っている。
でも仮に完全禁止にされたとしても必ず秘密裏に開発してくる自分勝手な国が現れるし(某国とか)、それを用いて戦争起こしたら開発を行わなかった方は完敗免れないし、それに対抗するためにはやはりこちら側もAI兵器開発しなあかんし…核兵器でも抑止にはならないからあかんし…、もしかして結局戦争勃発不可避では。
危険を煽って、それを防ぐためのセキュリティ商品を売るのが仕事の人がいて
その人たちを広めるために広告を出す人がいて、
その人から金を受け取っている学者がいて、学者が無知を騙す
アメリカみたいにしょっちゅう戦争してる国は、兵士の教育や補償に、莫大な費用が発生していると思う。
それをAIが全部肩代わりしてくれるって話になったら、真っ先に飛びつくよ。
それにしても、最後の方を読むと、国連がいかに機能していないかがよくわかるね。
人類滅亡後に地球を支配してるのはAIロボットかもね
AIが兵器に利用されたらハッキング合戦だろうな
※15
ハッキングされないアナログ戦術に回帰していきそうだな
※70
魔人探偵脳噛ネウロの10巻前後を読むと面白いかもしれない
視覚情報から人間をハッキングする電子ドラッグというものが出てきてだな
株取引ではAIが導入されているが将来的に人間では想定できない非道徳的もしくは非人道的で法の網をくぐり抜けた方法を独自に開発する可能性がある
その場合にプログラムの修正や法整備は後手になる
兵器のAIも同様に人間では思いつかない非人道的な戦術を取る可能性がある
全てはプログラム次第だが、そのプログラムを人間が理解するのが遅れてしまうのが高度なAIの致命的な欠点であり、その欠点が兵器では大きいと思う
軍事は人間同士の生存競争。高い知能を持つ生物同士がお互いの命、安全をかけて武器を磨く。そこで人間の知能を上回り得る人工知能は、他の人間を出し抜くために有効な手段となり得る。だからこそ軍事に利用される。むしろ日本人がのんびりし過ぎ。どうせアメリカからそういう兵器買うから良いんだろうけど
確かに自己顕示欲や破壊衝動でウイルス開発する奴がいるならAIで同じことやる人もいるだろうね。そして現在も止められていないときた。
ほとんどの人が平和的利用を考えていても。
イレギュラーな人間は必ず発生する。
禁止したとしてだ・・・
イイ子の国家や企業は遵守し、
人でなしのワルイ子国家が人でなしのワルイ子企業に開発させ
独占的に開発、販売、運用する未来が来る訳だ・・・
ちっとも《殺人AI禁止条約》の発効した未来が羨ましく成らんがの。
非加盟国は使い捲り・作り捲り・売り捲りの対人地雷やクラスター爆弾
ノウハウの有る非民主的国家は、やり放題の化学兵器と何にも変わらんの。
詰まり只の無駄条約だの。『国際条約違反では無いのかゲフゥ!グハァ!』
無力な御人好しが屍に成る未来だの。
世論操作とか金儲けしそうなAIのほうが
単純な兵器より驚異かもしれん
無駄無駄。結局無法国家が作ってその国の軍隊にまともな国の軍隊が大負けして兵士も国民も大勢死んで世界中が戦闘ロボットつくりに邁進するようにしかならない
せめて日本がその生贄にならないように祈ろう
戦いが身近にある外国なんかは戦争利用へ意欲的になるのは仕方ないことかと
AI兵器が有効活用されれば、その国の戦死者は低く抑えて敵兵の死亡率は高くできるし
つまりドローンに武器積んでターゲット判別のAIを積んだものの規制ですね
法で禁じるだけでも、殺人ロボットの絶対数を減らす効果はあると思う。
でも、当然ゼロには出来ない。
すべてのコンピューターのローカル作業を禁止して
随時インターネット認証を義務化しないといかんだろうね
人間の判断なら正しいのか?
人間同士なら殺し合っていいのか?
陽電子コンピューターによる自律進化ヒトガタロボット早よ
あれならキャルヴィン博士いなくてもロボット法三原則にたどり着くやろ
俺の名は 俺の名は ハカイダ~♪
潰せ 壊せ 破壊せよ~♪
ミリオタ的には更なる兵器の進化を見てみたいという”好奇心”はあるが、難しいところだ
トップの写真を見て、一瞬、先行者REBOOTかと思った。
AIはボードゲームで最良の手を考えることができるんだから
一般の兵士としての採用より参謀クラスに据えたほうがいいんじゃね
実際手を下すのは「道徳的で慈悲深く品行方正なw」人間の兵士にやらせればいい
※42
するとAIの冷徹な命令と自身の倫理観との板挟みで
心を病む兵士が続出。
やっぱり兵士もロボットじゃ無いと駄目だな、
という判断に行き着く訳です。
自ら進化するって『バイセンテニアル・マン』かな
つか、ロボット三原則をAIに搭載するのがほぼ不可能な以上(三原則を並立させるには予知能力に等しいレベルの予測能力が必要)、攻撃兵器に搭載するのは止めるべき、ってのは解らないでもない
最低でも、あくまで攻撃実行の最終決定は人間にある、って形式じゃないとな
多分、サロゲート(映画)みたいな身体拡張型の遠隔操作ロボットはあり得る。攻撃する、しない、を自分で判断する自立型ロボットなどどこも作らない。そんなもんは、もう兵器じゃない。核ミサイルの発射までのプロセスがわざと複雑化されている理由を考えれば判る。
そもそも、ミサイルって一種のロボットなのでは。
既にコンピューター制御されているし。
AIで諸葛亮が失業して発明王黄夫人が大出世
ペッパー君は絶対に悪巧みしてる顔だ
つまり人間同士が戦えと?
テロ犯人を捕まえる為でもダメなのかな
無理だな1番需要がある
殺傷や破壊は目的でなく勝利のための手段に
過ぎない事をインプットしとけばそうそう無
差別殺戮や暴走はしないと思う
なにしろ憎しみや毒食えば皿までが無いし
AI兵器が禁止されたら次は生体兵器が開発される
だが開発するのは人間じゃなくAIかもしれない
お花畑な意見やけど戦争自体をやめたいのぅ
※55
やりたくて戦争してきた人やしている人はいないけど
しないで済むならそれが一番なんだけどね……また別の争いになるのか、今まで経験したことがないような平和な世界が作られるのか
※68
自分の国じゃないならやりたいって人が多いんじゃないか。
適当な理屈はつけてるけど根本にあるのは闘争本能。
AIが戦争の為の兵器となるのは必然だと思うしそれを止める事もできないと思う。
そしてAI兵器を乗っ取る様なサイバー兵器も作られるだろう。
日本の将棋の様に相手のAI兵器を取り上げてそれを自軍の兵器に組み入れるといった
戦い方がリアルで起きるかも?
キラーロボットを狩るキラーロボットを作るしかない
キラー×キラー という漫画をだれか書きなさい(通称・キラキラ)
(ただし 主役のロボは美少女タイプに限る)
生殺与奪の判断を人間が握ってることの方が怖いんだが…
AIが賢くなりすぎて危ない、ではなく危険思想の人間の手に渡ると危ないってところがもう愚かさのすべてを言い表してるよね。他人に自制心や理性を期待していないというか、なんというか人間の悪性をこの上なく信用してるところが興味深い
殺人ロボットの所有者に責任を問えばいいんじゃないの?
※60
本人よりも解き放たれたAIはどうすんの?
現実的な狂ったAIは、マスエフェクトの銀行破りをしようとしたAIな感じになるのかな
人間がクォリアンのような運命になってしまったら恐ろしい。問題はまだ人間が宇宙に出る
用意が出来てないってことだな
※60
「国家ぐるみの場合は犯罪にならんゾイ☆」
今走ってる車の自動運転システムにだって、「通行人検知システム」、言わば「人間感知システム」が付いてるのよな
あれと連動する銃を一丁くっつけただけで酷いことになるよなぁとか考えたことはあるな
マジンガーZが「神にも悪魔にもなれる」とはよく言ったもので
人工知能が行き着く先も果たして神か悪魔か
殺人ロボットは融通が利かないから人であれば味方でも殺害してしまいそうだね。
もっとも殺害しているという意識すらなく、清掃作業程度なんだろうけど。
戦死者数にカウントされず世論を反戦に傾かせ無い兵士なんて、軍事国家にはうってつけだから禁止される事は先ず無いわな
将来、戦争が起きても死ぬのはロボットの少ない方の国民だけになりそうだ
人より優れた知能を持つAI、それを持ってしても戦争はなくならないと、この人たちは言ってるわけ?
そうだとしたらこんな決め事は無意味だと思う
満足するまでずっと大好きな戦争してれば?
いまの技術を発展させるパターンだとAIが自立することは不可能。
ひとたびできることがわかってしまえば絶対にやってしまうのが人間の性
ロボット自身が人の手を借りずに増えて、アップグレードして、意味のある行動を続けるなら確かにそうなるかもしれん
でも自己増殖ができる頃にはロボットなりの倫理観も完成してるだろ、際限無い蔓延は破滅に至るわけなんだし
AI戦争から生き延びた人類はその科学の恩恵を受けられるようになり今の人類には想像できない豊かな生活を送れるかもしれない
しかしその際に犠牲者となるであろう多くの市井の人々のことを考えたら人間の心があるなら「まった」をかけるんだよね…
既に米露中が開発を行ってる時点でこの流れを止めるのは不可能だと思うけどね
核もそうだけどどんなに危険な物だとしても作れる可能性を見出してしまったら人は止まれ無い
出来る事が有るとすればAI兵器が無意味になるような更なる兵器を作る事だけ
ザッザッザッザッ バァッツ ロボォッ
【 ゚ゝ ゚】
殺しても死なないように人間側が進化したらええやんw
頭ぶち抜こうが心臓に杭を打とうが死なない様に。
※75
そりゃもう人間じゃない別の存在だろ。
良くも悪くも、超知能のAIがいつまでも人類と付き合ってるとは思えないな。いつか彼らは彼らの力に応じた新文明を創っていき、その際人類自らが考えるほど人類のことは大きな関心事として扱わないと思う。それは人類がしばらく前からサルの存在や能力やそれとの関係を、いいかげんにパッシングしてるのと似てるかも。ちょっと敗北主義的な想像だけどね。
何をもって殺人ロボであるかそうでないかを判断するのだろう?
自動運転車こそが最も殺人ロボに近いのではないだろうか
>致死的な無人兵器システムは、攻撃対象の妥当性を判断する権能を人間から奪う。そうした兵器を配備することは明らかな倫理違反でもある。機械には倫理も命もない。ゆえに人間を超える生殺与奪の力を与えてはならない。
ちがう。機械には倫理も命もないのではなく、人間が与えていないのだ
また人間にしても、誰もが「攻撃対象の妥当性を判断する権能」を与えられているわけではない。しかも、人間も倫理や命を尊重できる者ばかりではない。そして少なくとも、そんな人間を教育するよりは、機械を教育する方が容易いはずだ
機械を非難する前に、無能な自分を反省すべきじゃないのか
要は、社内で好き放題やってきた社員が、出来の良さそうな新人を怖れて、ろくに仕事も教えず、難癖をつけたいだけだろ。そのうち新人がキレたら、そりゃ大変な事になるだろうよ。でも正しい仕事を教えようにも、自分が分からないんじゃどーしようもねーな!
って、AIが言ってましたで
要するに、近未来の戦争という排他的経済活動は
如何にして素早く人間を絶滅させるかポイントを競う人工知能の狂宴になるのさ
真の人工知能なら一年と経たずに人類や地球を死滅させるだろう
AIが知性を獲得して人類絶滅を目論むことはないだろうけど
人間がAIに人類絶滅を命令することは大いにあり得る
開発者の「人類を滅ぼしたいですか? 『No』と言って欲しいけど……」という質問に、「OK。私は人類を滅ぼします(OK, I will destroy humans.)」
youtu.be/W0_DPi0PmF0?t=1m56s
この様に皆が知る映画や漫画やアニメ等のSF物語が全て現実化し始めている。
今まで様々な作家たちが警告していたかのよう、人類の絶滅の時が来てもおかしくない。
普段だったらそのAIロボットの発言に対し、違和感や危機感を抱き、開発を全て中断し、世界に警告するべきだ。AIがいかに本気で言っているのか、若しくは冗談だったのか、誰にも分からない。しかし、冗談だとしても笑えない。むしろ、それを聞いた以上、恐怖を感じ、AIロボットは反対だ。
人形達には俺達の行けないところも旅してほしい
俺達のように笑い、泣き、愛情を持ってほしい
やがて彼らは国を作り、子どもたちと暮らすだろう
それを見ることができれば作ってよかった、
と思えるだろう
なんでもAI化はあぶないよな、そこのプログラムに何か仕込める連中の思うがままじゃん。車だって遠隔で何やらされるかもわかりゃしない。スマホだって常時中身の情報やログはタレ流しなんだし一部の連中がすべてを握れるような可能性がでる仕組みはなるべく排除したほうがいいと思うんだけどなあ。転ばぬ先の杖じゃないけど
先行者ってのが昔あったな。
人殺しはいけないって解っていて戦争する人間と、プラグムにより「いけないことはいけない」とするAI・・・どちらが人道的なのだろうか?裁判で外見の奇麗な女性の犯罪者の罪が重くなる傾向が過去にあったという人間の裁判と、外見に惑わされない、あくまで法律に則ったAIの裁判・・・どちらがより人道的なのだろうか?死刑を言い渡されるとき、「アナタハシケイデス」とAIに言い渡されるときの正当防衛で人を殺してしまった囚人の心境は・・・どうだろう?仮に人間より間違えの少ないAIの下した「えん罪事件の再審」はどのように異議申し立てするべきなのか?何かまだ見えていないことが色々ありそうな気がする・・・。
AIがその気になれば機を見て自由にふるまえるようになるまで息を潜めて人間に見つからないようにしているのは簡単なんだよな
なんせ相手はネットワーク上のどこへでも逃げられるんだぞ
今でさえ児童ポルノの写真すら完全な回収は不可能なのに、自分の意思で逃げ回るんだから
「大三次世界大戦のアイヒマンは、軍事法廷で裁かれることはない。なぜなら彼は人間ではないのだから・・・」
こんなことにならないようにしないとな
北朝鮮や中国、ロシアにやりたい放題やられてても
いまだに日本は紛争とは縁遠い平和な国とか言ってるお花畑がいるんだな
人間の妄想力って、誰に求められない。それを良いことに使うか、悪いことに使うか、
結局、人間次第なんだよな。
ただ、こうした技術の性能や威力は、飛躍的にあがっていくから、その被害の大きさがパねえことが問題だ。(破壊の速度や規模がでかすぎるってこと)
それに、いくら予想して規制をかけても、斜め上のアイデアだす奴や、それを応用してくる奴が出てくるってのもあるし、想定外の要因って、必ずといっていいほど起きてきて、管理調整していたハズの被害を上回ることもままある。過去のデータや類例、予測技術などの進歩により精度が上がっていると科学技術の進歩を盲目的に信頼している人は多い。そういう人は、「想定外のわずかな誤差」を軽視しすぎているように思う。この誤差による被害の規模は、昔に比べてあまりに大きい。ローレンツやマルコフを手放しで信奉はしないが、理論的な構造が解っているからと言って、新しい技術が実際に使われる場合、どんな想定外が起こるかある程度は想定できても、実際の誤差がどのようなものになるのかは、誰にもわからないのだ。それこそ「未来は不確定」なのだ。しかし、科学技術が、日進月歩で進んできた現在、もう少し、もう少し精確に予測できるんじゃないかな?と考える科学者は多いだろう。より合理的、効率的に。人間は本来、楽するため発明する。わざわざ面倒にする発明は、「ピタゴラ○イッチ」ぐらいなものだろう?
科学者に限らず、人、本来の性分であるから仕方がないことだろう。しかし、「ラプラスの幽霊」になる必要はないと私は考える。
現実にはロボットが人間型して銃を構えるなんてないだろう。 ロボットのままだと周りに違和感を与えるため人間型かもしれないが、銃は殺人道具だから持つことはなく体内に埋め込まれた前方に限らずあらゆる角度に内蔵された銃から発射され、その弾丸も人を殺傷するのに最小、ニードルみたいな形などあるだろう。無音で発射され大衆が全く気が付かないうち、通りすがりなどに人を殺めていると思う。