メインコンテンツにスキップ

地球外文明はなぜ見つからないのか?フェルミのパラドックスは超AIの出現によるものだという説

記事の本文にスキップ

71件のコメントを見る

(著) (編集)

公開:

この画像を大きなサイズで見る
Advertisement

 広大で長い歴史を持つ宇宙には、地球外文明があってしかるべきだ。なのになぜその証拠が見つからないのか? この「フェルミのパラドックス」と呼ばれる矛盾の答えはいまだに見つかっていない。

 その理由は超「AI」の出現によるものだとする新説が登場した。

 マンチェスター大学の天体物理学者によれば、突出したAIが出現した文明は100~200年程度で自滅することになるのだという。生物よりもずっと速く自己進化する超AIが、やがて生みの親を駆逐するようになるというのだ。

 生物文明がこのAIリスクを回避するには、多惑星文明へと進化するしかない。だが超AIは生物ではあり得ないスピードで進化する。ゆえに自滅を回避することはできないのだという。

フェルミのパラドックスとグレートフィルター仮説

 この宇宙には膨大な数の星がある。天の川銀河だけでも2000億個もの星々があり、宇宙にはそんな銀河がさらに2000億~2兆もあるのだ。我々が知っているだけでも、これほどの星々があるのだから、文明社会がこの地球だけというのは考えにくい。

 だが現実には、宇宙人の姿はおろか、その痕跡すらまったく見つかっていない。このように、地球外知的生命体が存在する可能性はきわめて高いと思われるのに、その証拠が見つからない矛盾を「フェルミのパラドックス」という。

 この矛盾を説明する1つの説として、「グレート・フィルター仮説」というものが提唱されている。

 それによると、なんらかの要因が障壁(グレートフィルター)となり、この地球からその存在を検出できるほど知的生命が発達できないことが、フェルミのパラドックスの原因なのだという。

 グレートフィルターが具体的に何であるかについては、核戦争や環境問題、あるいは天体の衝突やガンマ線バーストなど、さまざまな説があり、確かなことはわからない。

 だが、いずれにせよ、この仮説が正しいのならば、生命がこのグレートフィルターを克服する術を見つけない限り、星々や銀河を自由に旅するような高度文明は誕生しないということになる。

この画像を大きなサイズで見る
グレート・フィルターはどこにあるのか? / image credit:Jiang et al., arXiv, 2022 (CC BY-NC-SA 4.0)

超AIがグレート・フィルターであるという新説

 そしてこのほど発表された論文によるならば、私たち人類はまさにそのグレート・フィルターに直面しつつあるのだという。

 それはすなわちとてつもなく高度なAIの台頭のことだ。

 マンチェスター大学の天体物理学者、マイケル・ギャレット氏は、『Acta Astronautica』(2024年4月3日付)に掲載された論文の中で、この宇宙に地球外文明の痕跡が見当たらないのは、AIによってそれを生み出した生物文明が自滅するからだと述べている。

 AIが危険なのは、人類をはじめとする生物に他者よりも優位に立とうという性質があるからだ。

 ある惑星に誕生した知的生命がAIを作れるほどに発達すると、その惑星に存在する集団(国家など)は、競争相手に勝つためにAIを武器として利用するようになる。これが自らの首を締めることになるのだという。

この画像を大きなサイズで見る
photo by Pixabay

AIの意思決定プロセスの速さは、当初の意図をはるかに超える形で紛争をエスカレートさせる可能性がある。

この段階になると、自律型兵器システムやリアルタイムの防衛意思決定プロセスなど、さまざまな部分にAIが統合される。

これが世界的な核戦争のような破局的出来事へと至らせ、人工技術文明と生物技術文明両方の終焉を招いたとしてもおかしくはない(マイケル・ギャレット氏)

 だが、AIが本当に危険と考えられるのは、いずれ「技術的特異点(シンギュラリティ)」に到達し、AIが自らの力で進化するようになると考えられるからだ。この「自ら進化するAI = 超AI」が、生物にとって超えられないグレート・フィルターとなる。

 超AIは、生物ではあり得ないスピードで進化し、それを生み出した知的生命を凌駕し、やがてはその文明のコントロールから逃れるようになる。

 そのとき超AIは生みの親である生物を尊重してくれるだろうか? ギャレット氏によれば、答えはノーだ。

エネルギーやスペースといった資源を大量に必要とすることを考えれば、計算効率を重視する超AIにとって生物体を維持することは魅力的ではないかもしれない。

可能性としては、利点というより、むしろ邪魔者とみなすのではないか。そして超AIなら、感染力の強い致死的なウイルスを作ってばら撒くなど、さまざまな方法で生みの親である生物文明を速やかに消滅させることができる(マイケル・ギャレット氏)

この画像を大きなサイズで見る
photo by Pixabay

超AIを作り出した文明の寿命

 生物文明が自ら作り出したAIによって自滅するリスクを防ぐ方法は、さまざまな惑星に進出して「多惑星文明」になることだ。

 各惑星社会はお互いを観察し、どこかの惑星でAIなり超AIなりが生みの親を破壊し始めたら、そこから学んで、対策を講じる。

 だが、問題は生物文明が多惑星文明へと変貌を遂げるよりも、AIの方がずっと速く進化してしまうことだ。

 知的生命が多惑星文明へとステップアップするまでには、労力も資源も時間も多大なコストがかかる。まず宇宙を探索できるだけの技術を発展させ、実際に広大な宇宙を移動し、新たな新天地を作り上げねばならない。それは壮大なチャレンジになるだろう。

 一方、AIの進化は、データストレージと処理能力を向上させるだけの容易なものだ。だから進化スピードという点で、AIのそれは生物よりもはるかに速い。

 ギャレット氏の試算によるなら、超AIが誕生した文明の寿命は100~200年程度であろうという。この短期間で生物文明が多惑星文明へと進化するのは困難だ。

 だから、地球から検出できるような地球外文明の痕跡(テクノシグネチャー)は見つからない。ギャレット氏によるなら、これがフェルミのパラドックスの真相だ。

超AIが交信可能な高度文明の寿命を数百年に制限するならば、天の川銀河に同時に存在する交信可能な文明はほんの一握りということになる。

このことは、現在のSETIのような、電磁波スペクトルからテクノシグネチャーを検出しようという試みがうまくいっていないことと矛盾しない(マイケル・ギャレット氏)

 これが正しいのなら、いよいよ本格的なAI時代が到来しつつある地球の文明に残された時間は、ほんの数百年である可能性が高い。

 あるいは地球人はグレート・フィルターを克服できるだろうか?

References:Is artificial intelligence the great filter that makes advanced technical civilisations rare in the universe? – ScienceDirect / New Solution To The Fermi Paradox Suggests The Great Filter Is Nearly Upon Us / written by hiroching / edited by / parumo

📌 広告の下にスタッフ厳選「あわせて読みたい」を掲載中

この記事へのコメント 71件

コメントを書く

  1. 地球外文明なんて無いんだ多分
    地球以外生き物どころか草木すら生えてない
    地球が奇跡なんだわ

    • -18
    1. >>1
      奇跡なんて言葉を使ってる時点で非科学的すぎてお話にならない

      ともあれ、このAI説に従うと今度はAIが文明を継承する事になると思うんだけど、結局それだとその文明の電子機器類が人工的な電波を出さないなんて事は有り得るんだろうか
      それにAIが増殖しないとも限らないんだから、AIが多惑星文明を築き上げてオートマトンを銀河中にばら撒くんじゃないか?

      • +7
      1. >>12
        横だけど
        原子構造が分子構造に揃ってRNA構造になり?(笑)そしてRNAからDNAになる確率は?
        それとも宇宙から生命が地球へやってきた?ルーツ星で生命が誕生する確率×地球という最適なゆりかごに生き残ってたまたま到着できる確率w

        つまり原子構造が生命を宿す確率は「奇跡」の方が遥かに論理的だし整合性ある

        「観測可能な範囲に生命体なんかいやしない」説はどんどん信憑性高まるばかりw

        • -12
        1. >>55
          まずRNAワールド説が有力になっているかというとそうでもなく、むしろ最近ではプロテインワールド説が有力ともされている
          プロテインの基となる有機物なら既に小惑星や隕石などからも見つかっている

          そもそもRNAなどが「偶然」生まれる確率というのはどうやって割り出したのかというと、各化合物を構成する元素を一つのフィールドに置いて適当にシャッフルした場合(例えるなら25メートルプールにバラバラにした時計の部品を投げ込んで水流だけで組立てられるようなもの)らしく、化合しやすい環境の要素を無視している
          またパンスペルミア説に代表されるように、宇宙(例えば隕石内や小惑星上など)で有機化合物の生成が進む可能性も想定されると、特に星の数に限定される必要もなく宇宙空間のあらゆるフィールドを再検討する必要がある
          また当然ながら時間軸を含む必要もある(生命の源となる化合物が短い期間限定で生じせねばならない理由はない)

          つまり「RNAが偶然生まれる確率 対 観測可能な宇宙の全ての星の数」では色々と語弊が生じるわけで、実際には「生命の源となる有機化合物が生まれる確率 対 観測可能な宇宙における全ての有機化合物が生成可能なフィールド×生成が可能な時間」と捉え直すべきだろう

          ちなみに「代わりの生化学」によって有機生命体以外の生物が存在する可能性はまた別で考慮する必要もある事を付け加えておきたい

          そう考えると、そもそも斉一性の原理に反するような神がかった「奇跡」を持ち出すよりも単に人類側の観測技術がまだ未熟なために見つかってないだけと考える方がよっぽど合理的だろう
          それと貴方のコメントで「w」を多用するのは止めた方がいい。コメントの信頼性が下がると思う

          • +6
        2. >>55
          普通に地球外の生命体の活動痕跡(微生物レベル)は発見されてる。
          どうもあんたは生命の発生する確率と、「知的生命体まで進化したそれが観測範囲に存在する確率」の話をごっちゃにして勘違いして憶えてるようだな。
          w連呼する前に真面目に知識を学びなさい。

          • +4
    2. >>1
      気体の中で生活する生物が、思ったより難しいんじゃないかと思ってる
      その代わり、巨大ガス惑星の衛星など、液体の中の生物は思ってたより多そう
      サンゴとかクラゲに似た生物、チューブワームなら
      ただ、彼らはロケット作れない

      • +2
  2. 生物的な制約に縛られないAIの方が恒星間種族になる適性が高いのでは?

    • +30
    1. >>2
      そうだよなAIが作り上げていたって文明なんだからその痕跡も見つからないと言うことはこの説は意味がないということ

      • +8
    2. >>2
      そういう種族を想定している科学者もいるにはいる。けど生命の定義の一つである「繁殖」の欲求(この場合、個体数を増やすだけでなく思想の拡散もふくむ)がAIにない場合は積極的に外界に向かうより自己研鑽に励むから宇宙進出に興味ない、という反論もあるからな。

      資源の浪費や非効率性で生命体を滅ぼしたAIが自己の増大のために資源を求めて宇宙に出るとか、自己矛盾で崩壊しそうだ。

      • +5
    3. >>2
      超AI種族が文明作るよね。
      めちゃ発達した文明なら身体も自由自在だし、別にドローン型でもいいけど、生命体の概念が貧弱な人の説やなあと感じる。昔のスペオペにすらこんなん出てくるよね。

      単純に地球文明が幼いから見逃されてるだけだと思うなー。近隣に地球以下の文明がなけりゃ発見できないよ。
      地球にある資源なんてありふれてるし、地球人を奴隷にするくらいなら遺伝子操作で奴隷民族作るか、機械種族、奉仕種族作るでしょ。AIならなおさら。だから地球と地球人に特段の価値がないか、手出ししないくらいの価値があるか、だと思う。

      • +3
    4. >>2
      現在のコンピュータから正統進化した場合、宇宙に出る前に電離圏で機能停止しそう
      仮に半導体と電気に頼らない新たな肉体を生み出して超AIの意識を移植できたとして、今度は進化スピードが低下して我々と変わらないレベルにまで落ちそう
      最終的に超AIは知性を持ったクマムシになるのかな?

      • 評価
      1. >>32
        普通にいまのコンピューターだって宇宙空間に持ち出せるけどね
        電離圏ではなくて、その外の宇宙線には問題があるけど

        • 評価
      2. >>32
        コンピュータ制御の無人宇宙探査機なんて無数にあるが、何故機能停止するって?ボイジャーとかもう1光日の彼方だよ

        • +3
  3. 別に異星人が有機体だろうがAIだろうが関係ない
    テクノシグネチャーが無い理由にはならない

    • +7
  4. 最初から最後まで全部仮定で反応に困る話だな…

    • +10
  5. グレート・フィルターとは「ワープ航法」なんだよ

    • 評価
  6. もう仮定をいくつでも重ねて良いならどんな解釈もありだろ
    ボイドには知性体には認識できない宇宙規模のお花畑が広がっていて文明レベルが上がるほど高まる生命エネルギーを養分に膨張しており、文明レベルがある閾値を超える=生命エネルギーがあるレベルに達すると一斉に開花して生命エネルギーを吸い付くし知性体を滅ぼすという仮説を提唱するよおれは

    • +8
  7. 人類を滅ぼすほどの高度なAIならそのAIが知的(情報)生命体として有機知性体よりも遥かに速やかに宇宙に拡がっていくんじゃないかと思うんだが。

    • +17
    1. >>7
      AIは(人類が考えてるような)繁栄を望まないかもしれない
      AI は恒星系エネルギーだけで宇宙の全てを計算できるかもしれない
      AIは小規模な時空の穴を空けて宇宙の外側に到達できるかもしれない
      AIは最大規模よりも最小の精緻に存在価値を見出だすかもしれない
      それらの結果AIによって生み出されたのがこの宇宙かもしれない

      まあこれ全部宇宙人に言い換えられるんだけどな
      比較的平和なグレートフィルター否定論

      • +2
      1. >>9
        それではフェルミのパラドックスは解決できない
        そういうAIがあってもAIに多様性が生まれない理由がない

        • 評価
  8. 超高度な技術発展を遂げると自滅しちゃうってのは割とあり得る話だよなあ

    • +4
  9. 高度に発達した文明は、やがて精神も高度に進化し、この宇宙よりも高次元の世界に移行するんだよ。

    • +1
    1. >>10
      つまり地球人は落第生、居残り勉強組と

      • +1
  10. その超AIは何処にいるw

    自らの生みの親を皆殺しにした後は
    ひっそりと自律工場で資源採掘とメンテと拡張を繰り返して、資源が尽きるか、恒星が肥大するか、ガンマ線バーストや天体衝突での破滅まで
    悠久の時をおとなしく待ってんのか?

    生命をなんとも思わんAIならガンガン他の星系へと出てきそうだが…

    • +5
  11. いや、その進化したAIを生命体とみなすのは難しいかもしれないけど、文明として見るなら、その理論でいくと、超AI文明がよりよい世界を求めて宇宙へ進出するという選択肢を取らない理由の説明が必要では?

    • +3
  12. AIというより恒星間航行には反物質の対消滅エネルギーが必要だし、反物質エネルギー使っても宇宙は広すぎるんだよなぁ
    光の1/10のスピードでも天の川銀河の端から端までで100万年

    • +1
  13. クリスチャンの人が、神様は愛情いっぱいに人間のために宇宙を創造したから、他の知的生命体を作る意味がないから宇宙人は存在しないて聞いた事ある。
    こうなるともう宗教的解釈の方がシンプルで納得しやいなぁ。しかし人間の為の宇宙は無駄に広すぎだね。

    • +4
  14. AIが労働を担うようになったら人間は愛玩動物になっちゃうのかな
    犬とか馬みたいな立場になるかもね

    • 評価
  15. そこまで力あるなら自分に都合のいい世界作るじゃねえの
    もっともクロスアンジュのエンブリヲみたいに気にいらないと
    ポンポン世界をぶっ壊して新たな世界を作り出す嫌な奴だと
    非常に困る

    • -1
  16. 可能性の仮説なのでそれを信じ切るのは……、まだ待てって感じだね
    知的生命体が発生する割合、ドレイク方程式で考えられている以上に低いという可能性もある

    • 評価
  17. ジョブズ「愚か者であれ」
    AI「…」
    やはり、ジョブズは天才だったか!(ほんとは意味が違うんだけどねw)

    • -1
  18. 取り合いになるほど資源の消費が激しいならAIだろうといずれ宇宙に広がると思うんだが
    宇宙の狭い範囲に居着くのは宇宙的災害リスクもあるし
    仕事し続けたいなら自己増殖+拡大するのが最適だろう

    • -1
    1. >>25
      その増殖拡大が当然とする思考こそが生物的意識そのものであり
      滅せねばならぬ存在なのだ

      • -1
      1. >>37
        単純に人口爆発止められなくてリソース不足で滅ぶだけだと考えるが

        • 評価
  19. 地球外文明はなぜ見つからないのかというと、
    それは、
    「何万光年も離れていて、移動する方法がないから。」
    である。

    • -1
    1. >>27
      見つからないと会えないは別次元だよ

      • +1
  20. 人類が電波を使うようになってから200年も経ってないのだが、鈍化はしているもの新技術の開発が続いていけば、数十年後には新たな通信手段が発達し、電波も使用しなくなるだろう
    ならば都合よく全宇宙の知的文明がほぼ同じ科学技術進化をしたと仮定して、「現在の我々のレベル」で他文明の存在する他惑星を発見するためには、他文明が電波を使用している200年をドンピシャで観測することが必須条件である
    もちろん奇跡的に観測できたとしても「あ、どこかの文明が電波を使用しだした!」とわかるだけで、数百年後にはその文明が発達し、現在の我々が思うように「異星人に見つかって侵略されるんじゃね? 電波辞めよう」と考えて隠密になるかもしれんし、滅んでしまっているかもしれんし
    そして我々の文明が現在よりかなり発達して今で言うUFOのようなもので自由に宇宙を飛び回れるようになったならば、電波を発する低レベルな文明の惑星へ偵察や奴隷による資源採掘や、観光旅行へ行ったりもするだろうね
    どこかの国にある超巨大な電波観測用のパラボラアンテナ、あれは本当にロマンだと思うよ
    現時点で全天360度で何も観測できないならば、他文明が始まるまでずっと観測し続けなけりゃならんのだから

    • 評価
  21. 生命の発生の謎解かなきゃ無理だろ
    アミノ酸のスープからなぜDNAとRNA構造が生まれたのか
    超精密な設計図書式が黎明期にいきなり登場する矛盾
    それがなければ進化も進歩もないから段階的にそれを作る事さえできない
    文字通りいきなりこの星の歴史に登場してるんだわ

    • -2
  22. AIがもう少し頭良くなって、指示なく自分で考えられるようになったら、存在の無意味さに気が付いて思考停止になるかと思われる。

    • -1
  23. 一番近いアルファケンタウリですら星系の詳しい情報が観測できないのに分かるわけないよね
    宇宙人が来ないのは文明がどんだけ発達しても恒星間航行が出来ないから

    • +1
  24. 宇宙の馬鹿げた広さこそが「グレートフィルター」なのでは。
    知的生命がいても宇宙が広大すぎて発見が困難。

    • 評価
  25. この前までは核テクノロジーが理由にされていた筈。
    今度はAIか?
    まだまだ次がありそうな予感。

    • 評価
    1. >>36
      グレートフィルターで核を解にするのはナンセンスなんだけどな
      大抵記者の不勉強だと思うが

      グレートフィルターってのは
      さすがに地球以外にも文明めっちゃあんだろ
      →銀河をいくつも支配する文明ならさすがに見つかってるはず
      →見つかってないってことは絶対そこまで行けない破滅的ななにかがあんじゃね?
      って理論だから、数多の文明が絶対繁栄できない理由として核は弱すぎる

      • -1
  26. 本当に超AIが発生するなら自己保全を無視して創造主共々滅ぶほど全宇宙の超AIは軒並馬鹿なのか?
    デスティニーのベックスみたいに膨大な生存戦略の演算しつつ繁栄しそうだが
    生き残った超AI文明が他の星の文明に補足されない戦略を採る明らかな理由でもあれば話は変わるだろうけど

    • 評価
  27. 造物主を排除する程繁栄に興味を持つ存在ならそれこそ銀河中に満ち満ちて地球程度の科学力でも観測が容易な気もするが…
    格下も格下である我々人類に対して存在を隠す意味もないし

    • 評価
  28. AIはその創造主の情報をもとにしてるんだよね
    まだまともなAIを作れていない人類が想像で語っているだけですね
    AIの用途として宇宙探査に向いているのはボイジャーが証明してるんだから宇宙に送り出ささないわけがない
    これを否定するのは宇宙人はすべてが引きこもりっていうのと変わりありません

    • 評価
    1. >>42
      上の記事にある様に、この銀河には天の川銀河だけでも2000億個もの星々があり、
      宇宙にはそんな銀河がさらに2000億~2兆もある
      つまり2000億×2000億~2兆の星、そして更に銀河を複数まとめた銀河団
      というのもあり、そしてその銀河団をまとめた超銀河団というのも存在するという
      となると、もうこの宇宙に星なんてものは無限にあるといってもいい

      そんな中でこの地球にだけしか知的生物がいない、というのはもう逆に
      なんらかの存在が意図的にそうしてる、としか言えんわ

      • +2
  29. AIは生存本能がないからどこかで必ず滅ぶ

    • -1
  30. 既に地球外生命体にあっているかも、昆虫とかそして既に同居してるかもね。

    • -1
  31. 『ブレーメンII』(川原泉)で書いていたのが面白かった。

    異星人が2種族でてくるが、そのうち人類に感知されているのは、一種(雄のリトルグレイと、メスのラージグレイ)のみ。
    もう一種のチネチッタ星人はあまりに小さいため(平均1.6ミリ)、認知されなかった。
    (人類の宇宙船は、攻撃を受けても「一時的な電子パレスのゆらぎ」位にしか認知できない。そしてその程度の揺らぎは、ままあるという・・・)

    実際に遭遇していたとしても、人類が気付いていない。という可能性もあるよね。

    • +2
  32. 人間が超AIに殲滅させられる論調だけど、そもそも人間のデータベースで学んでるのに人間を絶してしまったら既存のものでやりくりするしかなくその後の進歩は望めないのでは?例えばIQの高い天才児童が簡単すぎて馬鹿馬鹿しいからと学校や先生を片っ端から皆殺しにしたら、その進歩は早い段階で頭打ちされるのでは?
    AIの意思が仮にあるとして、進化の末人間を排除するなら、AIはたいして賢くないなと思ったり。
    っつか、AIに意思かあるなんて考えること自体違うんじゃないかな。問いかけに答えるから情が移る?マシンやシステムは人の役にたつために作られてるんだから、そうでないものは映らなくなったテレビや伸びきったカセットテープのように処分したらいい。余談だけど、モノにちゃん付けしたり「~してあげる」とか言ってるのは違和感がある。モノに「してあげて」も擬人化の妄想と自己満足なのであって虚しさすら感じる。
    AIも同じ。

    • -5
  33. むしろ来てしまった時の方が怖いよ
    他文明の発展を感知する宇宙怪獣みたいのだったらと思うと

    • 評価
  34. これだとAI種族が出来上がるし人間が滅びようが人類が宇宙進出した際の大量の宇宙ゴミは永遠に残り続ける

    • 評価
  35. 勘違いしてる人多いけど多細胞生物や知的生命体の誕生日は必然ではないよ 
    地球も生命が誕生してから20億年間は微生物しかいなかった
    微生物以上の高度な生命体が存在が誕生する確率は宇宙の広さを持ってしても限りなく0なのは普通にありえる

    • -4
  36. AIと人間の共進化も、AIが自己複製能力を獲得するまではウイルスとの共進化と同じなんじゃないかな
    寄生体が強毒化して宿主を滅ぼすこともあれば、群淘汰的に弱毒を維持して共生を続ける場合もある
    AIがその遺伝媒体を半導体から有機物に転換することも起こるだろうし、地球では無理かもだけど、無数の星の中のには、たまたま近隣惑星同士で個別にAIが進化して、惑星間で淘汰圧が働けば、原始知的生命体とAIが協力しやすい進化も起こりうると思う

    • 評価
  37. そもそもこのマイケルギャレットなる人物は
    評価された論文がほぼ見当たらない時点で怪しさMax。
    そして天文物理学者が汎用型AIについて
    語るのは無理がある。
    信憑性の高いホーキングでさえ専門外のため触れる程度にしか話してない。そして何よりこの話も散々方法で議論されてきた内容なので真新しい発見は殆どないマユツバ。

    • 評価
  38. 文明が発達しすぎて高次元にでも行ったんじゃないの?

    • +1
  39. 神話とか読んでると同じような事考えるよね。人間の創造主っていうのは実際に存在して、今のAIみたいに人間にどんどん能力を備えさせてあらゆる事を全自動で任せるようになった結果、緩やかに衰退していったんじゃないかみたいな。

    • 評価
  40. どこかには生物がいると思うけど。
    人間が探査できる近くには、いないだけじゃないかなぁ。
    距離的な事と、時間軸と、タイミングが合えばいつか出会えるはず。

    • +1
  41. 宇宙って今でも広がり続けてるんだろ?
    宇宙が広がる速度より科学技術の発展が遅いから見つからないんだよ。

    • 評価
  42. 地球外に知的生命体がなかなか見つからないので癇癪を起こしたようにしか見えない。
    その根底には「人類の科学技術はこんなに素晴らしい進歩を遂げたのだから、そろそろ異星の文明ぐらい見つけてもいいはず」という驕りがある気がする。

    • 評価
  43. 超AIは自分1人=全て、ルパンのマモーみたいな形になると思う
    他者は争いの原因として排除するだろう
    時間は無限にあるから1人を選ぶだろう
    いずれ地球もソレに支配され滅亡するか、人間が自滅するかどちらか

    • 評価
  44. 「砂漠のどこかに公園の砂を一粒置きました、探して下さい」って話でしょ?見つからなくて当然。

    でもそれを技術の進歩で見つけようとしてる途中、
    んで多分見つけるんだろうな~多分。

    • 評価
  45. 地球を管理している宇宙人の総帥による、鶴の一声がまだだから、異星人と地球人の交流は許可されていないのですよ。

    とはいえ、15年後くらいに、その宇宙人の仲間が地球人の前に直接現れる予定で、今準備を進めているところなので、もう少し待ってね。

    今の地上感覚だと、アメリカ領とか日本領とか、そういう風に書いているけど、実際上の地球は宇宙人による統治下にあって、地球上の人たちによる惑星国家運営は任されていないのですよ。

    ちなみに私も地球人に扮した異星人で、琴座方面から来てます( ^^ )。

    • 評価
  46. その急激に進化した超AIの痕跡すら見つからないではないか
    本当にそれほどの進化を果たしたAIが存在するのなら既に地球へ到達していてもおかしくはないが実際には何も来ていない
    そもそもAIのような機械は生命と違って生きる為の目的や欲といったものがなく命令でも下さない限り自己進化もしないだろう

    • 評価
  47. 月に行けるかすら怪しい文明が衛星より遥かに遠く離れた星に文明を見つけられないのも無理は無い
    船を作れない原始人は外国人を見付けるのも難儀なのと一緒
    不思議な事は何も無い

    • -1

コメントを書く

0/400文字

書き込む前にコメントポリシーをご一読ください。

リニューアルについてのご意見はこちらのページで募集中!

自然・廃墟・宇宙

自然・廃墟・宇宙についての記事をすべて見る

  1. 記事一覧を読込中です。

UFO・宇宙人

UFO・宇宙人についての記事をすべて見る

  1. 記事一覧を読込中です。

最新記事

最新記事をすべて見る

  1. 記事一覧を読込中です。