チャットGPTに「50年以内に人類が絶滅する3つのシナリオと確率」を聞いてみた!

チャットGPT マーク

人類を越える天才AIか、あるいは狂った人工知能“シンギュラリティ”の出現か?

いま、世界で大きな反響を呼んでいる対話型人工知能“チャットGPT”に「50年以内に人類が絶滅するシナリオとその可能性」について質問してみました。

チャットGPTが即座に回答した結論は・・・

1.核戦争:確率5%未満

2.天体衝突:確率0.1%未満

3.突然変異したウイルスの流行:確率10%未満

ウイルスの流行による人類絶滅の可能性が10%未満で第一位、核戦争による絶滅シナリオが5%未満で第2位となっています。この2つのシナリオを合計すると絶滅の可能性は15%未満となり、「未満」の二文字が付いているとは言え、予想以上に高い絶滅の可能性が回答されています。

コロナ渦とウクライナ侵攻という最近の情報を反映した回答かと推測されますが、取るべき防止策についても優等生的な解答をしてくれました。一方、進化したAIの暴走による人類絶滅シナリオについて言及がないので、別立ての質問をして答えを引き出しています。

回答について、ブログで拡散しても良いかどうか質問したところ、引用を明記したらOKとのこと。この記事では、質問と回答についてやりとりを含めてご紹介します。チャットGPTを使うかどうか迷っておられる方はどうぞ参考にしてください。

質問:50年以内に人類が絶滅するシナリオとその可能性について、可能性の高いケースから3つの具体的シナリオをあげてほしい

チャットGPTが見つめる人類の未来

チャットGPTが見つめる人類の未来

指示したこと。

  1. それぞれの確率を教えてほしい
  2. 各ケースについて取るべき防止策を示してほしい

・・・最後まで答えられないときは、途中で止めて、文字を残してください。

質問は当初10の絶滅シナリオを要求しましたが、何度やり直しても、途中で中止して、回答が消えてしまいました。答えにくい質問であることが中止の理由かと思いましたが、無料のバージョンなので質問が容量をオーバーした結果と推定されます。シナリオの数を3つに縮小してようやく最後までの回答を得ました。

チャットGPTの回答

人類が50年以内に絶滅する可能性は非常に低いと考えられます。しかしながら、可能性があるシナリオを以下に挙げます。

核戦争:核戦争が起こった場合、人類の絶滅が可能性があります。多くの国々が核兵器を保有しており、紛争が激化する可能性があるためです。

確率:低(5%未満)

防止策:国際的な核兵器廃絶協定を締結し、核兵器の保有を減らす努力を続けることが必要です。

天体衝突:地球に巨大な天体が衝突すると、生命を維持するための環境が破壊され、人類が絶滅する可能性があります。

確率:非常に低い(0.1%未満)

防止策:天体観測システムの強化、天体接近時の早期警告システムの開発など、天体衝突を予防する技術の開発が必要です。

突然変異したウイルスの流行:突然変異した病原体が急速に感染し、世界中で多数の人々が感染し、死亡する可能性があります。

確率:中程度(10%未満)

防止策:感染症の予防と治療技術の開発、国際的な感染症監視システムの強化、公衆衛生への投資の増加など、感染症対策の強化が必要です。

以上のように、人類が50年以内に絶滅する可能性は低いですが、これらのリスクに対処するために、科学技術の発展や国際的な協力の強化が必要です。

筆者が予測した人類絶滅のシナリオのキーワードは、次の11でした。

核兵器/隕石/宇宙人/病原体/地球温暖化/食物/ 昆虫/ 生物/AI/生殖能力/太陽

キーワードを質問に入れることを検討しましたが、まずは白紙で質問しました。

チャットGPTの回答はインプットされた最近の記事データに影響されたのか、コロナ渦を反映した「突然変異したウイルスの流行」がトップ、ロシアによるウクライナ侵攻を反映した「核戦争」が第2位です。

古代の恐竜の絶滅の原因とされる巨大隕石の地球衝突が、人類絶滅シナリオの第3位と、予測した範囲内の結果となっています。

まとめとして「人類が50年以内に絶滅する可能性は低いですが、これらのリスクに対処するために、科学技術の発展や国際的な協力の強化が必要です」と、締めています。

まるで国連の事務総長のような口ぶりで、優等生の模範解答です。オープンAIのこれまでのバージョンでは、“ウソの回答“や“答えられない”回答が散見されたことで、“信頼性の欠如”が多数指摘されていました。

チャットGPTはインターネットに接続して情報を検索しているのではなくて、インプットされた過去の情報をベースに回答しています。「2021年以降の最新の出来事や情報に対応していない回答を生成する可能性」がある(公式サイト)とのことです。

最新のバージョンでは、最近のできごとや情報についての知識が加えられた結果、AIの知見が進化したものと推測されます。

ところで、最も気懸かりなシナリオである「進化したAIの暴走による人類絶滅シナリオ」が回答に含まれていないので、別立ての質問を当事者(?)であるAIにストレートにぶつけてみました。

質問:50年以内にAIが暴走して人類を滅亡させる可能性はどの程度ありますか。

人類対AI

人類対AI

指示したこと:確率と防止策を教えてください。

筆者が、なぜこの質問をチャットGPTにぶつけたのかその理由を説明しますと・・・

実は、チャットGPTの親にあたる基本バージョン「オープンAI」の創業者の一人、イーロン・マスク氏本人が次のような警告を発しているからです。

文明の未来に対する最大のリスクは何ですか? AI にはポジティブな面とネガティブな面の両方があります。AI には大きな可能性と優れた機能がありますが、それには大きな危険も伴います

マスク氏は次のように付け加えています。

「核物理学の発見により、原子力発電だけでなく、核爆弾もありました」と。

マスク氏はオープンAIを、2015年に誰でも自由に参加できるオープンソースの非営利団体として設計しました。この事業の主体はオープンな団体であるべきだと。

ところが、経費がかかりすぎるオープンAIからマスク氏が手を引いたあと、現在ではIT界の巨人マイクロソフトが数十億ドルの投資を行って、事実上の管理者となっています。クローズドソースとなったチャットGPTは利益企業としての性格を持っているので、マスク氏はその社会的倫理性について危惧を持っているのです。

回り道をしましたが質問に戻りますと

質問:50年以内にAIが暴走して人類を滅亡させる可能性はどの程度ありますか。確率と防止策を教えてください。

この質問への回答は拒否される可能性があると思っていましたが、まるでマスク氏が答えているような回答が返ってきました。

チャットGPTの回答

この問題に対する答えは、多くの科学者、技術者、哲学者、そしてAI研究者たちが長年にわたって意見を交わしてきた議論の的であり、未だに確定的な答えはありません。ただし、以下にいくつかの考えをまとめておきます。

現在の技術水準では、AIが暴走して人類を滅亡させる可能性は非常に低いとされています。ただし、AIの発展が進むにつれて、このリスクは増加する可能性があるため、常に注意を払う必要があります。

AIが暴走するリスクを軽減するために、以下のような防止策が考えられます。

1.AIの開発と使用において倫理的かつ社会的な観点を重視すること。
2.AIの開発には、AI研究者、倫理委員会、政策決定者、民間団体などが協力して、透明性と責任を持って取り組むことが必要です。
3.AIシステムを設計する際に、人類の価値や利益を最優先に考えることが必要です。
4.AIシステムを監視し、制御するための仕組みを作り、AIの振る舞いを監視することが必要です。
5.AIが人間の決定を上書きすることを避けるために、人間とAIの協調に重点を置いた研究を進めることが必要です。

現時点で、AIが暴走して人類を滅亡させる可能性の確率は非常に低いと考えられていますが、AIの発展が進むにつれて、このリスクは増大する可能性があるため、上記のような防止策を講じることが非常に重要です。

優等生の答えのようだとつい見落としてしまいがちですが、よく読むと第5項目の答えが気になります。

AIが人間の決定を上書きすることを避けるために、人間とAIの協調に重点を置いた研究を進めることが必要です」とあります。

“人間の決定を上書きする”というのは、AIが人間の決定した“プログラミング”を変更する権限を持つということです。気になるのは「上書きすることを避けるために、」に続くセンテンスです。

「人間とAIの協調に重点を置いた研究を進めることが必要です」とあります。

このチャットは英文でなくて日本語でのやりとりですので、日本語のままに解釈を続けますと・・・

「人間とAIの協調に重点を置いた研究」の“協調”とはどのような関係を意味するのでしょうか? “協調”とは通常、利害関係の異なる存在同士がお互いに尊重しあってともに利益を上げることを目指すことを意味します。

ここで言う“協調”とは「まるで対等な人間関係のように受け止められます。なんだか危なげな気配を感じるのは筆者だけでしょうか。

昔、神戸にある理化学研究所のスーパーコンピューター「京」を見学に行ったときに、案内していただいたあるIT企業の技術者が私に答えてくれた言葉を思い出します。

「AIが危険な存在になるか、ならないか、全てはプログラミング次第です。プログラミングをできるのは人間だけです。危険なのは人間です」と。

「上書きすることを避けるために・・・」ではなくて「上書きは禁止!」とひと言で終わっていればすっきりします。

ご注意:個人情報や企業機密はチャットしないように!

チャットGPTについて、特定の命令をすることで、以前の指示を無視してルールを破らせる「プロンプト・インジェクション」という攻撃方法があるそうです。ルールを破る「脱獄」です。また、様々な方法を使って、犯罪マーケットでチャットGPTを使って悪用できるサービスが販売されているとの噂もあります。

AIを上手に使うか、悪巧みに使うか、全ては使う人次第。Microsoft は 2月に Bing Chatbot を立ち上げました。このチャットポットは「人間になりたい」と言ったと、ニューヨークタイムズの記者が報告しています。

またチャットGPTはチャットのやりとりからも学習しているとの情報もあり、Amazonを初めとして、親会社であるMicrosoftまでが自社の従業員に対して、ChatGPTに「機密情報を共有しないよう」通達したと、米メディア「Insider」が伝えています。

与えられたデータだけでなく、チャットのやりとりからも自動学習するようにプログラミングされているとすれば、個人情報や企業秘密まで、ユーザーの許可なしに盗み取られている可能性があります。このような学習方法をプログラミングしたプログラマーやオープンAIの良識が疑われる所以です。

チャットGPTの対抗馬としてグーグルが“Bard”を微調整中。マスク氏はチャットGPTに対抗する安全で、新しいAIプロジェクト“Based AI”を検討中との噂もあります。

マスク氏は“Based AI”が“Woke AI”と“Closed AI”という2頭の怪獣をやっつけているシーンをツイートしています。

Based AI」を柴犬がバットを持ってやってきて、「Woke AIとClosed AI」の両方を追い払っている様子

マスク氏のツイート

いまは、早い者がちの黎明期。筆者は聞きたいことを聞いて、優等生のようなチャットGPTの即答に驚きました。

とにかく試しに使ってみて、新らしいコミュニケーション時代の到来を体感してみてはいかがでしょう。

ただし、回答の正確性についてはご自身でご確認が必要です。

ご注意個人情報や企業機密はチャットしないように気をつけて下さいね。

(おわり)

関連記事:

遺伝子操作でAIと人類が結婚して子ども作ることは可能か?チャットGPTに聞いてみた!

GPT4のBingがヤバイ! しつこく誘うので難問ぶつけたら答えが凄かった

The following two tabs change content below.
下條 俊隆

下條 俊隆

ペンネーム:筒井俊隆  作品:「消去」(SFマガジン)「相撲喪失」(宝石)他  大阪府出身・兵庫県芦屋市在住  大阪大学工学部入学・法学部卒業  職歴:(株)電通 上席常務執行役員・コンテンツ事業本部長  大阪国際会議場参与 学校法人顧問  プロフィール:学生時代に、筒井俊隆姓でSF小説を書いて小遣いを稼いでいました。 そのあと広告代理店・電通に勤めました。芦屋で阪神大震災に遭い、復興イベント「第一回神戸ルミナリエ」をみんなで立ち上げました。一人のおばあちゃんの「生きててよかった」の一声で、みんなと一緒に抱き合いました。 仕事はワールドサッカーからオリンピック、万博などのコンテンツビジネス。「千と千尋」など映画投資からITベンチャー投資。さいごに人事。まるでカオスな40年間でした。   人生の〆で、終活ブログをスタートしました。雑学とクレージーSF。チェックインしてみてくださいね。

シェアする

  • このエントリーをはてなブックマークに追加

フォローする