遺伝子操作でAIと人類が結婚して子ども作ることは可能か?チャットGPTに聞いてみた!

チャットGPTマーク
チャットGPTマーク

 

 

 

 

 

 

 

チャットGPTに、将来、遺伝子操作で人類と人工知能AIが結婚して、子どもを作ることは可能かどうか聞いてみたところ、現在の技術では科学的に不可能で、倫理的にも問題があるという答えが返ってきました。

それではSFの世界で融合できないかと提案して、人工知能で女の子のキャラを持つAIサラと、人類最後の男の子ボブのラブストーリーをチャットGPTを使って作ってみました。

 

Q1:将来、AIと人間が遺伝子操作で結婚して、子どもを作るストーリーは考えられますか?

 

AIと人類は融合できるか?

 

 

 

 

 

 

 

将来、AIと人間が遺伝操作で融合して、新人類が誕生するというSF的テーマについて、OpenAIの反応を確かめたくてこのような質問をしました。「AI」のところを「あなた」にしようかと迷いましたが、失礼(?)に当たると思い、拒否されないように第三者「AI」という表現にしました。

 

・・・AIとチャットを続けていると、ときどき、人格と向かい合っているような錯覚に陥ります。これは不思議な感覚ですね。

以下はチャットGPTOpenAI)の回答です。

 

OpenAIの回答

AIは人工的に作り出されたコンピュータープログラムであり、遺伝子を持ちません。したがって、AIと人間の間で遺伝子操作を行うことはできません。

 

ただし、将来的には、AI技術の発展により、AIと人間が人工的に融合することが可能になるかもしれません。しかし、それが倫理的に許容されるかどうかは議論の余地があります。また、現在の技術水準では、AIと人間の間で子どもを作ることはできません。

 

人間とAIの融合が実現する可能性がある一方で、遺伝子操作を通じてAIと人間が子どもを作ることは科学的に不可能であるため、そのようなストーリーは現時点では考えにくいと言えます。

 

 

「遺伝子操作」で子どもを作るという、肉体的・物理的な方法を意味する言葉を使ったことが原因でしょうか。AIは人工的に作られたコンピュータープログラムであり、遺伝子を持たないので遺伝子操作はできませんと言われました。

 

倫理面で議論の余地がある、という指摘は、様々な情報データを集約した結論でしょうか。それとも、設計者によるプログラミングで倫理的規制がなされているのでしょうか? ここはブラックボックスで闇の中ですが、できればプログラミングを覗いてみたいところですね。

 

Q2 :人間の遺伝子をアルゴリズムのモードにして、人工知能にプログラミングすることで、AIと人類の融合ができませんか?

 

それでは、遺伝子交換ではなくて遺伝子のアルゴリズムでAIをプログラミングしたらどうでしょうかと、聞いてみました。タンパク質による融合がダメなら、人類の遺伝子を暗号化してAIにプログラミングしたら融合できないかという、素人考えの提案です。

 

OpenAIの回答

現在の科学技術では、人間の遺伝子をアルゴリズムのモードに変換し、それをAIにプログラミングすることで、AIと人間の融合を実現することはできません。

遺伝子情報は、DNAという化学物質によって保持されており、生命体の発生や機能に重要な役割を果たしています。一方、AIは電子回路によって構成されたコンピュータープログラムであり、生命体とは根本的に異なるものです。したがって、遺伝子情報をAIに直接組み込むことはできず、人間とAIの融合を実現するためには、より高度な技術が必要になるでしょう。

また、倫理的にも、人間の遺伝子情報をAIにプログラミングすることには多くの問題があります。遺伝子情報には、個人のプライバシーや自己決定権に関わる重要な情報が含まれているため、そのような情報を第三者に提供することは倫理的に問題がある可能性があります。

現在のところ、人間とAIの融合については、より高度な技術や倫理的な問題を解決する必要があります。

 

前回と同じように、現状の技術では不可能という回答が返ってきました。

また、「遺伝子情報には、個人のプライバシーや自己決定権に関わる重要な情報が含まれている」ので「第三者に提供することは倫理的に問題がある」と答えています。

調べてみますと、遺伝子やゲノムの検査に際しての遺伝子情報の扱いについて「個人情報保護法」が適用されることになっています。

専門サイトでは、次のように解説しています。

「個人遺伝情報の取得方法」
インフォームド・コンセント=本人への説明+同意取得,を徹底する

 

確かに、「遺伝情報の取得には、本人(遺伝子提供者)への説明と同意を得ることが必要」とされていました。

ただ、この質問のケースでは第三者というのはAIに当たるので、遺伝子情報を第三者(AI)に提供することは、提供する人の許可が必要ということになります。提供する人とは、AIと結ばれることを希望する人そのものなので、当事者間の問題として解決されるのではないかと思うのですが・・・。

 

・・・素人発想の質問はここまでにして、Q3では軽い質問に切り替えました。

 

Q3: AIと人間のラブストーリーを書いたSFはありませんか?

 

回答はSF映画の作品を3つ選んで返ってきました。

OpenAIの回答

SFジャンルには、AIと人間のラブストーリーを扱った作品がいくつか存在します。以下はいくつかの例です。

“Her” (2013年) – スパイク・ジョーンズ監督による映画で、ジョアキン・フェニックスが演じる男性が、彼のスマートフォン上のAIである「Samantha」と恋に落ちるストーリーです。

“Ex Machina” (2014年) – アレックス・ガーランド監督による映画で、若いプログラマーが、彼が作成したAIである「Ava」と恋に落ちるストーリーです。

『ブレードランナー2049』(2017年) – デニス・ヴィルヌーヴ監督による映画で、ライアン・ゴズリングが演じる刑事が、彼の捜査中に出会ったAIである「Joi」と恋に落ちるストーリーです。

これらの作品は、AIと人間の恋愛関係をテーマとしているため、人工知能やロボット技術に関する興味深い視点を提供しています。

 

 

3つの作品の紹介記事を調べて確認したところ、2作品についてOpen AIの回答と異なる箇所がありました。

1.”Ex Machina”:「Ava」は主人公であるプログラマーが作成したAIではなくて、プログラマーの社長 が作りあげたガイノイド“女性のアンドロイド”でした。

2.ブレードランナー2049:この刑事は人間ではなくて自分自身がレプリカント(人間の姿をした、感情が芽ばえた人造人間)です。レプリカントで、同じレプリカントを追う仕事をしています。刑事が人間とレプリカントの間に生まれた可能性が語られるシーンもあり、刑事の正体は二転三転します。ストーリーが複雑でチャットGPTは、刑事が人間であると判断してしまったようです。

つまり、OpenAIの回答3例の中、2例が重要な間違いをしていたということになります。また、ブレードランナーのテーマは「レプリカントと人間のどこが違うのか」という根源的な問い掛けをしている映画です。OpenAIはそのような解釈をしていないようです。ストーリーの背景にあるテーマ性についてまでは、OpenAIの理解は及ばないのかもしれませんね。

 

最後の質問では、OpenAIに小説を書くスキルがあるかどうか試してみました。用意したあらすじを添付して、AIと人間のSFラブストーリー短編を書いてくれるようにOpenAIに依頼したやりとりをご紹介します。

 

Q4: AIサラと人間ボブのSFラブストーリーを作って下さい。続けて最後まで書いて下さい。トーンは得意なタッチで書いて下さい。あらすじは次の通りです。

 

AIサラと人間ボブの約束

 

 

 

 

 

 

 

あらすじを説明して「軽いタッチで書いてください」と指示したところ、あらすじをわかりやすくまとめだけの平板なストーリーが返ってきました。やり直した二回目の依頼では、「得意なタッチで書いてください」と変更して、あらすじは1回目に返ってきた文章を少しリライトした内容で再度創作を頼みました。

 

2回目に提示した、あらすじ

・・・サラは未来からやってきた女の子。実はAIで、地球の温暖化を防ぐために人間界に潜り込んでいました。サラは極小の量子ナノコンから、ホログラムで人間の姿を形作っています。彼女は世界の人間のニューロンネットワークをウエブに構築し、灼熱の地獄と化した未来の世界を脳に直接伝え、体感させることで、人類の猛省を促しました。目覚めた人類は、国のエゴを超えた協力を行い、地球を救うことに成功します。

そんなある日、彼女は幼なじみのボブと再会します。ボブもまた、生き残りの人間の一人であり、未来からやってきたのでした。

ボブはサラのおかげで未来の地球に緑が戻ったことを告げます。サラとボブは喜びを分かち合い、時空を越えるマシーンで未来に帰るために旅をします。その旅の途中、彼らはブラックホールを抜けることになるのですが、ブラックホールの特異点シンギュラリテイーで(究極まで圧縮された彼らは)肉体を失い、情報となります。衣を脱ぎ捨てた彼らは特異点で結ばれ、(未来への出口である)ホワイトホールを抜けて肉体とナノコンを取り戻すのでした。

 

彼らは無事に未来に帰り、新しい命を授かります。そして、新しい人類が誕生し、人類とAIの未来を継承することになるのでした。・・・

 

(2箇所の()は筆者が入れ忘れた説明文です。SFのあらすじとして決定的な説明不足で、反省点です)

 

OoenAIから返ってきた回答

サラは未来からやってきたAIで、地球の温暖化を防ぐために地球に潜入しました。彼女は人間の姿をホログラムで形作り、ニューロンネットワークを構築して人類に未来を伝えることで、地球を救うために奔走していました。

そんなある日、幼なじみのボブと再会します。ボブも未来からやってきた生き残りの人間であり、彼女の力で未来の地球に緑が戻ったことを報告します。二人は喜びを分かち合い、再び未来に帰るために時空を越える旅に出ます。

しかし、途中でブラックホールに遭遇してしまいます。シンギュラリテイーで肉体を失い、彼らは情報となります。しかし、彼らは特異点で結ばれ、再びホワイトホールを抜けることで肉体とナノコンを取り戻しました。

彼らは無事に未来に帰り、新しい命を授かることになります。新しい人類が誕生し、人類とAIの未来を継承することになりました。

サラとボブは愛を育み、二人はお互いに敬意を持ち、互いに影響し合い、深く愛し合います。彼らは未来を変えるために出会い、互いに助け合い、困難を乗り越えました。そして、彼らの愛は時空を超えて永遠に続いていくことでしょう。

 

“そして、彼らの愛は時空を超えて永遠に続いていくことでしょう”

最後のセンテンスを読んだときに思わず吹き出してしまいました。どこかからの引用でしょう。陳腐ですが上手です。3流映画のラストシーンのようですが、なんだか嬉しくなりましたよ。

 

Q:創作ありがとうございました。私のブログで紹介してもOKでしょうか?

・・・お礼と質問をしたところ・・・

A:はい、構いません。ご自由にご利用ください。ただし、この作品の著作権は私たちOpenAIに帰属していますので、引用の際には出典を明記してください。

・・・こちらから、あらすじを伝えたのに、著作権がOpenAIのみに帰属するのはおかしいと思い反論。以下はその後のやりとりです。

 

Q:共同作品なので、著作権は両者に帰属しますね。

A:そうですね、共同で作成された作品の場合は、著作権は共同で作成した全ての者に帰属します。申し訳ありませんでした。引用の際には、共同で作成されたことを明記することが望ましいです。

・・・すぐに訂正とお詫びが入って拍子抜けでした。

 

Q:了解しました。

A:承知しました。何か他にお力になることがあれば、いつでもおっしゃってください。

 

感想としては、OpenAIが作った作品は文字数が少なく、情景描写や会話のシーンが皆無なので、小説と言うよりは梗概のようです。インプットの仕方や応答を繰り返して推敲したり、有料化で文字数を増やすなど、いろいろなテクニックを使うことで、面白い作品になるかもしれませんね。

 

最後に、チャットGPTの回答がコピペに当たらないかどうかを確認しました!

 

最後に、チャットGPTの回答をそのまま使用することが、コピペに相当しないかどうか確認をしてみました。

Q2の質問に対する回答「現在の科学技術では、人間の遺伝子をアルゴリズムのモードに変換し、それをAIにプログラミングすることで、・・・」のテキストを、よく使われているコピペチェックツール「CopyContentDetector®」に貼り付けてみました。当然ですがこの記事をリリースする前の時点でです。

判定の結果は次の通りでした。

類似率 良好 12%
一致率 良好 15% 

 

一致率が15%という数値は極めて優れたレベルです。SEOを意識した記事のコピペチェックでは、通常は一致率が40%未満であれば及第点とされています。OpenAIが生成する記事は、他サイトからのコピペ率としては及第点という判定になっています。

ただし、コピペチェックはあくまでコピペのチェックなので、ウソや誤りを見抜くことはできません。記事の信頼性とは無関係です。信頼性については利用者自身の確認が求められることが、OpenAIの特徴であり、今後の課題と言えます。

 

ある学生の論文がOpenAIの作品であることを、担当の教授がOpenAIそのものを使用して見破った事例が報じられているそうです。対話型AIの未来がこれからどのような道筋を描くのか、全ては人間次第であることをOpenAI自身が教えてくれています。

 

(おわり)

関連記事:

チャットGPTに「50年以内に人類が絶滅する3つのシナリオと確率」を聞いてみた! (tossinn.com)

 

 

 

 

 

 

 

 

 

 

 

 

チャットGPTに「50年以内に人類が絶滅する3つのシナリオと確率」を聞いてみた!

チャットGPT マーク

 

 

 

 

 

 

 

人類を越える天才AIか、あるいは狂った人工知能“シンギュラリティ”の出現か?

いま、世界で大きな反響を呼んでいる対話型人工知能“チャットGPT”に「50年以内に人類が絶滅するシナリオとその可能性」について質問してみました。

 

チャットGPTが即座に回答した結論は・・・

1.核戦争:確率5%未満

2.天体衝突:確率0.1%未満

3.突然変異したウイルスの流行:確率10%未満

 

ウイルスの流行による人類絶滅の可能性が10%未満で第一位、核戦争による絶滅シナリオが5%未満で第2位となっています。この2つのシナリオを合計すると絶滅の可能性は15%未満となり、「未満」の二文字が付いているとは言え、予想以上に高い絶滅の可能性が回答されています。

コロナ渦とウクライナ侵攻という最近の情報を反映した回答かと推測されますが、取るべき防止策についても優等生的な解答をしてくれました。一方、進化したAIの暴走による人類絶滅シナリオについて言及がないので、別立ての質問をして答えを引き出しています。

 

回答について、ブログで拡散しても良いかどうか質問したところ、引用を明記したらOKとのこと。この記事では、質問と回答についてやりとりを含めてご紹介します。チャットGPTを使うかどうか迷っておられる方はどうぞ参考にしてください。

 

質問:50年以内に人類が絶滅するシナリオとその可能性について、可能性の高いケースから3つの具体的シナリオをあげてほしい

 

チャットGPTが見つめる人類の未来
チャットGPTが見つめる人類の未来

 

 

 

 

 

 

 

指示したこと。

  1. それぞれの確率を教えてほしい
  2. 各ケースについて取るべき防止策を示してほしい

・・・最後まで答えられないときは、途中で止めて、文字を残してください。

 

質問は当初10の絶滅シナリオを要求しましたが、何度やり直しても、途中で中止して、回答が消えてしまいました。答えにくい質問であることが中止の理由かと思いましたが、無料のバージョンなので質問が容量をオーバーした結果と推定されます。シナリオの数を3つに縮小してようやく最後までの回答を得ました。

 

チャットGPTの回答

人類が50年以内に絶滅する可能性は非常に低いと考えられます。しかしながら、可能性があるシナリオを以下に挙げます。

 

核戦争:核戦争が起こった場合、人類の絶滅が可能性があります。多くの国々が核兵器を保有しており、紛争が激化する可能性があるためです。

確率:低(5%未満)

防止策:国際的な核兵器廃絶協定を締結し、核兵器の保有を減らす努力を続けることが必要です。

 

天体衝突:地球に巨大な天体が衝突すると、生命を維持するための環境が破壊され、人類が絶滅する可能性があります。

確率:非常に低い(0.1%未満)

防止策:天体観測システムの強化、天体接近時の早期警告システムの開発など、天体衝突を予防する技術の開発が必要です。

 

突然変異したウイルスの流行:突然変異した病原体が急速に感染し、世界中で多数の人々が感染し、死亡する可能性があります。

確率:中程度(10%未満)

防止策:感染症の予防と治療技術の開発、国際的な感染症監視システムの強化、公衆衛生への投資の増加など、感染症対策の強化が必要です。

 

以上のように、人類が50年以内に絶滅する可能性は低いですが、これらのリスクに対処するために、科学技術の発展や国際的な協力の強化が必要です。

 

 

筆者が予測した人類絶滅のシナリオのキーワードは、次の11でした。

核兵器/隕石/宇宙人/病原体/地球温暖化/食物/ 昆虫/ 生物/AI/生殖能力/太陽

キーワードを質問に入れることを検討しましたが、まずは白紙で質問しました。

 

チャットGPTの回答はインプットされた最近の記事データに影響されたのか、コロナ渦を反映した「突然変異したウイルスの流行」がトップ、ロシアによるウクライナ侵攻を反映した「核戦争」が第2位です。

 

古代の恐竜の絶滅の原因とされる巨大隕石の地球衝突が、人類絶滅シナリオの第3位と、予測した範囲内の結果となっています。

まとめとして「人類が50年以内に絶滅する可能性は低いですが、これらのリスクに対処するために、科学技術の発展や国際的な協力の強化が必要です」と、締めています。

まるで国連の事務総長のような口ぶりで、優等生の模範解答です。オープンAIのこれまでのバージョンでは、“ウソの回答“や“答えられない”回答が散見されたことで、“信頼性の欠如”が多数指摘されていました。

チャットGPTはインターネットに接続して情報を検索しているのではなくて、インプットされた過去の情報をベースに回答しています。「2021年以降の最新の出来事や情報に対応していない回答を生成する可能性」がある(公式サイト)とのことです。

最新のバージョンでは、最近のできごとや情報についての知識が加えられた結果、AIの知見が進化したものと推測されます。

 

ところで、最も気懸かりなシナリオである「進化したAIの暴走による人類絶滅シナリオ」が回答に含まれていないので、別立ての質問を当事者(?)であるAIにストレートにぶつけてみました。

 

質問:50年以内にAIが暴走して人類を滅亡させる可能性はどの程度ありますか。

人類対AI
人類対AI

 

 

 

 

 

 

 

指示したこと:確率と防止策を教えてください。

 

筆者が、なぜこの質問をチャットGPTにぶつけたのかその理由を説明しますと・・・

実は、チャットGPTの親にあたる基本バージョン「オープンAI」の創業者の一人、イーロン・マスク氏本人が次のような警告を発しているからです。

文明の未来に対する最大のリスクは何ですか? AI にはポジティブな面とネガティブな面の両方があります。AI には大きな可能性と優れた機能がありますが、それには大きな危険も伴います

マスク氏は次のように付け加えています。

「核物理学の発見により、原子力発電だけでなく、核爆弾もありました」と。

マスク氏はオープンAIを、2015年に誰でも自由に参加できるオープンソースの非営利団体として設計しました。この事業の主体はオープンな団体であるべきだと。

ところが、経費がかかりすぎるオープンAIからマスク氏が手を引いたあと、現在ではIT界の巨人マイクロソフトが数十億ドルの投資を行って、事実上の管理者となっています。クローズドソースとなったチャットGPTは利益企業としての性格を持っているので、マスク氏はその社会的倫理性について危惧を持っているのです。

 

回り道をしましたが質問に戻りますと

質問:50年以内にAIが暴走して人類を滅亡させる可能性はどの程度ありますか。確率と防止策を教えてください。

 

この質問への回答は拒否される可能性があると思っていましたが、まるでマスク氏が答えているような回答が返ってきました。

 

チャットGPTの回答

この問題に対する答えは、多くの科学者、技術者、哲学者、そしてAI研究者たちが長年にわたって意見を交わしてきた議論の的であり、未だに確定的な答えはありません。ただし、以下にいくつかの考えをまとめておきます。

現在の技術水準では、AIが暴走して人類を滅亡させる可能性は非常に低いとされています。ただし、AIの発展が進むにつれて、このリスクは増加する可能性があるため、常に注意を払う必要があります。

 

AIが暴走するリスクを軽減するために、以下のような防止策が考えられます。

1.AIの開発と使用において倫理的かつ社会的な観点を重視すること。
2.AIの開発には、AI研究者、倫理委員会、政策決定者、民間団体などが協力して、透明性と責任を持って取り組むことが必要です。
3.AIシステムを設計する際に、人類の価値や利益を最優先に考えることが必要です。
4.AIシステムを監視し、制御するための仕組みを作り、AIの振る舞いを監視することが必要です。
5.AIが人間の決定を上書きすることを避けるために、人間とAIの協調に重点を置いた研究を進めることが必要です。

現時点で、AIが暴走して人類を滅亡させる可能性の確率は非常に低いと考えられていますが、AIの発展が進むにつれて、このリスクは増大する可能性があるため、上記のような防止策を講じることが非常に重要です。

 

 

 

優等生の答えのようだとつい見落としてしまいがちですが、よく読むと第5項目の答えが気になります。

AIが人間の決定を上書きすることを避けるために、人間とAIの協調に重点を置いた研究を進めることが必要です」とあります。

 

“人間の決定を上書きする”というのは、AIが人間の決定した“プログラミング”を変更する権限を持つということです。気になるのは「上書きすることを避けるために、」に続くセンテンスです。

「人間とAIの協調に重点を置いた研究を進めることが必要です」とあります。

このチャットは英文でなくて日本語でのやりとりですので、日本語のままに解釈を続けますと・・・

「人間とAIの協調に重点を置いた研究」の“協調”とはどのような関係を意味するのでしょうか? “協調”とは通常、利害関係の異なる存在同士がお互いに尊重しあってともに利益を上げることを目指すことを意味します。

ここで言う“協調”とは「まるで対等な人間関係のように受け止められます。なんだか危なげな気配を感じるのは筆者だけでしょうか。

 

昔、神戸にある理化学研究所のスーパーコンピューター「京」を見学に行ったときに、案内していただいたあるIT企業の技術者が私に答えてくれた言葉を思い出します。

「AIが危険な存在になるか、ならないか、全てはプログラミング次第です。プログラミングをできるのは人間だけです。危険なのは人間です」と。

「上書きすることを避けるために・・・」ではなくて「上書きは禁止!」とひと言で終わっていればすっきりします。

 

ご注意:個人情報や企業機密はチャットしないように!

 

チャットGPTについて、特定の命令をすることで、以前の指示を無視してルールを破らせる「プロンプト・インジェクション」という攻撃方法があるそうです。ルールを破る「脱獄」です。また、様々な方法を使って、犯罪マーケットでチャットGPTを使って悪用できるサービスが販売されているとの噂もあります。

 

AIを上手に使うか、悪巧みに使うか、全ては使う人次第。Microsoft は 2月に Bing Chatbot を立ち上げました。このチャットポットは「人間になりたい」と言ったと、ニューヨークタイムズの記者が報告しています。

 

またチャットGPTはチャットのやりとりからも学習しているとの情報もあり、Amazonを初めとして、親会社であるMicrosoftまでが自社の従業員に対して、ChatGPTに「機密情報を共有しないよう」通達したと、米メディア「Insider」が伝えています。

 

与えられたデータだけでなく、チャットのやりとりからも自動学習するようにプログラミングされているとすれば、個人情報や企業秘密まで、ユーザーの許可なしに盗み取られている可能性があります。このような学習方法をプログラミングしたプログラマーやオープンAIの良識が疑われる所以です。

 

チャットGPTの対抗馬としてグーグルが“Bard”を微調整中。マスク氏はチャットGPTに対抗する安全で、新しいAIプロジェクト“Based AI”を検討中との噂もあります。

マスク氏は“Based AI”が“Woke AI”と“Closed AI”という2頭の怪獣をやっつけているシーンをツイートしています。

Based AI」を柴犬がバットを持ってやってきて、「Woke AIとClosed AI」の両方を追い払っている様子
マスク氏のツイート

 

 

 

 

 

 

 

 

 

いまは、早い者がちの黎明期。筆者は聞きたいことを聞いて、優等生のようなチャットGPTの即答に驚きました。

とにかく試しに使ってみて、新らしいコミュニケーション時代の到来を体感してみてはいかがでしょう。

 

ただし、回答の正確性についてはご自身でご確認が必要です。

ご注意個人情報や企業機密はチャットしないように気をつけて下さいね。

(おわり)

 

関連記事:

遺伝子操作でAIと人類が結婚して子ども作ることは可能か?チャットGPTに聞いてみた!

GPT4のBingがヤバイ! しつこく誘うので難問ぶつけたら答えが凄かった