AIの開発に対して反対するのはなぜか?

AIの開発への反対署名の話。ターゲットは超知能に限定されている。

英語では、Superintelligence。これは、何も人工知能に限っての言葉ではない。

そして、AGI(Artificial General Intelligence:汎用人工知能)という人間のように汎用的な判断ができるというものを遥かに上回るものを想定して指しているようだ。

そして、ASI自ら学習をして、人間の考えの及ばない領域にまで到達してしまうという。

そうすると、もはや人間はASIの判断結果をそのまま正しいものとして受け入れるしかない、ということになるだろう。それは確かに恐ろしい。ASIの判断の検証は人間には基本的にはできないわけだから。

しかし、AIの開発とAIの活用は別のはず。

ヒントンまで署名しているというのだが、どういう意味があるのだろうか?

Yahoo!より、

人類の頭脳上回る「超知能」AI、開発禁止に2万人署名…歴史学者や「AIのゴッドファーザー」ら

10/23(木) 13:58配信読売新聞オンライン

人類の頭脳上回る「超知能」AI、開発禁止に2万人署名…歴史学者や「AIのゴッドファーザー」ら(読売新聞オンライン) - Yahoo!ニュース
【ワシントン=中根圭一】人工知能(AI)の専門家や著名人らが22日、人類の頭脳を上回る「超知能」を持つAIの開発を禁止するよう訴える書簡に署名した。歴史学者で世界的ベストセラー作家のユヴァル・ノア

 【ワシントン=中根圭一】人工知能(AI)の専門家や著名人らが22日、人類の頭脳を上回る「超知能」を持つAIの開発を禁止するよう訴える書簡に署名した。歴史学者で世界的ベストセラー作家のユヴァル・ノア・ハラリ氏や、「AIのゴッドファーザー」と呼ばれ、2024年ノーベル物理学賞を受賞したジェフリー・ヒントン氏らが名を連ねている。

超知能(Superintelligence)とは何か ― 人間の理解を超えるAIの脅威

Superintelligence(スーパーインテリジェンス/超知能)」という言葉は、人工知能(AI)に限定された概念ではありません。
それは、AGI(汎用人工知能:Artificial General Intelligence) ― 人間のように幅広い分野で判断できる知能 ― を遥かに超える存在を指しています。

つまり、ASI(Artificial Superintelligence:人工超知能) は、人間の知能を超え、自ら学習し、予測も理解もできない領域へと進化していくものです。

こうなると、もはや人間はその判断の正否を検証できず、「AIが出した結論をそのまま受け入れるしかない」 という状況になってしまう。
それこそが、現在多くの専門家が警鐘を鳴らしている「恐怖の本質」です。


⚙️ AI開発とAI活用は別問題

AIを「開発すること」と、「活用すること」は本来、まったく別の話です。
開発の速度ばかりが注目されがちですが、私たちが問うべきはその使い方と制御方法でしょう。

それでも今、世界では「超知能(Superintelligence)」の開発自体を一時的に禁止すべきだという声が高まっています。
注目すべきは、AIのゴッドファーザーと呼ばれる ジェフリー・ヒントン(Geoffrey Hinton)氏 までもがその書簡に署名したことです。

これは、AI開発の第一人者による「立ち止まるべきだ」というメッセージでもあります。


🧩 超知能AIの開発禁止を求める書簡

2025年10月22日、米国のNGO「Future of Life Institute(フューチャー・オブ・ライフ研究所)」 が、
超知能AI(Artificial Superintelligence)の開発禁止を求める書簡を発表しました。

署名したのは2万2,000人を超える専門家や著名人
その中には、ユヴァル・ノア・ハラリ(Yuval Noah Harari)氏ヒントン氏 も名を連ねています。

ハラリ氏は次のように述べています。

「超知能は人類文明のシステムを破壊する可能性がある。そんなものは全く必要ない。」

書簡では、
「安全かつ制御可能な方法での開発が科学的に保証され、国民的な支持が得られるまで、超知能の開発を停止すること」
を求めています。


🧠 なぜ「超知能」は恐れられるのか

現在、OpenAI をはじめとする大手AI企業は、人間の認知能力を超える**超知能(Superintelligence)**の実現を目指して開発を進めています。
サム・アルトマン(Sam Altman)CEO は、「2030年頃までに超知能が登場する可能性がある」とも発言しました。

しかし、超知能の誕生は人間にとって新しい危険をもたらします。
人間の尊厳の喪失、制御不能な判断、国家安全保障リスク ― いずれも現実味を帯びつつあるのです。

もはや問題は「できるか」ではなく、「やっていいのか」へと移っています。
歯止めなきAI開発に、今こそ倫理的なブレーキが求められています。


📌 出典

読売新聞オンライン(2025年10月23日配信)
「人類の頭脳上回る『超知能』AI、開発禁止に2万人署名 ― ヒントン氏やハラリ氏ら」
https://news.yahoo.co.jp/articles/193ee3ecbc150b4746b12b639f601a0493a97ca1


🗣️ まとめ

Superintelligence(超知能) は、もはやSFの中だけの存在ではありません。
それは、AI開発が次のフェーズへと進もうとしている現実の象徴です。

AIが「人間を超える」その瞬間、私たちは何を失い、何を守れるのか。
AIの未来とは、人間の知性を試すリトマス試験紙でもあります。

開発を止める勇気こそが、知性の証なのかもしれません。

コメント

タイトルとURLをコピーしました