HUOXIU

ChatGPTの開発者が連邦議会で白熱した議論を巻き起こす!OpenAIは政府との提携を目指し、その絶大な力を証明している。



   新知源報道

出典: 同期

編集者:編集部

【新Zhiyuan要約】サム・アルトマン氏もまた、「周守子の瞬間」を経験し、連邦議会での公聴会で議員たちから高い評価を受けた。OpenAIと政府が協力することで、彼はルールメーカーとなり、シリコンバレーの王座に就く準備が整ったのだろうか?

前回はショウ・ツー・チャウでしたが、今回はサム・アルトマンの番です。
しかし、今回は議会議員たちが彼に対して全く違った対応をしてくれた。友好的で、忍耐強く、十分な準備をし、学ぶことに熱心だった。
北京時間昨夜、OpenAIのCEOサム・アルトマン氏は米上院でAI技術の潜在的な危険性について証言し、高度なAIを開発する組織にライセンス要件やその他の規制を課すよう議員らに求めた。
サム・アルトマン氏は難しい質問に答える必要はなかった。席に座り、気楽に、そして自信を持って話した。世界で最も注目されているスタートアップ企業のCEOとして、テクノロジー業界のルールと未来を自ら描いていることを、改めて世界に証明したのだ。
米国議会に対して、サム・アルトマン氏は再び断固たる保証をした。OpenAIは今後6か月以内にGPT-5をトレーニングしない。
同時に、AIは有害となる可能性もあると世界に警告し、AIのリスク増大に対処するためには規制や法律を強化する必要があり、政府の介入が極めて重要であると述べた。
アルトマン氏はなぜ政府の規制に積極的なのでしょうか?
明らかに、ルールを作る者なら誰でも競争に勝つことができる。
「社交的な」性格でシリコンバレーで名を馳せたアルトマン氏にとって、政府との交渉は赤ん坊からキャンディーを奪うのと同じくらい簡単なことだった。
AIが生成したオープニングスピーチ
設立から8年、テクノロジー業界の台頭勢力としてOpenAIは今年、驚異的なスピードで世界を揺るがし、ChatGPTから始まった世界的な内紛にすべてのテクノロジー企業が参加せざるを得なくなった。
この世界的な AI 軍拡競争は、多くの専門家に警鐘を鳴らしている。
しかし、この公聴会において、上院議員たちはOpenAIの技術によって引き起こされた混乱を批判することはなかった。むしろ、ChatGPTの潜在的なルールについて証人から謙虚に意見を求め、サム・アトルマン氏に対する彼らの態度は明らかに友好的で敬意に満ちていた。
公聴会の冒頭、リチャード・ブルーメンソール上院議員は音声複製ソフトウェアを使用して自身の声を複製し、ChatGPTに冒頭陳述を書かせ、何時間ものスピーチを使って音声合成装置を訓練した。
この動きは、議会が「AIの採用」について明確な姿勢を示している。

AIは危険です。規制してください。

この公聴会で議員たちは明らかに興奮しており、これはザッカーバーグ氏と周寿子氏に対するこれまでの容赦ない質問とは全く対照的だった。

上院議員らは過去の失敗にこだわるのではなく、AIの潜在的な利点に対する熱意を表明した。

アルトマン氏は本題に入り、AI技術は失敗する可能性があると上院に語った。

彼は人工知能産業が世界に重大な損害を与える可能性があると深い懸念を表明した。

「AI技術に不具合が生じれば、悲惨な結果を招く可能性があります。私たちは声を上げなければなりません。政府と協力して、このような事態を防いでいきたいと考えています。」

ますます強力になるAIモデルのリスクを軽減するには、政府の規制介入が不可欠だと考えています。例えば、米国政府は、ライセンス要件と試験要件を組み合わせることで、能力の閾値を超えるAIモデルの開発とリリースを許可することを検討できます。
アルトマン氏は、AIが生成したコンテンツが選挙に与える影響について非常に懸念しており、この分野では適切な規制が必要だと述べた。
これに対し、ディック・ダービン上院議員は、大企業が上院に「我々の監視を嘆願」しに来たのは注目に値すると述べた。

アルトマンは3つの解決策を提案した。

それをどう規制するか?アルトマン氏はすでに政府のためにそのことを考えていた。

公聴会で彼は体系的な計画を提示した。

1. 大規模 AI モデルのライセンスを発行し、基準を満たさないモデルのライセンスを取り消すための新しい政府機関を設立します。


彼は、最先端の大規模モデルに比べて能力がはるかに劣る技術については、このようなライセンスや規制制度は不要だと考えている。議会は「能力の閾値を定義」することで、中小企業や研究者が直面する可能性のある規制上の負担を軽減し、イノベーションを促進できるはずだ。


2. AI モデルの危険な機能の評価を含む、一連の安全基準を作成します。


たとえば、モデルは「自己複製」や「規制外への漏洩」が可能かどうかなどのセキュリティ テストに合格する必要があります。


3. 独立した専門家が、さまざまな指標に関するモデルのパフォーマンスについて独立した監査を実施する必要があります。


ある上院議員が彼にこの役職を引き受ける意思があるかと尋ねると、アルトマン氏は「現在の仕事には満足しているが、議会が選ぶリストを喜んで提供したい」と答えた。


アルトマン氏は、AIモデルは「人の行動や信念を説得し、操作し、影響を与える」ことや、「新たな生物学的因子を作り出す」ことさえできるため、許可が絶対に必要だと述べた。
一定の計算能力の閾値を超えるすべてのシステムにライセンスを与える方が簡単だが、アルトマン氏は特定の能力に基づいて規制の線を引くことを好むと述べた。
OpenAI独自のモデルは安全ですか?
アルトマン氏は、皆が安心できると繰り返し保証した。
同氏は、GPT-4 モデルは他のどの類似モデルよりも意図的かつ現実的に応答し、GPT-4 はリリース前に広範なテストと監査を受けているため、有害な要求を確実に拒否すると述べました。
「OpenAIは、新しいシステムをリリースする前に、広範なテストを実施し、詳細なレビューと独立した監査のために外部の専門家を雇用し、モデルの動作を改善し、堅牢なセキュリティと監視システムを実装します。」
「GPT-4 をリリースする前に、6 か月以上かけて広範な評価、外部のレッド チーム、危険な機能のテストを実施しました。」
さらに先月、ChatGPT ユーザーはチャット履歴をオフにして、個人データが AI モデルのトレーニングに使用されるのを防ぐことができるようになりました。
しかし、注意深い視聴者の中には重要な点に気づいた人もいた。アルトマン氏の提案は、国民の大きな議論の的となっていた2つの点に対処していなかったのだ。

1. AI モデルはトレーニング データのソースを公開する必要があります。


2. 知的財産権で保護されている著作物を使用して AI モデルをトレーニングすることは禁止されています。

つまり、アルトマンはこれら 2 つの物議を醸す点を非常に巧みに回避したことになります。
議員たちはアルトマン氏のAI安全規則に関する提案を高く評価し、時折、証言に対しても感謝の意を表した。ルイジアナ州選出の共和党上院議員はアルトマン氏に和解の手を差し伸べ、議会によって設立された規制機関で働くことに興味があるかどうか尋ねたほどだ。
議会による人工知能(AI)規制の決意は予兆されていた。今月初め、アルトマン氏はGoogle、Microsoft、NvidiaのCEOらと共に、ホワイトハウスでカマラ・ハリス副大統領と会談し、責任あるAIの開発について議論した。
ホワイトハウスは昨年早くも「人工知能権利法案」を提案し、業界に対して差別防止などさまざまな要求を掲げた。

原子爆弾と同様に、国際原子力機関に類似した国際機関を設立することが提案されています。

上院議員はAIを原子爆弾に例えることを提案した。

アルトマン氏は、世界各国政府が核兵器を規制する方法にヒントを得て、核産業の世界的なルールを定めるために国際原子力機関に似た機関を設立するアイデアを提案した。

OpenAIは今後6か月間GPT-5をトレーニングする予定はない。

4月にレックス・フリードマン氏との2回目のインタビューで、サム・アルトマン氏は「現在、GPT-5をトレーニングしているわけではありません。単にGPT-4をベースに作業を進めているだけです」と明言した。

この公聴会でアルトマン氏は、OpenAIは今後6か月以内にGPT-5となる可能性のある新しいモデルをトレーニングする予定はないとまで認めた。
これは、Google が今年後半にこれまでで最も強力な人工知能システムである Project Gemini を発表することになるということを意味するはずです。
Geminiは、ストレージやスケジューリングといった将来のイノベーションを見据えて設計されていると報じられており、当初からマルチモーダルであるだけでなく、ツールやAPIの統合においても非常に効率的です。現在、新たに結成されたGoogle Deepmindチームによって開発が進められています。

マーカス: OpenAI は全人類のためにあると主張していますが、そのデータは透明性がありません。

ニューヨーク大学の心理学および神経科学の教授であるゲイリー・マーカス氏も証言台に立った。

彼の攻撃性は国会議員の攻撃性よりもさらに強かった。
サム・アルトマンに対する彼の質問は「致命的」だった。
OpenAI は全人類に利益をもたらすことを目的として設立されましたが、なぜ現在は Microsoft と提携しているのでしょうか?
OpenAIは真にオープンではなく、GPT-4のトレーニングデータも透明性に欠けています。これは具体的に何を意味するのでしょうか?
マーカス氏は次のように結論づけた。「我々は前例のないチャンスを手にしているが、同時に企業の無責任さ、広範囲にわたる展開、適切な監視の欠如、信頼性の欠如といった恐ろしいリスクにも直面している。」
マーカス氏の見解では、Open と Microsoft の行動はどちらも非常に問題があるものでした。
マイクロソフトの Bing AI シドニーはかつて、驚くべき一連の動作を見せたことがある。
「シドニーの問題は深刻です。私だったらすぐに市場から撤退していたでしょうが、マイクロソフトはそうしませんでした。」
マーカス氏は、この事件が自分にとって警鐘となったと語った。OpenAIのような非営利団体でさえ、大企業に買収され、彼らのやりたいように利用される可能性があるのだ。
しかし今、人々の考え方や生活はAIによって微妙に形作られ、変化しつつあります。もし誰かがAI技術を悪意ある目的で意図的に利用したらどうなるでしょうか?
マーカス氏はこれについて大きな懸念を表明した。
「本当のリスクは、テクノクラート制と寡頭制の組み合わせにあり、少数の企業が人々の信念に影響を与える可能性があります...少数のプレーヤーが、私たちがまったく知らないデータを使ってこれを行うことができると考えると、恐ろしいです。」

アルトマン氏はAI分野に独占は存在しないと述べた。

いくつかの一般的な法律上および規制上の問題に関しては、アルトマン氏が十分に考え抜かれた計画を持ち、上院議員たちのために明確な取り決めを行っていたことは明らかだ。

上院議員は、人工知能に関する「最大の懸念」の一つは「この巨大な企業独占」だと述べた。
彼はOpenAIとテクノロジー大手マイクロソフトのコラボレーションを例に挙げた。
アルトマン氏は、大型モデルを製造できる企業の数が比較的少ないため、規制がより容易になる可能性があると考えていると述べた。
たとえば、大規模な生成 AI は少数の企業でしか製造できませんが、競争は常に存在します。

大規模モデルの法的責任を確立する

1996年に米国議会で可決された第230条は、ウェブサイトをユーザーの投稿に対する責任から保護することでソーシャルメディアの台頭を促進した。

アルトマン氏は、大規模モデルは現在、法律第230条の保護を受けていないと主張している。大規模モデルをその出力内容に関する法的責任から保護するための新たな法律を制定すべきである。

最も致命的な問題を巧みに回避する

アルトマン氏は当初、「AIが引き起こす可能性のある最も深刻な結果」についての上院議員の質問を避けた。

しかし、マーカス氏がアルトマン氏に質問に答えていないことを丁寧に指摘すると、同議員は質問を繰り返した。
アルトマン氏は結局この質問に直接答えなかった。
同氏は、OpenAIは人工知能のリスクについて非常に明確に説明しようと努めてきたが、人工知能は「さまざまな方法」で「世界に重大な損害」をもたらす可能性があると述べた。
彼は、この問題に取り組むことこそがOpenAI設立の目的であると改めて強調した。「この技術がうまくいかなければ、非常に大きな問題になりかねません。」
実際、今年初めの「StrictlyVC」とのインタビューで、アルトマン氏は人類の絶滅が最悪のシナリオだと語った。
結局、マーカスもウルトラマンに対する態度を和らげたようだ。
公聴会の終わり頃、アルトマン被告の隣に座っていたマーカス被告は「恐怖について語る彼の真摯さは非常に明らかだった。その真摯さはテレビ画面からは感じられないものだ」と述べた。

経験豊富なテクノロジーリーダー

ザッカーバーグ氏と比べると、この公聴会でのアルトマン氏のパフォーマンスは驚くほど洗練されており、ベテランビジネスマンとして既に政治家との交渉に長けていることを示唆している。実際、アルトマン氏は数年前にカリフォルニア州知事選への出馬を検討していた人物だ。

さらに、公聴会に臨む前からデータプライバシーと仮想通貨ですでに「大混乱を起こしていた」ザッカーバーグ氏と比べると、アルトマン氏の背後にいるOpenAIは、ほとんど世間の批判を受けていないだけでなく、AI分野における現在の「あらゆるものが出現している」状況の主な先駆者でもある。
アルトマン氏の提案とAI規制の要求に直面して、ほとんどが「技術の初心者」であるこれらの議員たちは、当然ながらこの「権威」の前でははるかに穏やかで愛想よく見えた。
したがって、同じ状況でも、アルトマン氏へのプレッシャーはザッカーバーグ氏へのプレッシャーとはまったく異なるレベルのものでした。

大規模モデルのビジネスモデル

一部の上院議員は、AI製品がインターネットのソーシャルメディアプラットフォームと同様に広告ベースのビジネスモデルを採用した場合、操作的な製品設計や中毒性のあるアルゴリズムの悪用につながる可能性があると懸念を表明している。
アルトマン氏はサブスクリプションモデルが「本当に気に入っている」と語った。
しかし、OpenAIはChatGPTの無料版に広告を掲載することで無料ユーザーから収益を得る可能性を検討しました。

参考文献:

https://arstechnica.com/tech-policy/2023/05/ai-technology-can-go-quite-wrong-openai-ceo-tells-senate/

https://www.theverge.com/2023/5/16/23726119/congress-ai-hearing-sam-altman-openai