|
Googleはここ数ヶ月、Google AI搭載チャットボット「Bard」ユーザー向けに、Discordに招待制フォーラムチャンネルを開設しました。このチャンネルでは、Googleのプロダクトマネージャー、デザイナー、エンジニアがAIツールの実用的な効果と価値について自由に議論できる場となっており、AI開発への多額の投資の是非を問う声も上がっています。 「私自身が検証できない限り、LLMの出力を盲目的に信頼しないというのが私の信条です」と、バード大学のシニアプロダクトマネージャー、ドミニク・ラビエジ氏は7月のDiscordチャットで述べた。彼が言及したのは、バード大学やOpenAIのChatGPTのようなLLMシステムで、膨大な量のテキストデータで訓練されたAIシステムだ。彼はさらに、「皆さんが信頼できることを願っていますが、まだそこまでには至っていないようです」と付け加えた。 「私がずっと考えてきた最大の課題は、LLMの現実世界での応用は何かということです」と、バード大学のユーザーエクスペリエンス責任者、キャシー・パール氏は8月に語った。「LLMは本当に大きな変化をもたらすことができるのでしょうか?それはまだ分かりません。」 Googleは3月、OpenAIのChatGPTボットへの対応としてBardをリリースしました。それ以来、同社はAIツールによる写真分析や複数言語でのユーザーからの問い合わせへの対応など、数多くの新機能を製品に追加し続けてきました。先月、Googleはこれまでで最も大胆なアップデートをリリースし、Gmail、マップ、ドキュメント、YouTubeといった多くの人気サービスとBardを連携させました。同社は9月19日より、英語版でこれらのアプリケーションとの連携を開始しました。 しかし、GoogleがBardをコア製品に深く統合するにつれ、このツールが誤情報を生成したり、有害なアドバイスを提供したりするという苦情も寄せられています。Googleはアプリ拡張機能をリリースした同日、BardにGoogle検索ボタンも追加しました。これは、ユーザーが検索エンジンを使ってAIが生成した回答の信憑性を検証できるように設計されています。 他の専門家は、バード社の研修プログラムに参加している数千人の低賃金契約労働者の労働条件について懸念を表明している。これらの従業員によると、彼らはしばしば短期間で複雑な作業をこなすことを求められていたという。インターネット検索大手のバード社は、競争を急激に追求するあまり、情報の質を犠牲にし、倫理的問題を無視しているとして、社内外から広く批判されている。 Googleにとって、Bard AIのチャットボットの成功は極めて重要です。同社は検索事業において間違いなく主導的な地位を占めており、親会社Alphabetの収益の約80%は検索事業が主な収入源となっています。しかし、生成AIの台頭により、Googleの検索市場における優位性は課題に直面しています。OpenAIなどのスタートアップ企業が生み出す斬新で人気のあるツールが、検索市場におけるGoogleの主導的地位を揺るがす可能性があると予測する声もあります。 GoogleのBardコミュニティでは、Discordプラットフォームの2人の参加者が、7月から10月にかけてブルームバーグと行ったチャンネルでの議論を共有しました。ブルームバーグが確認した多数のメッセージは、Bardを最もよく知る人々がBardをどのように利用し評価しているかを明らかにしています。同時に、このチャットボットの開発を担当する企業の上級幹部でさえ、このツールの将来について意見が分かれていることも示しています。 ラビエジ氏は、LLMで生成された回答に対する「不信感」を詳しく説明し、バードの使用を「創造性/ブレインストーミング」などの用途に限定することを提案しました。また、バードをプログラミングに使用するのは「コードが動作するかどうかを常にテストできる」ため良い選択肢だと述べました。 Googleは声明の中で、GoogleのDiscordチャンネルでBardの長所と短所について議論することは、製品開発において「通常かつ想定されている」ことだと述べた。Googleの広報担当者ジェニファー・ロッドストロム氏は、「Bardは実験的なプロジェクトとして開始されて以来、ユーザーからのフィードバックを聞き、どのような機能が気に入っているのか、そしてユーザーエクスペリエンスをどのように改善できるのかを知りたいと考えてきました」と述べた。さらに、「Discord上でユーザーとのディスカッションチャンネルを設けることは、私たちがその取り組みを行っている多くの方法の一つに過ぎません」と付け加えた。同社はまた、当初は招待制のコミュニティとしてDiscordサービスを開始し、徐々により多くのユーザーに開放していくことを強調した。 Bardが初めてリリースされた際、同社はAIツールがもっともらしい情報を生成する可能性を含め、その限界を公然と認めていました。GoogleはBardを使用するたびに、ツールに「Bardは不正確または不快な情報を表示する場合がありますが、これはGoogleの見解を反映したものではありません」という声明を追加します。また、Bardの正式リリースに先立ち、潜在的な悪意のある行動への対応策を探るため、敵対的テストを実施し、一般ユーザーによる継続的な使用を通じてBardへの理解を深めたいと述べています。 Discordサービスは7月に開始され、Bardの外部ユーザーに数千通の招待状が送られました。7月10日に送信された招待状には、「Bardのチームと直接アイデアやフィードバックを共有し、製品アップデートへの早期アクセスを獲得し、他のAI愛好家と交流しましょう」と書かれていました。このサービスは、Bardユーザーのための「公式」コミュニティと謳われていました。Bardがヨーロッパでサービスを開始した際、シニアプロダクトディレクターのジャック・クラウチク氏はコミュニティに自撮り動画を投稿しました。 Discordはこのチャットにコメントしていません。 現在、このオンラインコミュニティには約9,000人のメンバーがおり、その中にはDiscordの従業員も含まれています。ほとんどの議論はBardとAIを称賛していますが、一部のユーザーはBardを使って量子チェスコンピューターを構築したと主張したり、Bardを使ってオンラインで野球賭博のデータを検索し、複雑なシミュレーションを実行したりするなど、誇張された、あるいは誤解を招く可能性のあるツールの説明をしています。(Googleの従業員はDiscordのチャットで、Bardにはこれらの機能はないと述べていました。) カリフォルニア大学バークレー校で博士号を取得し、9月にDiscordグループに参加したダニエル・グリフィン氏は、オープンソースソフトウェアや小規模な検索エンジンツールの愛好家の間では、非公式なチャットが一般的だと指摘した。しかし、Googleが自社製品に対する世間の認識にどのような影響を与えているかについても執筆した経験を持つグリフィン氏は、今回のチャットはやや「不可解」に感じられたと述べた。 さらに彼は、BardのDiscordチャットは、大規模で長期的な非公式フォーカスグループ、あるいはAI愛好家のコミュニティに過ぎないかもしれないと指摘した。しかし、Googleの影響力と、これらの新しいツールについてオープンに議論することの重要性を考えると、彼は懸念を表明した。他のGoogleコミュニティからのフィードバックは、はるかに公開されていると彼は指摘した。 バードフォーラムでは、Googleに関連する他のデリケートな問題もユーザーから提起され、この巨大テック企業が世間の批判に苦戦している様子が窺われました。7月中旬、グループメンバーの1人が、GoogleとAmazonがイスラエル軍にAIツールを提供するための12億ドル規模の共同プロジェクト「プロジェクト・ニンバス」について言及しました。このメンバーがこのプロジェクトにおけるGoogleの役割について懸念を表明したところ、グループからすぐに発言が抑制され、管理者はチャットで「政治、宗教、その他のデリケートな話題」について議論しないようユーザーへ指示しました。 同じ月、別のユーザーが、GoogleがBardの応答を最適化するために「低賃金で高負荷の契約労働者」に頼っている理由を疑問視しました。同社は、BardのAIの改良を契約労働者だけに頼っているわけではなく、精度と品質を向上させる方法は他にもあると公に述べていますが、Bardの製品管理ディレクターであるトリス・ウォーケンティン氏は、Bardのアルゴリズムのトレーニングには人間の関与が不可欠だと反論しました。 チャットの中で、ウォーケンティン氏は「バードがあらゆる人に適応するには、人間の関与が不可欠です。そうでなければ、ユーザーは製品の機能を制御できず、それは大きな間違いだと思います」と指摘しました。さらに彼は、「私たちに必要なのは、よそよそしく近寄りがたい製品ではなく、あらゆる人に適応できる製品です」と強調しました。 Discordでは、LLMの維持にかかる莫大なコストについて激しい議論が交わされています。あるユーザーは、「LLMの膨大なリソースコスト、特にクエリごとに必要な水や、GPU(その生産には大規模なマイニングが伴う)への膨大な需要を削減する方法を研究している人はいますか?」と質問しました。 バード大学のユーザーエクスペリエンス責任者であるパール氏は、「これはチップ設計やスーパーコンピューターに少し似ていると思います。私たちは今後も、より少ないリソースで同じパフォーマンスを実現する方法を見つけ続けていくでしょう」と答えました。 チャットでは、バードの精度にも大きな注目が集まりました。プロダクトマネージャーのウォーケンティン氏は、バードのフィクションコンテンツ作成能力について語り、GoogleがこのAIツールのリリース以来、大きな進歩を遂げてきたことを強調しました。「私たちは『幻覚』を減らし、事実の正確性を向上させることに取り組んでいます。これは私たちの成功の重要な基準です」とウォーケンティン氏は述べました。「リリース以来、大きな進歩を遂げてきましたが、これは継続的な取り組みです。ぜひ実験を続けてください。何かおかしな点があれば、ぜひお知らせください!」 9月下旬、DiscordのBard公式アカウントは「Office Hours」イベントのQ&Aサマリーを公開しました。これは主に、BardとGoogleアプリの新しい連携に関するコミュニティからの質問に回答するものでした。Bardがメールの要約時に事実と異なる情報を提供した可能性について、Bardは公式に「このような事態が起きないよう最善を尽くしておりますが、Bardはまだ学習と成長の過程にあるため、そのような事態が起きる可能性はあります」と回答しました。Bardは、ユーザーに対し、Bardが使用している情報源を確認し、頻繁に参照するようアドバイスしました。「もし連携においてBardがバグを発見した場合は、バグ報告チャンネルでお知らせください!」 バード社のプロダクトマネージャー、ラビエジ氏は、AIツールに新たに導入された「回答を再確認」ボタンの重要性も強調しました。「このボタンは、誤りの可能性があるコンテンツをオレンジ色で強調表示します」と、同氏は10月に述べています。また、バード社は読み取ったテキストを完全に理解するのではなく、ユーザーの指示に基づいて新しいテキストを生成することを指摘し、「バード社は他のLLMと同様に、テキストを生成するものであり、情報を検索して要約するものではないことを覚えておいてください」と述べました。 他の従業員も生成AIに懸念を抱いている。「生成AIの潜在的な悪影響についての私の見解はさておき、教育はこの技術の最も有益な応用分野になる可能性があると考えています」と、バード大学のユーザーエクスペリエンスデザイナーであるジェームズ氏はDiscordコミュニティで述べた。 さらに彼は、さまざまな教育機関がこの技術を使って「学生にほぼ24時間365日のサポートを提供し、さまざまな科目にわたる学習体験を向上できる」と指摘した。 |