グアダラハラ – アメリカ

シーバス・デ・グアダラハラ vs クラブ・アメリカ

OpenAI研究者、ChatGPAT広告をめぐって辞任、「Facebook」への経路を警告
グアダラハラ - アメリカ

OpenAI研究者、ChatGPAT広告をめぐって辞任、「Facebook」への経路を警告



OpenAI研究者、ChatGPAT広告をめぐって辞任、「Facebook」への経路を警告

水曜日、OpenAIの元研究者ゾーイ・ヒツィヒ氏がゲストエッセイをニューヨーク・タイムズに掲載し、OpenAIがChatGPIT内で広告のテストを開始したのと同じ月曜日に同社を辞任したことを発表した。経済学者であり詩人でもあり、ハーバード大学哲学協会のジュニア・フェローシップを保持しているヒツィヒ氏は、OpenAI で 2 年間を過ごし、その AI モデルの作成と価格設定の策定に貢献しました。同氏は、OpenAIの広告戦略はFacebookが10年前に犯したのと同じ過ちを繰り返す危険があると書いた。

ヒッツィヒ氏は、「私はかつて、AI を構築する人々が AI が引き起こす問題を乗り越えられるよう支援できると信じていた。」と書いている。 「今週、OpenAI が、私が回答するために参加した質問をしなくなったのではないかという私のしつこい気持ちが裏付けられました。」

ヒッツィヒ氏はこの広告が非倫理的だとは言っていない。その代わりに、問題となっているデータの性質により、ChatGPAT 広告は特にリスクが高いと彼は主張した。ユーザーは医学的恐怖、人間関係の問題、宗教的信念をチャットボットと共有することが多く、その多くは「隠された議題のない何かについて話していると人々が信じていたため」だと彼らは書いている。彼は、この蓄積された個人的な啓示の記録を「他に例のない人間の率直さのコレクション」と呼んだ。

同氏はまた、Facebookの初期の歴史と直接比較し、ソーシャルメディア会社がかつてユーザーに自分のデータを管理し、ポリシー変更に投票する能力を約束していたことに言及した。これらの約束は時間の経過とともに無効になり、連邦取引委員会は、Facebook がユーザーにさらなる制御を与えるとして推進したプライバシーに関する変更が実際には逆効果であることを発見した、とヒッツィヒ氏は書いている。

同氏は、ChatGPTでも同様の軌跡が起こる可能性があると警告し、「広告の最初の反復ではおそらくこうした原則に従うだろう。しかし、その後の反復ではそうならないのではないかと心配している。なぜなら、同社は独自のルールを無効にする強力なインセンティブを生み出す経済エンジンを構築しているからだ」と語った。

広告はAI業界の1週間の苦闘の後に発表された

ヒッツィヒ氏の辞任は、AIチャットボットの広告を巡る議論の高まりに新たな声を加えた。 OpenAIは1月、米国で無料および月額8ドルの「Go」サブスクリプション層のユーザー向けに広告のテストを開始すると発表したが、有料のPlus、Pro、Business、Enterprise、Educationの顧客には広告が表示されない。同社によると、広告はChatGPTの応答の下に表示され、明確にラベルが付けられ、チャットボットの応答には影響しないという。

LEAVE A RESPONSE

Your email address will not be published. Required fields are marked *