Popular Posts

私が AI について考えを変えた理由、そしてあなたもそうすべき理由

私が AI について考えを変えた理由、そしてあなたもそうすべき理由


私が AI について考えを変えた理由、そしてあなたもそうすべき理由

AI と私たちの関係を再考する時期が来ています

フラビオ・コエーリョ/ゲッティイメージズ

ChatGPT の立ち上げが歴史的に重要な出来事であったことは否定できませんが、それは超知能の未来に向けた最初の大きな一歩だったからでしょうか、それとも AI のヘビ油販売員でいっぱいの世界の始まりだったからでしょうか?私は長い間、大きな言語モデルである AI チャットボットの背後にあるテクノロジーは魅力的だが欠陥があると考えてきました。しかし、1 週間かけて雰囲気をコーディングしてみると、驚くべきことが明らかになりました。それは、推進派も懐疑論者も両方とも間違っているということです。

まず、説明させていただきます。馴染みのない方のために説明すると、Vibe コーディングは、OpenAI の共同設立者であり、以前は OpenAI で働いていた AI 研究者、Andrzej Karpathy 氏が約 1 年前に作った用語です。これは、AI モデルを「振動」させ、実際のコードを生成しながら簡単な言語で指示を与え、ソフトウェアを開発するプロセスを指します。最近、最新のツールである Cloud Code と ChatGPT コーデックが驚くほどコーディングに優れていると言っているのを目にしました。 ニューヨークタイムズ タイトルは「私たちが待ち望んでいた AI ディスラプションがここにある」です。

これらのツールを試してみることにしましたが、その結果には驚きました。限られたコーディング経験で、わずか数日で、地元の図書館で利用できるものをチェックするオーディオブック ピッカーや、携帯電話で動作するカメラとテレプロンプターを組み合わせたアプリなど、個人的に便利なアプリを作成しました。

これは退屈に思えるかもしれませんが、後で説明する理由により、まったく問題ありません。ここで重要なことは、このプロセスにより、ChatGPT のような製品にこれまで以上に深く関わるようになったということです。過去に、私は少し試してみましたが、一般的な文章、お調子者、または間違った検索結果にイライラして直帰しました。これらの新しいコーディング プロジェクトでは、長期にわたって使用することで、これまで気づかなかったことに気づきました。LLM の生成方法が、私が嫌いになる運命にあるマシンを作成するということです。

「生の」LLM に触れたことのある人はほとんどいません。LLM とは、信頼性の高い代表的なテキストを生成するために大規模なデータのコレクションでトレーニングされた統計モデルを意味します。代わりに、私たちのほとんどは、ヒューマンフィードバックからの強化学習 (RLHF) と呼ばれるプロセスを介したテクノロジーを使用しています。 AI 企業は、人間を使って生の LLM によって生成されたテキストを評価し、自信があり、有用で、魅力的であるとみなされる回答に報酬を与える一方、有害なコンテンツや、ほとんどのユーザーが自社製品への関与を妨げる可能性のある回答にはペナルティを与えます。

これは、おそらくよく知られている一般的な「チャットボット音声」を生成する RLHF プロセスです。これは、「速く動いて物事を打ち破る」というシリコンバレーの一般的な態度から、物議を醸している X チャットボット Grok のより典型的なイーロン マスク注入のイデオロギーに至るまで、作成者の固有の価値観に基づいたプロセスです。

現時点では、チャットボットに不確実性を表現させたり、ユーザーの矛盾を表現させたり、前進を妨げさせたりすることは非常に困難です。これが最もはっきりとわかったのは、テレプロンプターで解決できない問題に遭遇したときです。カメラを最初から構築するよりも簡単だろうと、既存のカメラ アプリにテキストをオーバーレイするアプリを作成しようとしていましたが、ChatGPT が生成していたコードは失敗しました。繰り返し改善点を提案し、プロジェクトを進めるよう促してくれました。そのとき、Android オペレーティング システムの複雑さ (退屈することはありません) のおかげで、オールインワン アプリを作成するほうがはるかに簡単であることに気づきました。 ChatGPTに作成を依頼したところ、すぐに動作してくれました。

このことから学んで、私は ChatGPT に自分自身と私に常に疑問を抱くよう指示し始めました。私は慎重な懐疑論を呼び掛けた。 「ジェイコブは、証拠優先の分析をサポートすることがデフォルトであることを望んでいます。外挿を避け、証拠と証拠に明確にフラグを立て、不確実性を述べるか、ユーザーが推測を求めるまで待つことを好みます。」 これは、私が記憶に残した(自分で作成した)概要の 1 つです。言い換えれば、私は OpenAI の値を慎重に削除し、私自身の値に置き換えて、私の心理的プロファイルに合わせて機能するように特別に設計されたモデルを作成しました。

完全ではありません。 LLM にとって RLHF トレーニングと戦うのは非常に困難であり、デフォルトが浸透し続けています。しかし、それは私が今、ある程度便利な認知鏡として機能するツールを手に入れたことを意味します。この記事を書くために私はそれを使用しませんでした。なぜなら、その書き方はまだ遅すぎるためです。 新しい科学者確かに、AI によって生成されたコピーには厳しいルールがありますが、私はこの記事を考えるためにそれを使用しました。私は認知鏡に向かって議論と反論を検討し、その結論の多くを虚偽または偽りとして却下しました。値はわかりましたが、AI に面倒な作業を任せることはできず、注意と作業が必要でした。重要なことは、私の脳が常にフルに活動していたということです。

このことから、私はすでに到達した結論を強化することになります。つまり、他人の AI 出力に関与することは、ほとんどの場合、機能的に役に立たないということです。 AI 自体にプロンプ​​トを与えることによって得られる以外に、AI が生成したテキストからは何も達成できません。また、私は AI が何らかの形で実際に知的であるという考えを拒否し続けています。その代わりに、私は AI を電卓やワードプロセッサのような認知補助装置であると考えています。世界を征服するための機械ではなく、個人的なツールとしてこのフレームを使用することで、その利点がわかりました。このため、私のテレプロンプター アプリについては気にしないでください。あなたを興奮させるのは、独自の問題を独自の方法で解決できるという見通しです。

ここで、現在の AI パラダイムが別の問題を提示します。私の考えでは、最良の LLM は、いかなる民間企業とも関係なく、自分のコンピュータ上で動作する LLM です。これは、完全に制御できる危険な実験装置として扱う必要があります。ソフトウェアエンジニアは、識別できないノイズが発生した場合に備えて、プリンターの横に装填済みのガンを置いておくというミームを思い出しました。残念ながら、AI ブームにより必要なハードウェアの価格が高騰していることをはじめ、さまざまな理由により、独自の最先端 LLM を実行することは現在不可能です。

LLM の原罪、つまり著作権侵害の可能性についても触れておきます。設計上、このテクノロジーは大量のデータ、つまり人類のテキスト記録全体に基づいてのみ構築できます。 OpenAI のような企業が著作権で保護されたテキストを許可なく使用してモデルを作成したことには異論の余地はありませんが、これが実際に違法であるかどうかは現在進行中の訴訟の主題です。民間のLLMも同様の問題を抱えているでしょうが、政府によって事実上容認され、民間企業ではなく全員の利益のために自由に配布される公共部門モデルのような解決策が見えてきます。データセンターが環境に及ぼす影響についても依然として懸念していますが、これは、自社のマシン上で実行される LLM を広範囲に配布することで部分的に軽減できます。

これを読んでいる人の中には、私がテクノロジー仲間に売り渡したのではないかと非難される人もいることは承知しています。私に言えることは、LLM は魅力的で、危険で、時には贅沢なテクノロジーであるという長年にわたる私の立場を変えていないということだけです。

私が気づいたのは、私たちがテクノロジーに取り組む主な方法は、ChatGPT のような賢いチャットボットを介することであり、そこで多くの害が行われ、世界中に拡散することが許されているということです。 LLM は組織化され、作成され、あなたの友達になりたいと願うキラキラした絵文字を私たちの生活のあらゆる場面に強制的に組み込むべきではありません。これらのデバイスを、より多くの摩擦を伴い、それらが引き起こす可能性のある潜在的な害を十分に認識して注意しながら、思慮深く使用できれば、はるかに良いでしょう。ここで、有益な比喩がその尖った頭を持ち上げます。 OpenAIのスネ​​ークオイルは欲しくない。ヘビが欲しいです。

主題:

Leave a Reply

Your email address will not be published. Required fields are marked *