このパートナーシップは、GoogleがAnthropicに対して大幅な資金援助を行ったことで強化されています。以前Decryptが報じたように、Googleのコミットメントは、300億ドルでの10%の株式取得を含み、総額5億ドルの追加資金が提供されました。さらに、追加の15億ドルの投資を約束しています。
「AIの開発において、大胆かつ責任ある方法で行われるべきであるという点で、AnthropicとGoogle Cloudは同じ価値観を共有しています」とGoogle CloudのCEOであるトーマス・キュリアンは公式プレスリリースで述べています。「Anthropicとのこの拡大パートナーシップは、長年の共同作業を基にしており、AIをより多くの人々に安全かつ安全に提供し、最も革新的で成長の速いAIスタートアップがGoogle Cloudに基づいて構築している別の例です。」
Anthropicは、訓練されたAIモデルが新しい入力データに基づいて予測や意思決定を行うAI推論を行うために、Google Cloudの第5世代Tensor Processing Units(TPUs)を使用する予定です。
これらの技術的な進展が、人々が日常的に使用するAIチャットボットやツールにとって何を意味するのかは、AIトレーニングの計算作業の基本的な違いにかかっています:GPUとTPU。
AI計算タスクの基幹であるグラフィックス処理ユニット(GPU)は、複数の操作を同時に処理するのが得意です。これらは汎用性があり、ゲームやグラフィックスレンダリングだけでなく、深層学習タスクの高速化にも広く使用されています。
一方、Tensor Processing Units (TPUs) は、Googleの独自の設計で、マシンラーニングワークフローを加速することに特化しています。
TPUは特定のタスクを効率的にこなし、迅速なトレーニング時間とエネルギー効率を提供します。これは、AnthropicのClaudeのようなLLMが必要とする巨大なデータセットを処理する際に重要です。
これらのプロセッサの違いは顕著で、OpenAIが使用しているGPUは幅広い応用範囲を持っていますが、TPUはマシンラーニングの性能に特化しています。これは、Anthropicのようなスタートアップにとっては、モデルの改善に巨大なデータ量を頼りとしているため、GoogleのTPUが魅力的な優位性を提供する可能性があり、より迅速な進展とより洗練されたAIの相互作用をもたらすかもしれません。
一方で、OpenAIの最新の進展、特にGPT-4 Turboは、Anthropicの以前の優位性であるClaudeの10万の機能と比較して、128Kのコンテキストトークンを処理することができるため、Anthropicへの認識されたリードを挑戦します。
しかし、この競争は複雑さも含んでいます。これらの強力なTPUは、Anthropicがより強力なLLMをより速く開発するのに役立つかもしれません。一方、より大きなコンテキストウィンドウは興味深いものですが、現在の状況では性能が低下する傾向があります。
AI競争が激化する中、AnthropicはGoogleの大量のバックアップのおかげで有利な立場を築くことができるかもしれません。ただし、OpenAIはただ手をこまねいているわけではありません。彼らはまた、Microsoftの支援を受けてスピードを上げています。