Gemini 3.0: リリース予測
公式発表はまだありませんが、過去のリリース周期、競合状況、技術的依存関係の分析から、Gemini 3.0の段階的なリリースが強く予測されます。
フェーズ1: 限定プレビュー
2025年 第4四半期後半
一部のエンタープライズ顧客を対象に、Google Cloud及びVertex AIを通じて提供開始。
フェーズ2: 一般提供開始
2026年 第1四半期
開発者向けAPI提供、およびGoogleの主要製品(検索、Android等)への統合拡大。
予測市場Metaculusでのコミュニティ中央値予測: 2025年10月27日
イノベーションの周期
GoogleのAIモデルリリースには明確な年次パターンが存在します。この一貫した周期は、将来のリリース時期を予測する上で強力な根拠となります。以下のタイムラインで過去の主要なリリースを確認できます。
タイムラインを規定する主要因
Gemini 3.0のリリース時期は、単一の要因ではなく、技術、市場、戦略が複雑に絡み合った結果として決定されます。
競争上の必然性
OpenAIのGPT-5(2025年8月リリース確定)が新たな性能基準を打ち立てます。そのため、Googleは同等以上のモデルで対抗する必要があり、これが開発タイムラインを加速させる要因となります。
ハードウェア基盤
次世代TPU「Trillium」は、Gemini 3.0の高度な能力を実現するために不可欠です。Trilliumの展開と成熟のスケジュールが、モデルリリースの前提条件となります。
エコシステム統合
Android 16や次期Pixelデバイスへの深い統合が計画されています。これらのハードウェアの年次更新サイクルにリリース時期を合わせることが、マーケティング効果を最大化します。
期待される技術的飛躍
Gemini 3.0は単なる性能向上に留まらず、AIの役割そのものを変えるパラダイムシフトをもたらすと予測されます。以下のボタンで、現行モデルとの機能比較をご覧ください。
Gemini 2.5 Pro (現行)
Gemini 3.0 (予測)
戦略的意義と今後の展望
Gemini 3.0の真価は、個々の性能だけでは測れません。それは、Googleの広大なエコシステム全体を統合し、ユーザー体験を根底から変える能力にあります。
エコシステムの優位性
検索、Android、Workspace等をシームレスに連携させる「エージェント」機能は、スタンドアロンのAIモデルにはない強力な競争優位性を生み出します。AI競争の主戦場は、モデル性能からエコシステム統合力へと移行します。
課題と不確定要素
モデルが自律的になるほど、安全性やバイアスの問題はより深刻になります。重大な安全上の懸念が発見された場合、リリースが遅延する可能性があります。また、競争環境の急激な変化もリスク要因です。
Gemini 3.0:リリース時期、性能、市場インパクトに関する分析的予測
目次
エグゼクティブサマリー
本レポートは、Googleの次世代基盤モデルであるGemini 3.0のリリース時期、予想される技術的能力、および市場への影響について、現在入手可能な情報に基づき包括的な分析を行うものである。公式発表は存在しないものの、市場のコンセンサス、過去のリリースパターン、および戦略的分析に基づくと、リリースは段階的に行われる可能性が極めて高い。具体的には、2025年第4四半期後半にエンタープライズパートナー向けの限定プレビューが開始され、その後2026年第1四半期にかけて開発者および一般消費者への提供が拡大されると予測される。
このタイムラインは、複数の要因が複合的に作用した結果として導き出される。第一に、Googleが確立したAIモデルの年次メジャーアップデートの周期。第二に、OpenAIのGPT-5(2025年8月リリースが確定)をはじめとする競合からの熾烈な競争圧力。そして第三に、Gemini 3.0の性能を最大限に引き出すために不可欠な、Googleの次世代ハードウェア「Trillium TPU」の成熟度である。
結論として、Gemini 3.0は単なる漸進的なアップデートではなく、より自律的な「エージェント」として機能し、現実世界をシミュレートする「ワールドモデル」へとパラダイムを転換させる、アーキテクチャ上の大きな飛躍となることが見込まれる。その真価は、Googleが持つ広範な製品エコシステム全体を統合し、活用する能力によって定義され、同社の競争優位性の源泉となるだろう。
1. 現状分析:Gemini 3.0のリリース時期と市場コンセンサス
本セクションでは、ユーザーの直接的な問いに応えるため、公式情報の不在と、それとは対照的に市場で形成されつつある強力なコンセンサスを対比させ、現状を明らかにする。
1.1. 公式発表の不在:Gemini 2.xエコシステムへの戦略的集中
Googleの主要な発表の場であるGoogle I/O 2025において、Gemini 3.0に関する言及は一切なかった。基調講演や開発者向けセッションは、未来の製品発表ではなく、現行世代であるGemini 2.xシリーズの成熟と拡大に重点が置かれていた。
具体的には、Gemini 2.5 ProおよびFlashの機能強化、新たな推論モード「Deep Think」の導入、Veo 3やImagen 4といった生成メディアモデルの展開、そしてProject AstraやJulesによるエージェント型AIのビジョンが中心的に語られた。これは、Googleが短期的な競争力を維持するため、既存ポートフォリオの能力と広範性を最大限にアピールするという意図的な戦略を示している。
この戦略は、オペレーションデータによっても裏付けられている。Google CloudのVertex AIで利用可能な最新の安定版モデルは、2025年6月および7月にリリースされたGemini 2.5ファミリーである。
同様に、APIの変更履歴を見ても、2025年半ばを通じて2.xシリーズへの継続的なアップデートが行われていることが確認できる。これらの事実は、Googleのエンジニアリングおよび製品開発の焦点が現在、2.5プラットフォームの安定化、スケーリング、そして市場への浸透にあることを示唆している。これにより、バージョン3.0のような大規模な基盤開発に必要な時間を確保していると考えられる。
1.2. 市場のコンセンサス:2025年第4四半期から2026年第1四半期への段階的展開
複数の独立した技術分析メディアやブログが、リーク情報や過去のリリースパターンを根拠に、2025年後半から2026年初頭にかけてのリリースを予測しており、その見解はほぼ一致している。これは単なる憶測ではなく、複数の情報源から構築された一貫したナラティブである。最も詳細な予測では、Googleがサーバー負荷の管理、フィードバックの収集、市場の期待感の醸成を目的として標準的に採用する、3段階の展開プロセスが示されている。
- フェーズ1:限定プレビュー(2025年12月)
一部のエンタープライズ顧客を対象に、Google CloudおよびVertex AIを通じてアクセスが提供される。これにより、管理された環境下で高負荷なテストが可能となる。 - フェーズ2:開発者向けパブリックアクセス(2026年初頭)
APIを通じて提供が開始され、おそらく「Google AI Ultra」のような新しいプレミアムサブスクリプション層が設けられる。この段階は、新モデルを中心としたアプリケーションエコシステムの構築に不可欠である。 - フェーズ3:一般消費者向け完全ローンチ(2026年第1四半期)
検索、Android(Android 16との連携が有力)、Workspace、GeminiアプリといったGoogleの主要製品に深く統合される。このフェーズは、Pixel 10のような新しいハードウェアの発売と時期を合わせることが多い。
このような段階的な展開は、Googleが複雑でリソースを大量に消費する技術を導入する際の確立された手法であり、リスクを軽減し、反復的なフィードバックを可能にし、市場の期待を醸成する。このパターンは、将来の行動を予測する上で信頼性の高い指標となる。
1.3. 期待の定量化:予測市場からの洞察
予測市場Metaculusでは、「Gemini 3.」と明示されたモデルがGoogle外部のユーザーグループに初めて公開される日付について、コミュニティの中央値予測が2025年10月27日となっている。このデータは、市場の期待を定量的に示す貴重な指標である。
中央値は2025年第4四半期のリリースに対する高い確信を示唆しており、四分位数(2025年9月11日までに25%、2025年12月21日までに75%の確率)は期待される期間をさらに絞り込み、メディアの分析と密接に一致している。Metaculusの予測が成立する条件として、公式発表と一般利用可能性が厳格に定義されているため、これは市場心理を測る上で非常に堅牢な指標と言える。
2. 予測の分解:Gemini 3.0のタイムラインを規定する主要因
本セクションでは、セクション1で提示したタイムラインの分析的根拠を詳述し、「いつ」という予測を「なぜ」という理由に結びつける。
2.1. イノベーションの周期:Googleの過去のリリースパターン
Googleの主要なバージョンリリースには、明確な年次パターンが存在する。Gemini 1.0は2023年12月に発表され、Gemini 2.0は2024年12月に発表された。1.5 Pro(2024年2月)や2.5 Pro(2025年半ば)のような中間的な「.」アップデートは、メジャーリリース間のギャップを埋める役割を果たしている。
この一貫した年次周期は、Gemini 3.0が2025年後半にリリースされるという予測を裏付ける最も強力な歴史的証拠である。このパターンは、Google DeepMind内に確立された内部開発および製品化サイクルが存在することを示唆しており、アナリストやコミュニティの間で予測の根拠として頻繁に引用されている。
表1:Google Geminiモデルの過去のリリース周期
モデル世代/バージョン | 主要モデル | リリース日 | 主要な特徴/マイルストーン |
---|---|---|---|
1.0 | 1.0 Nano | 2023年12月6日 | オンデバイス処理向けに設計 |
1.0 Pro | 2023年12月13日 | 多様なタスクに対応する汎用モデル | |
1.0 Ultra | 2024年2月8日 | 当時の最も高性能なモデル | |
1.5 | 1.5 Pro | 2024年2月15日 | 100万トークンのコンテキストウィンドウを導入 |
1.5 Flash | 2024年5月14日 | 速度と効率に最適化された軽量モデル | |
2.0 | 2.0 Flash (Experimental) | 2024年12月11日 | 速度とマルチモーダル性能を向上 |
2.0 Flash (Default) | 2025年1月30日 | 標準利用のデフォルトモデルに | |
2.5 | 2.5 Pro | 2025年3月25日 | 推論能力と性能をさらに向上 |
2.5 Flash | 2025年4月17日 | 2.5世代の高速・効率モデル | |
2.5 Pro & Flash (GA) | 2025年6月17日 | Vertex AIで一般提供開始 |
この一貫した年次リリースサイクルは、単なる習慣以上のものであり、特にエンタープライズ顧客に対する戦略的なシグナルとして機能している。安定性、予測可能性、そしてプラットフォームへの長期的なコミットメントを市場に伝えることで、大企業はGoogleのサイクルに合わせて自社のAIロードマップや予算を計画することが可能となり、信頼とより深いプラットフォーム統合を促進する。
2.2. 競争上の必然性:GPT-5の影
AI市場は、才能、開発者、エンタープライズ顧客を引きつけるために、リーダーとしての認識が極めて重要な、競争の激しいレースである。OpenAIのGPT-5が2025年8月にリリースされることが確定しており、xAIのGrok 4やAnthropicのClaude 4といった他のモデルも競争環境を形成している。
Googleは独自の内部ロードマップを持っているが、孤立して事業を進めることはできない。GPT-5の登場は新たな性能基準を打ち立てるため、Googleは少なくとも同等、あるいはそれ以上の性能を持つモデルで対抗するという強い圧力にさらされるだろう。この圧力がGemini 3.0のタイムラインを加速させ、OpenAIのナラティブに対抗するためにプレビュー段階を2025年第4四半期の早い時期に前倒しする可能性がある。
2.3. ハードウェア基盤:次世代TPUの決定的役割
Gemini 3.0のリリースは単なるソフトウェアのイベントではなく、長年にわたる垂直統合型のハードウェア・ソフトウェア戦略の集大成である。Googleは2024年5月、第6世代TPUである「Trillium」を発表した。これは前世代のTPU v5eと比較して、チップあたりのピークコンピューティング性能が4.7倍、メモリ帯域幅が2倍に向上している。
Trilliumは「次世代の基盤モデル」のために明示的に設計されており、噂されるGemini 3.0の高度な能力を学習・提供するために不可欠な、膨大な計算能力を提供する。Trilliumの社内での大規模な展開と最適化のタイムラインは、Gemini 3.0プロジェクトの厳密な依存関係にある。
2024年半ばにプレビューが発表されたことは、2024年後半から2025年初頭にかけて大規模な学習実行に十分なハードウェアが成熟することを示唆しており、これは2025年後半のモデルリリーススケジュールと完全に一致する。つまり、Gemini 3.0のソフトウェアロードマップとTrilliumのハードウェアロードマップは、同じコインの裏表なのである。
2.4. エコシステムへのロックイン:AndroidとPixelハードウェアへの依存
Googleの戦略は、ハードウェアとソフトウェアがシームレスに連携するAI体験を創出することにある。Gemini 3.0のオンデバイス版である「Nano」が、将来のPixel 10のようなハードウェアに深く統合されるとの噂がある。
また、初期のAndroid 16開発者プレビューのコードからは、2025年後半にGeminiがより深く統合されることが示唆されている。Gemini Nano 3のような主要なオンデバイスモデルの発表は、Pixel 10の目玉機能となるだろう。Gemini 3.0のリリースを、通常は秋に行われる年次のハードウェア更新サイクルに合わせることは、強力な共同マーケティングの機会を生み出し、モデルの能力を具体的に示すことで、2025年第4四半期後半というタイムラインを補強する。
3. 新たな能力のフロンティア:Gemini 3.0に期待される技術的飛躍
本セクションでは、長い開発サイクルを必要とし、メジャーバージョン番号の更新を正当化する、期待される機能とアーキテクチャの変革、すなわち「何が」変わるのかを詳述する。
3.1. マルチモーダルを超えて:リアルタイムのワールドモデルへ
噂によれば、Gemini 3.0はマルチモーダル能力を大幅に拡張し、最大60 FPSでのリアルタイム動画理解や、3D環境および地理空間データの処理能力を含むとされる。これは、Gemini 2.5のような静的または録画済みのメディア分析から、動的なリアルタイムデータストリームの解釈へと移行することを意味する。この能力は、拡張現実(Android XRグラス)、ロボティクス、自律システムといった次世代アプリケーションの基盤となる。
この方向性は、Google DeepMindが発表した「Genie」という研究によって裏付けられている。Genie 3は、テキストプロンプトからインタラクティブな環境を生成できる「汎用ワールドモデル」である。
CEOのデミス・ハサビスは、ワールドモデルがシミュレーションと予測を可能にするAIの未来と明確に関連付けている。Gemini 3.0に期待される能力は、この「ワールドモデル」研究の具体的な製品化であり、動画、3D空間、物理法則を理解するモデルは、もはや単なる言語モデルではなく、初期段階のシミュレーションエンジンと言える。これはGoogleの長期的なAGI(汎用人工知能)への野心の中核をなす部分である。
3.2. 進化したアーキテクチャ:次世代のMoEとコンテキスト
Gemini 3.0は、洗練されたハイブリッドな「Mixture-of-Experts(MoE)」アーキテクチャを基盤とし、精度と効率を向上させるためにより多くのエキスパートや、より深い「検証」モジュールを搭載する可能性があると推測されている。Google自身の研究でも、MoEは効率向上のための重要な技術として挙げられている。MoEアーキテクチャは、モデルを数兆パラメータにスケールさせながら、クエリごとにその一部のみをアクティブにすることで、計算コストと遅延を抑えつつ性能を向上させる鍵となる。
また、コンテキストウィンドウは、Gemini 2.5の100万トークンから「数百万」トークンへと拡張され、よりスマートな検索メカニズムが組み合わされると予測されている。コンテキストウィンドウの拡大は、モデルがコードベース全体、複数の長文ドキュメント、あるいは数時間の動画を処理し、それに基づいて推論する能力を飛躍的に向上させるため、複雑なエンタープライズユースケースにおいて重要な競争上の差別化要因となる。
3.3. エージェントへの転換:ツールから協調者へ
Gemini 2.5の実験的機能であった「Deep Think」推論モードは、Gemini 3.0ではデフォルトで永続的に統合されると予想されている。これは、ユーザーが複雑なタスクのために明示的に「より賢い」モードを起動する必要がなくなり、モデルの基本動作そのものが、より高度な計画、自己修正、多段階の推論を含むようになることを意味する。
さらに、Gemini 3.0は「マルチエージェント・オーケストレーション」機能を備え、複数のツールやワークフローを並行して管理できるようになると噂されている。これは、自律型コーディングエージェント「Jules」やブラウザ自動化ツール「Project Mariner」といった既存のGoogleプロジェクトの発展形である。
これは、プロンプトに応答する生成ツールから、自律的に目標を追求するエージェントシステムへの飛躍を意味する。例えば、「新製品の市場調査を行い、Docsで事業計画書を起草し、Vidsでスライドデッキを作成する」といった複雑なタスクを、AIが他のAIエージェントやソフトウェアツールを組織化して完了できるようになることは、知識労働の自動化におけるパラダイムシフトとなるだろう。
表2:Gemini 2.5 ProからGemini 3.0への機能進化(予測)
機能領域 | Gemini 2.5 Pro(現行能力) | Gemini 3.0(予測/噂される能力) | 示唆されるインパクト |
---|---|---|---|
マルチモーダル | テキスト、画像、音声、録画済み動画の分析 | リアルタイム動画(最大60 FPS)、3D環境、地理空間データの理解 | ライブAR/XRアプリケーション、自律型ロボティクス、動的シミュレーションの実現 |
コンテキストウィンドウ | 100万トークン | 「数百万」トークン、スマートな検索機能付き | コードベース全体や複数の長文ドキュメント、数時間の動画の横断的な分析が可能に |
推論/計画 | 「Deep Think」モード(実験的機能として提供) | 高度な推論と計画能力がデフォルトで統合 | 複雑な問題解決や自己修正能力が標準となり、より信頼性の高い応答を実現 |
ツール利用/エージェント | Project Marinerエージェントによる単一ツールの利用 | マルチエージェント・オーケストレーション(複数ツールの並行管理) | 複数ステップにわたる複雑なビジネスプロセスの完全自動化 |
効率/遅延 | TPU v5p上でFlashモデルが約1.2秒の遅延 | 次世代Trillium TPU上でサブ秒の遅延を目指す | リアルタイム対話やインタラクティブなアプリケーション体験の向上 |
「マルチモーダル」がGemini 1.0時代の決定的特徴であったように、「エージェント性」は3.0時代の決定的特徴となるだろう。デフォルトでの高度な推論とマルチエージェント・オーケストレーションの統合は、単にデータタイプを追加するよりもはるかに深遠な変化であり、ユーザーがプロンプトで指示するインタラクションから、目標を委任するパラダイムへと移行させる。これがAI競争における次の主要な戦場となる。
4. 戦略的意義と市場展望
本セクションでは、Gemini 3.0がGoogleおよび広範なAI市場にとって何を意味するのかを分析する。
4.1. エコシステムの優位性:Googleの戦略的濠
Googleは、検索、Android、Chrome、Workspace(Docs、Gmailなど)、Google Cloud(Vertex AI)といった製品群にまたがる、比類なき配布チャネルと統合ポイントを有している。より強力でエージェント的なGemini 3.0は、これらの製品に深く組み込まれ、同様のエコシステムを持たない競合他社には再現不可能な体験を創出することができる。例えば、ウェブ検索、Googleスプレッドシートでの分析、Gmailでのメール作成をシームレスに行き来できるエージェントは、スタンドアロンのチャットボットに対して大きな優位性を持つ。
このエコシステムこそが、OpenAIやAnthropicといった競合に対するGoogleの主要な防御策である。Forresterのレポートは、Workspaceに深く組み込まれたAIが、Microsoftのアドオンモデルに対して既に重要な戦略的優位性となっていることを指摘している。
このことから、AI競争の主戦場は、個々のモデル性能を比較する段階から、エコシステム全体の統合力を競う段階へと移行していることがわかる。Gemini 3.0の真の力は、ベンチマークのスコアではなく、Googleの製品群全体をよりインテリジェントで不可欠なものにする能力によって測られるだろう。
4.2. 今後の課題と不確定要素
フロンティアモデルの開発は、ハルシネーション(幻覚)、バイアス、潜在的な悪用といった技術的および安全性の課題を伴う。モデルがよりエージェント的になり、現実世界と相互作用する能力が高まるにつれて、危害を及ぼすリスクも増大する。
Google自身の安全フレームワーク(Frontier Safety Framework 2.0、SAIF)もこれらのリスクを認識している。レッドチーミング(敵対的テスト)中に重大な安全上の問題が発見された場合、リリースが遅延する可能性は十分にある。
また、競争環境は常に変動している。競合他社によるサプライズリリースや、オープンソースモデルの画期的な進歩があれば、Googleは戦略やタイムラインの変更を余儀なくされる可能性がある。
Gemini 3.0の能力向上、特にエージェント機能とワールドモデル機能は、新たなクラスの安全性とアライメントの課題をもたらす。したがって、リリースのタイムラインは技術開発だけでなく、堅牢な安全・制御メカニズムの並行開発と検証にも依存する。これは、安全性研究チームが、モデル開発チームと同様に、ローンチのクリティカルパスを握っていることを意味し、予測に大きな不確定要素を加える。
4.3. ステークホルダーへの提言
- 開発者向け:
Gemini 2.5エコシステムで利用可能なエージェントフレームワークやマルチモーダルAPIの実験を開始することが推奨される。ツールの利用を組織化し、複雑な多段階ワークフローを管理するスキルを構築することに注力すべきである。これらはGemini 3.0を活用する上で中心的な能力となる。 - 企業リーダー向け:
現在、人間による引き継ぎがボトルネックとなっている複雑な多段階のビジネスプロセスを特定し始めるべきである。これらは、将来のエージェント型AIによる自動化の有力な候補となる。Vertex AIのようなプラットフォームを通じて現在のAI導入を評価し、Gemini 3.0が利用可能になった際に迅速に展開するための基盤インフラとスキルを構築することが重要である。 - AI愛好家およびアナリスト向け:
Google DeepMindの研究論文や、Google Cloud上のTrillium TPUプラットフォームのアップデートに細心の注意を払うべきである。これらは、公式な製品発表よりもずっと前に、Gemini 3.0の進捗と能力を示す先行指標となるだろう。
引用文献
- Google I/O 2025: News and announcements
- Google I/O 2025 keynote in 32 minutes - YouTube
- What you should know from the Google I/O 2025 Developer keynote
- Google I/O 2025: The top updates from Google Cloud
- Model versions and lifecycle | Generative AI on Vertex AI - Google Cloud
- Release notes | Gemini API | Google AI for Developers
- Google Gemini 3 Pro Rumors: Release Date, Features, and What to Expect in Late 2025
- Google's Gemini 3.0: Here Is All We Know and What to Expect | Fello
- When will Google first release Gemini 3.0? - Metaculus
- Everything we know: Google's Gemini 3 model - PromptLayer
- Introducing Gemini: our largest and most capable AI model
- When do you think Google Gemini 3.0 Flash (experimental) will be released? - Reddit
- Our next-generation model: Gemini 1.5 - Google Blog
- What's the rough timeline for Gemini 3.0 and OpenAI o4 full/GPT5? : r/singularity - Reddit
- GPT 5 Compared to Gemini and Claude & Grok - Nitro Media Group
- Google unveils its sixth-generation TPU, codenamed Trillium, to accelerate application execution on the Google Cloud platform | mashdigi - Technology, New Products, News, Trends
- Introducing Trillium, sixth-generation TPUs | Google Cloud Blog
- Google Announces Sixth-generation AI Chip, a TPU Called Trillium - HPCwire
- Google's Pixel 10 Smartphone Line Packs AI-Driven Features - ETCentric
- I/O '25 in under 10 minutes - YouTube
- Demo: Gemini Advanced Real-Time "Ask with Video" out today - experimenting with Visual Understanding & Conversation : r/singularity - Reddit
- Genie 3: A new frontier for world models - Google DeepMind
- AI Release Notes podcast: Demis Hassabis on the future of AI - The Keyword
- Measuring the environmental impact of AI inference | Google Cloud Blog
- Speculating on Gemini 3.0 Flash/Pro - What Could Google have in Store Next? : r/Bard
- Introducing Gemma 3: The most capable model you can run on a single GPU or TPU
- In your opinion, is Google winning the AI race and explain why : r/Bard - Reddit
- Meta's $10B+ Cloud Bet and the AI Infrastructure Gold Rush: Why Google Cloud is the Hidden Winner - AInvest
- Google, OpenAI, Meta, Anthropic & The Three Battles To Own All AI - Medium
- Google Workspace has been named a Leader in Forrester Wave UCaaS 2025 Report
- Google Pressures Microsoft 365 By Adding Gemini To Workspace For (Mostly) Free
- What are AI hallucinations? - Google Cloud
- Data quality for unbiased results: Preventing AI-induced hallucinations - DataScienceCentral.com
- Four data and model quality challenges tied to generative AI - Deloitte
- Understanding and Mitigating AI Hallucination - DigitalOcean
- Bias in AI: Examples and 6 Ways to Fix it in 2025 - Research AIMultiple
- Responsibility & Safety - Google DeepMind
- Google's Secure AI Framework (SAIF)
- Google, OpenAI, and Meta — AI leaderboard jockeying heats up, the grim forecast of “AI 2027,” and the shadow of looming chip tariffs | Center for Security and Emerging Technology