記事の概要
Googleは11日に最新のAIモデル「Gemini 2.0」を発表しました。
このモデルはマルチモーダル対応で、音声や画像の出力が可能です。
また、Googleが目指す「ユニバーサルアシスタント」としての新しいAIエージェントの構築に寄与します。
軽量版の「Gemini 2.0 Flash」は、全てのGeminiユーザー向けに提供を開始しました。
新機能「Deep Research」では、高度な推論と長文の文脈理解を活用し、調査アシスタントとしてレポート作成が可能です。
さらに、AI OverviewsにGemini 2.0を導入することで、複雑なトピックや数学、コーディングに関する質問にも対応できます。
Googleは今後、Gemini 2.0を広範囲に展開し、多くの国や言語に対応する計画です。
CEOのピチャイ氏は、Gemini 2.0は情報をより有用にすることを目的としていると述べています。
記事のポイント
詳しい記事の内容はこちらから(引用元)
Googleは11日(米国時間)、最新のAIモデル「Gemini 2.0」を発表した。画像や音声出力などのマルチモーダル…
https://www.watch.impress.co.jp/docs/news/1646892.html