聽新聞
0:00 0:00

迎戰OpenAI!Google「更強模型」亮相 發表會提到AI共121次

Google14日在I/O年度開發者大會發表性能更強人工智慧模型Gemini 1.5 Pro、輕量模型Gemini 1.5 Flash,會中提到AI共121次強調其重要性,並試圖於AI市場與OpenAI公司較勁。

Google在I/O年度開發者大會發表性能更強人工智慧模型,試圖與OpenAI公司較勁。(圖/中央社)

▲Google在I/O年度開發者大會發表性能更強人工智慧模型,試圖與OpenAI公司較勁。(圖/中央社)

搶在Google I/O大會前夕,美國新創公司OpenAI於13日推出更高性能、更高效人工智慧(AI)技術模式GPT-4o,能進行逼真的語音對話,將鞏固旗下生成式工具ChatGPT地位,而且對所有使用者免費。

面對OpenAI來勢洶洶,Google14日於美國加州山景城總部海岸線圓形劇場舉辦I/O開發者大會,以AI為核心發表新技術與服務,現場活動僅邀請全球部分開發者及媒體參與,中央社記者為台灣少數媒體代表之一。

隨著開場音樂響起,Google執行長皮查伊(Sundar Pichai)緩緩走上台表示,「我們還在AI非常早期的階段」,現在看到這麼多機會,推動這些機會的正是Gemini。目前有超過150萬名開發者,在Google平台上使用Gemini模型。

皮查伊說,Gemini 1.5 Pro模型從一次可處理1百萬個詞元脈絡長度,將擴增到2百萬個,是目前為止可提供最長脈絡處理的基礎模型。現在開發者和Google Cloud的客戶可加入等候名單,使用2百萬個詞元脈絡長度的Gemini 1.5 Pro。

從實際應用來看,Gemini 1.5 Pro可以讀懂1千5百頁的文件、為1百封電子郵件摘要,或處理長達1小時的影片內容。

為滿足開發者需要更快速、更具成本效益的AI模型,Google DeepMind執行長哈薩比斯(Demis Hassabis)宣布推出輕量模型Gemini 1.5 Flash,特別針對大規模、高頻率的任務進行最佳化。

哈薩比斯也公布Astra計畫的最新進展,讓AI助理即時分析手機拍攝的畫面,提供語音回答,展現AI助理未來的可能性。

現場播放的一段示範影片中,測試人員拿著手機開啟可以即時錄影與收音的App,Gemini會辨識並回答看到的揚聲器功能、分析電腦螢幕上顯示的程式碼用途;甚至測試人員忘記眼鏡放在哪裡時,Gemini也記得正確位置,引起觀眾熱烈掌聲。

在主題演講最後,皮查伊笑說,光是AI這個字就被提到121次,也意味著AI已經成為Google發展技術的核心。

此外,Google也透過專門為Google搜尋量身打造的全新Gemini模型,能夠將Gemini的先進能力,像是多步驟推理、規劃和多模態等特性,與Google的搜尋系統進一步整合。

有時候用戶只想快速找到答案,但沒有時間看網路上的大量資訊,Google的AI總覽功能就可以派上用場。目前使用者已經透過Search Labs推出的實驗功能來使用AI總覽,次數已經高達數十億次。

Google宣布從14日開始將率先在美國推出AI總覽,並於日後支援更多國家。從本週起,將有數億使用者可以進一步體驗AI總覽,Google也預計於今(2024)年底前讓超過10億的使用者能夠使用這項新功。(中央社舊金山14日電)

中央社 加入 @setn 好友

【SETN12小時新聞現場 #直播中LIVE】每周一至周五早上10:00至晚間22:00
大數據推薦
【立院大現場直播中LIVE】國安局長赴立院報告賴清德就職後國安影響
熱銷商品
直播✦活動
三立新聞網三立新聞網為了提供更好的閱讀內容,我們使用相關網站技術來改善使用者體驗,也尊重用戶的隱私權,特別提出聲明。
了解最新隱私權聲明 知道了