一年一度的科技圈春晚開始了,AI 毫不意外成為了這場晚會的重中之重。
北京時間 6 月 11 日凌晨,蘋果進行了 WWDC(全球開發者大會)長達 1 小時 43 分鐘的主題演講,演講的后半段基本給了「蘋果智能」(Apple Intelligence,簡稱 AI),在近 40 分鐘的時間內,蘋果差不多提了 60 次 Apple Intelligence:
屬實真 AI 了。
蘋果營銷團隊也真的絞盡了腦汁,并沒有和其他廠商一樣使用「人工智能」或者「機器智能」的說法,而是取巧用了「Apple Intelligence」一詞,既能讓用戶明白這是 AI,又能與其他 AI 系統區分開來,畢竟這是「A」pple 的 AI。
不過這些更多還是表面功夫,可以讓人更容易記憶,但能不能讓人「留住」還要看實際的功能和表現。
好在……相比已經上馬的一眾「AI 手機」,蘋果好像也沒有帶來多少驚喜?
iOS 18 平淡升級,大模型壓軸登場
作為 WWDC 最重要的平臺,iOS 的每一次迭代都可以說牽動無數 iOS 開發者以及 iPhone 用戶的心。在最新一代的 iOS 18 上,蘋果可以說做出「違背祖宗的決定」,用戶可以對主屏幕的應用進行自由放置,同時還支持了批量移動——國產安卓又領先了幾個版本。
此外,iOS 18 還支持了 Material You 配色設計。好吧,這是谷歌(從 Android 12 開始)的,但總之 iOS 18 支持將所有應用圖標「重繪」成統一的顏色,可以根據壁紙智能取色,也可以自定義。
當然,iOS 18 還對照片 App 做了大幅度的改造,開放更多小部件的入口,新增游戲模式、離線地圖等,更具體的可以看看雷科技凌晨肝出來的《iOS 18 發布,就這?》。
實際上,比起常規更新,iOS 18 或者說這屆 WWDC 最讓外界期待的還得是 AI。
圖/蘋果
蘋果也確實按照觀眾們的設想,在主題演講的后半段端上了一桌的 AI 大宴,介紹了 Apple Intelligence 如何改變 iPhone、iPad 和 Mac 平臺上的體驗,還有跨平臺、跨 App 操作的潛力。
最典型的一個改變還是發生在 Siri 上。
和其他廠商改由大模型驅動的 AI 助手一樣,至少蘋果宣稱 Apple Intelligence 讓 Siri 變得更聰明——能夠更準確地理解用戶的提問和需求,更深度地整合 iPhone、iPad 以及 Mac 上的郵件、照片、短信、地圖、日歷以及當前屏幕上的信息,更智能地執行操作和回答問題。
對了,Siri 還整合了 OpenAI 的 GPT-4o 模型,在遇到復雜問題時 Siri 會提示是否使用 ChatGPT 進行回答,如果同意則會通過 GPT-4o 進行免費輸出。
Apple Intelligence 驅動的 AI 寫作助手也來了,幾乎支持所有涉及文本輸入的原生和第三方 App,理論上用戶在微信輸入框也能用。但相對應的能力有一定限制,只能進行重寫、潤色和校對,而不能從零生成文本。
圖/蘋果
還有 AI 生成圖片和 Genmoji 的功能,同樣覆蓋支持幾乎所有原生和第三方 App。此外,蘋果也在 iPhone、iPad 以及 Mac 平臺上實現了 AI 整理通知、AI 通話轉錄和摘要功能。
不過要指出的是,Apple Intelligence 支持的機型不算多,而且不同于搭載 M 系列芯片的 iPad、Mac 產品幾乎全線支持,支持 Apple Intelligence 的 iPhone 只有最新搭載 A17 Pro 芯片的 iPhone 15 Pro 系列:
iPhone 用戶不 AI 了。
Apple Intelligence 和 GPT-4o,蘋果選擇了一條不一樣的 AI 之路
嚴格來說,Apple Intelligence 其實是一款深度集成到 iOS 18、iPadOS 以及 macOS Sequoia 中的個人智能系統,由多個生成模型組成。但在大體上,你可以將這些模型分成端側(設備端)和云端(服務器端)模型。
換言之,綜合考慮成本、能耗、性能、隱私、安全和個性化優勢之后,蘋果也選擇了混合 AI。這一點并不意外,因為這是也幾乎是全球個人設備廠商的共識,從海外到國內,從頂級巨頭到主流廠商,概莫能外。
不過蘋果到底還是蘋果:
圖/蘋果
在 Apple Intelligence 的架構下,設備端的語義索引會整理和提煉各種 App 中的信息,用戶的提問首先會通過語義索引進行分配和操作。大多數涉及個人數據的模型都在 iPhone、iPad、Mac 等設備內本地運行,更大、性能更強的模型則運行在蘋果基于「私有云計算」技術自建的數據中心內。
沒錯,就算是放在云端運行蘋果也要強調隱私,蘋果官方甚至還單獨發布了一篇博文詳細介紹「私有云計算」這一技術。簡單來說,私有云計算不會儲存用戶數據,作為服務器方的蘋果也無法訪問,同時用戶掌控服務器對話權限。
除此之外,蘋果還有一層普遍意義上的云端模型——GPT-4o。
雖然今天的大模型各種各樣,但 GPT-4o 依然是當下最頂級的模型,代表了最聰明的 AI。根據演示,GPT-4o 至少被集成在了 Siri 以及 AI 寫作功能中,可以輸出更好的回答,以及從零生成一段文本和圖片。至于 GPT-4o 會不會被集成在更多地方,我們可能還要等秋天正式上線時才能確定。
相比之下,其他手機廠商采取的策略也各有不同。榮耀的思路是試圖打造一個大模型平臺,盡可能接納更多的通用和垂直大模型,更多場景是用端側模型分析用戶意圖,進而調用第三方大模型實現。
OPPO 的思路則相反,自主訓練的安第斯大模型分為三個等級,包括設備端的 Tiny 版本,服務器端的 Turbo 以及 Titan 版本,同時也自建了數據中心,更專注于垂直的能力,只在智能體的層面開放給第三方。vivo 在大體上也是這個思路。
OPPO 安第斯大模型,圖/雷科技
當然,現在還很難說哪種路線能夠走得最遠,但蘋果確實選擇了最符合自身情況的應對策略。
同時在體驗上,蘋果主打的也是在系統層面提供更全面 AI 體驗,將大模型的能力拆解成一個個 API(應用程序接口)和功能模塊,讓用戶可以用到全局的 AI 功能之余,也讓開發者可以用上 Apple Intelligence 的能力。
下一代 iPhone:A iPhone?Ai Phone?
AI 會改變手機嗎?對很多人來說,這個答案是肯定的。但 AI 會如何改變手機?恐怕沒有任何人和廠商能夠篤定。
在 WWDC 的主題演講中,蘋果其實也演示了 AI 如何改變 iPhone、iPad 以及 Mac 的使用體驗,尤其強調 Apple Intelligence 的運行基于用戶的個人信息和情境。比如簡單情境下的「調出上周 xx 發給我的文件」「看看媽媽和我的所有照片」「播放前幾天我太太發給我的播客」等。
又比如,蘋果軟件工程高級副總裁 Craig Federighi 就舉了一個相對復雜的情境,即在會議推遲的情況下詢問能否趕上女兒的演出。此時,Apple Intelligence 將從設備上找出主體(女兒)的演出相關信息(時間、地點),以及會議的時間、地點,再依據常用交通方式和預計時間給出最終的回答。
圖/蘋果
這種想法并不稀奇,很多廠商在給 AI 手機畫餅的時候其實也不少談到「個人數字助理」的美好暢想,但實際根本沒做到。
假設,蘋果真的能夠做到真正的個人化智能,依據散落在設備各個地方的信息和服務,給出真正具有參考價值的回答,那無疑會是 AI 手機的一次重大轉折,也會在很大程度上決定下一代 iPhone,到底是一臺:
A iPhone?還是 Ai Phone?
時間上,Apple Intelligence 目前還沒有實裝,按照蘋果的計劃,今年夏天開始測試美式英語版本,秋天正式上線。換言之,iPhone 16 應該會直接預裝 Apple Intelligence,iPhone 15 Pro 系列以及搭載 M 系列芯片的 iPad、Mac 可能會陸續支持。
不過這僅限美式英語版本,中文以及其他語言版本的支持還要等到明年,目前暫無更具體的時間表。而且對國行中文用戶來說,Apple Intelligence 注定要大打折扣,包括可免費使用的 GPT-4o。
另外從時間來講,蘋果的上線速度也著實慢了,也再一次說明了蘋果的倉促上馬。甚至在演講中,蘋果也只是反復強調 Siri、Apple Intelligence 以后會有更多/更好的功能,說是「畫餅」都有些空洞。
總的來說,我傾向認為蘋果可能自己也沒想清楚 Apple Intelligence 的路線圖。
蘋果會重新定義 AI 手機嗎?
不談過去廠商宣傳的 AI 手機,真正意義上引入端側生成式 AI 的手機,可能也就追溯到今年 1 月發布的 Find X7 系列上。除了新的 AI 助手、AI 生成圖片等,Find X7 系列上包括 AI 消除、AI 通話/文章摘要等更具實際價值的 AI 功能,也開始逐漸普及各家的系統之中,走向大眾消費者。