文心一言用戶達3億!文心4.0Turbo發布,真GPT-4Turbo國産!

科技有夕小瑤 2024-06-30 14:36:42

文心一言用戶規模達到3億了!

這是筆者在今天的百度Wave Summit 2024大會上的看到的數字。需要強調的是,文心一言的用戶規模是在去年12月破億的。這意味著,僅僅隔了6個月,文心一言用戶數量在億這個級別的數字上竟然直接翻了三倍。

近幾年,大家常說,數億規模的C端AI産品機會不多了,而百度,則是第一個拿到大型AI ToC端應用船票的公司。

看到這裏你可能想問,憑什麽呢?

這個答案並不複雜。

今天Wave Summit上筆者看到百度CTO王海峰講述了曆代工業革命的特征。他表示,縱觀前三次工業革命,其核心驅動力量機械技術、電氣技術和信息技術都有很強的通用性,會應用于各行各業,當它們呈現出標准化、自動化和模塊化的工業大生産特征,核心技術就進入工業大生産階段。

王海峰認爲,人工智能基于深度學習及大模型工程平台,包括算法、數據、模型、工具等,也已經具備了非常強的通用性,並具備了標准化、模塊化和自動化的特征,推動人工智能進入到了工業大生産階段,通用人工智能將加速到來。

這種技術上的強大通用性也是迎來産業進入爆發期的技術支撐。

從筆者的視角來看,百度顯然是在AI生態中構建護城河最深的玩家,從自研的深度學習框架、海量多樣的互聯網數據積累到深厚的AI算法和工程積累,加之搜索引擎從誕生那一天起就在爲理解和滿足國內數億網民的需求而持續叠代,因此文心一言成爲國內最早破圈到如今如此大體量用戶的AI應用,也就很好理解了。

而要支撐起文心一言3億用戶的盤子,效果+效率是兩個要同時達到的條件。

效果層面不必多說了,文心4.0大模型是國內最早能力比肩GPT-4的國産模型,詳情可以見《偏偏不信文心大模型4.0比肩GPT-4!我爲它們安排了一場龍虎鬥!》。

而今天,Wave Summit上則直接發布了一個在效果+效率“雙殺”的基礎上,大幅強化檢索能力的文心大模型——文心大模型4.0 Turbo!

這個文心大模型4.0 Turbo,不僅可以通過文心一言的網頁端和APP端使用,它還一如既往的面向開發者提供了API支持!企業用戶現在就能使用了,登錄百度智能雲千帆大模型平台使用就能體驗啦。

筆者也是第一時間體驗到了文心4.0 Turbo版——

值得強調的是,文心4.0Turbo模型大幅強化了檢索能力,這意味著大模型幻覺的問題,在文心4.0Turbo面前能大大的緩解,模型回答的可信度會好很多。

筆者體驗了一下文心4.0Turbo後,第一感受是生成速度明顯快太多了!

來,放個gif(無加速)你們感受下:

如果你用過其他同類産品,你一定會像我一樣驚呼“wok!”

市面上大部分同類産品,光在背後生成搜索詞、完整初始的搜索結果的富集,往往就需要數秒時間;

之後,分析搜索結果又是數秒;再將處理結果加工成大模型的輸入信息傳給大模型,等大模型返回第一個字,往往又是秒級。

而你們看文心4.0 Turbo的速度,全網搜索、分析資料、等待大模型回複這三步幾乎一氣呵成,筆者自己通過對比幾輪下來,感覺每一步都是一個10倍+的效率提升。而在正文的輸出速度上也要明顯快于上一代文心4.0模型。

對于效率黨,這個體驗加分。

如果你跟筆者一樣,是技術背景出身,你一定能從這感受到這背後是百度技術團隊領先業界的工程能力。

3.5研究測試:

hujiaoai.cn

4研究測試:

askmanyai.cn

Claude-3研究測試:

hiclaude3.com

而你如果要問,它怎麽做到這麽快的?

我想,從Wave Summit上馬豔軍老師的分享中可以窺見一二——

我們知道,驅動大模型推理速度提升的,不止是顯卡的好壞,更重要的是底層的深度學習技術框架。

而國內的大模型廠商中,唯有百度擁有自研的深度學習框架——飛槳,而且是深度學習框架中的“國貨之光”,在性能上絲毫不輸PyTorch和TensorFlow等國外深度學習框架。感興趣的讀者可以看我們此前的報道《深度學習平台的未來:誰會贏得下半場?》。

如今,飛槳承擔起了給文心一言提供強大底層框架支撐的使命,並且已經在引領大模型推理框架方面的底層技術創新了。

例如,僅Wave Summit上公布的飛槳編譯器自動融合算子的技術,就能將生成式模型的推理性能直接提升30%。

除此之外,飛槳在Wave Summit上公開的黑科技實在太多了,例如飛槳還提出了訓推一體的統一表示,這種中間表示不僅有利于推理優化,而且能大幅降低大模型的開發成本,比使用PyTorch等國外主流深度學習框架要高效的多,實現大模型更快的叠代。

扒完了文心4.0 Turbo模型爲什麽速度這麽快,再來聊聊文心4.0 Turbo的效果。

先說結論,文心4.0 Turbo不僅速度比文心4.0快,而且效果也更好。

貼個case感受下:

文心4.0 Turbo的結果和文心4.0的結果分別如下:

如果你要問爲啥速度快了,效果還能更好。我覺得終極答案還是要歸因到百度的技術基因上。

而拆開來看的,一方面數據決定模型的效果上限,數據的規模和質量同步提升是一定的,在此基礎上,SFT、RLHF等大模型訓練策略也在持續調優,這些是比較常規的優化。

而筆者自己用下來,我感覺這裏的“檢索增強”是文心4.0Turbo體感上最明顯的提升,對于這個提升筆者也不意外。畢竟你要問搜索引擎的核心技術哪家最強,我想這個答案是不必多說的。

除此之外,文心4.0 Turbo在智能體方面的能力也得到了強化。而提到智能體,我必須要給你們share一個在Wave Summit現場聽到的非常有社會意義的一個智能體——“農民院士”智能體。

這個智能體是中國工程院朱有勇院士團隊與百度共同打造的,學習了朱院士的研究成果和農業知識,可以爲農民解答生産生活中的問題,有效地打破了農民獲取農業知識的信息差。

智能體是生成式人工智能非常重要的發展方向。如果類比爲互聯網時代的網站,當時網站做出來的路徑是,通過浏覽器看到源代碼,稍微改改就能再做出1個以及更多網站。現在,基于大模型作爲能力底座,智能體開發的過程也會像網站一般簡單。智能體是AI時代的網站,將會有幾百萬、甚至大量的智能體出現,形成生態。

而這數百萬智能體將在千行百業裏誕生,這個“農業院士”智能體就是其中之一,亦是農業行業的智能體代表。從這個角度來說,智能體確實很像AI時代的”網站”,能用極低的成本來更好的滿足大衆的需求。而像這樣的“網站”,在文心生態裏已經達到了恐怖的55萬個。

百度Comate發布中文名,條條切中程序員的痛點——文心快碼來了

最後,還得分享給你們一個Wave Summit上的彩蛋——

你們關心的智能代嗎助手comate有了中文名字,並且成功加入到了文心家族中——新名字是,“文心快碼”。

當然,除了新增中文名外,更重要的是,這次的Comate助手還重磅發布了全新的2.5版本。

給你們劃個重點:

可以深度地解讀代碼庫,是整個代碼庫,不是代碼的片段可以關聯權威的公域和私域代碼知識(根據筆者的理解,類似于檢索增強),並據此生成全新的代碼生成的代碼更加安全,並且在coding的過程中可以智能檢測安全漏洞,提供智能修複的建議、一鍵修複漏洞從研發需求調研、設計、編碼、測試、部署等開發全流程賦能,不止是開發環節。

可以說,條條切中程序員的痛點啊,文心快碼的這些優勢也是單一的AI大模型所難以實現或實現效率很低的,像編程這樣垂直、門檻高的領域,不如直接使用專業的大模型智能編程工具更爲省心。

根據百度官方提供的數據,使用文心快碼後,研發的各個環節都有顯著的提效,整體端到端研發效率可以提升14%。不要小看這14%,你乘以每天的8小時來說,這意味著我們就能多出來一小時的時間摸魚(不是,思考複盤研發任務)。

最後感歎一下。

作爲一個每年Wave Summit必蹭的百度粉,筆者深刻的感受到今年跟去年很不一樣了。

如果說2023年大家都在比拼“國産大模型底座誰的能力更接近GPT-4”,那麽2024,顯然牛逼的大模型廠商已經不滿足于追趕OpenAI、卷大模型榜單了,而是在持續叠代基礎模型技術能力的基礎上,不斷做大落地規模,而且已經悄然構建起了AI生態護城河,走出來自己的路。

0 阅读:0

科技有夕小瑤

簡介:感謝大家的關注