①火山引擎最新升級豆包,通過“區間定價”將其使用成本降至三分之一,以期使智能體規模化應用提速; ②智能體目前已在B端多場景率先落地,逐漸進入企業核心業務,2-3年將帶來巨大生產力提升; ③強化學習的算力消耗正在快速攀升,業內已推出AI PC、云邊一體的智算一體機等多種算力方案。
財聯社6月14日訊(記者 付靜)“正如去年豆包1.0開啟了大模型規模調用一樣,我也相信豆包1.6和區間定價的新模式,能夠讓多模態深度思考得到更廣泛的調用,讓Agent的大規模應用進一步加速。”火山引擎總裁譚待在最新召開的Force原動力大會上表示。
今年以來AI智能體迎來爆發,火山引擎日前最新升級豆包大模型,通過“區間定價”將其使用成本降至三分之一,以期使智能體規模化應用提速。財聯社記者獲悉,智能體目前已在B端多場景率先落地,模型的智能水平和性價比提升將進一步加速其大規模應用。雖然業內還在針對智能體進行效果評估和持續迭代,但隨著智能體爆發,強化學習的算力消耗正在快速攀升,為此軟硬件廠商通過生態協作,已推出了云邊一體的智算一體機方案。
智能體規模化應用提速
去年底,豆包大模型曾一度引爆AI玩具板塊在內的豆包概念股行情,本次Force原動力大會亦受到業內期待,大會召開前夕二級市場上豆包概念股亦出現震蕩拉升。而財聯社記者在此次大會上看到,在豆包再度升級的基礎上,智能體作為重點方向被頻繁提及。
“我們實際正處于PC到移動到AI三個時代的變化之中。這三個時代里技術主體在發生變化,PC時代的主體是web,移動時代是APP,AI時代是Agent。”譚待表示。
據了解,深度思考、多模態和工具調用等模型能力提升,是構建智能體的關鍵要素。火山引擎方面預計,隨著大模型智能水平持續提升,智能體正逐漸進入企業核心業務,兩到三年之內將帶來巨大的生產力提升。
同時火山引擎方面認為,模型更優的性價比將使智能體規模化應用提速。
財聯社記者最新獲悉,豆包1.6按“輸入長度”區間定價,深度思考、多模態能力與基礎語言模型統一價格。在0-32K輸入區間,豆包1.6的輸入價格為0.8元/百萬tokens、輸出價格為8元/百萬tokens,綜合成本約為豆包1.5深度思考模型或DeepSeek R1的三分之一。
談及模型成本,譚待亦對其原理進行了解釋:“大模型是按tokens來收費。市面上有不同類型的模型,支持深度思考的、不支持深度思考的、支持多模態的等等,但實際上對于同結構同參數的模型而言,對成本真正影響的是上下文長度,而不是是否開啟了思考和多模態功能。”
(大模型成本原理 財聯社記者攝)
目前火山引擎已經推出了AI Agent平臺“扣子”、企業級智能體構建平臺HiAgent等,支持智能體開發應用。大會期間,財聯社記者亦注意到了“扣子”與產業鏈廠商共同推出的多款細分領域應用。具體的應用場景方面,智能體目前已涉足金融風控審核、教育場景輔助教學、制造業等泛企業場景做流程的打通等。
實際上,智能體當下已受到眾多廠商的積極加碼布局。5月,價格曾炒到10萬、一碼難求的AI智能體平臺Manus宣布開放注冊,騰訊、京東、榮耀、昆侖萬維(300418.SZ)等隨后陸續宣布各自智能體新進展。5月22日上午天工超級智能體上線不久后,昆侖萬維更是發布了限流通知。
火山引擎AI生態與智能終端資深解決方案架構師朱成剛表示,火山引擎目前主要聚焦的場景一是大模型核心能力,二是Agent開發支持能力。“在私有化場景里,模型的迭代速度沒有那么快,我們重點關注的還是企業如何能在內部私有化場景里落地并發揮價值,因此關鍵點就成為做一套持續運營、可優化可迭代的智能體體系。”
一位從業者告訴財聯社記者,“現在我們看到,如果把大模型只當成Chat bot來聊天的話,其實它真正幫助我們的效果并不見得很好。而Agent to B的利用效果會更好一些,尤其在跨多個不同的IT系統時幫助會更大。”
“真正面向企業的業務,絕對不是一個大模型就能全部解決的。”另有業內人士在現場這樣表示。
據朱成剛介紹,“我們最終提供的服務就是一個智能體應用,想做出這樣的應用需要大量工具和能力的支持,最簡單的方式就是大模型外部工具,目前是RAG、Function call和MCP。當前階段MCP和A2A等開放智能體生態雖然有了標準,在實際使用中還是存在一些問題,所以還是多種接入形態共存。”
火山引擎方面同時認為,針對智能體的效果評估和持續迭代,將是長期的重要方向。
算力端催生一體機新需求
AI應用端智能體的落地提速,將如何推動算力端演進?
財聯社記者在大會現場注意到一個基于AI PC的案例:英特爾和“扣子”打造了基于AI PC的端云協同智能體,其典型應用場景如執行報銷、掛號、訂票等任務的事務助手。
一位英特爾展臺人士向財聯社記者展示了借助這一智能體在“微醫”平臺掛號的流程。該展臺人士稱,面對智能體爆發趨勢,“我們在AI PC上提供了更多工具鏈,幫助ISV(注:指獨立軟件供應商)的應用跑在AI PC上,不用耗費云端算力,就實現在輕薄本上跑比較重的AI應用。”
(英特爾AI PC掛號助手 財聯社記者攝)
不過實際場景中的算力需求不僅限于此。
“在過去的幾個月,我們看到強化學習的算力消耗正在快速攀升。我們也做一個大膽的預測,強化學習帶來的算力和資金消耗,有可能在2027年附近,逼近整個行業在預訓練上的投入。”火山引擎智能算法負責人吳迪在大會期間透露。
財聯社記者從火山引擎方面獲悉,隨著大量智能體加速進入現實世界,強化學習愈加重要,需考慮GPU/CPU資源混合編排、異構算力調度、異步推理等。
一位英特爾技術專家現場告訴財聯社記者,“一些企業級客戶的需求是在本地部署模型,又擔心能力演進無法跟上模型快速迭代的步伐。但若使用云上模型,又需考慮隱私數據、保密信息。另外,當企業決定內部部署時,一定會考慮性價比。”
財聯社記者注意到,英特爾、火山引擎HiAgent、華勝天成(600410.SH)三方聯合打造了智算一體機方案。
據了解,算力方面,該方案基于英特爾至強處理器和多張英特爾銳炫顯卡,銳炫Pro B60單卡可提供24GB顯存;平臺層面,HiAgent 2.0覆蓋了模型精調、推理優化到智能體開發、編排、運行的全生命周期;服務方面,華勝天成提供需求分析、方案設計、落地實施、運維支持等服務。
值得一提的是,銳炫Pro B60系英特爾近期于臺北電腦展上最新發布,相比2023年發布的銳炫A770,顯存從16GB增加至24GB。
“一年前大家做企業里的知識問答,上下文長度只要10K就夠,我們現在接觸到的客戶需求超過32K的非常多。這提出了更大的顯存需求,因為長的上下文會消耗更多顯存,顯存對整個應用性能及能夠支持的場景也有非常大的幫助。”英特爾方面向財聯社記者表示。
財聯社記者獲悉,一體機形態可分為純本地部署、云邊一體兩種。由于云上大模型按tokens收費,商業模式較簡單,因此相比需要考慮平臺整體成本的本地部署方案,云邊一體的一體機勝在性價比。據了解,前述一體機平臺既支持7B-72B主流模型,也支持Deepseek V3/R1 671B本地部署。
另外朱成剛提到,一體機客戶的重點投入會在硬件方面,軟件的預算和成本偏低,建議一體機分成兩端進行。“首先提供開發端的核心開發和運營管理能力,然后通過容器鏡像或其他打包方式分發到用戶客戶端,連接顯示器就可以完成應用的調用。如果在單個或多個部門的辦公或協同場景,也可以做一些簡單的規劃隔離,保證用戶數據隔離,就可以在極低算力成本下跑通整個智能體平臺的核心能力。”