正在閱讀:

對話李彥宏:AI價格戰(zhàn)開打、大模型閉源、超級應(yīng)用以及中國市場機會

掃一掃下載界面新聞APP

對話李彥宏:AI價格戰(zhàn)開打、大模型閉源、超級應(yīng)用以及中國市場機會

AI價格戰(zhàn)下企業(yè)的機會在哪?

文|硅谷101

在世界人工智能大會WAIC期間,我們硅谷101從硅谷飛到了上海,采訪了百度創(chuàng)始人、董事長兼CEO,李彥宏(Robin Li)先生,就目前市場非常關(guān)心的AI議題進行了深度討論。

很有趣的是,這一輪生成式AI,中國市場的打法和海外截然不同,在硅谷大家開始卷多模態(tài)模型和交互,創(chuàng)業(yè)企業(yè)還側(cè)重infra基礎(chǔ)設(shè)施,同時市場在等GPT-5來驗證Scaling Law的時候,中國市場的“百模大戰(zhàn)”已經(jīng)發(fā)展到打響價格戰(zhàn)的階段了,速度比很多人想象中都要早很多。

接下來中國市場要開始卷AI應(yīng)用了,所以在采訪中,李彥宏對中國市場大模型的價格戰(zhàn)、AI的To B企業(yè)級機會、開源/閉源路線選擇、AI超級應(yīng)用、AI Agent智能體的看法、以及AGI和Scaling Law的思考,都和我們做出了分享。

這是李彥宏2024年首次接受媒體采訪,非常難得,以下是我們的對話實錄,希望能為大家?guī)硪恍┬碌乃伎己徒嵌取?/p>

01 不可避免的價格戰(zhàn):燒錢不是事情的本質(zhì)

楊宇東:

我們看到這個很多閉源大模型的API調(diào)用的費用越來越低了,而且很多又有開源大模型可以選,所以在這么一個市場的這么一個商業(yè)環(huán)境之下,那我們很關(guān)注,就百度肯定是身在其中,那大模型靠推理這樣收費的這種商業(yè)模式,它未來成立不成立?以后我們市場再去比拼大模型的話,會比拼哪些點?就是你剛才提到的可能是速度、成本等等的,你怎么看?

李彥宏:

說實話,我們內(nèi)部不斷在思考、討論這個問題,我覺得價格戰(zhàn)幾乎是不可避免的,在中國互聯(lián)網(wǎng)干了這么長時間,其實已經(jīng)對價格戰(zhàn)非常熟悉了,確實他來的比我想象還要更早一點,這么早就開始把這個價格打到了幾乎不可思議這種低的地步。

但我覺得某種意義上講,也不是壞事兒,當(dāng)你價格足夠低、甚至免費的時候,就會讓更多人有積極性,來嘗試在大模型基礎(chǔ)上,去開發(fā)各種各樣的應(yīng)用,也就是說大模型對于各行各業(yè)的這個滲透速度會更快。

那你都免費了,或者說價格足夠低的話,你大模型公司靠什么賺錢呢?我是這樣想的,大模型技術(shù)的天花板還是很高的,今天我們還是對于大模型的能力,有很多不滿意的地方,那我們?nèi)匀恍枰芏喾浅?yōu)秀的技術(shù)人員、需要很多的算力、需要很多很多的數(shù)據(jù),才能夠訓(xùn)練出來下一代的大模型,我們還可能需要下下代,甚至下下下代這種大模型。

所以最終我覺得,大家是要去拼誰的技術(shù)更好,你的技術(shù)好,你為客戶產(chǎn)生了更好的價值,將來你還是能夠收到費的。

今天之所以把價格打到足夠低,是因為現(xiàn)在模型的能力,其實技術(shù)還沒有到最好,大家能力都差不多的時候,那行就拼價格唄,誰的價格低就用誰的。

時間長了之后,市場本身會回歸理性,那同樣的效果,就是當(dāng)我的成本比你低的時候,你打價格戰(zhàn)你肯定打不過我,時間久了之后你就退出了。

這個過程我們在百度網(wǎng)盤上是經(jīng)歷過的,那些年大家在卷網(wǎng)盤的時候,我今天給你10G的免費空間,明天100G,后天給1T,再后天說無限空間永久免費,當(dāng)你說無限空間永久免費的時候,大家也會說這怎么能夠持續(xù)呢?這一定是不可持續(xù)的。

但是某一段時期,可能有個一兩年左右,大家這樣不理性的去打價格戰(zhàn),慢慢就一個一個退出,那為什么百度沒有退出呢?因為我敢打呀,我的技術(shù)、存儲成本低,所以最終還是說誰的技術(shù)好,誰的效率高,誰會勝出。

陳茜:

剛才說這個價格來的時間比你想象中的早很多,也比我想象中的早很多,這個才一年半的時間,已經(jīng)開始打價格戰(zhàn)了,但你覺得價格戰(zhàn)會持續(xù)多久呢?可能大家有一些人就覺得說技術(shù)不行,沒油水我要退出了,可能就最后的市場贏家會浮現(xiàn)出來。

李彥宏:

這個很難講,現(xiàn)在有些創(chuàng)業(yè)公司是玩家,但是也有很大型的這種互網(wǎng)平臺公司是玩家,那么燒錢的話,其實理論上講是可以燒很長時間的,但我覺得,燒錢不是這個事情的本質(zhì),本質(zhì)仍然是誰的技術(shù)更好、誰的效率更高,當(dāng)你的技術(shù)好、效率高的時候,你就不怕去打價格戰(zhàn),所以多長時間都OK,最終它會是優(yōu)勝劣汰的這樣一個過程。

陳茜:

你覺得在中國市場會是一個贏家通吃的局面嗎?還是說等價格戰(zhàn)之后會剩下幾個主要的?可能還有一些更小模型這樣的生態(tài)?

李彥宏:

我是這樣想的,這次生成式AI,它是對于整個IT技術(shù)棧的一個大的變革,我們一般認為,過去的IT技術(shù)棧,就是芯片層、操作系統(tǒng)層、應(yīng)用層或軟件層,就這三層。到生成式AI之后,我們認為IT的技術(shù)棧變成了四層,芯片層、框架層(深度學(xué)習(xí)框架)、模型層、然后是應(yīng)用層,我認為在每一層可能都會誕生至少2~3個大玩家。

那到應(yīng)用層的話,可能數(shù)以百萬計,甚至千萬的各種各樣的應(yīng)用都會出來,也會逐步的出現(xiàn)超級應(yīng)用。當(dāng)然根據(jù)“超級”的定義來看,它是不會很多,可能是三五個之類的。

模型層我覺得也許兩三個就足夠了,因為最后還是大家比拼的是效率嘛,你的效率如果不夠高的話,慢慢就覺得,還不如用別人的,去在這之上,再去開發(fā)更多的應(yīng)用,是更劃算的。

所以在每一層其實都有機會,但是不同的層發(fā)展規(guī)律,需要的專業(yè)知識什么的都不太一樣。

陳茜:

非常同意您的說法,之前我問Dario Amodei from Anthropic(百度前高管)他也說過,他當(dāng)時在做語言還有翻譯方面的工作,剛剛從斯坦福畢業(yè)之后在百度,他說在國際市場,可能最后也就剩四個左右的大模型,因為其他可能都跑不出來,就是跟您的想法非常一致。

02 商業(yè)落地:AI企業(yè)需求比互聯(lián)網(wǎng)時期大得多

楊宇東:

你說過,大模型對于B端的影響會超過互聯(lián)網(wǎng),你為什么認為,大模型對B端的改造,比互聯(lián)網(wǎng)對B端的影響更大?

李彥宏:

其實你想一想,互聯(lián)網(wǎng)對C端的改造,我們都是感同身受的,是非常徹底的,是顛覆性的。

但是互聯(lián)網(wǎng)對B端的改造,其實我覺得一般般吧,雖然不能說沒有,但是“互聯(lián)網(wǎng)+”其實最后,可能只是一個信息化、或者數(shù)據(jù)化的過程,用的技術(shù)比較簡單,產(chǎn)生的增益也沒有那么明顯。

但是大模型確實不一樣,各種AI應(yīng)用,比如說小說創(chuàng)作,讀小說叫做C端,小說創(chuàng)作就可以當(dāng)做是B端,法律援助其實在幫助律師在提升效率。

我們接觸到的一些能源電力行業(yè),生產(chǎn)制造業(yè)等等,都有類似的需求,比如說像現(xiàn)在國內(nèi)電動車卷的也很厲害,車里頭對話系統(tǒng),很多也在用文心大模型,使用量也不小,但是對于百度來說,這就是一個To B的應(yīng)用,我們不直接提供給用戶,它是經(jīng)過了OEM,經(jīng)過了車廠,他們的集成之后,把這個應(yīng)用提供給了終端消費者。

這種事情其實非常多,而且我們就看調(diào)用量,如果調(diào)用量上的很快,這就說明我們的客戶需要這些東西,B端靠著這個大模型,靠著AI原生應(yīng)用產(chǎn)生了價值。

楊宇東:

最近我跑制造業(yè)比較多,你前面說的有些像車企它直接調(diào)用了,直接把文心一言或者大模型調(diào)用了,在制造業(yè)里面,很多企業(yè)家說,我們覺得未來AI對于我們高端制造業(yè),智能制造顯然是重要的價值,是一種革命性的突破,但是一直就搞不明白,比如說通用大模型,和我自己的行業(yè)垂直領(lǐng)域,垂直大模型,它將來到底是什么樣的關(guān)系,你說的OEM,他們也希望,到底是什么樣的供應(yīng)商,和你們這樣平臺型的大廠商之間,形成什么樣的業(yè)務(wù)鏈條,這個問題是制造業(yè),尤其是先進制造業(yè)特別關(guān)注的。

李彥宏:

這個問題確實很重要,實際上大模型在各個垂直的場景里怎么用,我們也經(jīng)過了探索過程,最初我們的想法是,我把基礎(chǔ)模型做得越來越強大,大家叫通用人工智能(AGI),在什么場景我都能做得很好。

后來發(fā)現(xiàn)這件事情沒有那么容易,每個場景都有它自己的道,而且要求也不太一樣,有些地方,大模型思考兩分鐘再給結(jié)果也OK,只要給出來的結(jié)果是準確的、是全面的就可以了。但是有些場景,如果你一秒鐘不出結(jié)果,用戶就放棄了,所以這兩個場景對大模型要求是不一樣的。

今天即使是最強大的模型,還不能做到反應(yīng)又快又準,所以當(dāng)應(yīng)用場景需要反應(yīng)快的時候,我們需要更小的模型,它由于沒有大模型通用的能力,所以在垂直場景當(dāng)中,還要對它做精調(diào),就是做SFT(監(jiān)督微調(diào)),把你行業(yè)的數(shù)據(jù)灌進去,再經(jīng)過各種各樣的調(diào)教,在這個場景里的效果,能夠跟大模型相比差不多。

類似這種場景,我們也見了很多,去年10月份,我們發(fā)了文心4.0之后,主要精力在做什么呢?根據(jù)最強大的模型,去裁剪各種體量的小模型,比如說十億量級的模型,百億量級的模型,千億量級的模型。

這個模型也許擅長角色扮演,那個模型也許擅長邏輯推理等等,根據(jù)客戶的不同使用場景不同的要求,出來各種各樣的模型。

這些模型的大多數(shù)速度都比文心EB4要快,推理成本比它要低,所以這種應(yīng)用是大家更愛用的。

即使到今天,我剛才講的5億的調(diào)用量,調(diào)用量最大的,一定不是最強大的模型,大家都覺得,反應(yīng)太慢了,成本太高了。

但是隨著時間推移,成本會下降,反應(yīng)速度也會提升,比如說前幾天剛剛發(fā)布EB4的Turbo,Turbo就是在EB4的基礎(chǔ)上,效果有提升,但更重要的是,響應(yīng)速度比以前快了很多,成本下降了很多,因為什么呢?

我們發(fā)現(xiàn)真正的市場需求,是要求你響應(yīng)速度一定要足夠的快,成本一定要足夠的低,這樣我才能用起來,至于說下一代的大模型,到底有多強大,在哪些場景能夠用到,那是我們會繼續(xù)去探索的過程,但是今天你要看市場需求的話,規(guī)模更小一點的模型,市場需求量是更大的。

楊宇東:

幫我們介紹一下,大模型在B端的應(yīng)用比較成功的商業(yè)案例,或者是商業(yè)模式、產(chǎn)品形態(tài)。

李彥宏:

除了我剛才舉了小說創(chuàng)作,還有比如電商的數(shù)字人直播,通過大模型來生成直播的話術(shù),很多數(shù)據(jù)人不容易記得特別清楚,比如說我要賣一個營養(yǎng)品,這個營養(yǎng)品在哪一年,哪一個大學(xué),哪一個教授做了多少實驗,實驗出來之后結(jié)果是什么樣子,讓自然人去記這些東西,他記不住的,但是這些數(shù)據(jù)恰恰能夠很好的說明,這個產(chǎn)品到底有什么作用,這些東西靠數(shù)字人把它表達出來,靠大模型把它生成出來,很多時候比真人的直播效果反而要更好,幾乎任何一個行業(yè),我們都可以取出來類似的東西。

陳茜:

現(xiàn)在企業(yè)們,他們對AI調(diào)用成本怎么去看?我們幫企業(yè)去算一下賬,我花100塊錢,買各種各樣的AI服務(wù),我可能要乘以五,我要賺500塊錢,我的商業(yè)才能跑得通?,F(xiàn)在企業(yè)們是否會愿意去為AI去付費,你在跟一些企業(yè)客戶交流的時候,他們的態(tài)度是什么樣子的?

李彥宏:

這個問題特別好,當(dāng)你處在市場經(jīng)濟環(huán)境當(dāng)中的時候,這些企業(yè)其實是非常理性的,尤其是中小企業(yè),它賬是算得非常精的,如果這件事情能夠讓我降本增效,能夠讓我賺到更多的錢,那我就會用它,如果不能,你再吹破天,我也不會用。

其實市場會告訴你,大模型到底有沒有用,我們看到調(diào)用量的迅速提升,確實是因為在用戶側(cè),在客戶側(cè),它為這個企業(yè)確實產(chǎn)生了降本增效的作用。

我再舉個例子,比如招聘場景,雇主要找一個具備什么技能的人,對于技能的描述,它可以是千差萬別的,在這種情況下,用大模型去理解這是一個什么人,理解老板要招什么樣的人,去進行匹配的話,大模型的效率就會高很多。

過去是HR坐在那,一份一份簡歷篩查,然后一個一個人去面試,面試100個人,最后篩出來10個人來,這個效率是非常非常低的,但是大模型進來之后,它可以非常明顯的去提升這方面的效率,有了這樣的場景之后,你去算一算模型的推理成本,其實幾乎是可以忽略不計的。

尤其在國內(nèi),現(xiàn)在大模型價格戰(zhàn)是非常厲害的,所以像一些比較輕量級的模型,百度的輕量級模型都是免費的,這個免費不僅僅指的是模型免費,實際上算力也送你了,你本來要有電腦,我得要有帶寬等等,這些都沒有了,你只要來用就好。

陳茜:

后面的推理也很便宜是嗎?

李彥宏:

推理是免費的。

陳茜:

有一個比較好奇的問題,在SaaS時期,在互聯(lián)網(wǎng)時期,SaaS在中國To B沒有做出來,為什么您會覺得在AI時期,AI as a service可以在中國做起來呢?To B方面的話。

李彥宏:

我覺得在SaaS時期,之所以沒有做起來,更多的是因為,比如像互聯(lián)網(wǎng)大的平臺,它既做了To C的事,也做了To B的事。

像在美國的話,每一個商家都有一個自己的電商網(wǎng)站,用戶也可以到它網(wǎng)站上去購物,在中國的話,大家都到電商平臺去購物,商家所需要的To B能力,電商平臺都替他做了,所以他不需要這種東西了,但是在美國的話,你自己比如說你要建立一個自己的網(wǎng)站,上面要能夠賣東西,要有各種各樣的這種功能,要對自己的用戶進行了解,那是需要做很多投入的。

所以在某種意義上講,其實中國并不是沒有這樣的需求,而是說這些需求,被更大的平臺所滿足掉了。

但是在AI時代,我覺得情況又發(fā)生了變化。剛才也講了,它不是從0到1的、大家過去從來沒有見過的這個業(yè)態(tài),它先誕生的恰恰是對于現(xiàn)有業(yè)態(tài)的一個增強,所以當(dāng)現(xiàn)有業(yè)態(tài)被增強效率越來越高的時候,他可能就更能夠抵御,類似于互聯(lián)網(wǎng)平臺這樣的公司,對他的這種業(yè)務(wù)的侵蝕,所以這方面我是我倒是覺得,AI的這種ToB的需求,在中國會比互聯(lián)網(wǎng)To B的需求要要大很多。

03 開源vs閉源:大模型商業(yè)化路徑的選擇

陳茜:

在國際上對開源閉源大家也爭論的很厲害,比如說馬斯克他噴OpenAI, 說你這么閉源,你要不然就叫CloseAI好了,我們看到馬斯克的xAI也開源了,Meta的Llama也是開源的,為什么你對閉源這么堅持呢?

李彥宏:

我覺得開源其實是一種智商稅,你仔細想一想,我們?yōu)槭裁匆龃竽P停克軌蛴袘?yīng)用,這些應(yīng)用在各種場景下,能夠為客戶為用戶提升效率,降低成本,產(chǎn)生過去產(chǎn)生不了的作用。

所以當(dāng)你理性的去想,大模型能夠以什么樣的成本,給我?guī)硎裁磧r值的時候,你就會發(fā)現(xiàn)你永遠應(yīng)該選擇閉源模型。

今天閉源的無論是ChatGPT也好,文心一言也好,以及各種各樣的模型,你看一下它的平均水平,一定是比開源模型要更強大的,它的推理成本它一定是比這個開源模型更低的。

尤其在國內(nèi)的話,我們連算力都送你了,所以當(dāng)你想要一個開源模型的時候,你得把這個模型拿過來,根據(jù)你的場景去做這個SFT(監(jiān)督微調(diào)),很有可能還要做這種安全上的對齊,就是哪些風(fēng)險要去進行規(guī)避,你還要根據(jù)自己的場景,去準備各種各樣的數(shù)據(jù),去一輪一輪的去迭代,最后剛才說的買算力,你要把它放上去,由于是你自己獨有的一個模型,你還沒有辦法,跟別的應(yīng)用去共享這個算力,最高峰的時候用多少,那就要準備多少算力,這個是非常非常不經(jīng)濟的。

反過來你用閉源的模型,算力可以和大家共享,這些個能力在同等的參數(shù)下,閉源模型一定比開源模型的量更強,那同等能力下,由于閉源模型可能參數(shù)規(guī)模會更小一點,它的推理成本就會更低。所以長久來看,我覺得閉源模型,它使用一定是非常大的比例,會超過開源模型。

當(dāng)然,我也不能說開源模型沒有存在的價值,從學(xué)術(shù)研究的角度,你是一個科學(xué)家,你想研究大模型的原理是啥,因為業(yè)界其實也一直在抱怨就是說,大模型的不可解釋對吧,你怎么解釋大模型為什么會具有這種能力,或者說你是一個高校學(xué)生,你想學(xué)這些東西,你想拿來練練手,那開源大模型我覺得有它的價值。

但如果你是一個企業(yè),要的就是大模型能夠帶來價值上的增益,你只要一算賬,就會發(fā)現(xiàn)開源模型是沒有機會的。

陳茜:

我看百度是用的公有云的方式對吧,就是閉源大模型,但再加一個公有云,上面有集合了不同的閉源和開源的模型,供客戶去調(diào)用,那我看比如說亞馬遜云科技,還有微軟他們其實也是采取這樣的一個方式。所以百度本身大模型閉源加公有云,你對這樣的一套的打法,對企業(yè)的客戶來說有什么考量嗎?

李彥宏:

我覺得ToB的客戶要選擇一個模型,對他來說性價比最好的,一方面模型要對他的這個應(yīng)用能夠產(chǎn)生價值,另外一方面就是成本要足夠的低。

很多時候就是你看著有用,一算成本不劃算,那么客戶就放棄了,這是為什么我剛才講,開源模型打不過閉源模型,你只要理性的去看待,你的收益是啥、成本是啥,你就會發(fā)現(xiàn),最好還是去選擇閉源模型。

當(dāng)然,閉源模型不是一個模型,它是一系列的模型,根據(jù)你的使用場景,你去平衡一下,到底要多好的效果,要多快的推理速度,要多低的成本,所以我的模型非常多的變種,可以根據(jù)用戶的需求,讓他來選擇。

而這些相對來說規(guī)模更小的模型,都是從最大最強的模型裁剪出來的,這也是我覺得開源模型不具備的一個優(yōu)勢,當(dāng)最先進的模型是閉源的時候,我根據(jù)閉源往下去裁剪,裁剪出來一些規(guī)模更小的模型,仍然比那些同樣規(guī)模的開源模型效果更好。

我們也看到一些參數(shù)規(guī)模比較大的這種開源模型,其實這個就更沒有道理了,當(dāng)規(guī)模越大的時候,你會發(fā)現(xiàn)他的推理速度變得更慢了,如果不在乎推理速度的話,你就用最強大的閉源模型,那它效果一定是更好的。

而且參數(shù)規(guī)模越大意味著什么?意味著對算力的消耗也越大,也就是說你得準備更多服務(wù)器,來伺候這個大模型,其實這東西是根本不劃算的,越往上走,越應(yīng)該去共享這個算力,這樣才能算過來賬。

所以我覺得大家只要是不是在那兒坐而論道,而是真的說,我對模型有需求的時候,你就會發(fā)現(xiàn)幾乎是無需思考,不可能去選擇開源模型。

04 AI超級應(yīng)用:AI時代不再卷日活10億?

楊宇東:

由ChatGPT掀起的熱潮已經(jīng)一年多了,你也曾經(jīng)表達過,接下來超級應(yīng)用什么時候出現(xiàn)。我們看到國內(nèi)面向C端的大模型產(chǎn)品形態(tài),看起來差不多都是搜索框問答這種模式,你怎么看?有沒有可能產(chǎn)生一種差異化的競爭?什么樣好的產(chǎn)品會出現(xiàn)?

李彥宏:

準確的講,我倒不是一定在等待一個超級應(yīng)用的出現(xiàn),我更覺得在基礎(chǔ)模型之上,在大模型之上,應(yīng)該能夠誕生數(shù)以百萬計的、各種各樣的應(yīng)用。

這些應(yīng)用有些是很小的領(lǐng)域,大家可能不太容易想到的應(yīng)用,但是它對于那個領(lǐng)域的問題,解決得就比以前好很多。也有可能是用戶量龐大,用戶使用時長非常長的,類似于移動互聯(lián)網(wǎng)的超級應(yīng)用。

確切的講,我覺得現(xiàn)在還沒有看到,能夠比肩移動互聯(lián)網(wǎng)時期超級應(yīng)用的AI原生應(yīng)用,但是已經(jīng)看到,越來越多、各種各樣場景,尤其是ToB(對企業(yè))場景,利用大模型提升效果,提升效率,產(chǎn)生更多的收入,或者說能夠節(jié)省更多的成本的情況出現(xiàn)。

尤其是今年以來,我們看到在各個領(lǐng)域,各行各業(yè)都有AI的應(yīng)用場景出現(xiàn)了,它的出現(xiàn)使得我們大規(guī)模節(jié)省了人力成本,或者是效率大規(guī)模的提升,也許對于投資者、創(chuàng)業(yè)者,他們沒有覺得這個東西很令人興奮。

因為大家都在想,我能不能有一天,從0到1做出一個人們想也沒想到過的東西,變成一個DAU(日活用戶)10億的超級應(yīng)用,這個當(dāng)然很重要,假以時日也一定會出現(xiàn),但是目前已經(jīng)看到的,甚至是更重要的是,大模型在各個領(lǐng)域、各個場景的應(yīng)用。

這方面從百度文心一言的日調(diào)用量來看,已經(jīng)是非常明顯了。我們在4月份的時候,曾經(jīng)公布過一個數(shù)據(jù),文心一言的調(diào)用量,每天有兩億次,到最近一次,前幾天我們在公布的時候,文心一言調(diào)用量已經(jīng)到了5億次,也就是說兩個月的時間,調(diào)用量翻倍。

調(diào)用增長背后意味著什么?意味著它在給應(yīng)用產(chǎn)生價值,因為沒有價值的話,人家也不會花錢去做這種調(diào)用。所以這種增長速度,還是非常令人興奮的。大模型對于實體產(chǎn)業(yè),對于各行各業(yè)的提效降本這些作用現(xiàn)在已經(jīng)非常明顯了。

楊宇東:

你更多是談到了在垂直的行業(yè),我們想百度還是有很強C端基因的公司,作為一個普通的消費者和使用者,我們也想請您聊一聊,C端用戶會有什么樣很好的場景?包括我們說端側(cè),甚至最后手機上的APP,可以被手機硬件去調(diào)用,而不是經(jīng)過一個APP,這個你怎么看?

李彥宏:

我覺得分兩類,一類是大家比較關(guān)注的,過去從來沒有的應(yīng)用,現(xiàn)在比較流行的,類似于ChatGPT這樣的,我們把它叫做ChatBot(聊天機器人)。

國內(nèi)每一個大模型公司,都會推出一個相應(yīng)的APP,或者是網(wǎng)站來做ChatBot,它的作用也比較明顯,如果你有一個很具體的問題,丟給它的話,它就會給你一個還不錯的答案,而且準確率也越來越高了,很多人逐步的對這種ChatBot產(chǎn)生了依賴。

對于現(xiàn)有的這些ToC(對消費者)的應(yīng)用,其實它信息增益作用也是非常大的。我們在4月份的時候,公布過一個數(shù)據(jù),就是百度搜索,今天有11%的搜索結(jié)果會由AI來生成的,這個比例還在不斷的提升。

也就是說,現(xiàn)有大家比較常見的應(yīng)用,其實也越來越多的,在被大模型、生成式AI所改造。

另外一個例子,比如說百度文庫,過去是一個大家在上面找現(xiàn)成的文檔,比如中學(xué)老師要備課了,初中的物理課,他要找一找人大附中的老師,最優(yōu)秀的老師,他的教案是什么樣子,去找現(xiàn)成的文檔。

今天百度文庫經(jīng)過大模型改造之后,已經(jīng)更多的變成了,生成式AI這種應(yīng)用,也就是說,不管你想要產(chǎn)生什么樣的文檔,是PowerPoint,是論文的格式,還是什么各種各樣的,甚至是漫畫這樣的,它都可以根據(jù)你的要求來生成。

而且不僅它的用戶量比較廣,這個產(chǎn)品它是收費的,今年以來已經(jīng)有大約2600萬付費用戶,你如果說用超級應(yīng)用的標(biāo)準來看的話,它也沒有到超級應(yīng)用的水準,但是你要是看它實際產(chǎn)生價值的話,有那么多人愿意為這個產(chǎn)品付費,那還是很厲害的。

這些產(chǎn)品都是過去已經(jīng)存在的,只是說你經(jīng)過了大模型的改造之后,它的能力跟以前完全不一樣了,人們對它的認知也在不斷的迭代,不斷的在加深。

楊宇東:

因為它能力的提升,大家更愿意付費了,而原來只是免費搜索。

李彥宏:

是的。

陳茜:

我特別同意您最近在多個場合強調(diào)的,去卷AI的原生應(yīng)用,這樣的話,大模型才有意義。同時我也有一點小困惑,比如說OpenAI它的GPT-4,在8個月之前就推出來了,當(dāng)時大家都會覺得,AI應(yīng)用時刻要爆發(fā)了,但是8個月之后的今天,我們看到還沒有爆發(fā),可能很多應(yīng)用出來也不太盡人意。

最近最火的Perplexity,這個AI搜索現(xiàn)在是2000萬美元的ARR(年度經(jīng)常性收入),2000萬用戶的量級,其實也還沒有到所謂的Super app(超級應(yīng)用),或者是killer app(殺手級應(yīng)用),所以我的問題或者疑惑在于說,如果基于GPT-4的模型能力,是不是我們現(xiàn)在還沒有到去卷應(yīng)用的時候,這個時刻還沒到?

李彥宏:

剛才你提到了GPT,以及perplexity,還是我剛才說的第一類,過去從來沒有過的東西,它是從0到1去做的。

超級應(yīng)用確實現(xiàn)在還沒有出現(xiàn),即使是ChatGPT的話,它的DAU也沒有過億,還算不上一個真正的超級應(yīng)用,但是對于現(xiàn)有產(chǎn)品的改造,無論是中國也好,美國也好,我們都看到了實實在在的增益。

比如美國的話,微軟的Copilot,它已經(jīng)收到了很多付費,美國更多的是ToB(對企業(yè))的行業(yè),Palantir、Snowflake這些,都是通過軟件被大模型、被生成式AI加持了之后,他們的業(yè)績得到實實在在的增長。

所以從這個意義上講,大模型應(yīng)用其實已經(jīng)逐步在浮現(xiàn)出來,它對于現(xiàn)有業(yè)態(tài)的改造作用,比從0到1顛覆,作用更早到來、更明顯,甚至我覺得也能夠創(chuàng)造更多價值。

以前Satya(微軟CEO)說過,他說過去互聯(lián)網(wǎng)叫做AutoPilot,意思就是,你自己就都把這個結(jié)果給弄出來了,現(xiàn)在的生成式AI叫Copilot,它實際上是人和機器共創(chuàng)的過程。

這個過程一開始大家覺得沒有那么性感,但是它對于人的工作效率的提升,對于成本的下降,對于打開新的可能性,產(chǎn)生的促進作用,其實是比那些從0到1的應(yīng)用,反而要更大。

如果僅僅是從0到1,你可能會希望出現(xiàn)某幾個Super app,那它也就是公司從中受益,但是今天幾乎各行各業(yè)所有的公司,被大模型加持之后,它都能受益,這種影響力,對于整個社會,對于人類來說,無疑是更大的。

只是大家好像覺得,這個東西我以前見過嘛?所以沒有那種新鮮感,或者他更多誕生在生產(chǎn)力場景,他的受眾群體,或者單一應(yīng)用受眾群體,不會過億、過十億那樣,尤其在C端,在公眾層面體感沒有那么集中,這是大家現(xiàn)在一直想找一個Super app的原因。

楊宇東:

你的問題是挑戰(zhàn)Robin,Robin說要卷起來,你說怎么沒看到卷,我總結(jié)下來,我的感覺,聽完Robin講完之后,我就知道了,我們理解的超級這兩個字,在Robin概念里面,一個是數(shù)以百萬計的應(yīng)用已經(jīng)開始起來了,第二個,所謂的超級反而是在垂直的,在一些局部的領(lǐng)域,它有非常顯著的加速度或者是增益。

陳茜:

或者是“超級”這個定義在互聯(lián)網(wǎng)時代跟在AI時代是不一樣的。

李彥宏:

是不一樣的。在互聯(lián)網(wǎng)時代可能是某一個單一的從0到1,或者是到100這樣的應(yīng)用,今天所謂的超級應(yīng)用,它是對現(xiàn)有場景的一種加持,這種加持還在早期,我必須得承認,它逐步會改變現(xiàn)有產(chǎn)品的形態(tài)。

我再舉一個例子,小說創(chuàng)作、網(wǎng)文,這個在國內(nèi)是特別火的行業(yè),過去就是人肉,靠自己的能力、想象,不斷的去更新一篇文章,或者是一個小說,這個效率是很低的。現(xiàn)在有了大模型的加持,基本上有一個構(gòu)思,它就會給你相應(yīng)的文檔,你給的再豐富一點,它就生成的再豐富一點,你說文風(fēng)太溫柔了,要不要強悍一點,根據(jù)你的想法,它可以不斷的去調(diào)整。

這樣的東西,在用戶看來,我仍然在讀一篇網(wǎng)文,在讀一篇小說,但是這個小說的生產(chǎn)成本生產(chǎn)效率,它的內(nèi)容豐富度,可讀性,優(yōu)良率等等,都是跟以前不一樣的。所以這樣的例子,其實我們在幾乎任何行業(yè)都能夠看到。

05 AI Agent智能體:門檻一定要夠低

楊宇東:

我們前面聊的總結(jié)一下叫卷應(yīng)用,接下來還有一個關(guān)鍵詞叫智能體,你說過好多次,AI時代最看好的是智能體,但是目前來看好像也沒有特別強大的爆發(fā)。你為什么認為智能體是AI時代未來的趨勢呢?

李彥宏:

我覺得智能體正在爆發(fā),只是說它現(xiàn)在基數(shù)還比較小的時候,大家的體感沒有那么強烈,但是你要看業(yè)界大模型公司,都在做智能體,業(yè)界這些意見領(lǐng)袖,基本上算是共識,一般大家都會說,我看好智能體。

智能體為什么代表未來?基礎(chǔ)模型它本身是需要靠應(yīng)用才能顯現(xiàn)出來的價值,智能體就是,一個幾乎可以放之四海而皆準的、基于大模型的應(yīng)用。

什么意思呢?根據(jù)我自己的場景,我設(shè)定一個角色人設(shè),我連編程都不用,我只要把我想要做的事情跟它講清楚,當(dāng)然有時候要把自己的私有知識庫對接進來,或者把自己做事情的套路給它說清楚,這個專業(yè)術(shù)語叫做工作流,把工作流套進去,它就是一個非常有用的、跟基礎(chǔ)模型不一樣的東西。

今天不能說所有,但是大多數(shù)AI的原生應(yīng)用,你用智能體的方式都可以做出來,做出來之后效果也不錯。

由于它的門檻足夠低了,可能你連編程都不用編,就可以做出來一個效果不錯的智能體,就意味著越來越多的人可以做出他想要的智能體。

這個有點像什么呢?有點像90年代中期的時候,互聯(lián)網(wǎng)的網(wǎng)站,這個網(wǎng)站你可以把它做得非常復(fù)雜,當(dāng)時比如說雅虎也是很厲害的網(wǎng)站,但是仍然在學(xué)校里讀書的大學(xué)生,他也可以做一個自己的HomePage,他把他常用的幾個網(wǎng)站鏈接鏈在那,比如說Java學(xué)習(xí)攻略這些東西,做幾個鏈接,就是他自己的網(wǎng)站,其實很簡單。

由于做網(wǎng)站很簡單,所以在90年代的時候,從中期到末期,就是誕生了數(shù)以百萬計的網(wǎng)站,這種大浪淘沙,最終會出來一些非常優(yōu)秀的網(wǎng)站,像Google、Facebook,這當(dāng)然是若干年之后才出現(xiàn),但是早期看的話,你可能看到的都是,這些網(wǎng)站怎么都是亂糟糟的,一個大學(xué)生就能做一個網(wǎng)站出來,這有啥價值呀?

但是你必須得門檻足夠低的時候,讓更多人進來,他們發(fā)揮聰明才智,指不定哪條路跑通了,它就是一個Super app,這就是為什么,我覺得智能體代表未來,我特別看好的一個新興的業(yè)態(tài)。

陳茜:

智能體AI Agent它是特別重要的概念,包括在美國硅谷也是這樣的,在業(yè)界大家對AI Agent,它的定義還是有一點不同的探討,我看到有些人說,比如說GPTs,也都是一些智能體,有些人會說,可能更加高級一點的Agent才算智能體,我的Agent要調(diào)取不同的工具,要成為一個虛擬世界的機器人,它可能才叫Agent,你對Agent的定義是什么樣子的?

李彥宏:

我首先要考慮這個門檻要足夠的低,就一個小白,比如說大一的學(xué)生,他也可以很方便的能夠制作一個智能體出來。

當(dāng)然在此之上,可以有各種各樣比較有趣的玩法,剛才你講的調(diào)用工具、反思呀、長期的記憶等等,這些能力會逐步的加進去。

這個跟90年代時候的網(wǎng)站誕生過程,也有類似之處,我們一開始的網(wǎng)站,都是很簡單的,后來我可以用Java把一些動態(tài)的東西放在一個網(wǎng)站里,再后來我可以加上cookie,這樣從一個網(wǎng)頁轉(zhuǎn)到下一個網(wǎng)頁的時候,我還記得上一個網(wǎng)頁你干了什么,這些東西在早期的時候,網(wǎng)站生態(tài)里頭是沒有的,但是一旦有越來越多的人在生產(chǎn)網(wǎng)站,技術(shù)就會跟進說,你有什么需求,我去解決你的問題。

Agent是一樣的,不是說用了最先進的,剛才講的這些能力之后,它才叫一個AI Agent,我反而覺得我們要把這個門檻降的足夠低,讓大家覺得說,我也可以搞一個AI Agent,進來之后隨著時間的推移,隨著你遇到新問題,解決問題的過程,會把各種各樣最先進的技術(shù)用進來。

說實話,我認為現(xiàn)在AI Agent用到的這些能力,仍然是非常初級的,未來還會產(chǎn)生我們今天想也想不到的Agent能力。

但是這些能力的誕生,反而要依賴數(shù)以百萬計的開發(fā)者,去開發(fā)各種各樣的應(yīng)用,在他們使用的過程當(dāng)中,產(chǎn)生新的需求,這些需求被解決的過程,就是一個創(chuàng)新的過程,就是AI Agent進化的過程,這個我還是非常期待的。

陳茜:

百度有什么比較有意思的AI Agent的案例可以給我們分享一下嗎?

李彥宏:

有很多,國內(nèi)高考是一個非常大的事件,不僅是學(xué)生,還有家長都非常重視。過去大模型在干什么事呢?高考有個作文題,我們用大模型來寫一個作文,看它能得多少分。

其實你想一想,這個東西在哪用呢?不可能讓考生帶著大模型去參加高考嘛,但是高考完了之后,你要估分,你要報志愿,你要選擇學(xué)校,你要選擇專業(yè),可能有人在乎說,這個宿舍里頭,一個宿舍要住幾個人,那個人在乎這個學(xué)校有沒有游泳池,或者說哪個專業(yè)更適合我未來發(fā)展,每個人的情況都是不一樣的,每個人的問題也都是不一樣的。這種情況下,哪有一個全能的輔導(dǎo)老師可以告訴你說,你最適合的是哪個學(xué)校哪個專業(yè),但是AI Agent就可以干這個事情。

所以過去大家來百度或者到其他地方去搜索,都是找世界上已經(jīng)存在的內(nèi)容,他沒有專門為這個人、這個時刻、這個地點、這樣的環(huán)境生產(chǎn)內(nèi)容。

而今天的AI,尤其是智能體,它就可以做到,你告訴我你是什么情況,你的情況可以不用一句話就說清楚,你用十句話也可以,我都記得,這樣的例子非常非常多。

陳茜:

而且它會非常個人化的給你很多的規(guī)劃,包括我看到你們跟新加坡旅游局也是有合作的。

李彥宏:

是的。你自己消費水平是多少、有多長時間、有什么喜好、愛吃什么、不愛吃什么,每個人都是不一樣的,它可以完全根據(jù)你的情況來生成你要的答案。

06 AGI與Scaling Law:值得長期奮斗的信仰

楊宇東:

我們說Scaling Law,以前大家都覺得沒問題,但是最近開始不同的聲音出來了,那確實我看很多行業(yè),做一些速度更快,效率更高的小模型,那Scaling Law會不會這么快又被顛覆掉了?

李彥宏:

Scaling Law本身可能還會有若干年的生命周期,但與此同時的話,就是在此之上會疊加出來各種各樣的創(chuàng)新。

剛才講的智能體、它的反思能力、它的進化的能力等等,其實跟Scaling Law已經(jīng)有點分離了,它是兩個路線在發(fā)展,但是它仍然是基于Transformer這類大模型在往上在做。

那未來再過一兩年,還會出現(xiàn)什么新的技術(shù)創(chuàng)新,在此基礎(chǔ)上再去疊加,我們也不知道,大家都在探索。

換句話說,我覺得Scaling Law短期之內(nèi)倒不會被顛覆,但是在Scaling Law之上會疊加出來很多很多、現(xiàn)在還無法想象的創(chuàng)新。

楊宇東:

你個人認為AGI實現(xiàn)的標(biāo)準是什么?還有哪些路徑可以讓我們更快的去通向AGI?

李彥宏:

我覺得這個問題確實業(yè)界沒有一個標(biāo)準答案,以前大家覺得,通過圖靈測試就實現(xiàn)AGI了,實際上現(xiàn)在大模型已經(jīng)通過了圖靈測試,但是人們所說的AGI,其實大多數(shù)時候已經(jīng)不是只通過圖靈測試。

那什么叫AGI?在我的心目當(dāng)中,AGI就是說是機器、或者AI,它能夠具備人在任何場景下所具備的能力,就是general intelligence(普遍能力)是通用的,我不管在什么場景,我的能力都是跟人是一樣的,這是一個很高的要求。

其實今天你看像我們做這個無人駕駛,做了有11年的時間了,仍然不能說這個技術(shù)成熟,它還是只一個專用場景,AI都做不到非常成熟,你不能容錯的話這個就不行了。

所以,真正要實現(xiàn)AGI,我認為確實是還需要很多很多年。但是業(yè)界有人說AGI可能再過2年,或者5年就能實現(xiàn),但是我自己的判斷是10年以上,也許10年,也許20年,也許更長的時間。

我們聽到很多人在講,AGI是一種信仰,當(dāng)你把它當(dāng)做信仰的時候,誰的信仰會明年就實現(xiàn)?這是自相矛盾的。如果是一個信仰,它就是值得為之長期奮斗的目標(biāo),啥叫長期呢?但是如果連10年都沒有的話,不能把它叫做信仰。

陳茜:

太容易了就不能叫信仰。

李彥宏:

對呀。

陳茜:

現(xiàn)在大家其實都在等GPT-5,但是GPT-5一直在延后,所以我在周圍聽到的擔(dān)憂的聲音也是越來越高,就怕說比如說5~10萬億這樣的參數(shù)加上去,但是最后大家發(fā)現(xiàn)它的效果并沒有躍升這么多,是不是會打擊一些人們對Scaling Law的信仰,可能我們的AGI沒有辦法用Scaling Law的這個方式去帶我們?nèi)崿F(xiàn)了,你對這個有擔(dān)憂嗎?

李彥宏:

我不是很擔(dān)心這件事情,我覺得大家應(yīng)該更關(guān)注應(yīng)用,而不是關(guān)注基礎(chǔ)模型,某種意義上講,基礎(chǔ)模型迭代速度稍微放緩一點不是壞事,就是今天的這些應(yīng)用的開發(fā)者,他有一個相對穩(wěn)定的base(基礎(chǔ)),來開發(fā)應(yīng)用的話,其實是效率更高一些的,如果模型天天在那兒練,他每天都要重寫一遍過去的這個代碼,那是很累的。

但是在現(xiàn)有基礎(chǔ)模型基礎(chǔ)上不斷的去做微調(diào),去做一些漸進式的迭代和和創(chuàng)新,其實你看到它是一直在發(fā)生的,無論是OpenAI不斷在推的東西,還是我們百度的turbo模型、更小量級的模型等等,都是在根據(jù)市場需求做迭代。

但是長遠來講,我確實認為下一代的大模型,一定會比現(xiàn)在這一代模型強大的多。什么時候推出來我不是很著急,我覺得應(yīng)該多看一下真實的市場需求是啥,然后我們下一代模型迭代的時候,根據(jù)市場需求來迭代。

如果我們認為AGI 10年都達不到,下一代模型離AGI其實還有很遠的距離,也就是說他有他擅長的、也有不擅長的地方,如果擅長的恰好不是市場需求的,那這個意義是不大的,如果他不擅長的恰好是市場需求的,那我們浪費了很多資源,去做一些不該做的事情。

這是為什么我更關(guān)注應(yīng)用,我想知道市場上(的需求)。比如說我是一個賣車的銷售,我用什么樣的話術(shù),能夠說服進店的這個人來買我的車,而不是說我怎么能夠考過高考數(shù)學(xué)。這就是市場需求,當(dāng)不是很清楚的時候拼命往前跑,去做一個名義上更強大的模型,其實很有可能是會走彎路,是浪費資源的。

陳茜:

我非常同意,那你覺得接下來大家在卷應(yīng)用之余,會不會開始卷一些中小模型,比如說國際上Mistral這樣的中小模型,也是受很多開發(fā)者歡迎的。那接下來你覺得百度在對于中小模型上,還有一些模型蒸餾上有什么樣的這個策劃?

李彥宏:

我覺得我們看到的真實需求,確實在絕大多數(shù)情況下都不是最大的模型,它都要求這個模型變小,變小意味著什么?速度快,成本低。比如說我干這個事兒,總共能夠給我?guī)砻磕?00萬的增益,我一算,最大的模型要120萬的成本,那我肯定不干了嘛。

那我給你這個大模型公司提的要求,就是說你能把成本給我降到80萬,甚至降到8萬,那我們就得想,怎么最強大的模型蒸餾到足夠小,也就是成本足夠足夠低的時候,仍然能夠滿足你這個場景的需求。

我覺得這一方面,閉源模型仍然有優(yōu)勢,因為閉源有最強大的基礎(chǔ)模型,那他根據(jù)這個模型蒸餾或者裁剪出來的小模型,會比那些開源模型蒸餾的會更好。畢竟你的基礎(chǔ)沒有人家好,做出來的東西在競爭力上也會顯得劣勢。

所以這方面我們看到真實的需求確實是非常非常多的,我們也覺得這方面的機會,仍然在閉源不在開源。

以上就是我們與李彥宏的采訪內(nèi)容,這次采訪其實對我個人理解市場很有幫助,因為這讓我理解到,企業(yè)家是如何去思考大模型商業(yè)化落地這件事情,特別是在大廠們?nèi)菀赘鞣N卷的中國市場。

當(dāng)全球的生成式AI公司們,無論是科技巨頭還是創(chuàng)業(yè)公司,都耗費大量資源、算力、金錢和人力去押注“Scaling Law是人類未來發(fā)展的正確途徑”的時候,總是有種聲音在提醒我們,我們需要算賬,這件事情如何以更經(jīng)濟、更合理的方式去發(fā)展。

飛往上海采訪李彥宏的前一個周末,在硅谷的一個聚會上,一位資深人士給我算了一筆賬:

全球芯片用于AI上的支出是4000億美元,這相當(dāng)于1.1萬億美元的數(shù)據(jù)中心支出,如果我們要求 25%的ROIC(投資資本回報率),這相當(dāng)于企業(yè)們需要產(chǎn)生1.4萬億美元的成本節(jié)省。

1.4萬億美元是全球技術(shù)工人工資的5%,全球總工資的3%,也是全球EBIT(息稅前利潤)的5%?;蛘?,如果我們假設(shè)利潤率為50%,則需要企業(yè)們用AI去創(chuàng)造2.8萬億美元的收入,即全球上市公司收入的3%,或全球GDP的2%。

這樣算起來的話,是不是可以說,以現(xiàn)在的投入量,只要AI能讓全球企業(yè)們創(chuàng)造2.8萬億美元的收入,那么發(fā)展AI這筆賬就是能算得過來的,到底什么時候能打平這筆帳呢?

反正我看高盛是預(yù)測,生成式AI可能會在10年內(nèi)推動全球 GDP 增長7%,也就是接近7萬億美元,并將生產(chǎn)率增長提高1.5個百分點。

所以,你會怎么去算AI發(fā)展的這筆帳呢?

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

對話李彥宏:AI價格戰(zhàn)開打、大模型閉源、超級應(yīng)用以及中國市場機會

AI價格戰(zhàn)下企業(yè)的機會在哪?

文|硅谷101

在世界人工智能大會WAIC期間,我們硅谷101從硅谷飛到了上海,采訪了百度創(chuàng)始人、董事長兼CEO,李彥宏(Robin Li)先生,就目前市場非常關(guān)心的AI議題進行了深度討論。

很有趣的是,這一輪生成式AI,中國市場的打法和海外截然不同,在硅谷大家開始卷多模態(tài)模型和交互,創(chuàng)業(yè)企業(yè)還側(cè)重infra基礎(chǔ)設(shè)施,同時市場在等GPT-5來驗證Scaling Law的時候,中國市場的“百模大戰(zhàn)”已經(jīng)發(fā)展到打響價格戰(zhàn)的階段了,速度比很多人想象中都要早很多。

接下來中國市場要開始卷AI應(yīng)用了,所以在采訪中,李彥宏對中國市場大模型的價格戰(zhàn)、AI的To B企業(yè)級機會、開源/閉源路線選擇、AI超級應(yīng)用、AI Agent智能體的看法、以及AGI和Scaling Law的思考,都和我們做出了分享。

這是李彥宏2024年首次接受媒體采訪,非常難得,以下是我們的對話實錄,希望能為大家?guī)硪恍┬碌乃伎己徒嵌取?/p>

01 不可避免的價格戰(zhàn):燒錢不是事情的本質(zhì)

楊宇東:

我們看到這個很多閉源大模型的API調(diào)用的費用越來越低了,而且很多又有開源大模型可以選,所以在這么一個市場的這么一個商業(yè)環(huán)境之下,那我們很關(guān)注,就百度肯定是身在其中,那大模型靠推理這樣收費的這種商業(yè)模式,它未來成立不成立?以后我們市場再去比拼大模型的話,會比拼哪些點?就是你剛才提到的可能是速度、成本等等的,你怎么看?

李彥宏:

說實話,我們內(nèi)部不斷在思考、討論這個問題,我覺得價格戰(zhàn)幾乎是不可避免的,在中國互聯(lián)網(wǎng)干了這么長時間,其實已經(jīng)對價格戰(zhàn)非常熟悉了,確實他來的比我想象還要更早一點,這么早就開始把這個價格打到了幾乎不可思議這種低的地步。

但我覺得某種意義上講,也不是壞事兒,當(dāng)你價格足夠低、甚至免費的時候,就會讓更多人有積極性,來嘗試在大模型基礎(chǔ)上,去開發(fā)各種各樣的應(yīng)用,也就是說大模型對于各行各業(yè)的這個滲透速度會更快。

那你都免費了,或者說價格足夠低的話,你大模型公司靠什么賺錢呢?我是這樣想的,大模型技術(shù)的天花板還是很高的,今天我們還是對于大模型的能力,有很多不滿意的地方,那我們?nèi)匀恍枰芏喾浅?yōu)秀的技術(shù)人員、需要很多的算力、需要很多很多的數(shù)據(jù),才能夠訓(xùn)練出來下一代的大模型,我們還可能需要下下代,甚至下下下代這種大模型。

所以最終我覺得,大家是要去拼誰的技術(shù)更好,你的技術(shù)好,你為客戶產(chǎn)生了更好的價值,將來你還是能夠收到費的。

今天之所以把價格打到足夠低,是因為現(xiàn)在模型的能力,其實技術(shù)還沒有到最好,大家能力都差不多的時候,那行就拼價格唄,誰的價格低就用誰的。

時間長了之后,市場本身會回歸理性,那同樣的效果,就是當(dāng)我的成本比你低的時候,你打價格戰(zhàn)你肯定打不過我,時間久了之后你就退出了。

這個過程我們在百度網(wǎng)盤上是經(jīng)歷過的,那些年大家在卷網(wǎng)盤的時候,我今天給你10G的免費空間,明天100G,后天給1T,再后天說無限空間永久免費,當(dāng)你說無限空間永久免費的時候,大家也會說這怎么能夠持續(xù)呢?這一定是不可持續(xù)的。

但是某一段時期,可能有個一兩年左右,大家這樣不理性的去打價格戰(zhàn),慢慢就一個一個退出,那為什么百度沒有退出呢?因為我敢打呀,我的技術(shù)、存儲成本低,所以最終還是說誰的技術(shù)好,誰的效率高,誰會勝出。

陳茜:

剛才說這個價格來的時間比你想象中的早很多,也比我想象中的早很多,這個才一年半的時間,已經(jīng)開始打價格戰(zhàn)了,但你覺得價格戰(zhàn)會持續(xù)多久呢?可能大家有一些人就覺得說技術(shù)不行,沒油水我要退出了,可能就最后的市場贏家會浮現(xiàn)出來。

李彥宏:

這個很難講,現(xiàn)在有些創(chuàng)業(yè)公司是玩家,但是也有很大型的這種互網(wǎng)平臺公司是玩家,那么燒錢的話,其實理論上講是可以燒很長時間的,但我覺得,燒錢不是這個事情的本質(zhì),本質(zhì)仍然是誰的技術(shù)更好、誰的效率更高,當(dāng)你的技術(shù)好、效率高的時候,你就不怕去打價格戰(zhàn),所以多長時間都OK,最終它會是優(yōu)勝劣汰的這樣一個過程。

陳茜:

你覺得在中國市場會是一個贏家通吃的局面嗎?還是說等價格戰(zhàn)之后會剩下幾個主要的?可能還有一些更小模型這樣的生態(tài)?

李彥宏:

我是這樣想的,這次生成式AI,它是對于整個IT技術(shù)棧的一個大的變革,我們一般認為,過去的IT技術(shù)棧,就是芯片層、操作系統(tǒng)層、應(yīng)用層或軟件層,就這三層。到生成式AI之后,我們認為IT的技術(shù)棧變成了四層,芯片層、框架層(深度學(xué)習(xí)框架)、模型層、然后是應(yīng)用層,我認為在每一層可能都會誕生至少2~3個大玩家。

那到應(yīng)用層的話,可能數(shù)以百萬計,甚至千萬的各種各樣的應(yīng)用都會出來,也會逐步的出現(xiàn)超級應(yīng)用。當(dāng)然根據(jù)“超級”的定義來看,它是不會很多,可能是三五個之類的。

模型層我覺得也許兩三個就足夠了,因為最后還是大家比拼的是效率嘛,你的效率如果不夠高的話,慢慢就覺得,還不如用別人的,去在這之上,再去開發(fā)更多的應(yīng)用,是更劃算的。

所以在每一層其實都有機會,但是不同的層發(fā)展規(guī)律,需要的專業(yè)知識什么的都不太一樣。

陳茜:

非常同意您的說法,之前我問Dario Amodei from Anthropic(百度前高管)他也說過,他當(dāng)時在做語言還有翻譯方面的工作,剛剛從斯坦福畢業(yè)之后在百度,他說在國際市場,可能最后也就剩四個左右的大模型,因為其他可能都跑不出來,就是跟您的想法非常一致。

02 商業(yè)落地:AI企業(yè)需求比互聯(lián)網(wǎng)時期大得多

楊宇東:

你說過,大模型對于B端的影響會超過互聯(lián)網(wǎng),你為什么認為,大模型對B端的改造,比互聯(lián)網(wǎng)對B端的影響更大?

李彥宏:

其實你想一想,互聯(lián)網(wǎng)對C端的改造,我們都是感同身受的,是非常徹底的,是顛覆性的。

但是互聯(lián)網(wǎng)對B端的改造,其實我覺得一般般吧,雖然不能說沒有,但是“互聯(lián)網(wǎng)+”其實最后,可能只是一個信息化、或者數(shù)據(jù)化的過程,用的技術(shù)比較簡單,產(chǎn)生的增益也沒有那么明顯。

但是大模型確實不一樣,各種AI應(yīng)用,比如說小說創(chuàng)作,讀小說叫做C端,小說創(chuàng)作就可以當(dāng)做是B端,法律援助其實在幫助律師在提升效率。

我們接觸到的一些能源電力行業(yè),生產(chǎn)制造業(yè)等等,都有類似的需求,比如說像現(xiàn)在國內(nèi)電動車卷的也很厲害,車里頭對話系統(tǒng),很多也在用文心大模型,使用量也不小,但是對于百度來說,這就是一個To B的應(yīng)用,我們不直接提供給用戶,它是經(jīng)過了OEM,經(jīng)過了車廠,他們的集成之后,把這個應(yīng)用提供給了終端消費者。

這種事情其實非常多,而且我們就看調(diào)用量,如果調(diào)用量上的很快,這就說明我們的客戶需要這些東西,B端靠著這個大模型,靠著AI原生應(yīng)用產(chǎn)生了價值。

楊宇東:

最近我跑制造業(yè)比較多,你前面說的有些像車企它直接調(diào)用了,直接把文心一言或者大模型調(diào)用了,在制造業(yè)里面,很多企業(yè)家說,我們覺得未來AI對于我們高端制造業(yè),智能制造顯然是重要的價值,是一種革命性的突破,但是一直就搞不明白,比如說通用大模型,和我自己的行業(yè)垂直領(lǐng)域,垂直大模型,它將來到底是什么樣的關(guān)系,你說的OEM,他們也希望,到底是什么樣的供應(yīng)商,和你們這樣平臺型的大廠商之間,形成什么樣的業(yè)務(wù)鏈條,這個問題是制造業(yè),尤其是先進制造業(yè)特別關(guān)注的。

李彥宏:

這個問題確實很重要,實際上大模型在各個垂直的場景里怎么用,我們也經(jīng)過了探索過程,最初我們的想法是,我把基礎(chǔ)模型做得越來越強大,大家叫通用人工智能(AGI),在什么場景我都能做得很好。

后來發(fā)現(xiàn)這件事情沒有那么容易,每個場景都有它自己的道,而且要求也不太一樣,有些地方,大模型思考兩分鐘再給結(jié)果也OK,只要給出來的結(jié)果是準確的、是全面的就可以了。但是有些場景,如果你一秒鐘不出結(jié)果,用戶就放棄了,所以這兩個場景對大模型要求是不一樣的。

今天即使是最強大的模型,還不能做到反應(yīng)又快又準,所以當(dāng)應(yīng)用場景需要反應(yīng)快的時候,我們需要更小的模型,它由于沒有大模型通用的能力,所以在垂直場景當(dāng)中,還要對它做精調(diào),就是做SFT(監(jiān)督微調(diào)),把你行業(yè)的數(shù)據(jù)灌進去,再經(jīng)過各種各樣的調(diào)教,在這個場景里的效果,能夠跟大模型相比差不多。

類似這種場景,我們也見了很多,去年10月份,我們發(fā)了文心4.0之后,主要精力在做什么呢?根據(jù)最強大的模型,去裁剪各種體量的小模型,比如說十億量級的模型,百億量級的模型,千億量級的模型。

這個模型也許擅長角色扮演,那個模型也許擅長邏輯推理等等,根據(jù)客戶的不同使用場景不同的要求,出來各種各樣的模型。

這些模型的大多數(shù)速度都比文心EB4要快,推理成本比它要低,所以這種應(yīng)用是大家更愛用的。

即使到今天,我剛才講的5億的調(diào)用量,調(diào)用量最大的,一定不是最強大的模型,大家都覺得,反應(yīng)太慢了,成本太高了。

但是隨著時間推移,成本會下降,反應(yīng)速度也會提升,比如說前幾天剛剛發(fā)布EB4的Turbo,Turbo就是在EB4的基礎(chǔ)上,效果有提升,但更重要的是,響應(yīng)速度比以前快了很多,成本下降了很多,因為什么呢?

我們發(fā)現(xiàn)真正的市場需求,是要求你響應(yīng)速度一定要足夠的快,成本一定要足夠的低,這樣我才能用起來,至于說下一代的大模型,到底有多強大,在哪些場景能夠用到,那是我們會繼續(xù)去探索的過程,但是今天你要看市場需求的話,規(guī)模更小一點的模型,市場需求量是更大的。

楊宇東:

幫我們介紹一下,大模型在B端的應(yīng)用比較成功的商業(yè)案例,或者是商業(yè)模式、產(chǎn)品形態(tài)。

李彥宏:

除了我剛才舉了小說創(chuàng)作,還有比如電商的數(shù)字人直播,通過大模型來生成直播的話術(shù),很多數(shù)據(jù)人不容易記得特別清楚,比如說我要賣一個營養(yǎng)品,這個營養(yǎng)品在哪一年,哪一個大學(xué),哪一個教授做了多少實驗,實驗出來之后結(jié)果是什么樣子,讓自然人去記這些東西,他記不住的,但是這些數(shù)據(jù)恰恰能夠很好的說明,這個產(chǎn)品到底有什么作用,這些東西靠數(shù)字人把它表達出來,靠大模型把它生成出來,很多時候比真人的直播效果反而要更好,幾乎任何一個行業(yè),我們都可以取出來類似的東西。

陳茜:

現(xiàn)在企業(yè)們,他們對AI調(diào)用成本怎么去看?我們幫企業(yè)去算一下賬,我花100塊錢,買各種各樣的AI服務(wù),我可能要乘以五,我要賺500塊錢,我的商業(yè)才能跑得通?,F(xiàn)在企業(yè)們是否會愿意去為AI去付費,你在跟一些企業(yè)客戶交流的時候,他們的態(tài)度是什么樣子的?

李彥宏:

這個問題特別好,當(dāng)你處在市場經(jīng)濟環(huán)境當(dāng)中的時候,這些企業(yè)其實是非常理性的,尤其是中小企業(yè),它賬是算得非常精的,如果這件事情能夠讓我降本增效,能夠讓我賺到更多的錢,那我就會用它,如果不能,你再吹破天,我也不會用。

其實市場會告訴你,大模型到底有沒有用,我們看到調(diào)用量的迅速提升,確實是因為在用戶側(cè),在客戶側(cè),它為這個企業(yè)確實產(chǎn)生了降本增效的作用。

我再舉個例子,比如招聘場景,雇主要找一個具備什么技能的人,對于技能的描述,它可以是千差萬別的,在這種情況下,用大模型去理解這是一個什么人,理解老板要招什么樣的人,去進行匹配的話,大模型的效率就會高很多。

過去是HR坐在那,一份一份簡歷篩查,然后一個一個人去面試,面試100個人,最后篩出來10個人來,這個效率是非常非常低的,但是大模型進來之后,它可以非常明顯的去提升這方面的效率,有了這樣的場景之后,你去算一算模型的推理成本,其實幾乎是可以忽略不計的。

尤其在國內(nèi),現(xiàn)在大模型價格戰(zhàn)是非常厲害的,所以像一些比較輕量級的模型,百度的輕量級模型都是免費的,這個免費不僅僅指的是模型免費,實際上算力也送你了,你本來要有電腦,我得要有帶寬等等,這些都沒有了,你只要來用就好。

陳茜:

后面的推理也很便宜是嗎?

李彥宏:

推理是免費的。

陳茜:

有一個比較好奇的問題,在SaaS時期,在互聯(lián)網(wǎng)時期,SaaS在中國To B沒有做出來,為什么您會覺得在AI時期,AI as a service可以在中國做起來呢?To B方面的話。

李彥宏:

我覺得在SaaS時期,之所以沒有做起來,更多的是因為,比如像互聯(lián)網(wǎng)大的平臺,它既做了To C的事,也做了To B的事。

像在美國的話,每一個商家都有一個自己的電商網(wǎng)站,用戶也可以到它網(wǎng)站上去購物,在中國的話,大家都到電商平臺去購物,商家所需要的To B能力,電商平臺都替他做了,所以他不需要這種東西了,但是在美國的話,你自己比如說你要建立一個自己的網(wǎng)站,上面要能夠賣東西,要有各種各樣的這種功能,要對自己的用戶進行了解,那是需要做很多投入的。

所以在某種意義上講,其實中國并不是沒有這樣的需求,而是說這些需求,被更大的平臺所滿足掉了。

但是在AI時代,我覺得情況又發(fā)生了變化。剛才也講了,它不是從0到1的、大家過去從來沒有見過的這個業(yè)態(tài),它先誕生的恰恰是對于現(xiàn)有業(yè)態(tài)的一個增強,所以當(dāng)現(xiàn)有業(yè)態(tài)被增強效率越來越高的時候,他可能就更能夠抵御,類似于互聯(lián)網(wǎng)平臺這樣的公司,對他的這種業(yè)務(wù)的侵蝕,所以這方面我是我倒是覺得,AI的這種ToB的需求,在中國會比互聯(lián)網(wǎng)To B的需求要要大很多。

03 開源vs閉源:大模型商業(yè)化路徑的選擇

陳茜:

在國際上對開源閉源大家也爭論的很厲害,比如說馬斯克他噴OpenAI, 說你這么閉源,你要不然就叫CloseAI好了,我們看到馬斯克的xAI也開源了,Meta的Llama也是開源的,為什么你對閉源這么堅持呢?

李彥宏:

我覺得開源其實是一種智商稅,你仔細想一想,我們?yōu)槭裁匆龃竽P停克軌蛴袘?yīng)用,這些應(yīng)用在各種場景下,能夠為客戶為用戶提升效率,降低成本,產(chǎn)生過去產(chǎn)生不了的作用。

所以當(dāng)你理性的去想,大模型能夠以什么樣的成本,給我?guī)硎裁磧r值的時候,你就會發(fā)現(xiàn)你永遠應(yīng)該選擇閉源模型。

今天閉源的無論是ChatGPT也好,文心一言也好,以及各種各樣的模型,你看一下它的平均水平,一定是比開源模型要更強大的,它的推理成本它一定是比這個開源模型更低的。

尤其在國內(nèi)的話,我們連算力都送你了,所以當(dāng)你想要一個開源模型的時候,你得把這個模型拿過來,根據(jù)你的場景去做這個SFT(監(jiān)督微調(diào)),很有可能還要做這種安全上的對齊,就是哪些風(fēng)險要去進行規(guī)避,你還要根據(jù)自己的場景,去準備各種各樣的數(shù)據(jù),去一輪一輪的去迭代,最后剛才說的買算力,你要把它放上去,由于是你自己獨有的一個模型,你還沒有辦法,跟別的應(yīng)用去共享這個算力,最高峰的時候用多少,那就要準備多少算力,這個是非常非常不經(jīng)濟的。

反過來你用閉源的模型,算力可以和大家共享,這些個能力在同等的參數(shù)下,閉源模型一定比開源模型的量更強,那同等能力下,由于閉源模型可能參數(shù)規(guī)模會更小一點,它的推理成本就會更低。所以長久來看,我覺得閉源模型,它使用一定是非常大的比例,會超過開源模型。

當(dāng)然,我也不能說開源模型沒有存在的價值,從學(xué)術(shù)研究的角度,你是一個科學(xué)家,你想研究大模型的原理是啥,因為業(yè)界其實也一直在抱怨就是說,大模型的不可解釋對吧,你怎么解釋大模型為什么會具有這種能力,或者說你是一個高校學(xué)生,你想學(xué)這些東西,你想拿來練練手,那開源大模型我覺得有它的價值。

但如果你是一個企業(yè),要的就是大模型能夠帶來價值上的增益,你只要一算賬,就會發(fā)現(xiàn)開源模型是沒有機會的。

陳茜:

我看百度是用的公有云的方式對吧,就是閉源大模型,但再加一個公有云,上面有集合了不同的閉源和開源的模型,供客戶去調(diào)用,那我看比如說亞馬遜云科技,還有微軟他們其實也是采取這樣的一個方式。所以百度本身大模型閉源加公有云,你對這樣的一套的打法,對企業(yè)的客戶來說有什么考量嗎?

李彥宏:

我覺得ToB的客戶要選擇一個模型,對他來說性價比最好的,一方面模型要對他的這個應(yīng)用能夠產(chǎn)生價值,另外一方面就是成本要足夠的低。

很多時候就是你看著有用,一算成本不劃算,那么客戶就放棄了,這是為什么我剛才講,開源模型打不過閉源模型,你只要理性的去看待,你的收益是啥、成本是啥,你就會發(fā)現(xiàn),最好還是去選擇閉源模型。

當(dāng)然,閉源模型不是一個模型,它是一系列的模型,根據(jù)你的使用場景,你去平衡一下,到底要多好的效果,要多快的推理速度,要多低的成本,所以我的模型非常多的變種,可以根據(jù)用戶的需求,讓他來選擇。

而這些相對來說規(guī)模更小的模型,都是從最大最強的模型裁剪出來的,這也是我覺得開源模型不具備的一個優(yōu)勢,當(dāng)最先進的模型是閉源的時候,我根據(jù)閉源往下去裁剪,裁剪出來一些規(guī)模更小的模型,仍然比那些同樣規(guī)模的開源模型效果更好。

我們也看到一些參數(shù)規(guī)模比較大的這種開源模型,其實這個就更沒有道理了,當(dāng)規(guī)模越大的時候,你會發(fā)現(xiàn)他的推理速度變得更慢了,如果不在乎推理速度的話,你就用最強大的閉源模型,那它效果一定是更好的。

而且參數(shù)規(guī)模越大意味著什么?意味著對算力的消耗也越大,也就是說你得準備更多服務(wù)器,來伺候這個大模型,其實這東西是根本不劃算的,越往上走,越應(yīng)該去共享這個算力,這樣才能算過來賬。

所以我覺得大家只要是不是在那兒坐而論道,而是真的說,我對模型有需求的時候,你就會發(fā)現(xiàn)幾乎是無需思考,不可能去選擇開源模型。

04 AI超級應(yīng)用:AI時代不再卷日活10億?

楊宇東:

由ChatGPT掀起的熱潮已經(jīng)一年多了,你也曾經(jīng)表達過,接下來超級應(yīng)用什么時候出現(xiàn)。我們看到國內(nèi)面向C端的大模型產(chǎn)品形態(tài),看起來差不多都是搜索框問答這種模式,你怎么看?有沒有可能產(chǎn)生一種差異化的競爭?什么樣好的產(chǎn)品會出現(xiàn)?

李彥宏:

準確的講,我倒不是一定在等待一個超級應(yīng)用的出現(xiàn),我更覺得在基礎(chǔ)模型之上,在大模型之上,應(yīng)該能夠誕生數(shù)以百萬計的、各種各樣的應(yīng)用。

這些應(yīng)用有些是很小的領(lǐng)域,大家可能不太容易想到的應(yīng)用,但是它對于那個領(lǐng)域的問題,解決得就比以前好很多。也有可能是用戶量龐大,用戶使用時長非常長的,類似于移動互聯(lián)網(wǎng)的超級應(yīng)用。

確切的講,我覺得現(xiàn)在還沒有看到,能夠比肩移動互聯(lián)網(wǎng)時期超級應(yīng)用的AI原生應(yīng)用,但是已經(jīng)看到,越來越多、各種各樣場景,尤其是ToB(對企業(yè))場景,利用大模型提升效果,提升效率,產(chǎn)生更多的收入,或者說能夠節(jié)省更多的成本的情況出現(xiàn)。

尤其是今年以來,我們看到在各個領(lǐng)域,各行各業(yè)都有AI的應(yīng)用場景出現(xiàn)了,它的出現(xiàn)使得我們大規(guī)模節(jié)省了人力成本,或者是效率大規(guī)模的提升,也許對于投資者、創(chuàng)業(yè)者,他們沒有覺得這個東西很令人興奮。

因為大家都在想,我能不能有一天,從0到1做出一個人們想也沒想到過的東西,變成一個DAU(日活用戶)10億的超級應(yīng)用,這個當(dāng)然很重要,假以時日也一定會出現(xiàn),但是目前已經(jīng)看到的,甚至是更重要的是,大模型在各個領(lǐng)域、各個場景的應(yīng)用。

這方面從百度文心一言的日調(diào)用量來看,已經(jīng)是非常明顯了。我們在4月份的時候,曾經(jīng)公布過一個數(shù)據(jù),文心一言的調(diào)用量,每天有兩億次,到最近一次,前幾天我們在公布的時候,文心一言調(diào)用量已經(jīng)到了5億次,也就是說兩個月的時間,調(diào)用量翻倍。

調(diào)用增長背后意味著什么?意味著它在給應(yīng)用產(chǎn)生價值,因為沒有價值的話,人家也不會花錢去做這種調(diào)用。所以這種增長速度,還是非常令人興奮的。大模型對于實體產(chǎn)業(yè),對于各行各業(yè)的提效降本這些作用現(xiàn)在已經(jīng)非常明顯了。

楊宇東:

你更多是談到了在垂直的行業(yè),我們想百度還是有很強C端基因的公司,作為一個普通的消費者和使用者,我們也想請您聊一聊,C端用戶會有什么樣很好的場景?包括我們說端側(cè),甚至最后手機上的APP,可以被手機硬件去調(diào)用,而不是經(jīng)過一個APP,這個你怎么看?

李彥宏:

我覺得分兩類,一類是大家比較關(guān)注的,過去從來沒有的應(yīng)用,現(xiàn)在比較流行的,類似于ChatGPT這樣的,我們把它叫做ChatBot(聊天機器人)。

國內(nèi)每一個大模型公司,都會推出一個相應(yīng)的APP,或者是網(wǎng)站來做ChatBot,它的作用也比較明顯,如果你有一個很具體的問題,丟給它的話,它就會給你一個還不錯的答案,而且準確率也越來越高了,很多人逐步的對這種ChatBot產(chǎn)生了依賴。

對于現(xiàn)有的這些ToC(對消費者)的應(yīng)用,其實它信息增益作用也是非常大的。我們在4月份的時候,公布過一個數(shù)據(jù),就是百度搜索,今天有11%的搜索結(jié)果會由AI來生成的,這個比例還在不斷的提升。

也就是說,現(xiàn)有大家比較常見的應(yīng)用,其實也越來越多的,在被大模型、生成式AI所改造。

另外一個例子,比如說百度文庫,過去是一個大家在上面找現(xiàn)成的文檔,比如中學(xué)老師要備課了,初中的物理課,他要找一找人大附中的老師,最優(yōu)秀的老師,他的教案是什么樣子,去找現(xiàn)成的文檔。

今天百度文庫經(jīng)過大模型改造之后,已經(jīng)更多的變成了,生成式AI這種應(yīng)用,也就是說,不管你想要產(chǎn)生什么樣的文檔,是PowerPoint,是論文的格式,還是什么各種各樣的,甚至是漫畫這樣的,它都可以根據(jù)你的要求來生成。

而且不僅它的用戶量比較廣,這個產(chǎn)品它是收費的,今年以來已經(jīng)有大約2600萬付費用戶,你如果說用超級應(yīng)用的標(biāo)準來看的話,它也沒有到超級應(yīng)用的水準,但是你要是看它實際產(chǎn)生價值的話,有那么多人愿意為這個產(chǎn)品付費,那還是很厲害的。

這些產(chǎn)品都是過去已經(jīng)存在的,只是說你經(jīng)過了大模型的改造之后,它的能力跟以前完全不一樣了,人們對它的認知也在不斷的迭代,不斷的在加深。

楊宇東:

因為它能力的提升,大家更愿意付費了,而原來只是免費搜索。

李彥宏:

是的。

陳茜:

我特別同意您最近在多個場合強調(diào)的,去卷AI的原生應(yīng)用,這樣的話,大模型才有意義。同時我也有一點小困惑,比如說OpenAI它的GPT-4,在8個月之前就推出來了,當(dāng)時大家都會覺得,AI應(yīng)用時刻要爆發(fā)了,但是8個月之后的今天,我們看到還沒有爆發(fā),可能很多應(yīng)用出來也不太盡人意。

最近最火的Perplexity,這個AI搜索現(xiàn)在是2000萬美元的ARR(年度經(jīng)常性收入),2000萬用戶的量級,其實也還沒有到所謂的Super app(超級應(yīng)用),或者是killer app(殺手級應(yīng)用),所以我的問題或者疑惑在于說,如果基于GPT-4的模型能力,是不是我們現(xiàn)在還沒有到去卷應(yīng)用的時候,這個時刻還沒到?

李彥宏:

剛才你提到了GPT,以及perplexity,還是我剛才說的第一類,過去從來沒有過的東西,它是從0到1去做的。

超級應(yīng)用確實現(xiàn)在還沒有出現(xiàn),即使是ChatGPT的話,它的DAU也沒有過億,還算不上一個真正的超級應(yīng)用,但是對于現(xiàn)有產(chǎn)品的改造,無論是中國也好,美國也好,我們都看到了實實在在的增益。

比如美國的話,微軟的Copilot,它已經(jīng)收到了很多付費,美國更多的是ToB(對企業(yè))的行業(yè),Palantir、Snowflake這些,都是通過軟件被大模型、被生成式AI加持了之后,他們的業(yè)績得到實實在在的增長。

所以從這個意義上講,大模型應(yīng)用其實已經(jīng)逐步在浮現(xiàn)出來,它對于現(xiàn)有業(yè)態(tài)的改造作用,比從0到1顛覆,作用更早到來、更明顯,甚至我覺得也能夠創(chuàng)造更多價值。

以前Satya(微軟CEO)說過,他說過去互聯(lián)網(wǎng)叫做AutoPilot,意思就是,你自己就都把這個結(jié)果給弄出來了,現(xiàn)在的生成式AI叫Copilot,它實際上是人和機器共創(chuàng)的過程。

這個過程一開始大家覺得沒有那么性感,但是它對于人的工作效率的提升,對于成本的下降,對于打開新的可能性,產(chǎn)生的促進作用,其實是比那些從0到1的應(yīng)用,反而要更大。

如果僅僅是從0到1,你可能會希望出現(xiàn)某幾個Super app,那它也就是公司從中受益,但是今天幾乎各行各業(yè)所有的公司,被大模型加持之后,它都能受益,這種影響力,對于整個社會,對于人類來說,無疑是更大的。

只是大家好像覺得,這個東西我以前見過嘛?所以沒有那種新鮮感,或者他更多誕生在生產(chǎn)力場景,他的受眾群體,或者單一應(yīng)用受眾群體,不會過億、過十億那樣,尤其在C端,在公眾層面體感沒有那么集中,這是大家現(xiàn)在一直想找一個Super app的原因。

楊宇東:

你的問題是挑戰(zhàn)Robin,Robin說要卷起來,你說怎么沒看到卷,我總結(jié)下來,我的感覺,聽完Robin講完之后,我就知道了,我們理解的超級這兩個字,在Robin概念里面,一個是數(shù)以百萬計的應(yīng)用已經(jīng)開始起來了,第二個,所謂的超級反而是在垂直的,在一些局部的領(lǐng)域,它有非常顯著的加速度或者是增益。

陳茜:

或者是“超級”這個定義在互聯(lián)網(wǎng)時代跟在AI時代是不一樣的。

李彥宏:

是不一樣的。在互聯(lián)網(wǎng)時代可能是某一個單一的從0到1,或者是到100這樣的應(yīng)用,今天所謂的超級應(yīng)用,它是對現(xiàn)有場景的一種加持,這種加持還在早期,我必須得承認,它逐步會改變現(xiàn)有產(chǎn)品的形態(tài)。

我再舉一個例子,小說創(chuàng)作、網(wǎng)文,這個在國內(nèi)是特別火的行業(yè),過去就是人肉,靠自己的能力、想象,不斷的去更新一篇文章,或者是一個小說,這個效率是很低的。現(xiàn)在有了大模型的加持,基本上有一個構(gòu)思,它就會給你相應(yīng)的文檔,你給的再豐富一點,它就生成的再豐富一點,你說文風(fēng)太溫柔了,要不要強悍一點,根據(jù)你的想法,它可以不斷的去調(diào)整。

這樣的東西,在用戶看來,我仍然在讀一篇網(wǎng)文,在讀一篇小說,但是這個小說的生產(chǎn)成本生產(chǎn)效率,它的內(nèi)容豐富度,可讀性,優(yōu)良率等等,都是跟以前不一樣的。所以這樣的例子,其實我們在幾乎任何行業(yè)都能夠看到。

05 AI Agent智能體:門檻一定要夠低

楊宇東:

我們前面聊的總結(jié)一下叫卷應(yīng)用,接下來還有一個關(guān)鍵詞叫智能體,你說過好多次,AI時代最看好的是智能體,但是目前來看好像也沒有特別強大的爆發(fā)。你為什么認為智能體是AI時代未來的趨勢呢?

李彥宏:

我覺得智能體正在爆發(fā),只是說它現(xiàn)在基數(shù)還比較小的時候,大家的體感沒有那么強烈,但是你要看業(yè)界大模型公司,都在做智能體,業(yè)界這些意見領(lǐng)袖,基本上算是共識,一般大家都會說,我看好智能體。

智能體為什么代表未來?基礎(chǔ)模型它本身是需要靠應(yīng)用才能顯現(xiàn)出來的價值,智能體就是,一個幾乎可以放之四海而皆準的、基于大模型的應(yīng)用。

什么意思呢?根據(jù)我自己的場景,我設(shè)定一個角色人設(shè),我連編程都不用,我只要把我想要做的事情跟它講清楚,當(dāng)然有時候要把自己的私有知識庫對接進來,或者把自己做事情的套路給它說清楚,這個專業(yè)術(shù)語叫做工作流,把工作流套進去,它就是一個非常有用的、跟基礎(chǔ)模型不一樣的東西。

今天不能說所有,但是大多數(shù)AI的原生應(yīng)用,你用智能體的方式都可以做出來,做出來之后效果也不錯。

由于它的門檻足夠低了,可能你連編程都不用編,就可以做出來一個效果不錯的智能體,就意味著越來越多的人可以做出他想要的智能體。

這個有點像什么呢?有點像90年代中期的時候,互聯(lián)網(wǎng)的網(wǎng)站,這個網(wǎng)站你可以把它做得非常復(fù)雜,當(dāng)時比如說雅虎也是很厲害的網(wǎng)站,但是仍然在學(xué)校里讀書的大學(xué)生,他也可以做一個自己的HomePage,他把他常用的幾個網(wǎng)站鏈接鏈在那,比如說Java學(xué)習(xí)攻略這些東西,做幾個鏈接,就是他自己的網(wǎng)站,其實很簡單。

由于做網(wǎng)站很簡單,所以在90年代的時候,從中期到末期,就是誕生了數(shù)以百萬計的網(wǎng)站,這種大浪淘沙,最終會出來一些非常優(yōu)秀的網(wǎng)站,像Google、Facebook,這當(dāng)然是若干年之后才出現(xiàn),但是早期看的話,你可能看到的都是,這些網(wǎng)站怎么都是亂糟糟的,一個大學(xué)生就能做一個網(wǎng)站出來,這有啥價值呀?

但是你必須得門檻足夠低的時候,讓更多人進來,他們發(fā)揮聰明才智,指不定哪條路跑通了,它就是一個Super app,這就是為什么,我覺得智能體代表未來,我特別看好的一個新興的業(yè)態(tài)。

陳茜:

智能體AI Agent它是特別重要的概念,包括在美國硅谷也是這樣的,在業(yè)界大家對AI Agent,它的定義還是有一點不同的探討,我看到有些人說,比如說GPTs,也都是一些智能體,有些人會說,可能更加高級一點的Agent才算智能體,我的Agent要調(diào)取不同的工具,要成為一個虛擬世界的機器人,它可能才叫Agent,你對Agent的定義是什么樣子的?

李彥宏:

我首先要考慮這個門檻要足夠的低,就一個小白,比如說大一的學(xué)生,他也可以很方便的能夠制作一個智能體出來。

當(dāng)然在此之上,可以有各種各樣比較有趣的玩法,剛才你講的調(diào)用工具、反思呀、長期的記憶等等,這些能力會逐步的加進去。

這個跟90年代時候的網(wǎng)站誕生過程,也有類似之處,我們一開始的網(wǎng)站,都是很簡單的,后來我可以用Java把一些動態(tài)的東西放在一個網(wǎng)站里,再后來我可以加上cookie,這樣從一個網(wǎng)頁轉(zhuǎn)到下一個網(wǎng)頁的時候,我還記得上一個網(wǎng)頁你干了什么,這些東西在早期的時候,網(wǎng)站生態(tài)里頭是沒有的,但是一旦有越來越多的人在生產(chǎn)網(wǎng)站,技術(shù)就會跟進說,你有什么需求,我去解決你的問題。

Agent是一樣的,不是說用了最先進的,剛才講的這些能力之后,它才叫一個AI Agent,我反而覺得我們要把這個門檻降的足夠低,讓大家覺得說,我也可以搞一個AI Agent,進來之后隨著時間的推移,隨著你遇到新問題,解決問題的過程,會把各種各樣最先進的技術(shù)用進來。

說實話,我認為現(xiàn)在AI Agent用到的這些能力,仍然是非常初級的,未來還會產(chǎn)生我們今天想也想不到的Agent能力。

但是這些能力的誕生,反而要依賴數(shù)以百萬計的開發(fā)者,去開發(fā)各種各樣的應(yīng)用,在他們使用的過程當(dāng)中,產(chǎn)生新的需求,這些需求被解決的過程,就是一個創(chuàng)新的過程,就是AI Agent進化的過程,這個我還是非常期待的。

陳茜:

百度有什么比較有意思的AI Agent的案例可以給我們分享一下嗎?

李彥宏:

有很多,國內(nèi)高考是一個非常大的事件,不僅是學(xué)生,還有家長都非常重視。過去大模型在干什么事呢?高考有個作文題,我們用大模型來寫一個作文,看它能得多少分。

其實你想一想,這個東西在哪用呢?不可能讓考生帶著大模型去參加高考嘛,但是高考完了之后,你要估分,你要報志愿,你要選擇學(xué)校,你要選擇專業(yè),可能有人在乎說,這個宿舍里頭,一個宿舍要住幾個人,那個人在乎這個學(xué)校有沒有游泳池,或者說哪個專業(yè)更適合我未來發(fā)展,每個人的情況都是不一樣的,每個人的問題也都是不一樣的。這種情況下,哪有一個全能的輔導(dǎo)老師可以告訴你說,你最適合的是哪個學(xué)校哪個專業(yè),但是AI Agent就可以干這個事情。

所以過去大家來百度或者到其他地方去搜索,都是找世界上已經(jīng)存在的內(nèi)容,他沒有專門為這個人、這個時刻、這個地點、這樣的環(huán)境生產(chǎn)內(nèi)容。

而今天的AI,尤其是智能體,它就可以做到,你告訴我你是什么情況,你的情況可以不用一句話就說清楚,你用十句話也可以,我都記得,這樣的例子非常非常多。

陳茜:

而且它會非常個人化的給你很多的規(guī)劃,包括我看到你們跟新加坡旅游局也是有合作的。

李彥宏:

是的。你自己消費水平是多少、有多長時間、有什么喜好、愛吃什么、不愛吃什么,每個人都是不一樣的,它可以完全根據(jù)你的情況來生成你要的答案。

06 AGI與Scaling Law:值得長期奮斗的信仰

楊宇東:

我們說Scaling Law,以前大家都覺得沒問題,但是最近開始不同的聲音出來了,那確實我看很多行業(yè),做一些速度更快,效率更高的小模型,那Scaling Law會不會這么快又被顛覆掉了?

李彥宏:

Scaling Law本身可能還會有若干年的生命周期,但與此同時的話,就是在此之上會疊加出來各種各樣的創(chuàng)新。

剛才講的智能體、它的反思能力、它的進化的能力等等,其實跟Scaling Law已經(jīng)有點分離了,它是兩個路線在發(fā)展,但是它仍然是基于Transformer這類大模型在往上在做。

那未來再過一兩年,還會出現(xiàn)什么新的技術(shù)創(chuàng)新,在此基礎(chǔ)上再去疊加,我們也不知道,大家都在探索。

換句話說,我覺得Scaling Law短期之內(nèi)倒不會被顛覆,但是在Scaling Law之上會疊加出來很多很多、現(xiàn)在還無法想象的創(chuàng)新。

楊宇東:

你個人認為AGI實現(xiàn)的標(biāo)準是什么?還有哪些路徑可以讓我們更快的去通向AGI?

李彥宏:

我覺得這個問題確實業(yè)界沒有一個標(biāo)準答案,以前大家覺得,通過圖靈測試就實現(xiàn)AGI了,實際上現(xiàn)在大模型已經(jīng)通過了圖靈測試,但是人們所說的AGI,其實大多數(shù)時候已經(jīng)不是只通過圖靈測試。

那什么叫AGI?在我的心目當(dāng)中,AGI就是說是機器、或者AI,它能夠具備人在任何場景下所具備的能力,就是general intelligence(普遍能力)是通用的,我不管在什么場景,我的能力都是跟人是一樣的,這是一個很高的要求。

其實今天你看像我們做這個無人駕駛,做了有11年的時間了,仍然不能說這個技術(shù)成熟,它還是只一個專用場景,AI都做不到非常成熟,你不能容錯的話這個就不行了。

所以,真正要實現(xiàn)AGI,我認為確實是還需要很多很多年。但是業(yè)界有人說AGI可能再過2年,或者5年就能實現(xiàn),但是我自己的判斷是10年以上,也許10年,也許20年,也許更長的時間。

我們聽到很多人在講,AGI是一種信仰,當(dāng)你把它當(dāng)做信仰的時候,誰的信仰會明年就實現(xiàn)?這是自相矛盾的。如果是一個信仰,它就是值得為之長期奮斗的目標(biāo),啥叫長期呢?但是如果連10年都沒有的話,不能把它叫做信仰。

陳茜:

太容易了就不能叫信仰。

李彥宏:

對呀。

陳茜:

現(xiàn)在大家其實都在等GPT-5,但是GPT-5一直在延后,所以我在周圍聽到的擔(dān)憂的聲音也是越來越高,就怕說比如說5~10萬億這樣的參數(shù)加上去,但是最后大家發(fā)現(xiàn)它的效果并沒有躍升這么多,是不是會打擊一些人們對Scaling Law的信仰,可能我們的AGI沒有辦法用Scaling Law的這個方式去帶我們?nèi)崿F(xiàn)了,你對這個有擔(dān)憂嗎?

李彥宏:

我不是很擔(dān)心這件事情,我覺得大家應(yīng)該更關(guān)注應(yīng)用,而不是關(guān)注基礎(chǔ)模型,某種意義上講,基礎(chǔ)模型迭代速度稍微放緩一點不是壞事,就是今天的這些應(yīng)用的開發(fā)者,他有一個相對穩(wěn)定的base(基礎(chǔ)),來開發(fā)應(yīng)用的話,其實是效率更高一些的,如果模型天天在那兒練,他每天都要重寫一遍過去的這個代碼,那是很累的。

但是在現(xiàn)有基礎(chǔ)模型基礎(chǔ)上不斷的去做微調(diào),去做一些漸進式的迭代和和創(chuàng)新,其實你看到它是一直在發(fā)生的,無論是OpenAI不斷在推的東西,還是我們百度的turbo模型、更小量級的模型等等,都是在根據(jù)市場需求做迭代。

但是長遠來講,我確實認為下一代的大模型,一定會比現(xiàn)在這一代模型強大的多。什么時候推出來我不是很著急,我覺得應(yīng)該多看一下真實的市場需求是啥,然后我們下一代模型迭代的時候,根據(jù)市場需求來迭代。

如果我們認為AGI 10年都達不到,下一代模型離AGI其實還有很遠的距離,也就是說他有他擅長的、也有不擅長的地方,如果擅長的恰好不是市場需求的,那這個意義是不大的,如果他不擅長的恰好是市場需求的,那我們浪費了很多資源,去做一些不該做的事情。

這是為什么我更關(guān)注應(yīng)用,我想知道市場上(的需求)。比如說我是一個賣車的銷售,我用什么樣的話術(shù),能夠說服進店的這個人來買我的車,而不是說我怎么能夠考過高考數(shù)學(xué)。這就是市場需求,當(dāng)不是很清楚的時候拼命往前跑,去做一個名義上更強大的模型,其實很有可能是會走彎路,是浪費資源的。

陳茜:

我非常同意,那你覺得接下來大家在卷應(yīng)用之余,會不會開始卷一些中小模型,比如說國際上Mistral這樣的中小模型,也是受很多開發(fā)者歡迎的。那接下來你覺得百度在對于中小模型上,還有一些模型蒸餾上有什么樣的這個策劃?

李彥宏:

我覺得我們看到的真實需求,確實在絕大多數(shù)情況下都不是最大的模型,它都要求這個模型變小,變小意味著什么?速度快,成本低。比如說我干這個事兒,總共能夠給我?guī)砻磕?00萬的增益,我一算,最大的模型要120萬的成本,那我肯定不干了嘛。

那我給你這個大模型公司提的要求,就是說你能把成本給我降到80萬,甚至降到8萬,那我們就得想,怎么最強大的模型蒸餾到足夠小,也就是成本足夠足夠低的時候,仍然能夠滿足你這個場景的需求。

我覺得這一方面,閉源模型仍然有優(yōu)勢,因為閉源有最強大的基礎(chǔ)模型,那他根據(jù)這個模型蒸餾或者裁剪出來的小模型,會比那些開源模型蒸餾的會更好。畢竟你的基礎(chǔ)沒有人家好,做出來的東西在競爭力上也會顯得劣勢。

所以這方面我們看到真實的需求確實是非常非常多的,我們也覺得這方面的機會,仍然在閉源不在開源。

以上就是我們與李彥宏的采訪內(nèi)容,這次采訪其實對我個人理解市場很有幫助,因為這讓我理解到,企業(yè)家是如何去思考大模型商業(yè)化落地這件事情,特別是在大廠們?nèi)菀赘鞣N卷的中國市場。

當(dāng)全球的生成式AI公司們,無論是科技巨頭還是創(chuàng)業(yè)公司,都耗費大量資源、算力、金錢和人力去押注“Scaling Law是人類未來發(fā)展的正確途徑”的時候,總是有種聲音在提醒我們,我們需要算賬,這件事情如何以更經(jīng)濟、更合理的方式去發(fā)展。

飛往上海采訪李彥宏的前一個周末,在硅谷的一個聚會上,一位資深人士給我算了一筆賬:

全球芯片用于AI上的支出是4000億美元,這相當(dāng)于1.1萬億美元的數(shù)據(jù)中心支出,如果我們要求 25%的ROIC(投資資本回報率),這相當(dāng)于企業(yè)們需要產(chǎn)生1.4萬億美元的成本節(jié)省。

1.4萬億美元是全球技術(shù)工人工資的5%,全球總工資的3%,也是全球EBIT(息稅前利潤)的5%?;蛘?,如果我們假設(shè)利潤率為50%,則需要企業(yè)們用AI去創(chuàng)造2.8萬億美元的收入,即全球上市公司收入的3%,或全球GDP的2%。

這樣算起來的話,是不是可以說,以現(xiàn)在的投入量,只要AI能讓全球企業(yè)們創(chuàng)造2.8萬億美元的收入,那么發(fā)展AI這筆賬就是能算得過來的,到底什么時候能打平這筆帳呢?

反正我看高盛是預(yù)測,生成式AI可能會在10年內(nèi)推動全球 GDP 增長7%,也就是接近7萬億美元,并將生產(chǎn)率增長提高1.5個百分點。

所以,你會怎么去算AI發(fā)展的這筆帳呢?

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。