據(jù)悉,Meta首席AI科學(xué)家楊立昆(YannLeCun)長期對主流大型語言模型(LLM)技術(shù)路線持懷疑態(tài)度,認(rèn)為其無法孕育真正智能。本月,JEPA2論文發(fā)布及楊立昆共同署名的新研究《從token到思想:LLM與人類如何在壓縮與意義之間權(quán)衡》為這一觀點提供了理論證據(jù)。研究表明,LLM在理解世界的方式上與人類存在根本性差異,這種差異可能無法通過擴大模型規(guī)模和數(shù)據(jù)量的“縮放定律”彌合。研究還指出,LLM是天生的“效率之王”,而人類認(rèn)知系統(tǒng)中的“低效”正是其強大功能的體現(xiàn)。未來,LLM的發(fā)展可能需要引入更豐富的獎勵信號、改變生成粒度或結(jié)合多模態(tài)學(xué)習(xí)等新路徑,以克服當(dāng)前技術(shù)路線的局限性。