6月17日消息(南山)日前舉辦的人工智能行業(yè)盛會“2024北京智源大會”上,零一萬物CEO李開復與清華大學智能產業(yè)研究院院長、智源學術顧問委員張亞勤進行了一場尖峰對話。
在對話中,李開復強調,大模型是AI有史以來最大的革命,人類能夠用更多計算和數(shù)據(jù)不斷讓它增加智慧,目前還在推進中,這是令人振奮的事情。當然挑戰(zhàn)也非常多,例如當前主要靠算力推動,使得掌握GPU資源的國家處在優(yōu)勢地位;再如因為數(shù)據(jù)問題,大模型不知道“最近一年發(fā)生了什么”。當然,隨著人類社會加大研究,李開復對大模型的未來十分樂觀。
張亞勤則談到,大模型做對了三件事,還需三大改進。
做對了哪三件事?一是規(guī)模法則(Scaling Law),得益于對海量數(shù)據(jù)的利用以及算力的顯著提升,再加上現(xiàn)在的Diffusion和Transformer架構能夠高效地利用算力和數(shù)據(jù),使得“飛輪效應”得以正循環(huán)。盡管有人質疑Scaling Law在2~3年后是否仍然有效,但至少在未來5年里,它仍將是大模型發(fā)展的主要方向。
二是“Token Beist”。在大模型中,“Token”是一個基本元素,無論是文本、語音、圖像、視頻、自動駕駛,甚至是生物領域的蛋白質和細胞,最終都可以抽象為一個Token。Token之間的訓練、學習和生成是核心環(huán)節(jié),這與人類大腦中的神經元工作原理相似,無論執(zhí)行何種任務,其基礎機制都是相同的。
三是通用性。通用性不僅體現(xiàn)在文本處理上,還擴展到了多模態(tài)領域,甚至可以生成如蛋白質等復雜結構。此外,它在物理世界(如具身智能)和生物世界(如生物智能)中也有著廣泛的應用前景。
此外大模型還需要做三大改進。一是效率,人類大腦擁有860億個神經元,每個神經元又有數(shù)千個突觸連接,卻只需要20瓦的能量,重量還不到三斤;而大模型還依靠大量堆積GPU,需要建立真正的商業(yè)模式,大幅度提升效率。
二是大模型沒有真正理解物理世界。當前做的再好的大模型,在生成式和對世界真實的表述之間存在矛盾,人類需要探索如何將生成式的概率大模型與現(xiàn)有的“第一性原理”或真實模型、知識圖譜相結合。張亞勤認為,未來 5年會有全新的架構替代現(xiàn)在的Transformer和Diffusion模型。
三是欠缺邊界。大模型現(xiàn)在不明白“我不知道什么”,需要業(yè)界解決這個難題。
- 捂緊口袋!運營商上半年完成CAPEX 1128億,還不到預算40%
- 美國電網面臨數(shù)據(jù)中心熱潮壓力
- 加拿大AI初創(chuàng)公司Cohere獲5億美元新融資 估值增至68億美元
- 美國電網面臨數(shù)據(jù)中心熱潮壓力
- 加拿大AI初創(chuàng)公司Cohere獲5億美元新融資 估值增至68億美元
- 教育部:120所高校新增“低空技術與工程”專業(yè)
- 韓國央行調查:超半數(shù)勞動者在工作中使用AI
- 韓國央行調查:超半數(shù)勞動者在工作中使用AI
- 雷科防務上半年凈虧損4167.21萬元 同期減虧37.27%
- Omdia觀察:亞洲市場衛(wèi)星D2D服務發(fā)展面臨的現(xiàn)實挑戰(zhàn)
免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。