從北京亦莊人形機器人半程馬拉松“選手”超越人類紀錄,到漢諾威工業(yè)博覽會上參展人工智能(AI)應用和機器人“各顯身手”,AI技術(shù)在4月清晰展現(xiàn)出加速落地應用的趨勢。這個月還有多款大模型發(fā)布,其中“克勞德神話”模型據(jù)稱能自主識別并利用網(wǎng)絡安全漏洞,引發(fā)監(jiān)管關(guān)注和行業(yè)震動。另外,AI應用的不斷推出和業(yè)態(tài)的持續(xù)演化對治理提出更多新挑戰(zhàn)。
落地應用加速邁向“能干活”
隨著技術(shù)迭代和產(chǎn)業(yè)升級,AI應用正加速驅(qū)動各行業(yè)深層變革。在今年漢諾威工博會上,許多參展商帶來了AI在安裝、搬運、檢測等真實生產(chǎn)場景中的應用案例,為提升生產(chǎn)效率和優(yōu)化資源配置提供了新選項。主辦方德意志會展公司董事會主席約亨·科克勒認為,AI正成為與自動化、數(shù)字化等并列的工業(yè)基礎(chǔ)技術(shù),推動新一輪產(chǎn)業(yè)轉(zhuǎn)型升級。
具身智能是AI向“能干活”進化的一種主要形態(tài)。今年漢諾威工博會首次設立人形機器人專區(qū),集中展示相關(guān)領(lǐng)域最新成果。多家中國企業(yè)帶來的不同形態(tài)、功能各異的人形機器人,成為現(xiàn)場關(guān)注焦點。
從垂直領(lǐng)域來看,醫(yī)療產(chǎn)業(yè)是AI應用熱點方向之一,醫(yī)藥研發(fā)賽道吸引越來越多科技企業(yè)入局,融入AI技術(shù)的新一代科研基礎(chǔ)設施正在全面重塑藥物研發(fā)的傳統(tǒng)范式。近期,美國開放人工智能研究中心(OpenAI)推出專為生命科學研究打造的前沿推理模型GPT-Rosalind,旨在提升藥物研發(fā)各個環(huán)節(jié)的效率;亞馬遜云科技公司發(fā)布AI應用“Amazon Bio Discovery”,可為研究人員設計和測試新藥提供支持。
在北京亦莊人形機器人半程馬拉松比賽上,奪冠的中國機器人“閃電”的成績比人類半馬世界紀錄快了近7分鐘,體現(xiàn)人形機器人在極限場景下的任務執(zhí)行能力,其背后是AI、工業(yè)制造、通信應用、材料研發(fā)等技術(shù)領(lǐng)域的不斷協(xié)同進化。隨著應用場景不斷拓展,中國人形機器人已經(jīng)成為中國硬科技的一張新名片。
AI網(wǎng)絡攻防能力升級引關(guān)切
4月,多款大模型“上新”,包括谷歌新一代開源模型Gemma 4、美國AI企業(yè)Anthropic的“克勞德神話”、元宇宙平臺公司旗下“超級智能實驗室”的首款模型Muse Spark等。
其中,“克勞德神話”在AI網(wǎng)絡安全領(lǐng)域引發(fā)持續(xù)關(guān)注乃至擔憂,美英等國監(jiān)管機構(gòu)緊急向金融等行業(yè)提示相關(guān)風險。據(jù)介紹,“克勞德神話”能夠自主識別并利用主要操作系統(tǒng)和網(wǎng)絡瀏覽器中可立即用于攻擊的“零日漏洞”,串聯(lián)多個漏洞構(gòu)建攻擊手段,并實現(xiàn)突破運行限制范圍的“沙箱逃逸”。開放人工智能研究中心也于4月推出了迭代模型GPT-5.4-Cyber,宣稱能夠幫助安全專業(yè)人員評估潛在惡意軟件風險和漏洞。
有業(yè)內(nèi)觀點認為,“克勞德神話”等具有較強網(wǎng)絡攻防能力的模型表明,AI能力已經(jīng)跨過一個門檻,正在從根本上改變網(wǎng)絡安全攻防格局,極大提升了保護關(guān)鍵基礎(chǔ)設施免受網(wǎng)絡威脅的緊迫程度。英國一項評估顯示,前沿模型能力翻倍的周期已從8個月縮短至4個月。
值得注意的是,“克勞德神話”和GPT-5.4-Cyber都以“安全風險過高”為由,僅向少數(shù)合作伙伴或經(jīng)過審查的安全供應商、機構(gòu)和研究人員有限開放。有觀點認為,這背后可能潛藏利益考量,旨在爭奪有關(guān)AI技術(shù)研發(fā)和安全標準制定的話語權(quán)。須警惕前沿大模型領(lǐng)域演變成由“少數(shù)實驗室、特定政府機構(gòu)和戰(zhàn)略合作伙伴組成的小圈子”。
新應用提出治理新挑戰(zhàn)
4月,一個名為“同事.skill”的項目在開源技術(shù)社區(qū)GitHub上爆火。其功能是通過聊天記錄、工作郵件、文檔等原始材料,再加幾句主觀描述,生成一個可以代替離職同事的“AI分身”。網(wǎng)友將這一過程戲稱為“煉化”。
該項目引發(fā)關(guān)于AI時代個人數(shù)據(jù)保護、責任主體界定等問題的討論。有觀點認為,“煉化同事”不僅可能構(gòu)成對員工個人智力成果的侵權(quán),還存在侵犯隱私權(quán)的風險。而且,一旦“AI分身”在工作中犯錯,現(xiàn)有法律尚無法清晰界定責任主體。
近來還有“開放之爪”等智能體被廣泛應用。清華大學新聞與傳播學院教授陳昌鳳接受新華社記者采訪表示,以“開放之爪”為代表的智能體已不再只是被動執(zhí)行指令的工具,而是能夠自主拆解任務、調(diào)用工具并協(xié)調(diào)流程的“行動參與者”。一旦執(zhí)行中出現(xiàn)偏差或錯誤,責任往往不是來自單點失靈,而是由模型、工具、平臺及相關(guān)參與主體共同構(gòu)成的鏈條所導致。這種多主體協(xié)同的結(jié)構(gòu)對傳統(tǒng)的責任歸屬框架提出挑戰(zhàn)。
AI正在深刻改變世界。AI技術(shù)迅猛發(fā)展并催生大量全新應用,在賦能各行業(yè)的同時,相關(guān)的安全、監(jiān)管及社會影響等問題日益突出。當前AI治理的一個核心問題在于盡快厘清人機協(xié)作的權(quán)責邊界,以確保AI真正服務于人、造福社會。
新華社記者張瑩