科學(xué)技術(shù),既是人工智能(AI)理論和技術(shù)發(fā)展的源頭和基礎,也是人工智能的使用者、被影響者。近期,國務(wù)院印發(fā)《關(guān)于深入實(shí)施“人工智能+”行動(dòng)的意見(jiàn)》。其中,“人工智能+”科學(xué)技術(shù),列在加快實(shí)施重點(diǎn)行動(dòng)的第一位。中國科學(xué)院院士張錦日前在本版撰文指出:AI for Science(AI應用于科學(xué)研究領(lǐng)域)已成為當前推動(dòng)科技創(chuàng )新“破繭成蝶”的重要支撐……不僅代表了AI應用領(lǐng)域的前沿,更成為推動(dòng)AI自身核心能力升級、最終通往通用人工智能(AGI)的關(guān)鍵驅動(dòng)力。
“人工智能+”科學(xué)技術(shù)將給科技界帶來(lái)哪些機遇與挑戰?又該如何保證科技向善?本期,我們邀請多位專(zhuān)家談?wù)勊麄兊目捶ā?/p>
AI正深刻地改變科研范式,成為科學(xué)發(fā)現與技術(shù)突破的重要驅動(dòng)力。但不少科研人員和公眾對其產(chǎn)生了不同層面的擔憂(yōu)。AI,究竟是科研的加速器,還是挑戰者?
正視AI 是工具不是對手
□ 李重儀
過(guò)去10年,AI技術(shù)以驚人的速度發(fā)展,并逐步滲透到人類(lèi)生產(chǎn)和科學(xué)發(fā)現的方方面面。AI進(jìn)入科學(xué)領(lǐng)域的方式非常廣泛,已經(jīng)涌現出一系列具有代表性的成果和應用。例如,在蛋白質(zhì)結構預測領(lǐng)域,AlphaFold的出現幾乎解決了生物學(xué)界長(cháng)達半個(gè)世紀的“結構預測難題”,大幅度加快了藥物研發(fā)和分子生物學(xué)研究的進(jìn)展。在醫療健康領(lǐng)域,除了醫學(xué)影像自動(dòng)診斷,AI還被用于藥物靶點(diǎn)預測、臨床數據分析、個(gè)性化治療方案推薦,成為醫生和科研人員不可或缺的工具。
這些例子表明,AI不僅是科研中的“助手”,更逐漸成為推動(dòng)科學(xué)前沿的重要力量。過(guò)去可能需要十年甚至數十年才能攻克的難題,如今在A(yíng)I的加持下有望在幾年甚至幾個(gè)月內得到突破。
然而,面對突如其來(lái)的AI大模型時(shí)代,不少科研人員甚至普通大眾也產(chǎn)生了不同層面的擔憂(yōu)。
研究方向是否失去意義:一些原本被認為是可以長(cháng)期研究的科學(xué)難題,可能被AI在短時(shí)間內攻克,從而讓研究者擔心自己的研究不再“有價(jià)值”。
研究資源的不平衡:由于大模型訓練和運行需要巨大的算力和資金支持,很多課題組或中小機構難以參與其中,擔心被徹底邊緣化。
傳統科研方法的“實(shí)效”:當AI方法能夠輕易超越傳統方法時(shí),一些人擔心傳統科研方法不再被認可。
生成式模型的幻覺(jué)問(wèn)題:大模型在生成答案時(shí)可能會(huì )出現事實(shí)性錯誤,這在科學(xué)研究中可能造成誤導。
社會(huì )就業(yè)的焦慮:有人擔心隨著(zhù)AI接管大量工作任務(wù),可能造成科研人員和技術(shù)人員大批失業(yè)。
這些擔憂(yōu)在一定程度上是合理的,但也需要全面、理性地分析。筆者認為,總體而言,AI對科學(xué)研究具有正面、積極的意義。
AI會(huì )提升科研效率,這一點(diǎn)已經(jīng)被廣泛接受,這里不再贅述。
關(guān)于資源不平衡的問(wèn)題,并非所有的研究都需要依賴(lài)大模型,小模型依舊有巨大的生命力。隨著(zhù)技術(shù)的發(fā)展,輕量化模型、專(zhuān)用化模型不斷涌現,很多課題組即便資金有限,也能利用小模型在具體問(wèn)題上發(fā)揮作用。這可以降低科研的門(mén)檻,給更多人“下場(chǎng)”研究的機會(huì )。
關(guān)于科研方法的問(wèn)題,傳統方法不應被完全拋棄。許多AI的設計靈感正來(lái)源于傳統的數學(xué)與物理方法。物理啟發(fā)、數學(xué)約束等思想在深度學(xué)習模型的設計中依然具有重要價(jià)值。這同時(shí)能解決人工智能的“幻覺(jué)”問(wèn)題——將傳統科學(xué)方法與AI模型結合,可能孕育出更加穩健、可信的成果。
生成式語(yǔ)言模型的幻覺(jué)問(wèn)題,不應成為“人工智能+”科學(xué)技術(shù)的阻礙??茖W(xué)發(fā)現始終是一個(gè)多環(huán)節、多驗證的過(guò)程,講求嚴謹與可驗證性。AI提出的結果只是一個(gè)參考,最終能否成立,還要經(jīng)過(guò)實(shí)驗驗證、同行評議、臨床試驗等多重檢驗。例如,AI可以幫助發(fā)現一種可能具有抗癌作用的化合物,但在進(jìn)入臨床前,仍需要大量的實(shí)驗驗證,最終是否使用也必須由醫生和監管機構綜合判斷。換句話(huà)說(shuō),AI是輔助而非決策者,只要人類(lèi)把握住最終的決策權,就無(wú)需過(guò)度擔心幻覺(jué)問(wèn)題。
至于科學(xué)家會(huì )不會(huì )被AI取代,筆者認為,AI替代的往往是那些耗時(shí)耗力、重復性強的工作,例如大規模數據的清理與統計、冗長(cháng)文獻的整理與初步分析等。這些工作過(guò)去需要投入大量人力,如今AI能夠快速完成,科研人員正好解放出更多時(shí)間和精力,專(zhuān)注于更具創(chuàng )造性、創(chuàng )新性的工作。目前來(lái)看,AI在原創(chuàng )性和真正的科學(xué)洞見(jiàn)上仍存在明顯不足——因為,科學(xué)發(fā)現不僅需要數據和計算,更需要問(wèn)題意識、直覺(jué)判斷、跨學(xué)科聯(lián)想和價(jià)值選擇。這些能力是AI暫時(shí)無(wú)法完全替代的。因此,我們與其擔心“失業(yè)”,不如積極思考如何轉變角色,如何與AI協(xié)同工作,把AI當作增強人類(lèi)智慧的工具,而不是競爭對手。
毋庸置疑,AI正在重塑科學(xué)研究生態(tài)。它既帶來(lái)了前所未有的機遇,也引發(fā)了一些合理的擔憂(yōu)。但從長(cháng)遠看,AI的積極作用遠大于潛在風(fēng)險。我們要做的就是,積極擁抱,探索如何與AI共同進(jìn)步。
(作者系南開(kāi)大學(xué)計算機學(xué)院教授)
探索更多AI實(shí)現路徑、率先布局未來(lái)技術(shù),才能讓我們在包括“人工智能+”科學(xué)技術(shù)在內的各個(gè)領(lǐng)域搶占先機。那么,AI的未來(lái)在哪里?
發(fā)展AI 融合人腦智慧
□ 李國齊 姚滿(mǎn)
2017年問(wèn)世的Transformer架構(編者注:一種深度學(xué)習模型),被認為是目前人工智能大模型的技術(shù)基石。其基于簡(jiǎn)單的神經(jīng)元和復雜的網(wǎng)絡(luò )架構,在尺度定律的驅動(dòng)下,通過(guò)增加網(wǎng)絡(luò )規模、算力資源和數據量提升模型智能水平,并取得了巨大成功。
但這就是AI的未來(lái)嗎?我們是繼續沿著(zhù)Transformer架構的道路不斷擴充參數規模,還是回過(guò)頭來(lái),向這個(gè)世界上最精巧的智能系統——人類(lèi)大腦,尋求啟發(fā)?
當前學(xué)術(shù)界對此仍存在較大爭論。支持者,如諾貝爾物理學(xué)獎得主、深度學(xué)習之父杰弗里·辛頓,圖靈獎得主、紐約大學(xué)教授楊立昆等著(zhù)名學(xué)者堅持神經(jīng)科學(xué)是AI發(fā)展的重要靈感來(lái)源。杰弗里·辛頓曾明確表示,克服人工智能局限的關(guān)鍵在于建立計算機、科學(xué)和生物學(xué)之間的橋梁。反對者則認為,AI的重要成果并未受到神經(jīng)科學(xué)機制的啟發(fā),將來(lái)或許也不用。
但是,單一路線(xiàn)的系統性風(fēng)險不容忽視:其在效率、可解釋性等方面的內在局限,會(huì )沿技術(shù)棧被放大并傳導至所有下游應用,如Transformer架構在處理長(cháng)序列時(shí)存在二次復雜度增長(cháng)的問(wèn)題,嚴重限制了其在長(cháng)文本、科學(xué)計算等場(chǎng)景中的應用??茖W(xué)家們有責任前瞻地回答這樣的問(wèn)題:?jiǎn)渭冏非笠幠5脑鲩L(cháng)是否能持續推動(dòng)AI系統向更高階段發(fā)展?我們是否應該尋求其他突破性的研究方向,來(lái)進(jìn)一步優(yōu)化現有系統?
在筆者看來(lái),類(lèi)腦計算,或許將成為未來(lái)AI的發(fā)展方向。
人腦作為已知最高效的智能系統,以約20瓦的功耗支撐千億級神經(jīng)元和千萬(wàn)億級突觸的復雜動(dòng)態(tài)網(wǎng)絡(luò ),其能效遠超現有任何AI系統。這種高效的信息處理機制,尤其是事件驅動(dòng)、稀疏計算、多尺度動(dòng)力學(xué)等特性,為構建下一代低功耗、高性能AI模型提供了寶貴借鑒。神經(jīng)科學(xué),尤其是其對人腦工作機制的研究,正為AI未來(lái)發(fā)展提供一條全新的路徑。
然而,神經(jīng)科學(xué)與AI技術(shù)之間存在一個(gè)明顯的鴻溝。從當前的研究來(lái)看,神經(jīng)科學(xué)主要側重于精細的結構和生理細節,強調神經(jīng)元之間的復雜連接以及大腦尺度的動(dòng)力學(xué),而AI技術(shù)則更注重抽象的結構和計算的高效性,尤其是在大規模并行計算方面。例如,GPU(圖形處理器)在處理大規模并行計算時(shí),能夠實(shí)現高效的計算能力,但卻難以高效支持當前神經(jīng)科學(xué)所關(guān)注的精細結構和神經(jīng)元建模。這也就造成了神經(jīng)科學(xué)和AI之間的鴻溝——當前AI模型往往難以將神經(jīng)科學(xué)中的復雜結構融入進(jìn)來(lái),更遑論將其擴展到大規模的計算模型中。
盡管關(guān)于未來(lái)AI實(shí)現路徑的爭議仍在,盡管存在這樣那樣的困難,但AI研究者們給出了選擇——腦科學(xué)與人工智能的結合已逐漸成為現實(shí),各主要發(fā)達國家都把類(lèi)腦計算、神經(jīng)網(wǎng)絡(luò )等的研發(fā),列為未來(lái)重點(diǎn)發(fā)展的領(lǐng)域。
想在類(lèi)腦計算領(lǐng)域占據領(lǐng)先地位,就要繼續強化前沿交叉研究,加強與神經(jīng)科學(xué)、心理學(xué)、數學(xué)、計算機科學(xué)、量子科學(xué)等學(xué)科的交叉,拓展深化人工智能基礎理論研究范疇,推動(dòng)下一代人工智能技術(shù)在基礎模型架構、高效學(xué)習范式和復雜認知推理等方面的突破。
可喜的是,中國在這一方向上已經(jīng)取得若干突破。以筆者所在的研究組為例,我們日前成功研發(fā)了類(lèi)腦大模型“瞬悉1.0”(SpikingBrain)。經(jīng)過(guò)測評,其在多個(gè)核心性能上實(shí)現了突破。首先,它在極低數據量下實(shí)現了高效訓練,顯著(zhù)提升了長(cháng)序列訓練效率。其次,它的推理效率得到數量級提升,特別是在超長(cháng)序列處理上展現出顯著(zhù)優(yōu)勢。這使其在“人工智能+”場(chǎng)景下,如法律/醫學(xué)文檔分析、復雜多智能體模擬、腦機接口、高能粒子物理實(shí)驗等超長(cháng)序列日常應用和科學(xué)任務(wù)建模場(chǎng)景等,具有顯著(zhù)的潛在效率優(yōu)勢。再次,它構建了國產(chǎn)自主可控的類(lèi)腦大模型生態(tài),支持將現有Transformer模型高效轉換為類(lèi)腦脈沖架構。最后,它設計了多尺度稀疏機制,為低功耗的類(lèi)腦大模型運行提供了有力支撐。
沿著(zhù)這個(gè)方向,我們或可找到一條融合神經(jīng)元豐富動(dòng)力學(xué)特性,具有生物合理性和計算高效性的神經(jīng)網(wǎng)絡(luò )新路徑,構建新一代通用智能模型,從而探索腦科學(xué)與人工智能基礎模型架構之間的橋梁。
(作者分別系中國科學(xué)院自動(dòng)化研究所研究員;助理研究員)
AI不僅是“科研工具的革命”,更是“科研革命的工具”。那么,如何保證這把雙刃劍始終向善?
使用AI 基于原則而非利益
□ 李俠 姚月
人工智能帶給我們的變革是全領(lǐng)域、全方位的,這個(gè)時(shí)代的人們,正在見(jiàn)證一場(chǎng)新的產(chǎn)業(yè)革命。我們面臨的問(wèn)題之一,是如何讓這個(gè)被制造出來(lái)的未來(lái)既是友好的,也是體面的,這需要我們設定一些規則的“護城河”。因此,要加強對人工智能倫理的前瞻性研究——雖然不能一勞永逸地保證永遠正確,但至少可以為人工智能的有序發(fā)展提供一些可控的防御機制。那么,具體到科技領(lǐng)域,該做些什么準備呢?
我們需要清醒地意識到,隨著(zhù)科技的發(fā)展與技術(shù)迭代的加速,人工智能會(huì )展現出更多的機會(huì )與不確定性。在剛剛結束的2025世界人工智能大會(huì )上,諾貝爾物理學(xué)獎得主杰弗里·辛頓直言,AI已無(wú)法消除,人類(lèi)所能做的只是:培養不會(huì )從人類(lèi)手中奪權的“好AI”。
在A(yíng)I“軍備競賽”早已展開(kāi)的當下,作為深度學(xué)習領(lǐng)域資深專(zhuān)家的辛頓對于人工智能略帶悲觀(guān)的論點(diǎn),絕非危言聳聽(tīng)。這里,我們要談到一個(gè)現象——技術(shù)脫域。所謂“技術(shù)脫域”現象,是指技術(shù)脫離人類(lèi)的控制。這一點(diǎn)在A(yíng)I上表現得極為明顯,GPT-4、AlphaGo等技術(shù)軟件是一個(gè)又一個(gè)黑盒子,輸出的信息與做出的決定,就是基于各種不透明而又極其復雜的微小信號鏈。
面對新技術(shù)革命的到來(lái),單純的悲觀(guān)與樂(lè )觀(guān)都于事無(wú)補,為人類(lèi)共同的未來(lái)考慮,必須未雨綢繆設計一些規范來(lái)引領(lǐng)人工智能的發(fā)展。這其中,充滿(mǎn)困難與挑戰。
比如,倫理規則的滯后性。倫理規則制定的理想狀態(tài)是先于技術(shù)迭代,但遺憾的是,人類(lèi)社會(huì )中規則的變化總是慢于科技的變化。這就不可避免地會(huì )出現“倫理代差”,尤其是針對以AI為代表的高科技,這種滯后性愈發(fā)凸顯。因此,將不可避免地在某些領(lǐng)域出現“倫理失靈”與“倫理真空”現象,對于全局性的技術(shù)而言,這種可能性大大增加。而其一旦發(fā)生,或許將付出整個(gè)社會(huì )難以承受的代價(jià)。
比如,難以達成共識。倫理規則的制定需要共識基礎。但在A(yíng)I倫理的制定中,一個(gè)非常困難的點(diǎn)在于,由于每個(gè)人/群體都要受到特定歷史、認知、偏好與價(jià)值觀(guān)等因素的影響,要在規則內容上達成共識非常困難。人與人之間的價(jià)值對齊尚且如此困難,目前的研究顯示,人—機、機—機之間的價(jià)值對齊就更加困難。瑞士社會(huì )學(xué)家海爾格·諾沃特尼曾提到,蘇黎世聯(lián)邦理工學(xué)院的研究團隊分析了84份來(lái)自世界各地的企業(yè)、專(zhuān)家團體、政府、國際組織關(guān)于A(yíng)I發(fā)布的倫理文件,約半數來(lái)自私營(yíng)部門(mén),另外半數來(lái)自公共機構。研究人員驚訝地發(fā)現,竟然沒(méi)有一條倫理原則是每份文件都提過(guò)的。這個(gè)結論足以反映,當下社會(huì )各界在人工智能科技倫理方面,還只能達成一些有限共識。
盡管有這樣那樣的問(wèn)題,但倫理規則設計與“人工智能+”同行甚至先行,是我們的目標,是AI健康發(fā)展的必要生態(tài)。
筆者認為,人工智能的倫理規則,一個(gè)最基本的出發(fā)點(diǎn)就是:它應是基于原則而非基于利益的。
宏觀(guān)上,相關(guān)管理部門(mén)、科技界應該肩負起更大責任,不能將AI倫理規則的制定完全讓位于企業(yè)。筆者發(fā)現,目前很多AI倫理規則都是AI頭部企業(yè)率先推出的。而企業(yè)本能地會(huì )基于其自身利益制定規則,因而可能存在巨大倫理隱患。如一些人工智能產(chǎn)品的算法黏性問(wèn)題。美國麻省理工學(xué)院最新研究表明,長(cháng)時(shí)間用ChatGPT寫(xiě)作,會(huì )讓大腦“變傻”。而從長(cháng)遠看,一項能讓人樂(lè )此不疲自愿變傻的技術(shù)顯然是不道德的。但,主要責任歸誰(shuí)呢?更有甚者,研發(fā)者在算法中植入偏見(jiàn),被指數級擴散后,將可能制造社會(huì )的分裂。
針對這種倫理的脆弱性,最直接的解決辦法就是公開(kāi)算法。為避免個(gè)人認知的局限性,甚至可以采用算法民主化——只有大多數人都同意的規則,才更有普遍性,才能最大限度地遏制倫理風(fēng)險的發(fā)生。
具體而言,AI倫理的制定可圍繞以下四個(gè)問(wèn)題切入:公正問(wèn)題、責任問(wèn)題、隱私問(wèn)題與安全問(wèn)題。圍繞這四個(gè)問(wèn)題,我們可以組織力量牽頭制定出一套可以被世界廣泛接受并具有普遍性的長(cháng)效倫理規則。
可以說(shuō),在未來(lái)AI的發(fā)展中,倫理規則競爭的影響力將更長(cháng)久。因為規則的話(huà)語(yǔ)主導權一旦形成,很難轉移。從這個(gè)意義上說(shuō),借助于“人工智能+”的東風(fēng),構建基于原則而非利益的AI倫理規則,恰逢其時(shí)。
(作者分別系上海交通大學(xué)科學(xué)史與科學(xué)文化研究院教授;博士研究生)