梅宏🛌:對當前人工智能熱潮的幾點冷思考

如果要票選當前社會經濟發展中的熱詞,“人工智能”(Artificial Intelligence, AI)一詞一定可以入選✏️;如果要盤點當前科技界的重大進展👷,AI技術的進展也一定會入圍,並會名列前茅🛰,雖然其進展主要集中在深度學習這個子領域。用“如日中天”“眾星捧月”描述當下AI的地位毫不為過👩‍🦽‍➡️!造成這種少見現象的原因不僅僅是AI技術本身10余年來令人驚艷的突破性進展,還包括AI技術對社會經濟各行各業,對科學技術各個學科的發展帶來的深遠甚至顛覆性的影響。在我國⚂,AI的熱潮較國際更盛🤾🏿。

我不是AI具體技術的研究者,但作為AI領域的大同行,作為AI技術發揮作用的基礎——計算系統中軟件技術的研究者,從當前的熱潮中,我看到了太多“炒作”和“非理性”導致的 AI“過熱”現象,也對當前AI發展技術路徑多樣性的欠缺萌生了一些擔憂🐦‍⬛🏌🏻‍♀️。我認為👩🏼‍🚒,有必要認真審視和反思當前AI的本質及其可能帶來的影響,以及人類發展AI的目標和路徑等問題🏷👨‍👧‍👦。為此✝️,在今年7月於長沙舉行的2024ACM中國圖靈大會上🧑🏼‍⚕️,我作了一個演講,題為“對當前人工智能熱潮的幾點冷思考”😶‍🌫️。本文根據該演講整理而成🤌🏽。

AI發展的簡短回顧

人類對“用機器模擬人類智能”的追求遠早於現代電子計算機的發明。如果將算術計算的能力也視為智能(實際上,在教育還不那麽普及的時代👩🏻‍🦱,算數能力確是智者的能力),那麽歷史上的各類計算裝置,例如帕斯卡的加法器、萊布尼茨的機械計算器和巴貝奇的差分機,無疑都是對用機器模擬算數能力這一目標的追求🚿。就其第一目標而言,圖靈機模型以及第一臺電子計算機ENIAC均是針對“計算”這類智能的⛸,不過,隨著電子計算機在計算能力上超越人類,人們開始不把計算等同於智能了。1950年,艾倫·圖靈(Alan Turing)在其論文的開篇首句即提出✍🏻:“機器能思考嗎?”該問題後來演變為“機器能表現得像人一樣嗎👇🏻?”👩🏼‍🦳。此即是圖靈測試提出的問題基礎🚌,也成為後續幾十年AI研究追求的重大目標🩳,甚至是終極目標。

對機器智能的擔憂幾乎伴隨了追求模擬人類智能的全過程。1942年,科幻作家艾薩克·阿西莫夫(Isaac Asimov)就在其小說《環舞》(Runaround)中就提出了機器人三定律1,其目的就是為了警示機器智能可能給人類帶來的威脅。

1956年,“人工智能”一詞被提出,在經歷兩個“春天”和兩個“冬天”後𓀖,AI迎來了第三個“春天”。而這個“春天”顯得尤為生機勃勃💂🏿‍♂️,呈現一片“繁榮”景象。從2012年底👨🏼‍🍼,在ImageNet圖像分類任務上🧝🏼,AlexNet展現出了深度學習的強大感知能力👨‍🦼,2015年初,ResNet超過人類的平均水平➡️🤌🏼;到2016年初🔴,AlphaGo以絕對優勢戰勝李世石;再到2022年底,OpenAI2推出新的智能聊天大語言模型ChatGPT3,因其表現優異,被人們稱為“現象級”的AI應用👛。這些事件均代表了AI的一次次重要突破,堪稱AI發展史上的重要裏程碑。

貫穿AI的發展,有一個始終被討論的問題:“什麽是AI,如何理解AI?”時至今日👲🏿,仍未達成普遍共識。通常人們談的智能,多指人腦的智能,從基本的計算、記憶能力💸,到感知能力,再到高層次的認知能力,進而到發現、創造能力🫷🏽,最終歸為人的智慧👩🏿‍🦲。還有一類是從人的動作能力考察的智能,被稱為行為智能。到目前🧎🏻‍♀️‍➡️,AI在不少任務上的感知能力可以說已經超越人類📿,但是👂🏿,認知和行為能力與人類相比還差距甚大。當前炙熱的大語言模型能力常常被關聯到認知智能,但從人類視角看🦑,大語言模型有認知能力嗎🛌?我認為,還沒有。

“智能”這一概念本就是人類用以區別自身和動物的專屬詞🕺🏼,並刻意創造了“人工智能”一詞指代機器模擬的“智能”。“智能化”是當前的熱詞,本意是指由AI驅動或賦能👩‍🦯,即AI-powered 或AI化,通過AI技術提升人類或機器完成各類任務的能力🦃♙,但人們為了文字的簡潔,省略了“人工”這個詞😖。隨著時間的推移,隨著“智能化”一詞被用於各種事物(everything)🦸🏽‍♀️,很多人忘了現在的“智能化”本質上是“人工智能化”,進而導致很多人忽視了“人”才是地球上真正的智能體,冀圖用AI去“智能化”人類。一個例子是所謂“智能設計”這個提法🪜,很多設計均屬於人類的智力性創造性活動,用計算機輔助設計無疑會大大提升效率,用AI甚至可以自動完成不少設計任務🧭,但無論如何⏬,我們不應將機器完成或輔助完成的設計視為“智能”的產物,它只是“AI設計”的產物。本質上,人的設計才是“智能”的,AI是人類創造出來的工具,不能反“仆”為“主”。

當前主流的AI工作機製,與人類大腦的工作方式仍相去甚遠🚴🏻‍♀️。如果我們過度使用類人的術語描述機器,比如“意識”“心智”,甚至“矽基生命”等🤍,很容易給公眾造成誤導。我個人特別不喜歡“矽基生命”之類的提法🧔🏿,說重一點,這是對生命的不尊重。我們不要忘記,真正的生命是地球上的生物👱🏼,包括動物和植物😌,而人類是其中的主導者。

現階段AI的成功源於深度學習,這只是AI研究的一個子領域,其本質是數據驅動的智能、計算實現的智能,即“數據為體、智能為用”,猶如燃料與火焰的關系,燃料越多👩🏽‍💻,火焰越大,燃料越純🧘‍♂️,火焰越漂亮🧗🏻‍♂️⛑。對當前基於深度學習的AI所取得的突破性進展,我是高度認可的。大語言模型給我帶來的最大震撼在於:它可以講“人話”了,而且語法能力超越了人類平均水平🛀,甚至超越人類的中上水平✬。我看大語言模型,樂觀的判斷,也許會成為繼計算機🤛、互聯網之後,計算科學發展史上的第三大裏程碑。

同時,我們需要清醒地認識到🧓:當前以“算法🫅🏼👲🏼、數據🅿️、算力”為核心要素的AI技術路徑,其持續發展潛力面臨重大障礙,原理尚未出現變革性苗頭,對數據的依賴越來越嚴重,對算力的消耗也越來越巨大🌮。理想的AI應當是低熵的,不以計算資源的消耗換取智能,也不以復雜性的提高換取智能👈🏼;也應當是高安全的🤛🏽,模型的輸出符合真實情況,生成結果確保對人類無害🧔🏻‍♂️;還應當是不斷進化的,具有環境自適應和終生“學習”能力,能不斷完善並具有“遺忘”能力。離實現這樣的目標,我們還有很長的路要走👎🏻。

熱潮中的冷思考

AI應用的繁榮期正在開啟?

當前,人們對“AI+”或“AI for everything”抱有很高的期望,然而🚴,現實情況卻不盡如人意——雷聲隆隆🧏🏻,雨點並不大🛌🏽。我認為,AI的應用還需要經歷一段時期的探索♕、磨合和積累,才可能迎來繁榮。

所謂探索🍏🤥,是指搞清楚行業的真需求6️⃣。日常聊天或者生成文本報告🤽‍♀️、視頻,這通常只是行業需求的一小部分📹,行業需要真正落地的應用是解決生產問題🧔‍♂️、業務問題的有效方案。目前,我國很多行業的數字化轉型尚未完成,甚至許多設備還未實現數字化🐕‍🦺,更未聯網,沒有數字化和網絡化🧑🏻‍🦽‍➡️,當然也就不可能有智能化。

所謂磨合,是指提升可信性。當前基於深度學習的AI存在不可解釋性,被視為“黑盒”🤾,缺乏可信性。因此,在現有的技術路徑下🫸🏼,至少在安全攸關的領域,AI的應用會受到限製。

所謂積累,是指獲取跨足夠時間和空間尺度的全數據。大語言模型的成功依賴於人類長時間積累的龐大語料庫👨‍👨‍👦‍👦,文生視頻的成功也依賴於互聯網上存在的海量視頻。然而,其他行業的數據積累尚未達到這個量級。即使近幾年進行了較大範圍的數據收集,但從時間縱深角度來看🎡💼,數據的積累仍遠遠不足。沒有時間上的積累,數據的價值將大打折扣🫶🏽☃️。

在我看來,當前AI存在的問題是:泡沫太大👩🏻‍⚕️🙍🏼‍♂️,仍處於技術成熟度曲線(hype cycle)的高峰階段🤵🏼‍♂️,喧囂埋沒理性💼,需要一個冷靜期;以偏概全🍾🫎,對成功個案不顧前提地放大、泛化👨🏼‍🚀,過度承諾;期望過高,用戶神化AI的預期效果,提出難以實現的需求👨‍🚒。

面對AI技術發展及其應用的現狀,如果對AI的落地應用有所彷徨,那麽🧒,還能夠做些什麽呢?我的建議是:積累數據——可采盡采🖕、能存盡存。

大模型浪潮下🅱️,學術界能幹什麽?該幹什麽🪶?

ChatGPT和Sora的問世🍣,開啟了世界範圍的“百模”競發👩‍🦽‍➡️。不過🧕🏻,在基本原理相似的技術路徑上,人們發現👫,各方擁有的算力資源相差不多,數據規模和質量就成為競爭的關鍵因素。本質上🀄️,當前大模型的競爭已成為“數據工程”的競爭。學術界在這場競爭中面臨雙重挑戰:首先,學術界缺乏足夠的算力資源和數據資源進行大規模的模型訓練💀;其次,即使擁有這些資源🀄️,“數據工程”的定位也與學術界探索基本原理的使命不符。一些圍繞大模型應用的研究是否值得學術界投入,還存在諸多爭議🛷🌶,例如,基於提示工程的大模型應用是否會成為新的學術研究領域?抑或只是技術培訓領域的話題?對於這個問題2️⃣,我更傾向於是後者。

從基本原理來看,目前的大模型沒有跳出概率統計這個框架。現實世界中的任務(如圖像分類或文本生成)可以被建模為概率模型💇🏿,將數據的分布或生成過程表示為概率分布函數🤡。而Universal Approximation Theorem在理論上闡明了神經網絡能夠以任意精度逼近這些概率分布函數,從而構建這些概率模型🧖🏿🎊。就這個意義而言,大模型可被視為是由已有語料壓縮而成的知識庫👯‍♀️,生成結果的語義正確性高度依賴於數據的空間廣度、時間深度以及分布密度🧑🏽‍🦳,更高度依賴於數據的質量🍿。可以確定的是🧑🏻‍🦱,作為一個高度復雜的系統🕵🏿‍♂️,大模型是一個合適的研究對象🧇,包括理解其內在機理,以及如何提升其訓練和推斷效率等。但是,作為一個人造系統,我們更應關心其構建過程的可重復性和可追溯性,進而保證結果的可解釋和可信任。此外,研究大模型的應用技術無疑是一個重要領域,但就大模型技術的現狀而言,基礎不可信必然會導致應用技術不可信。這也意味著當前的大模型應用技術研究的實際價值具有與生俱來的不確定性。

當前對大語言模型的發展存在諸多爭議,有技術路徑之爭、應用和商業模式之爭,還有開源、閉源之爭💬🤤。在這裏🙆🏿‍♀️,我也大膽預測大語言模型的未來(至少是表達個人的一種期望):作為壓縮了人類已有的可公開訪問的絕大多數知識的基礎模型🌺,大語言模型在未來需要像互聯網一樣🙆,走向開源🪨,由全世界共同維護一個開放共享的基礎模型👨‍👩‍👦‍👦,盡力保證其與人類知識的同步。否則👰,任何一個機構所掌控的基礎模型都難以讓其他機構用戶放心地上傳應用數據,也就很難產生足以滿足各行各業業務需求的大量應用🧚‍♂️。既然基礎模型的訓練語料本就是人類幾千年來共同積累的知識財富,理應走向開源,讓全世界共同受益,共同維護,避免無謂的浪費。在這個開放共享的基礎模型上,全球範圍內的研究者和開發者可以面向各行各業的需求探討各種應用🧑🏻‍🎄,構建相應的領域模型。以誕生於美國軍方的互聯網為對照,如果它僅僅停留在美國軍方使用,沒有走向民用,沒有完全交給一個民間機構👶🏽,互聯網則難有今天的繁榮。

人工智能生成內容(AIGC),如何權衡利弊?

大模型在內容生成的模態和範圍等方面實現了前所未有的突破,就文本生成能力而言🧏‍♀️,相比過去的AI系統,大語言模型具有內容生成速度快、涉及知識面寬的特征,短時間內就能生成具有高質量語法的文本🫄🏿。本質上,大語言模型呈現了以人類現有文本資料為基礎的數據智能📔,將對傳統的信息知識獲取和學習方式帶來重大影響,其生成內容能夠覆蓋大部分人類知識領域,將在社會經濟生活的眾多場景具有廣闊的應用前景。然而,當前大模型的技術路線使人類知識體系面臨嚴峻挑戰🪞,黑盒導致的不可解釋性是其最大“罩門”;訓練語料的質量缺陷、概率統計的內生誤差等因素會導致大模型產生幻覺,生成錯誤內容👨🏿‍🦳;再加上人為幹預誘導👷🏽‍♂️,極易生成虛假內容。

人類社會歷經漫長發展歷史,構建起知識“發現-驗證-傳播”的一套規範的知識體系和製度。人類知識主要依靠各領域科學家、專家學者的創新發現獲得🐈‍⬛,並以語言文字的形式記錄並呈現🎰,通過各類有效的製度🚲,包括學術界、出版界的共同把關🪴🧝🏽‍♂️,保障知識的準確性和可信度,並經過長期的實踐檢驗,逐步形成人類知識體系。但是🧑🏽,依賴當前技術途徑的大模型技術如果被廣泛應用,將會打破人類主導的知識發現🪈、驗證和傳播秩序。在大模型生成內容語法正確的表象下,許多錯誤虛假內容與真正的知識混雜在一起🚴🏼‍♂️,讓人更加難以辨別而采信。相較於互聯網自媒體發布的信息🪬,大模型生成內容在敘述結構、語法、邏輯等方面都更為完備,人們依靠基本的邏輯思維和知識基礎很難判斷其真假。更嚴重的是,由於生成速度極快,涉及的知識面廣、數量龐大👩‍🦳🍅,大模型生成內容不可能全部都得到人類專家的鑒別和驗證。這些不辨真假的內容如果被人們采信,日積月累,將會汙染人類經過長期歷史積澱和演化而形成的知識體系🧙🏿‍♀️🏄🏻‍♂️。

關於認知智能👮🏼‍♀️,不該做什麽🤟🏽?

認知能力是人類成為地球主人的根本。相比其他生物,人類既不是體力最強的🏄🏼,也不是跑得最快的,更不是感知能力最強的……但是,由於人類具備基於歸納和演繹的獨特認知能力,加上對語言工具的使用,可以相互交流🖕🏻、匯聚群智,使得人類能夠成為地球的主宰🕛。就這個意義而言,人類區別於地球上其他動物的主要特征就在於認知能力1️⃣🫢。

就個人的認知⚇,我可以接受機器在感知智能方面超越人類👩‍⚕️,畢竟自然界中感知能力超過人類的例子比比皆是🤵‍♂️,如狗的嗅覺和鷹的視覺⏮。我們可以借助機器的感知能力增強對外界環境的了解與把握。但對機器認知智能的研發,我持比較保守的態度。

我支持生命科學界去探索大腦的奧秘,探究認知的成因和機理💅🏼,這被視為生命科學的皇冠👮🏽‍♀️。不過,在追求大腦奧秘的同時👷🏽‍♀️,我們也需要思考如何保持人類的主體地位,維護人的基本尊嚴和“神經”權。我認為,在技術領域🏧,我們需要嚴格限製以替代人的認知能力為目標的技術研發🚵🏿‍♀️,尤其要嚴格規範植入式腦機接口類的技術研發。我這樣說,並不是我認為現有的機器認知智能研究已經步入有可能替代人類的路徑上👫,相反,我認為當前的AI還遠不具備認知能力🐞,而且當前以深度學習為基礎的AI技術路徑也難以實現類人的認知智能。我只是從人類的主體地位的視角,認為開發一種可以替代人類自身認知能力的AI,是對人的權利的一種侵犯。我們需要確保AI的發展不會超出人類的控製🤢🛌,從而維護人類的主導地位和尊嚴。

AI for Science(AI4S)的邊界在哪裏?

AI4S很火🙍‍♀️,因為已經出現了諸多成功的甚至是具有突破性意義的案例,例如🐐,DeepMind4 開發的用於預測蛋白質三維結構的AlphaFold👮🏽,基於擴散模型預測分子三維結構的GeoDiff,以及模擬燃燒反應和流體過程的DeepFlame🛌🏼。在這些成功故事的影響下🧱,不少研究者將打造AI科學家或共同科學家(co-scientist)作為追求的目標♛。在我看來,已有的AI4S的成功案例證明了AI用於科學研究的巨大潛力👨🏻‍🚒,然而🐂,我們不能忘記,科學家是人類的角色,科研是人類的專屬責任,人類可以利用助手和工具輔助科研,但是不能允許這些助手和工具越俎代庖掌控科研👩🏿‍🏭。AI可以成為科學家的有力助手🧦,但不能是AI科學家或共同科學家。即使我們可以研發出大幅度提升科研效率的工具助手,但如果無法完全掌控它們,我認為我們寧願放緩科技發展的步伐。

要理解這一點,我們需要回顧科學研究的源起和發展✈️😵。科學發展的第一驅動力是好奇心,即人們希望去了解其所生存的世界。古希臘的先哲們創造了燦爛的文明🈶,也在科學領域進行了積極的探索。現代意義上的科學則源於17世紀的科學革命🖍,而這場革命卻是經歷了兩個世紀的準備,才開啟了人類社會的新時代。15世紀是文藝復興,人們剛從黑暗的中世紀走出來🅰️😏,緣於古希臘文化的價值和美麗,對古希臘經典崇尚備至🌻,認為“古典的東西是無與倫比的”。16世紀的宗教改革是思想的第一次解放🧘🏼‍♀️,強調“基督教並不是羅馬人的”🆎,具有普世性🕺🏽。17世紀的科學革命則是緣於一系列的科學發現挑戰了古希臘時代形成的“科學”觀念,人們發現“希臘人錯了”👲🏼,進而催生了新的科學方法和理論。18世紀的啟蒙運動則進一步強化了“宗教是迷信”的觀念👩🏽‍⚖️,人們認識到,需用理性取代迷信,只要理性跟隨科學,未來就有進步👨‍❤️‍💋‍👨。這也是人類歷史上首次出現“進步”一詞。

科學革命以後,人類社會進入了快速的不斷進步的階段,通過科學研究認識世界,豐富了人類知識,進而基於科學發明技術改造人類生存的世界👙。後續的工業革命開啟了人類文明新形態,極大地豐富了物質文明,人類擺脫了靠天吃飯的宿命,出現了“經濟增長”的概念。據《世界經濟千年史》所述✊🏿,公元第一個千年,西歐以及全球其他地區的經濟幾乎沒有增長,是西歐率先打破了這種千年停滯的狀態。14世紀西歐的人均GDP超過中國🤎,1820年後世界經濟開始出現陡坡式的拉升,從1820年到1999年,西歐人均GDP年均復合增長率達到1.51%🏄‍♀️,世界人均收入增長了8.5倍左右,世界人口增長了5.6倍左右。西歐人口增長和經濟增長幾乎同步🫃,在第一個千年裏👰🏽‍♂️,整個西歐的人口增長只有幾十萬🎅🏿,1820年後人口快速增加,到 1998年人口年均復合增長率達到0.6%👮🏼‍♂️🫂。這些成就無疑都要歸功於科學革命和工業革命,即科技的發展。當然🤸🏽,人類在通過科技改變世界的過程中🐕,也造成了一系列負面影響,諸如環境汙染🤷🏻‍♂️🤨、隱私侵犯,乃至毀滅性武器的出現🤦🏼,等等。

我們需要理解並準確把握科學研究的本質🚵🏼。科研是什麽?科研的結果並非一定正確,知識也並非絕對無誤👨‍👩‍👦‍👦,但人類通過不斷的探索和驗證🙀,去偽存真,人類的知識寶庫也一直不斷地擴大🤵、完善❎。在這個歷史進程中,無論如何🦒,人類始終掌握著主導權。技術進步雖然極大地提高了科研的效率和質量,但其作為工具的角色始終沒有改變。然而,這一輪的AI浪潮,正在給人類的科學研究,進而給人類的知識積累帶來嚴峻挑戰。大語言模型對人類知識的“掌握”超越了任何個體和任何學科群體💁🏿‍♂️📛;當前技術路徑的生成式AI的廣泛應用,將有可能汙染人類現存的知識體系;高效率的大規模“成果”產出,也給其驗證帶來了巨大挑戰🚑,人類的知識入庫審核權如何保證💂‍♂️?如何擺脫因過分依賴AI而對科研人員的能力培養和提升造成的負面影響🦊?

不忘初心👉🏽,我們需要回歸科學研究的本因🧑🏽‍🚒,即通過不斷的科學發現了解我們生存的世界,進而通過技術發明不斷改善我們的生活。作為地球的主人,我們不能把認知權力讓渡給任何工具。我們需要的不是知識積累的速度,而是質量。我們應該,也可以把控知識發現的節奏🤹🏿‍♂️。同時,我們需要加強科研後備軍的基本素養和技能的培養🧏🏽‍♀️,我們須恪守科技倫理,堅持以人為本、科技向善🧏🏼‍♀️。

AI的第三個“春天”能持續多久🟢?會走向新的“冬天”嗎🐛?

我回答不了這個問題。但是,至少我不希望在當前的技術路徑上持續這個“春天”🧙🏽‍♂️。一方面,不可解釋性不符合人類發現知識、發明技術的基本邏輯,希望“知其然並知其所以然”是人的天性,更應該是科學家遵循的基本原則。另一方面🧑‍🏭,以Scaling Law為“信仰”的大模型訓練,以過度的資源消耗為代價,難以永續🖍,必有盡頭。我們知道🏊🏼‍♂️,Universal Approximation Theorem只是證明了能夠構建概率模型的神經網絡的存在,並未給出如何構造該網絡的具體方法,也未說明需要多少神經元或層數才能達到所需的逼近精度。而Scaling Law為我們提供了一個“經驗參考”↖️,即一個通過觀察實驗結果而得到的“統計意義上的規律”,說明了“可能”用包含多少參數的模型、多少訓練數據、多少算力,可以獲得怎樣的模型表現📍,換言之,提供了一個解釋“通過擴大模型參數或數據和計算資源提升模型逼近能力”的參考規律🙇🏼。於是乎,不少人將之奉為圭臬,走上了“拼”數據和計算資源的“蠻力”訓練路徑🏄🏻。

此外,雖然基於當前的技術路徑🧔🤸,大模型尚不能“無中生有”,做出超越人類預期的事情,但一味信奉“蠻力”🏣🙋🏽‍♀️、追求規模🏇,也極易發展出在覆蓋面和復雜度上人們難以掌控的“巨獸”。

科學家在探索自然的過程中👆🏿,一直在追求為世界建模,遵循的基本準則是簡而美。我國古代智者曾說:“妙言至徑,大道至簡”,愛因斯坦也有一句名言:“結果應該至簡,而不僅僅是相對簡化(Everything should be made as simple as possible, but not simpler)。”我們在很多領域的科學研究中都在追尋第一性原理(First Principles),這些無不是在闡釋相同的道理。然而,按照Scaling Law產出的結果,並不符合這個原則⏬⛹🏽‍♀️,而且,僅利用大模型通過“黑盒”的方式直接獲得結果,而不去探索其背後的原理和規律⏸,不是也不應該是科研錨定的目標🦋。

我想,我們都不希望AI的“冬天”再一次到來🧗‍♀️,但是,沿襲當前技術路徑,AI的能力“天花板”似已隱隱可見。

AI是一個獨立學科嗎?

這無疑是一個得罪人的問題,似乎也不太符合當前的一些“主流”傾向🤶🏻。不過✍️,就學科本身展開討論♣︎,我認為是有必要的🌻。這個問題實際上可展開為若幹個子問題:如果沒有現代計算機,會有AI這個詞的出現嗎?當前主流的AI👛,能離開計算機嗎🌲?不懂計算機運行的基本原理🕓,能做好AI的科研和應用嗎?如果AI作為一個學科🏄🏿‍♂️,它的知識體系是什麽💅🏼?與計算機學科的區別又是什麽🙇‍♂️?就我個人而言,自然不認同AI是一個獨立學科的說法💂🏽。我也理解🤽🏿,我們要推動相關產業的發展,迫切需要大量相關的人才。然而,人才培養未必一定要和學科設立掛鉤,學科的形成和發展有其自身內在規律。對IT領域而言,其本質都是基於計算🚶🏻‍♂️‍➡️,我們真的需要那麽多的細分專業和學科嗎👩🏿‍🚒?

2020年8月🤵‍♀️,我曾在一個IT類學院院長的會議上作過一個題為“亟須構建合理的符合規律的IT人才培養體系”的報告。在報告中,我回顧了這些年我們曾短缺的人才:軟件人才、物聯網人才、網絡安全人才、大數據人才👳🏼‍♂️、人工智能人才🐾🚵‍♂️、集成電路人才、區塊鏈人才等,“短缺”的人才🆕,無一不是和當時IT領域的熱點話題緊密關聯,而解決的方法,基本都是在高校設立相關的專業甚至學院💆🏽,於是出現了軟件學院👛、物聯網學院、網絡安全學院🧏🏽、集成電路學院、人工智能學院等,進而再新建一級學科,如軟件工程、網絡空間安全,同一戲碼♊️,反復上演。人才短缺是事實,但具體缺什麽,可能還需要更深入的思考👨🏻‍🦲。我在報告中表達的觀點是:在科研領域😹,我們不缺人才數量💂🏿,缺的是人才質量🤳🏼;而在應用領域🚸,缺的是大量能直接上手的應用型人才。研究型大學的定位是知識創新的主體🏊🏽‍♂️,培養的是面向未來的人才,而不是直接在市場上可使用的技能型人才🐱;而應用型大學的定位就是面向市場需求,培養企業直接可用的人才♍️。解決產業人才短缺問題,主力應該是應用型大學。在研究型大學內通過設立專業🧑🏿‍🎄、學院👌🏼,甚至學科應對產業人才短缺問題,在一定程度上會對大學的專業學科體系帶來負面影響👸🏿。

合理的、符合規律的IT人才培養體系需要長遠的系統規劃,避免跟著熱點走🐏,頭痛醫頭腳痛醫腳;避免“歸一化”的人才需求👩🏼‍🦲,創新型人才和應用型人才都重要⛎🏋🏽‍♂️,應保持平衡,不能偏廢任一方;避免行政力量影響、幹預大學的學科設置👨🏻‍💼,特別是研究型大學的學科設置📦;大學應該保持定力,在發揮自身優勢特色的前提下進行戰略布局👩‍❤️‍👩,不宜為了一時的熱點和資源而調整專業學科設置👩🏻‍🎨,特別要避免那些有損於內部一致性的調整;企業的要求不宜太急切,不應指望研究型大學培養的人才能夠立即為其所用🙆🏽‍♀️,參與大學教育也不應太功利,不能指望公司的平臺產品能直接用於學生實訓🔺。我們需要深刻理解🤾🏻‍♂️⛱,對研究型大學而言,本科的通識教育是大趨勢👜🧏🏽‍♀️,是人才未來能夠持續成長、行穩致遠的基礎🏯。當前急需的人才很重要,未來需要的人才更重要🧡🧏‍♂️,而能夠創造未來的人才更加重要👮‍♂️。

總結

以上不成體系的陳述♠︎,可能源於我較為保守的思想,也可以視為一個思想保守者的杞人憂天,而且主觀立場偏強。實際上✋🏻,我也有過心路歷程的轉變。我也曾經是科學探索無禁區🎩、技術研發無疆界👰🏽‍♀️、技術應用須謹慎的支持者,我也一直認可技術本身就是一把雙刃劍❗️。現在我談論這些問題的主要憂慮在於,當前的技術發展已經可能會侵襲到人類的認知領域👨‍👨‍👧‍👧,進而可能會威脅到人類的主體地位🤸‍♀️,故而萌生“恐懼”之心。

當然🙋🐐,這些思考未必正確🙇🏿‍♀️,所憂慮的風險也未必會發生。但是🙆🏻‍♂️,從科技倫理的視角,我們需要對可能的風險進行研判🦼🤷🏻,並提醒科技工作者時刻牢記科技向善🧫、以人為本🤕。其中🔯,一些關於科研工作和計算機學科未來發展的觀點🏸,帶有較強的“疆域”意識,但作為一個計算機學科的科技工作者🧑🏽‍🚒🙆‍♂️,並且曾經擔任過中國計算機學會的理事長🏷,發出這樣的聲音💁🏽,也算是“守土有責”♻。

實際上,今天的AI熱潮🌝,包括對AI發展狀態和速度的過度高估,以及對AI發展可能給人類帶來巨大負面影響的種種擔憂,在歷史上也曾經出現過。有興趣的讀者可以去看看計算機、AI發展早期的主流媒體報道。電子計算機出現之後,此類報道就未曾停止,只不過早期報道的主角是計算機👩🏽‍🚒。當初媒體對計算機的報道也是兩個方面,盲目、過度的高估和脫離實際的擔憂。這些報道放到今天,主角換成AI,似乎仍然可以適用。只不過,紙質媒體的傳播影響畢竟有限🙋🏿‍♂️,遠不及今天互聯網、自媒體的喧囂👉🏿。

前事不忘,後事之師。馬克·吐溫曾說過:“歷史不會重復,但會押韻。”在AI技術如火如荼的今天,我提出這幾點冷思考,也是希望歷史不要重演,即使重復無法避免,也希望是螺旋式的上升⛔。

註:

1 第一定律是機器人不得傷害人類⚗️,或因不作為而讓人類受到傷害🎇;第二定律是機器人必須服從人類的命令,除非這些命令違背了第一定律;第三定律是在不違背第一與第二定律的前提下💪🏿,機器人必須保護自己。

2 https://openai.com/

3 https://openai.com/chatgpt/

4 https://deepmind.google/

(作者梅宏,為CCF會士、前理事長,中國科學院院士🖐🏻,意昂3体育官网教授。主要研究方向為系統軟件🌻、軟件工程)


原文鏈接👩🏻‍🦳:梅宏🌻:對當前人工智能熱潮的幾點冷思考

轉載本網文章請註明出處

意昂3体育专业提供:意昂3体育🍋‍🟩、意昂3体育平台🐋、意昂3体育官网等服务,提供最新官网平台、地址、注册、登陆、登录、入口、全站、网站、网页、网址、娱乐、手机版、app、下载、欧洲杯、欧冠、nba、世界杯、英超等,界面美观优质完美,安全稳定,服务一流🚼,意昂3体育欢迎您。 意昂3体育官網xml地圖