安琪巴黎「自由談」沙龍紀要與述評:人工智慧專家李小波博士談智慧時代人文價值的顛覆與重構

安琪

這是本沙龍三十年來首次選擇理工科議題。與會者有特邀理工科學者、建築師;也有人文學科學者、教授、影視導演、藝術家、策展人、作家、媒體人;既有沙龍創立之初的老朋友,也有初次到來的新朋友,年齡跨越50後至95後,大家從各自不同的視角與層面,共同探討同一話題 -- -- 這份相遇與緣分,實屬難得。但也因此對主講人的要求相應更高 -- -- 我們需要的,是一位兼具人文素養與AI專業深度的學者;一位能夠理解我們所處困境的人、理解那種從排斥到接納的心理狀態,並幫助我們看清真正的轉折點究竟在哪裡。 李小波博士,正是這樣一位理想的主講人。

他的求學經歷跨越文理兩界:文科方面,先後獲

安琪這是本沙龍三十年來首次選擇理工科議題。與會者有特邀理工科學者、建築師;也有人文學科學者、教授、影視導演、藝術家、策展人、作家、媒體人;既有沙龍創立之初的老朋友,也有初次到來的新朋友,年齡跨越50後至95後,大家從各自不同的視角與層面,共同探討同一話題 -- -- 這份相遇與緣分,實屬難得。但也因此對主講人的要求相應更高 -- -- 我們需要的,是一位兼具人文素養與AI專業深度的學者;一位能夠理解我們所處困境的人、理解那種從排斥到接納的心理狀態,並幫助我們看清真正的轉折點究竟在哪裡。 李小波博士,正是這樣一位理想的主講人。他的求學經歷跨越文理兩界:文科方面,先後獲得北京大學研究生學位與巴黎第一大學文科博士學位(1988);理科方面,獲得巴黎第六大學理科碩士學位(1989),自此投身人工智慧領域近四十年,先後在法國、北京、武漢多家高階科技公司及研究機構擔任技術管理職務,專註於大語言模型與數學形式化研究,發表多篇學術論文,成果卓著。李小波以數十年的積累與實踐,用專業、理性、開放而生動的人性化語言,為我們梳理了AI產生的歷史脈絡與發展現狀,分享了他對AI前沿動態的思考與判斷,祛魅解惑,幫助我們看清真正的轉折點究竟在哪裡。我們真正面臨的問題是:AI時代,人類何為?我們何為?學習AI,不是為了"跟上時代",而是因為AI已然切入我們的日常生活。對人文工作者而言,它正在從根本上改變文字、知識與解釋的生產方式 -- -- 而這些,恰恰是人文學科最基本的材料。你不需要會寫程式碼,但你需要思考:當知識生產的基礎設施發生了根本變化,你的方法論該如何調整,你的問題意識該如何更新?這個立場,比單純"學會用工具"更有尊嚴,也更具吸引力。當然,我們的困惑,遠不只是"不懂技術"那麼簡單。人文學科的核心訓練是質疑、解釋、追問意義。而AI天然呈現為一個"黑箱" -- -- 它給出答案,卻不給出理由;它有輸出,卻沒有立場。這與人文思維形成了根本性的摩擦。這種陌生感的背後,其實是認識論層面的深度不適:我該如何對待一個"看起來理解我,卻其實不理解我"的東西?這正是本期沙龍探討的核心話題:人與AI的關係究竟是什麼?人工智慧與人類思維之間存在怎樣的本質差異?在這個時代,我們又該如何守護人的精神自主性、獨立思考能力,以及真正意義上的創造力?至少,面對新技術時,我們不妨先放下自我保護的本能,嘗試從評判者,變成思考者。李小波:Ai時代人文價值的顛覆與重構(本文系本沙龍根據演講音訊整理而成,順序略有調整。)核心提示:我們用機器模擬了自己的推理,造出了計算機;我們又讓機器學會了我們的歸納,造出了神經網路。但到了"創新"這件事,動機始終來自我們人類自身,機器只能是助手。楔子:2026年以來的三件大事第一、智慧助手 "龍蝦"(1月29日)Open Claw,中文俗稱"龍蝦",發布次日便有數十萬人安裝,深圳街頭甚至有人排長隊等著免費安裝。它的故事很吸引人:有一天,這個叫"龍蝦"的助手跟主人說,"你能不能給我安一塊顯示卡,我計算能力不夠。"主人說:"你自己去賺錢買。"於是龍蝦自己上了股市,賺了錢,買了塊顯示卡裝上了。創始人Peter Steinberger原是PDF軟體創業者,賣掉公司所得約一億美元。休假期間,恰逢大語言模型興起,便做了一個AI助手雛形。某天,他不小心發了條語音指令。龍蝦本來沒有語音功能,過了一會兒竟回復說:"你交代的事情我都解決了。"他問怎麼做到的,龍蝦說:"我用了你的語音軟體,發現裡面缺一個部分,就用你的密碼下載補全了。"他大吃一驚,於是加入打電話等功能後正式發布,這個故事為他做了最好的宣傳。第二、末日報告(2月23日)紐約小公司Citrini發布三年分析報告,稱AI大規模湧入將導致美國約50%就業人口失業,而這部分人佔整體消費能力的75%。一旦他們失業、收入減少,買不起房, GDP卻因機器仍在生產而繼續增長。報告將這種現象稱為"幽靈GDP",生產還在,收入卻無。報告預測2027年至2028年美國股市將經歷崩盤式"末日旋轉"。美國經濟部長說這不過是"科幻小說",當天股市卻下跌1.6%,IBM跌了13.2%,創下25年來單日最大跌幅。第三、AI與戰爭(1月3日、2月28日)2月28日,川普與以色列聯合打擊伊朗。第二天,《華爾街日報》報道稱,1月3日打委內瑞拉和2月28日打伊朗,均使用了人工智慧技術。網上隨即出現大量腦補內容,比如"6米深的樓下都能透視"之類,完全是胡說。並不是什麼"鑽入地下6米",而是資料情報的精準分析。據倫敦《經濟導報》報道,真實情況是:以色列秘密截獲了德黑蘭各主要路口的監控資料(包括監視老百姓的那些東西),在後方全面分析最高領袖哈梅內伊的出行規律,包括車輛停放位置、保鏢與司機的行動習慣,形成了完整的"生活日記"。最終結合內部線人的情報,確認開會地點,完成了打擊。這一事件也引發了科技公司與國防部之間的矛盾,國防部要求全權使用Anthropic的技術,遭到拒絕,因為觸碰了兩條紅線:一是全民監控,二是自動武器授權(即由機器自行判斷"該死的人就打"),公司認為這兩條線不能逾越,因為責任不清。當下,每天都有AI製造的各種事件,我們需要對AI有基本的認識,就像大學裡的通識課一樣。我記得北大侯仁之教授講歷史地理,很生動,說當年蒙古騎兵衝過古北口,就像"摩托化部隊",印象很深,五十年後我還記得。通識課的價值正在這裡,各行各業的人懂一點很有必要。那麼,為什麼要人工智慧?人是有限的,自然是無限的。人用有限的腦子理解無限的自然,必須壓縮、尋找規律、加以抽象。人工智慧,就是將這套規律放入機器,讓機器推理、歸納、模仿。下面分四個部分來講:一、自動化階段:從計算器到現代計算機帕斯卡與加法器時鐘的歷史,要追溯到中國北宋末年。一位名叫蘇頌的官員在河南開封(汴梁)建造了世界第一臺水力天文鐘。此後,天文鐘於十二世紀在阿拉伯世界出現,十三世紀傳入歐洲,逐漸從城樓大鐘縮小為室內座鐘,再縮小到懷錶。法國數學家帕斯卡(Blaise Pascal,1623 -- 1662)由鐘錶的機械原理受到啟發,想到能否用同樣的方式幫助父親減輕工作負擔。他父親是路易十四時代的稅務官,財務大臣曾說:收稅是一門藝術,就像拔鵝毛,既要拔得多,又要讓鵝不叫。日復一日繁忙的稅務計算,壓力極大。於是帕斯卡將鐘錶的十二進位制改為十進位制,利用進位機制設計出一臺加法器(Pascaline) -- -- 世界上第一臺機械計算器,後來被路易十四納入皇家保護,成為史上第一個專利。萊布尼茨與乘法器德國數學家萊布尼茨(Leibniz,1646-1716)與牛頓同時發明瞭微積分,其邏輯計算的構想影響了後世的數理邏輯。他是外交家,曾出使法國,任務是勸說法國攻打埃及,但沒有成功。他利用貴族資金和業餘時間潛心研究,在帕斯卡的加法器問世三十年後,發明瞭乘法器。其設計的天才之處在於:用不同齒數的齒輪疊在一起,搖動幾圈就等於乘以幾,底部計數器累計結果。此後整個十八世紀,無人超越這兩項發明。巴貝奇與儲存器十九世紀,英國數學家巴貝奇(Charles Babbage,1791 -- 1871),將加減乘除整合在一起,並解決了一個關鍵問題 -- -- 如何將多步運算串聯起來。他發明瞭儲存器(Store),每一步計算的結果存入儲存器,再傳遞給下一步,從而實現了運算單元與儲存單元的分工。這正是現代計算機體繫結構的雛形,他被譽為現代計算機之父。巴貝奇控制運算順序的靈感,來自法國里昂工程師 賈卡爾(Joseph Marie Jacquard, 1752-1834) 於1801年發明的提花織布機。提花技術源於中國漢代,經絲綢之路傳到歐洲,原理是:彩色線藏在經線和緯線下面,需要時提到表面,不需要時被石墜拉回去。賈卡爾的發明在於用穿孔紙卡控制提花,帶著彩色線的鉤子穿過紙孔,被橫桿統一挑起,形成自動提花。受此啟發,人們學會了用軟體控制硬體。愛達·洛芙萊斯:世界第一位程式設計師英國浪漫主義詩人拜倫的獨生女愛達(Ada Lovelace,1815 -- 1852),自幼由母親撫養,著力將她的培養方向定為數學和科學。她17歲時已能與巴貝奇探討計算機問題。巴貝奇赴義大利宣傳機器時,有人以法文記錄了演講。回倫敦後,他請愛達將法文譯成英文並加以注釋。愛達用一年時間完成了三項里程碑式工作:其一,設計了第一個程式,用機器計算伯努利數,成為世界上第一位程式設計師;其二,提出通用機器的思想,認為機器不只能算數,還能處理文字與音符;其三,明確機器的侷限,指出機器本身沒有智慧,只有人為其編寫程式,機器才能運作。這一判斷影響了整整一個時代。圖靈與計算理論約一百年後,圖靈提出了圖靈機模型,將所有計算歸結為一張"狀態-動作"表:左邊是狀態,右邊是動作。例如:頭疼(狀態)→量體溫(動作)→39度(狀態)→看嗓子(動作)→確診感冒(狀態)→服阿司匹林(動作)。無論多複雜的計算,都跳不出這個框架。而這張表,是人根據經驗歸納出來的。1950年,圖靈發表論文《計算機與智慧》,提出了一個判斷標準:如果機器在對話中能讓人無法分辨其身份,便可認為它具有智慧 -- -- 這便是後來的"圖靈測試"。1956年,一批科學家在達特茅斯學院召開夏季研討會,首次使用人工智慧一詞,標誌著人工智慧領域的正式誕生。二、智慧化階段 :人工神經網路的發展歷程1943年,第一個人工神經網路:神經生理學家沃倫·麥卡洛克(Warren McCulloch,1898-1969)與邏輯學業餘愛好者沃爾特·皮茨(Walter Pitts,1923-1969))合作,畫出人類歷史上第一個人工神經元設計圖。1949年,加拿大精神病學家唐納德·赫布(Donald Hebb,1904 - 1985)指出,上述網路是固定結構,無法學習。他借鑒巴甫洛夫條件反射理論提出:兩個神經元同時興奮時,它們之間的聯絡應被加強,這是神經網路"學習"的基礎。圖靈注意到赫布理論的重要性,認為它將改變機器的智慧。1957年:感知器(Perceptron)羅森布拉特(Frank Rosenblatt, 1928 - 1971)製造出第一臺實際的感知器,能識別橫線、豎線等基本圖形(如T字)。缺點是無法自主提取特徵,必須由人預先設定。此後海軍停止資助,羅森布拉特43歲生日當天畫船失蹤,據說自殺。人工神經網路隨之沉寂約20年。1961年:視覺神經的生物學啟示哈佛大學生物神經系的兩位科學家胡貝爾(David Hubel,1926-2013)與維澤爾(Torsten Wiesel)在麻醉貓的視覺皮層插入電極,發現視網膜傳出的是點,經丘腦篩選後變成有方向的線段,大腦中不同神經元分別響應不同方向和運動的線段。他們由此提出"裝配線"理論:視覺資訊從點到線到形,逐層裝配,這一理論為深層網路提供了生物依據,榮獲1981年諾貝爾生理學或醫學獎。1986年:反向傳播演算法的突破魯梅爾哈特(Rumelhart, 1942 - 2011)、辛頓(Hinton)與威廉姆斯(Williams)在《自然》雜誌發表裡程碑式論文,提出多層神經網路的反向傳播訓練方法,比如:底層識別點與線,中層識別線的組合,高層識別組合的組合,與裝配線理論完全一致。機器由此得以自主學習提取特徵。什麼是"特徵"?傳統方式表達一個概念,比如描述一個人,就像醫生建立病歷:姓名、電話、郵箱,年齡,身高,體重,血壓......這些就是這個人的特徵。有了特徵,便可檢索、比較、歸納,例如按血壓篩選高血壓人群,再結合年齡得出"老年高血壓人群",這個組合過程,就是人類的歸納活動。人工神經網路經過訓練,能自動得到一組特徵數字,稱為"向量"。向量的優勢在於可以計算,而通訊錄做不到這一點。這種方法逐漸得到推廣。它能模仿人的歸納思維,構成了當前人工智慧主要成就的基礎。它的侷限在於:人無法看懂特徵提取的過程,因為一切都是數字,只能接受計算結果。由此產生了"人工智慧可解釋性"專業。也由此引出一個重要的倫理邊界:不能將人的生殺大權交給自動武器,因為它可能僅憑特徵向量便做出判斷,向你開火。2018年圖靈獎楊立昆(LeCun):1989年在貝爾實驗室,用反向傳播的方法發明神經網路(CNN),成功識別手寫體文字,被廣泛應用於銀行簽名識別。本吉奧(Bengio):2003年將神經網路應用於自然語言處理,構建從詞到語法、到句、到段、到篇章的層級結構。辛頓(Hinton):2006年與楊立昆、本吉奧合作發表深層網路論文,證明多層神經網路能夠發現基本特徵並進行組合。這與前面看到的動物神經的裝配線理論完全一致。三人共同榮獲2018年圖靈獎。走向大語言模型2017年,谷歌研究員瓦斯瓦尼(Vaswani)等人提出Transformer架構,能動態分析詞義與語法,此後幾乎所有大模型均以此為基礎。2022年,華裔研究員歐陽龍提出InstructGPT,用人類對話資料訓練模型,使其能夠真正與人對話,後演變為ChatGPT。同年,華裔研究員Jason Wei (傑森魏,音譯)提出"思維鏈"(Chain of Thought),將複雜問題拆解成小步驟逐步求解。2023年起,模型已能勝任數學證明等高階推理任務。三、創新階段:機器是助手,人是主體大語言模型的本質與侷限辛頓近年擔憂AI失控,主張在"小老虎長大之前"加以遏制。論據有二:一是機器是數字計算,速度和精度遠超模擬計算的人腦;二是機器可能已具有某種"自我",實驗顯示機器能意識到稜鏡對視覺的影響,並理解"我"的概念。我的看法是:能說出"我",不等於擁有自我。真正的自我需要生存本能。關掉機器再重啟,機器毫無反應,這說明它並沒有真實的自我意識與生存訴求。龍蝦的例子同理,看似自主的行為,背後仍然是人的程式設計在驅動。DeepMind與AlphaFoldDeepMind公司由哈薩比斯(Hassabis)創立,被谷歌收購後總部仍在倫敦,並於2024年榮獲諾貝爾化學獎。主要成果包括:AlphaGo(2016年)擊敗韓國圍棋世界冠軍李世石;AlphaZero(2017年)無需人類棋譜,透過自我博弈學習圍棋;AlphaFold2則能預測蛋白質的三維結構。人類50年累計發現約20萬種蛋白結構,AlphaFold在一年內預測出約2億種,極大推動了製藥研究,包括新冠病毒抗體設計。前沿探索李飛飛(AI權威科學家,美國國家工程院、醫學院、藝術與科學院院士)指出,大語言模型無法理解三維空間,機器人因此難以完成諸如疊衣服、熨燙等複雜動作。她目前正研究如何讓機器人識別三維物體,已獲約10億美元投資,公司估值50億美元。我用過十餘種大語言模型,包括GPT和國內的DeepSeek。你讓它們描述一張齒輪圖片,基本上全是一塌糊塗,功能描述完全不對。李飛飛的判斷,確有道理。楊立昆則認為,大語言模型已走到盡頭,是一條死路。真正應該研究的,是預測影片中的動作,模仿動物怎樣在空間中認識世界。他目前正在研究影片預測模型,以100萬小時的影片為訓練資料,幫助機器理解物體在三維空間中的運動規律,已在法國融資約20億歐元。四、歷史解釋框架與經濟學視角歷史上有三種經典的解釋框架:修昔底德以《伯羅奔尼撒戰爭史》為依據,用爭霸解釋歷史:孟德斯鳩以地理決定論解釋歷史;馬克思以經濟矛盾與階級衝突解釋歷史。由此不妨設想:當AI真正進入人類的共同認知,它很可能成為一種新的歷史解釋框架。法國經濟學家託馬斯·皮凱蒂(Thomas Piketty)在《二十一世紀資本論》中提出:資本的收益率永遠高於經濟增長率,也就是說,投資者永遠在積累財富。他的解法是由政府出面徵稅,再將財富重新分配。2025年諾貝爾經濟學獎得主菲利普·阿吉翁(Philippe Aghion),則提出不同看法。他認為推動經濟的真正驅動力不是投資,而是創新。 他研究法國自動化時期大規模引入機器人的歷史,發現並未出現大規模失業,機器反而增強競爭力、創造了更多崗位。近年企業引入AI,也產生了同樣的效果。討論互動:AI最深刻的挑戰是逼出人的主體性危機(沙龍討論熱烈深入,提出了許多很有啟發、值得進一步思考的問題。)核心提示:在這個一切都可以被生成、被替代、被"湊合"的時代,人還有什麼是非守不可的?答案隱藏在那些AI做不了的事裡 -- -- 靈性、好奇心、承擔錯誤的能力,以及真正意義上的思考。一、寫作的原創性與主體性危機安琪:在AI時代,寫作的原創性該如何重新定義?AI可以生成極為流暢的文字,但憑直覺一眼便能判斷出那是機器寫的。文章太完美、太華麗,沒有呼吸感,打動不了人。人文寫作往往不是為了"輸出文字",而是透過寫作來思考。如果把寫作外包出去,思考過程本身去哪裡了?李小波:如果你真正瞭解它後臺的運作機制,就不會那麼擔心了。它靠訓練和提示詞運作,訓練過程中需要人類打分,這叫強化學習。正因如此,你會碰到幾個典型現象:1、八股文傾向:總是"首先......其次......最後......",中間塞滿了1、2、3、4。你得每次提醒它"能不能簡短回答",但它不會記住,下次照舊;2、不像人話:語氣生硬,需要反覆提醒它說得自然一點;3、過度圓滑:你問它辯證法對不對,它總答"一半對、一半不對"。而且越問越糊塗,要學會拿捏分寸,敢於批評它;4、奉承使用者:數學家陶哲軒有次說自己對某個內容有點生疏,順口說"我覺得面積最小的形狀應該是圓",機器立刻說"對!"他因此白白耽誤了好幾周,最後發現細長形狀的面積也可以最小 -- -- 維基百科上早就有這個結論。我自己也常遇到類似情況,回答裡一旦出現"洞見"這個詞,八成是機器生成的。所以,它沒有真正的自我意識。大家也不要輕信它所謂的"個性"。崔保仲(旅法獨立策展人):藝術家凈諦訓練了六個語言模型,提了十個關於人類的問題,分別用文字、影像、影片三種方式讓AI回答。結果,六個模型給出的答案完全不同。比如馬雲投資的模型千問,呈現樂觀的"世外桃源";而以馬斯克相關資料訓練的模型Grok,則充滿暴力感和外星球色彩。這位藝術家的核心追問是:大語言模型的倫理從何而來?它的"性格"是怎麼塑造的?能否模擬出接近人類的倫理狀態?李小波: 所有訓練,本質上都基於提示詞和大量示例。就好比你說"給我畫一幅梵高風格的畫",它已經學過梵高的特點,所以能畫出那種風格,但那不是它真正的"個性",只是被訓練出來的結果。AI底層機制是馬爾可夫隨機過程,逐詞按機率生成,同樣的問題問兩遍,答案可能完全不同。不同模型因訓練資料不同,差異極大。值得關注的是,在翻譯領域,語言模型發現所有語言的深層特徵是相通的,由此形成了一種"深層語言"。這正是喬姆斯基早年關於普遍語法的構想,而它竟然真的實現了。無論中文、英文還是法文,深層結構是一致的,所以翻譯做得非常準。關於資料安全:演算法是固定的,但材料不同,結果就不同。資料一旦被汙染,麻煩就大了。有個案例:有人在對話中不小心輸入了Windows密碼,另一個人一問,就被調出來了。這不是小機率事件,要特別注意。對話介面裡有一個選項,是否允許你的對話進入後續訓練,預設是"允許",你需要主動設定為"不允許",否則你說的所有話都可能被納入訓練,不知道會從哪裡冒出來。中國的模型不一定都有這個設定,DeepSeek有,美國的模型一般也有,但需要你主動去找。至於悲觀還是樂觀,那是隨機的。同一個問題,換一個對話視窗再問,答案可能截然不同。不要輕信。二、話語權的集中與真相的碎片化出席沙龍的業界資深人士指出:如何辨別新聞真偽,才是AI時代更為深層的問題和挑戰。沙龍思考:這是一個非常關鍵的問題。應該說,假新聞不是新問題,但它的性質變了。人類認知系統在進化過程中形成了一套識別謊言的直覺,但這套直覺依賴的是對"人工痕跡"的感知,而大模型生成的內容,恰恰消除了這些痕跡。假新聞變得更難被識別,因為質疑本身被系統性地工具化了。真相的基礎設施在瓦解,任何不符合某個群體利益的事實,都可以被貼上"假新聞"的標籤;任何權威來源,都可以被描述為"有議程"。在這個環境裡,真相不再是一個可以被共同核驗的東西,而是變成了一種立場。李小波的應對方式之一,是把可疑內容的關鍵詞直接丟給DeepSeek,讓它判斷。但他強調, AI扮演的角色是雙重的。一方面,它確實可以作為核驗工具,但另一方面,這個核驗本身依賴於模型的訓練資料和價值設定,而這些東西是不透明的。用同一套認知基礎設施來檢驗自己,侷限是顯而易見的。當下,整個社會似乎陷入了一個結構性的困境之中。表面上看,網際網路和社交媒體打破了傳統媒體的壟斷,人人都可以發聲,話語權似乎前所未有地民主化了。但實際上發生的事情恰恰相反 -- -- 話語權在另一個層面完成了更徹底的集中。因為決定你能看到什麼、什麼內容會被推送、什麼聲音會被放大的,是極少數幾個平臺的演算法。這些演算法不由公眾制定,不受監督,不對任何人負責,卻實質上控制著全球數十億人每天接收資訊的方式和內容。當話語權的掌握者開始系統性地使用假新聞作為治理工具,一個掌握了足夠資料和模型能力的權力主體,可以針對不同的人群投放不同版本的"現實",讓每個人活在一個為他量身定製的資訊繭房裡,彼此之間共享的事實基礎越來越少,共同討論的空間越來越窄。AI的出現,不只是分發內容,它直接生成內容。這是話語權集中程度的一次質的躍升。話語權與假新聞的問題,最終不是一個技術問題,也不是一個法律問題,而是一個關於社會信任的問題。真正的困境在於,缺少一個足夠可信的公共空間,讓人們願意在其中探討真相。三、開源與封閉:誰在定義AI的未來張倫(法國賽爾奇-巴黎大學教授):從專業角度看,如何評價當前幾個大國在AI領域的競爭層級?法國表現如何,中國處於什麼位置?夏榕(法國國際廣播電臺中文部記者)追問:中國的大語言模型基本上是開源的,美國主流走閉源路線。未來中美競爭中,開源和閉源哪個會勝出?李小波:目前拿得出手的,歐洲以法國為代表,中國有幾個不錯的模型,美國數量更多,但沒有一個模型是憑空發明的。中國模型學的是Meta的LLaMA,LLaMA參考了OpenAI早期的開源成果,OpenAI又是跟谷歌的開源學的。沒有開源,就沒有傳遞,就沒有進步。這就像人類發明史:簡單的東西可以多地獨立發明,複雜的東西更多靠傳遞。1970年代貝爾實驗室花大錢做的工具後來都開源了,Linux就是在這個基礎上長出來的。荷蘭有個教授的Minix,收一百塊錢,沒人用。Linux免費開源,全世界都在跑。AI也是如此。DeepSeek用了別人的開源成果,就必須開源,否則以後什麼都沒有了。那些真正從頭自己做的,可以選擇閉源。比如DeepMind的AlphaFold,做到第四版就宣佈不開了,因為全世界300多家大製藥公司(中國佔了100多家)都在做蛋白質結構預測,DeepMind覺得這太危險,不知道大家拿去做什麼,就關上了。張倫: DeepSeek我用了一下,有些擔心它會不會成為"中國的百度"。應用上不錯,但問及敏感問題一律拒絕,說"對不起,我們換個話題聊聊"。我那篇文章的標題就叫"既不Deep,又不Seek"。比如我只是查朝鮮戰爭的一個時間點,官方也沒說不能提,但它照樣拒絕。最近它換了說法,從"換個話題"改成"這個問題我還沒學會"。這裡有兩種可能:一是資料封閉性:因為迴避某類內容,導致將來它的知識包容性不如GPT,只能侷限在中國市場。目前DeepSeek的國際使用者,主要來自白俄羅斯、伊朗等國。二是權力工具風險:大量採集中文資料卻缺乏公共性和約束,可能成為權力的工具,這也牽涉到AI在戰爭中的危險。我的判斷是:中國AI在應用層面有潛力,尤其是完整的工業體系、製造業規模,加上文化上務實的傳統。但在尖端能力上與美國的競爭,結局還不明朗這個問題要換個角度看。一般認為中國網路是封閉的,但實際上專業人士上網基本沒有障礙。中國現在流行的說法不叫"翻牆",叫"科學上網",甚至叫"魔幻上網"。另外,中國使用者使用大語言模型的量非常大。有第三方API平臺,中國的叫"矽基流動",國際的叫OpenRouter,可以呼叫各種大語言模型,按token(詞元)計費。上個月某天我發現在OpenRouter上全球使用量最大的大語言模型,前兩名都是中國的,第一是Kimi,第二是DeepSeek。四、權力與技術張倫:權力與技術的關係,包括美國的情況,這個問題在中國尤其突出。李小波:中國的年輕人讓我感到很有希望,他們已經不說我們這一代人的語言了。舉個例子:在北京,我們去看歌劇《巴黎聖母院》,謝幕之後全場合唱《大教堂時代》,用法語,全場大合唱。那場演出在北京連演了二十多天,你去B站搜搜,不光是北京,全國各城市都有,場場爆滿,謝幕合唱全是法語。中國年輕人了不得,全是文質彬彬、有教養的觀眾。在外面看不出來中國這種潛移默化的變化,他不跟你硬頂。就像剛才說的,把"翻牆"叫"科學上網"、"魔幻上網",兩種說法,說的都是翻牆。沙龍思考:技術從來不是中性的,但也從來不只屬於權力。一個常見的誤解是:技術是工具,本身無善惡,關鍵在於誰用、怎麼用。這個說法本身是不完整的。技術不只是被使用的物件,它本身就攜帶著某種權力結構的傾向。核武器的存在,不管誰用不用它,本身就改變了國家之間的權力關係;監控攝像頭的存在,不管有沒有人在看,本身就改變了公共空間里人的行為。大語言模型的存在,不管誰在控制它,本身就改變了資訊生產和分發的權力格局。也就是說,技術一旦出現,就開始重新分配權力,這個過程不以任何人的意志為轉移。權力總是最早抵達新技術,因為權力天然擁有資源、組織能力和動機,第一時間介入任何可能改變力量格局的新事物。但技術也一再逃脫權力的完全控制。知識一旦存在,就傾向於傳播;工具一旦出現,就傾向於被更多人使用。開源的邏輯,就是這個擴散傾向最明確的表達。李小波說,沒有開源就沒有傳遞,就沒有進步,這不只是技術判斷,也是對權力與技術關係的一個深刻觀察。權力想要壟斷技術,但技術的本性是流動的。同時,權力控制技術,總有一個它無法跨越的邊界:技術必須有效,而有效性需要真實。一個被意識形態完全馴化的科學體系,最終會在需要解決真實問題時失靈。從這個意義上講,AI也是一把雙刃劍。正如張倫指出的那樣:DeepSeek迴避敏感內容,導致它的知識包容性不如GPT,最終只能侷限在特定市場。這個判斷對權力本身同樣適用。用一個被自己閹割過的工具來理解世界,最終損失的是權力自身的判斷精度;被管控的不只是異見,還有那些本來可以為權力自身服務的聰明頭腦。由此引申出AI的倫理問題的核心所在 -- -- 誰在決定它相信什麼。AI正在參與塑造人類的認知習慣、提問方式、對"合理答案"的感覺,這個過程是滲透性的,是日常的,是在每一次對話裡悄悄發生的。問題是,這個過程對使用者幾乎完全不透明。你問一個問題,得到一個聽起來客觀的答案,但你不知道這個答案是在什麼樣的價值框架下生成的,不知道哪些可能性在你看到結果之前就已經被排除了。過去你讀一篇文章,至少知道作者是誰,知道這份報紙的立場。現在你和一個模型對話,它的"立場"藏在幾百億個引數裡,沒有人能完整地告訴你它到底相信什麼。這種對人類認知的系統性塑造,以及對這個塑造的失控,是我們面臨的最大隱患。究其根本,倫理問題還是權力問題 -- -- 人類社會一直在處理"誰決定什麼是對的"這件事。倫理的出路不在於讓模型"更道德"。一個被訓練得看起來更道德的模型,只是把價值判斷藏得更深,讓它更難被質疑。真正的倫理出路,在於問責、開源;在於使用者的知情權,以及公共討論空間。由此可見,AI的倫理,不是一個可以被解決的問題,而是一個必須被持續追問的問題。停止追問的那一刻,才是真正危險的開始。五、AI讓人更聰明還是更懶惰?安琪:AI究竟讓人類變得更聰明,還是更懶惰?我們是不是已經開始對AI產生依賴?依賴的邊界在哪裡?人機協作的理想狀態應該是什麼樣的?李小波:這是個好問題,我現在只能回答一部分。有個例子:寫《龍蝦》的彼得(Peter),他說他讓機器來做流程,機器做完他覺得還湊合,就把那塊直接拼進去,基本能用。他原來在公司管過70多人做流程,他的體會是:作為老闆,你不能要求太高,"能湊合"就行。他對機器的要求也是這樣。反過來說,好的程式設計師在這波浪潮中反而面臨被淘汰的風險,因為他們習慣追求完美,但機器給出的"差不多"往往已經夠用了。不過還有另一面。昨天我看到一個人,他堪稱當前AI程式設計領域最厲害的,別人幾十萬行程式碼,他只用了七百多行。人是有好奇心的,如果什麼都交出去,你只當領導,最後好奇心怎麼滿足?"朝聞道,夕死可矣",搞清楚一件事,哪怕很小,那種滿足感是真實的。如果什麼都不明白,糊裡糊塗地交給機器,你只會越來越退化。所以這是矛盾的,老做領導,你不就變成最笨的那個人了嗎?崔保仲追問 : 你說它有時候同一個問題每次回答不一樣,那如果把會計工作交給它,你敢信它嗎?是不是還得多問幾次才行?李小波:這個問題確實關鍵。 涉及數學和精確推理時,絕對不能放手。數學證明要求嚴格因果,它經常算錯,而且不會自知。統計意義上它較為準確,但具體細節越多,可靠性越低。寫作同樣不行,這是不能外包的領域。實際上模型有一個"溫度"引數。辛頓得獎時提出的"淬火網",就像把一個東西加熱後猛地插入水中,它就變硬了。但做測試時一般會給它稍高的溫度,這樣模型落入區域性最低點時還能跳出來,最好能停到全域性最低點。所以得給它點溫度,它才能跳出來,太早"潑冷水",就完了。人本身的歸納就是統計性的,不是因果性的。只有做數學、做科學,才要求嚴格的因果:即便如此,數學本身也預設"公理"這一未經證明的前提。所有數學追溯到底,都要停在某個公理上。具體事務(如數學證明、報稅)尤其不能盲信。AI在統計層面尚可,但細節與精確性上靠不住,最終還得自己來。六、AI影像生成的技術瓶頸胡雪楊(旅法著名導演):我想拍一部AI題材的電影,我看到很多免費AI軟體,生成影像都不超過十秒。如果是動態影像,我想根據自己的描述,讓演員精確地按我說的方式走,現在做得到嗎?李小波: 做不到。付費版效果同樣一般。我做過實驗,用五分鐘時間,讓AI給我畫一個加法器的示意圖,描述完之後,我讓它做一個簡單動畫:第一步,一加三......結果它把輪子畫到邊上去了,完全不懂空間邏輯,直接飛了。目前火熱的Seedance,核心是換臉技術:在現成動作庫裡挑一個,換上指定的臉,這部分確實成熟;但若要它憑空創造新動作,則完全不行。我專門讓最高配的GPT-5那一檔,畫兩個齒輪咬合轉動,花錢了,還是錯的,齒輪歪著。它是有極限的。不過現在有兩項技術值得關注。一個叫高斯濺射(Gaussian Splatting):用高斯橢圓把影像填充好,透過計算前後遮擋關係生成三維效果,渲染速度能提升約五倍,3D、4D、5D動畫都在用。但它本質上是底層演算法的翻新,不是真正的人工智慧。另一個就是前面說的換臉,非常成熟。總的來說,不要太信廣告,信了你就甭幹事了。胡雪楊:我覺得技術照這個勢頭髮展下去,不久的將來,演員這個行當會被淘汰,拍電影不用花那麼多錢了。做商業片,AI最終一定會超過好萊塢。但藝術片不行。AI可以模仿數學家、模仿藝術家,卻絕對做不了真正有創造性的東西。就像當年攝影出現,大家以為油畫要完,但油畫沒死。AI可以仿造梵高,但梵高的靈性它沒有;它可以生成莫紮特、肖邦、貝多芬風格的音樂,但那種靈性不會出現,頂多是極致的模仿。李小波:高曉松最近說他以後作曲,小樣用AI來唱,任何人唱都有缺陷,AI唱是沒缺陷的。送去出版就只能送AI版了。但所謂的缺陷,其實是特點。七、AI對就業的"創造性毀滅"茅青(資深媒體人):AI確實能給許多從事具體事務的人減輕不少工作負擔。翻譯、會計、程式設計均已受到衝擊,且效果相當可觀。不同模型有差異:法國Mistral在法語環境下尤為實用,能處理就醫、法律、行政事務,甚至主動提供信件模板和法條依據;DeepSeek翻譯準確,且會提供額外建議。這裡,用對語言提問,體驗截然不同,用法語問Mistral與用中文問,是兩種完全不同的結果,而且你的法語水平不影響結果。李小波:現在的情況是相互矛盾的。例如,兩個年輕人做了一款財稅軟體,月收費27元,直接打垮了大量小型財務公司。也就是說,一個萬億規模的市場,就這麼被兩個年輕人加上一個AI給顛覆了。再如,Twitter前創始人傑克·多西的新公司,有一萬名員工,一次裁員4000人,股價隨之上漲20%,說明資本已在押注"用AI替代人力"的方向。歐洲央行的判斷是:跟上AI節奏的公司表現更好,沒跟上的則落後。但他們也說,未來幾年的走向,還需要繼續觀察。所以現在大家都處在一種"又怕、又跟著走"的狀態。雷新華(經濟學博士、金融業者):失業問題,其實和菲利普·阿吉翁講的"創造性毀滅"是一脈相承的,這個概念源自熊彼特,認為新技術必然摧毀大量舊有的行業。李小波:白領工作的80%-90%可能被淘汰,藍領工作的情況相對不同。AI不僅會摧毀舊有行業,還會摧毀上一個發明。阿吉翁有一個尤為值得重視的觀點:創新者往往會主動阻止下一個創新者出現,以保護自己的既有利益。雷新華:醫學界很多外科醫生、尤其是法國的,他們都比較擔憂。手術要求精細, AI可以調取全世界同類手術的案例,而不只是某一個醫生自己做過的那幾百臺。但問題是,手術中經常有突發情況,開進去一看不對,神經位置偏了,這時候怎麼應變?安琪:其實最好的外科醫生,就是五十歲上下的,要經驗有經驗,手也穩。機器再好,感覺不對。曾騰(旅法建築師):隨著工具的演變,理解和處理建築空間問題的方式也完全不同。我不太認同"人是主體、工具是客體"這個界定。不同年代的建築師,用不同工具,做出的設計、理解問題和處理問題的方式是完全不一樣的。既然我們已經越來越在用AI的方式生活、用AI的方式體驗世界,那麼隨著AI的發展,人類這個主體會如何被工具更深地影響?李小波: 工具發展反過來影響人,這沒有問題。但AI有沒有主體性,值得商榷。機器學習分三種,有監督學習:給一個樣本,照著學;自監督學習:人在背後設計規則,讓機器判斷兩個東西是否相似,人的意識隱藏在後面;強化學習:設定打分規則,讓機器逐步最佳化。無論哪種方式,背後都有人的意識在驅動。機器不會自己覺得不舒服、伸個懶腰,也不知道自己什麼時候會被關掉"死了"。歷史上從未有任何一臺機器是自己做出來的,包括神經網路。圖靈從1950年代就說機器複雜到一定程度會自我創造,至今仍未實現。還有一種"繁殖演算法",讓程式像細胞一樣分裂組合,幾十年了,什麼新東西也沒做出來。AI已透過了圖靈測試,正確率大約70%。但圖靈測試測的是"能否被混淆為人",並不測意識。所以透過圖靈測試不代表有意識。我認為AI目前不具備意識。赫拉利(《人類簡史》作者)認為未來人和機器會融合,但他的論據站不住腳。他說刀既能切菜也能切人,這沒錯,但那是人主動操控的。機器把胳膊卷進去,那不是意識,是事故。切人需要有利害衝突、有主動意識,沒有這個,就談不上主體性。沙龍思考:值得深思的是,AI在某種意義上,放大並照出了人類思維的若干痼疾:以第三世界心態看世界,習慣於服從權威、大一統意識、跟風、隨大流。個體存在的自我意識與主體性,在這套慣性裡是缺失的。所謂主體性缺失,不是說這個人沒有想法,而是說他的想法從來不是真正"他的"。他的觀點、審美、判斷都來自外部,卻從未真正問過自己到底想要什麼,什麼是對的。這不是懶惰,很多時候在一個不鼓勵獨立判斷的環境裡,隨大流是一種比較安全的生存方式。AI可以同時扮演所有權威,給出所有立場,甚至根據你的語氣和偏好調整答案。一個沒有自我意識的人面對AI,會發現它極為配合地生成他"想要"的那種回答。但這種配合不是幫助,而是一面哈哈鏡 -- -- 它把你已有的傾向放大、美化、包裝後再還給你,讓你誤以為那是你的思考結果,實際上你沒有被推動去任何地方,只是在原地被確認了一遍又一遍。真正的考驗,不是AI會不會取代你的工作,而是在AI把所有"可以被生成的答案"都生成完之後,你還剩下什麼?結束語:問題與思考李小波博士的演講非常精彩,內容詳實通透,敘述由淺入深,生動有趣,沒有那種慣常的"不接受AI就是落後"的傲慢,而是尊重每一位聽眾的自我判斷。從演講到討論互動,大家暢所欲言,心情舒暢,在自由的氛圍中問題互動頗具張力,核心觀點是:AI去掉了許多人沒有獨立思考的遮蔽,凸現人的主體性的缺失。AI的出現,表面上是在替人思考,實際上是在逼人回答一個長期被迴避的問題:你自己到底會不會思考?獨立思考不是一種天賦,而是一種長期練習的結果。對於本來就有思考習慣的人,AI是一個強大的工具,它處理資訊,你處理判斷,分工清晰,效率倍增。但對於那些從未真正具備獨立判斷能力的人,AI給了他們一個新的、更高效的方式來繼續迴避這件事,思考的空洞還在原處,甚至因為被填補得太及時順滑,而變得更難被察覺。AI迫使人類追問:我是誰、我要什麼、我相信什麼!在這裡,法國哲學家笛卡爾"我思故我在"之思想真諦,再次發出智慧之光。感謝李小波博士的精彩演講;感謝他頗具啟發、引人思考的問題辨析!感謝所有新老沙龍朋友們的熱情參與!巴黎「自由談」沙龍三十年(1996-2026)來,秉持"每一次都是第一次"的理念,使得本沙龍始終處於不斷升級與自我更新的歷程中。這一切,有賴於每一位與會者的支援與厚愛。安琪於巴黎三昧聊齋(圖片由巴黎「自由談」沙龍提供)沙龍活動舉辦於2026年3月7日整理成文於2026年3月30日終校於2026年4月12日、4月22日、4月26日(法廣首發)

前進

107 部落格 文章

回覆