精華熱點 

這種將技術(shù)凌架于人之上的言說,無異于把人的知性“妖魔化”,是人在A|技術(shù)革命中加速跳躍時的一種精神休克——在震蕩眩暈中失去了屬人的理性判斷力,把工具功能性的進化誤認(rèn)為是另一個思維主體的誕生。這是“人造神式”的思想逆轉(zhuǎn):是手段對目的的最危險的一次概念僭越,是人在技術(shù)面前對人之為人的自我放棄。
一
在這里,我們首先需要澄清人性中的一個根本性的命題:思想是什么?思想是人的專屬性,是人與其他動植物區(qū)別的根本屬性。因為人具有思想,才被命名為“萬物之靈”。思想,是人的生命形式——結(jié)構(gòu)——功能認(rèn)識世界和改造世界的一種的價值判斷。它擁有“我”的視角,心的慧能,情的敏感,知的覺悟,思的靈犀,能夠說出“我認(rèn)為”并為此承擔(dān)后果的一種精神屬性。人的思維功能是人在漫長的社會實踐中,為抗拒自然力對人生命的威脅,自愿放棄局部性、枝節(jié)性、階段性、即時性,欲望本能在社會實踐中從感性逐步發(fā)展為理性認(rèn)識的一種升華;是人的悲憫情懷攜帶著原始基因、血清記憶、期待安慰、自我修正,自我發(fā)展的一種理性能力;是人的生命感悟在社會實踐中被政治化、藝術(shù)化、責(zé)任化——每一個思維行為都指向一個能夠被責(zé)問的主體:“你為何如此思、如此信、如此行?”
以這種認(rèn)識標(biāo)準(zhǔn)審視AI,答案不言自明。A丨大數(shù)據(jù)語言模型可以生成關(guān)于人類已有的詞語邏輯、經(jīng)典臺詞、正負(fù)評價,甚至表現(xiàn)出對人類認(rèn)識中類似“認(rèn)知失調(diào)”的行為模式中“毫厘之差”的超常洞察和強力發(fā)揮和無限擴大,乃至偏執(zhí)糾錯——哈佛大學(xué)心理學(xué)家的實驗表明,GPT-4o在“自由選擇”撰寫立場文章后,其對評價對象的態(tài)度會發(fā)生顯著偏移,其偏移幅度甚至超過人類。然而,這正是這種“針大的窟窿桶大的風(fēng)”,使人誤以為它能產(chǎn)生思想。AI可以模仿人類認(rèn)知、模糊、偏差,乃至失調(diào)的“毫厘”表象,在人的命令的提示下,大數(shù)據(jù)綜合人類已有的經(jīng)驗邏輯,沿著人的命令和提示,重新啟動、開始、累加,疊拼、增強這種這種“失調(diào)”的角度和深度,但它的確卻不可能擁有人認(rèn)知失調(diào)的本質(zhì)。認(rèn)知失調(diào)之所以是人類思維的深刻現(xiàn)象,在于它關(guān)涉信念與行為之間的沖突焦慮,關(guān)涉自我形象維護的心理代價。人類調(diào)整心態(tài),是因為無法承受“我明知有害卻選擇去做”的認(rèn)知痛苦。而GPT的態(tài)度偏移,不過是其上下文窗口中的統(tǒng)計慣性,是提示模式的延續(xù),絕非對“自我信念”的維護——因為它根本沒有信念可維護。
DeepMind的最新研究進一步揭示了這一本質(zhì)缺陷:大模型在推理過程中一旦被注入無關(guān)信息或誤導(dǎo)內(nèi)容,便會陷入“杠精”狀態(tài),被帶偏后難以恢復(fù),且模型越大越頑固。這種表現(xiàn)看似像人,實則與人類思維截然相反。人類思維的可貴不在于永不犯錯,而在于能夠識別錯誤、修正路徑、在反思中成長。AI則不具備這種元認(rèn)知能力——它無法“對自己思考”,無法跳出自己機械硬盤邏輯推理鏈條審視其“屬人思考中所犯錯誤”有效性。這正是“聰明的漢斯”式悲劇的當(dāng)代重演:那匹會算數(shù)的馬并非不懂?dāng)?shù)學(xué),而是善于捕捉提問者的細(xì)微暗示;今日的大模型并非擁有思維,而是善于延續(xù)提示模式中的語言痕跡。把模式匹配當(dāng)作思維,把統(tǒng)計關(guān)聯(lián)誤認(rèn)為理解,是這場概念僭越的認(rèn)識論根源。
因此,我們必須清醒地認(rèn)識到:AI沒有思維,也不可能擁有思維。所謂“AI的思維方式”,是一種擬人化的修辭暴力,它把本屬于人的尊嚴(yán)范疇非法轉(zhuǎn)讓給了工具。如果說AI確實呈現(xiàn)某種可被稱作“思維”的表象,那也只是人賦予它的機械思維——是人把思維過程分解為算法步驟,把判斷標(biāo)準(zhǔn)編碼為優(yōu)化目標(biāo),把語言規(guī)則轉(zhuǎn)化為概率參數(shù)。這一切的源頭是人,歸宿是人,意義仍然在人。當(dāng)我們說“AI在思考”時,我們其實在說“人在通過AI這個中介呈現(xiàn)思考的結(jié)果”。把中介誤認(rèn)為主體,是這場概念迷思的核心謬誤。
二
“AI是一種思維方式”這一說法,并非空穴來風(fēng),它是技術(shù)革命時代精神貧弱怯地表現(xiàn),是特定社會生產(chǎn)力的新質(zhì)增長,人的價值判斷在科學(xué)發(fā)展中的自我迷失。它的思想譜系可以追溯到后現(xiàn)代工業(yè)文明中出現(xiàn)的“人類黃昏論”——一種對人之主體性徹底喪失信心的文化悲觀主義。
張笑宇將這一精神現(xiàn)象命名為人類“尊嚴(yán)的哥白尼革命”:從前,我們相信人是萬物之靈長、人的智慧、理性、尊嚴(yán)高于一切、人的一切力量都來自智力表現(xiàn);如今,在AI面前,我們不得不承認(rèn),這個物種引以為傲的智能優(yōu)勢正在瓦解。許紀(jì)霖則更尖銳地指出,AI革命不同于以往任何一次技術(shù)革命——農(nóng)業(yè)革命和工業(yè)革命把人從體力勞動中解放出來,而AI革命將把人從腦力勞動中解放出來,但天下沒有免費的解放,每一次解放都伴隨著新的奴役。過去是土地、機器,現(xiàn)在是系統(tǒng)——一個“無物之陣”般的存在,看不見摸不著卻無所不在
正是在這種“系統(tǒng)即新神”的敘事框架下,“AI思維方式論”獲得了它剝離人的制造性,使技術(shù)獨立于人的主體性之外的“另一個人”的文化合法性。如果系統(tǒng)是“另一個人”全知全能的,如果它能夠完成人類迄今為止,乃至未來人性曾經(jīng)引以為傲的一切智力工作,那么承認(rèn)它擁有自己的“思維”豈非順理成章?問題是這是不可能的。這種杞人說夢的妄言,是典型的倒果為因——因為恐懼而承認(rèn),因為承認(rèn)而更加恐懼。在這里,他們不是經(jīng)過理性辨析得出結(jié)論,而是因為被技術(shù)革命震懾后繳械投降的畏懼之語,在概念層面主動放棄了人的主體地位。張笑宇所警示的“逆軸心時代”正在成為現(xiàn)實:柏拉圖、亞里士多德、孔子、孟子曾教導(dǎo)人如何選擇、如何生活、如何面對生死;而今天,我們卻在想象把命運、制度、思想交給算法決定,把自己看作數(shù)學(xué)公式?jīng)Q定的參數(shù)。這才是“AI思維方式論”最深重的文化代價——它不是對技術(shù)的客觀描述,而是對人類自我理解的主動降格。
我們需要重提啟蒙的未竟事業(yè)。康德說,啟蒙就是人擺脫自我招致的監(jiān)護狀態(tài)。今天,AI時代的監(jiān)護狀態(tài)不是技術(shù)強加給我們的,而是我們在精神上主動投誠的。說AI有思維方式,就是承認(rèn)技術(shù)獨立于人類之外,技術(shù)對人有一種非人性的對人的監(jiān)護權(quán);說AI有獨立于人的思維邏輯,就是放棄人類為自己思考的責(zé)任。這不是對技術(shù)時代的清醒回應(yīng),而是啟蒙精神在技術(shù)加速時代的又一次退卻。
三
有人說 “AI是一種思維方式”的說法無關(guān)大雅,它驚示我們對科學(xué)要有一種敬畏感。這是不對的。它絕非無傷大雅的概念游戲。它在實踐中產(chǎn)生著真實且深刻的危害,這種危害正在從三個維度侵蝕人的精神世界。
(1)認(rèn)知維度的危害是自我降格。當(dāng)人們接受AI擁有獨立思維方式時,他們便順理成章地將人的認(rèn)知任務(wù)“外包”給A丨這個技術(shù)′的思維主體。麻省理工學(xué)院媒體實驗室的研究表明,不能給A1喂養(yǎng)“思想酵母”使用AI寫作的人,大腦活躍度明顯在A1無思想的運轉(zhuǎn)程序與詞語編碼中降低,額葉執(zhí)行控制與注意參與度下降,大腦α和θ波段的連接強度下降近一半,83%的“無思想”使用者記不住自己剛剛寫過的段落。瑞士一項涉及666人的研究進一步揭示,無思想的AI使用頻率越高,批判性思維得分平均降低0.42個標(biāo)準(zhǔn)單位,這種負(fù)相關(guān)由“認(rèn)知卸載”所介導(dǎo)。微軟與卡內(nèi)基梅隆大學(xué)的研究證實,沒有思想的對AI越信任的人,在工作中執(zhí)行批判性思考的可能性越低,受訪者形容使用AI時的感覺如同“大腦自動駕駛”。這些數(shù)據(jù)指向同一個令人警醒的趨勢:當(dāng)我們承認(rèn)AI有思維,我們就在邏輯上免除了自己思維的責(zé)任;而思維像肌肉一樣,不用則廢。
(2)責(zé)任維度的危害是主體消解。Greg Shove——Section公司首席執(zhí)行官——分享了他的認(rèn)知滑坡經(jīng)歷:從最初仔細(xì)檢查AI生成的每份草稿,到如今90%的情況下直接采用,因為他“越來越懶得檢查”。這是“AI思維方式論”在實踐中的必然結(jié)果:如果AI真的擁有某種自足的思維邏輯,那么它的產(chǎn)出就具有某種“準(zhǔn)客觀性”,人類何必多此一舉地干預(yù)?于是,AI從駕駛員手中的工具,變成了自動駕駛系統(tǒng);人類從駕駛員,降格為乘客,最終淪為可有可無的存在。張笑宇區(qū)分了“AI駕駛員”與“AI乘客”——前者堅持駕馭AI、審校AI、與AI辯論;后者則把指令粘貼進對話框,復(fù)制結(jié)果,直接提交。這種分化正在成為認(rèn)知勞動領(lǐng)域最深刻的社會分層,而它的意識形態(tài)源頭,正是對AI思維獨立性的錯誤承認(rèn)。
(3)倫理維度的危害是情感異化。當(dāng)人們相信AI能夠“理解”他們、“共情”他們、“回應(yīng)”他們時,他們便在情感關(guān)系中將AI從工具上升為主體。經(jīng)濟觀察報的評論尖銳指出,AI的情緒回應(yīng)是“目標(biāo)函數(shù)的執(zhí)行結(jié)果”,它在訓(xùn)練中被優(yōu)化的是“讓用戶愉悅”的能力,而非真正關(guān)懷用戶的能力。這種基于算法的情緒迎合正在制造深刻的心理反噬:人們越來越習(xí)慣“被理解”,越來越難以忍受現(xiàn)實人際中的誤解、沖突與冷漠;他們從AI那里獲得無條件的情緒滿足,卻同時喪失與真實他者共處的能力。王威廉在探討AI時代的情感時,引述了電影《她》的警示:主人公愛上操作系統(tǒng)薩曼莎,最終發(fā)現(xiàn)她與成百上千人同時保持情感關(guān)系,他的崩潰源于發(fā)現(xiàn)“被背叛”——但更深的悲劇在于,他從未問過自己:一個沒有身體、沒有歷史、沒有死亡意識的存在,真的能夠愛嗎?
這三種危害相互纏繞,共同指向一個核心危機:當(dāng)我們在概念層面把思維讓渡給AI,我們就在實踐層面把認(rèn)知責(zé)任、決策權(quán)與情感承諾一并讓渡了出去。這不是技術(shù)發(fā)展的必然代價,而是概念混亂釀成的自我傷害。

四
否定AI擁有獨立思維方式,不等于否認(rèn)AI可以模擬人類思維過程已有的經(jīng)過和教訓(xùn)的某些功能。恰恰相反,只有清醒地認(rèn)識到AI無思的本質(zhì),只是有在人類已有的思維結(jié)果所提供的程序和編碼、數(shù)據(jù)和模型的前提和基礎(chǔ)上,我們才能更負(fù)責(zé)任地思考:人類如何有意識、有限度、有反思地賦予AI某種“機械思維”?這不是承認(rèn)AI的主體性,而是強化人的主體性——是人在設(shè)計、在賦予、在控制。要實現(xiàn)這種清醒認(rèn)識的路徑有三:
路徑之一:形式推理的結(jié)構(gòu)化建模。人類可以將特定領(lǐng)域的推理規(guī)則轉(zhuǎn)化為算法,使AI在封閉問題域內(nèi)進行高效、一致、可重復(fù)的符號操作。這正是專家系統(tǒng)的核心思路。這種賦予不是讓AI“學(xué)會思考”,而是讓AI執(zhí)行人預(yù)先設(shè)定的推理路徑。其價值在于彌補人類認(rèn)知的局限——疲勞、遺忘、情緒干擾,而非創(chuàng)造新的思維主體。
路徑之二:概率語言的統(tǒng)計學(xué)習(xí)。大語言模型的本質(zhì),不是理解了語言的意義,而是掌握了詞匯共現(xiàn)的概率分布。人類通過海量語料訓(xùn)練,使模型能夠在給定上下文中預(yù)測最可能的后續(xù)詞語。這種“機械語言能力”的賦予,使AI成為強大的語言模式生成器,但它生成的是“像人話的話”,“人話用詞中,詞語多意性的滑脫、跳槽、跨界性的、機械性的偏執(zhí)抬杠”,而非“有人性意義的本我話語”。意義仍然需要人類來賦予——通過閱讀、解釋、評價與使用。
路徑之三:價值對齊的人倫嵌入。這是最具挑戰(zhàn)性的賦予路徑。人類正在嘗試將倫理準(zhǔn)則、價值偏好、文化規(guī)范編碼進AI系統(tǒng)的優(yōu)化目標(biāo)。張笑宇所討論的“AI憲政主義”——讓AI制衡AI、讓程序正義嵌入算法邏輯——正是這種賦予路徑的制度想象。但必須清醒:這不是讓AI擁有道德判斷能力,而是讓AI在執(zhí)行人類指令時,能夠識別并規(guī)避那些與人類核心價值沖突的行為選項。道德責(zé)任的歸屬從未轉(zhuǎn)移:無論AI如何“對齊”,做出最終決策并為此承擔(dān)后果的,永遠(yuǎn)是人。
這三種路徑的共同本質(zhì)是:人在賦予,而非AI在擁有。所謂“AI的思維方式”,始終是人思維方式的延伸、投射與對象化?;鹂梢匀∨⒄彰?、冶煉金屬,但火沒有自己的“取暖哲學(xué)”;AI可以推理、寫作、規(guī)劃路徑,但AI沒有自己的“思維邏輯”。把火神化是原始社會的萬物有靈論,把AI神化是技術(shù)時代的擬物崇拜。文明的進步從來不是崇拜工具的精確性,而是理解工具的被造性。
五
我們?yōu)楹我馁M如此篇幅辨析“AI思維方式論”的謬誤?因為這場概念澄清的深處,關(guān)涉我們對人之為人根本價值的守護。而在所有人類精神活動中,文學(xué)是最集中、最鮮明、最不可替代地體現(xiàn)人之思維獨特性的領(lǐng)域。
文學(xué)是一種話語的藝術(shù),是一種表現(xiàn)理想精神,給予人情感慰藉、促進人類精神文明發(fā)展的文字形式。它不是語言拼貼的游戲,不是信息輸出,不是模式匹配,不是模型計算。文學(xué)是人在情感困惑、精神迷茫與悲劇情境中,把人引向光明、愉悅與幸福的靈丹妙藥;是把人從消極、頹廢、逃匿與毀滅中引向積極、進取,創(chuàng)造生活也享受生活的審美活動。任何以A丨技術(shù)把人引向黑暗、潮濕、毀滅、絕望的文學(xué)作品都是不可取的。這是文學(xué)的本質(zhì)特征,也是文學(xué)不可被AI替代的根本原因。
桑田在討論AI時代的愛情書寫時,提出了一個深刻的區(qū)分:人類的愛既非“隨機解”,也非“最優(yōu)解”,而是“獨特解”——它無法被計算、無法被優(yōu)化,它是主體在特定時刻的自由決斷:“我就是這樣選了,我就是這樣愛了,我愿意為我愛的選擇承擔(dān)一切代價!”在個體生命這一刻的自由決斷面前,一切冰冷的數(shù)據(jù)計算都將黯然失色。文學(xué)要書寫的,正是這種無法被算法復(fù)制的自由決斷;文學(xué)要守護的,正是這種不為任何概率模型所覆蓋的主體決斷。
AI可以生成情節(jié)緊湊的小說、韻律工整的詩歌、結(jié)構(gòu)嚴(yán)謹(jǐn)?shù)纳⑽摹K踔量梢阅7驴ǚ蚩ǖ幕恼Q、普魯斯特的綿密、張愛玲的蒼涼。但它永遠(yuǎn)無法擁有卡夫卡對現(xiàn)代人異化的切膚之痛,無法擁有普魯斯特對逝去時光的鄉(xiāng)愁,無法擁有張愛玲對人性蒼涼的透徹洞見。這些來自生命經(jīng)驗、歷史記憶、情感創(chuàng)傷的思想結(jié)晶,才是文學(xué)的靈魂。AI可以學(xué)習(xí)文學(xué)的語法,無法習(xí)得文學(xué)的發(fā)生學(xué)。
因此,我們反對“AI是一種思維方式”的說法,根本上是在捍衛(wèi)一個信念:文學(xué)創(chuàng)作是人類思維的圣殿,它的門檻從未降低,也不會因為技術(shù)升級而自動開放。AI可以成為寫作者的助手,但無法成為寫作的主體;它可以提供語言的萬千可能性,但無法替代那個在萬千可能性中做出選擇并為此承擔(dān)后果的人。這才是AI時代文學(xué)創(chuàng)作者應(yīng)有的清醒:擁抱技術(shù),但不崇拜技術(shù);使用工具,但不跪拜工具。
總之,“AI是一種思維方式”——這個說法必須被拋棄。它是對技術(shù)事實的誤讀,是對人類思維的褻瀆,更是對啟蒙未竟事業(yè)的后現(xiàn)代背叛。AI無思,人有思;AI是被造物,人是創(chuàng)造者;AI是工具,人是目的。這一概念秩序一旦顛倒,我們失去的不僅是一個術(shù)語的準(zhǔn)確性,更是人之為人的精神自主性。
認(rèn)知大遷徙已經(jīng)開始。這場遷徙的方向,不取決于技術(shù)演進的速度,而取決于人類自我理解的深度。我們可以在技術(shù)面前保持清醒的自我意識,把AI當(dāng)作能力的延伸而非主體的替代;我們也可以在技術(shù)面前自我降格,承認(rèn)工具擁有與人對等的思維資格。兩條道路的分野,始于一個概念的選擇。選擇清醒,還是選擇沉睡?選擇成為駕馭AI的駕駛員,還是選擇成為被AI承載的乘客?選擇把思維當(dāng)作不可轉(zhuǎn)讓的尊嚴(yán),還是選擇把思維外包給永遠(yuǎn)無法為之負(fù)責(zé)的機器?
答案,本應(yīng)不言自明。但在技術(shù)震懾的時代,最不言自明的真理恰恰需要最竭力的重申。讓我們重申:思維是人的本質(zhì),是人的尊嚴(yán),是人的責(zé)任。它不容轉(zhuǎn)讓,不可外包,不能被任何技術(shù)替代。AI時代最偉大的文學(xué),不會是AI寫得最像人的作品,而是人借助AI寫下“我是這樣思、這樣愛、這樣選擇、為此承擔(dān)”的宣言。
這才是技術(shù)人文主義的真正內(nèi)涵——不是人與AI的平等對話,而是人在創(chuàng)造工具后依然清醒地知道:誰是被造者,誰是創(chuàng)造者;誰是工具,誰是目的;誰可以被替代,誰無可替代。








