又大又爽的免费视频,亚洲久在线,欧美一级淫片免费视频黄,亚洲第一区精品,日日日韩,自拍偷拍在线播放,国产一区在线观看视频

分享到:
 
 
當(dāng)前位置: 首頁>>綜合頻道>>綜合>>正文
“認(rèn)知卸載”,人類大腦會(huì)陷入舒適區(qū)嗎
2025年12月10日 10時(shí)35分   人民網(wǎng)

17世紀(jì)法國哲學(xué)家、數(shù)學(xué)家布萊茲·帕斯卡爾曾言:“人是一根會(huì)思考的蘆葦?!比说娜孔饑?yán),便在于思想。然而,當(dāng)ChatGPT能一秒鐘生成一篇論文,當(dāng)Claude能瞬間梳理出復(fù)雜的邏輯脈絡(luò),一個(gè)疑問開始出現(xiàn):這根“會(huì)思考的蘆葦”是否正在枯萎?人類是否正為了便利,主動(dòng)交出自己的思考權(quán)?

美國紐約州立大學(xué)石溪分校教授勞倫·里士滿說:“AI本身不一定讓我們變笨,只是我們與它互動(dòng)的方式可能很笨?!蹦敲?,人類在使用生成式人工智能(AI)時(shí)犯了哪些錯(cuò)?又該如何改變習(xí)慣,讓技術(shù)真正為人所用?

減輕思維負(fù)擔(dān)帶來惡性循環(huán)

據(jù)英國《新科學(xué)家》網(wǎng)站報(bào)道,生成式AI正深度融入人們生活,并讓人延續(xù)了“認(rèn)知卸載”的傳統(tǒng),即利用工具減輕思維負(fù)擔(dān)。就像人們不是用腦子記住要買什么,而是寫一份購物清單一樣。但相比蘇格拉底當(dāng)年對寫清單的擔(dān)憂,AI帶來的挑戰(zhàn)遠(yuǎn)甚于此。

里士滿與其同事今年3月在《自然》雜志發(fā)表論文指出,認(rèn)知卸載會(huì)對認(rèn)知造成負(fù)面影響。過度依賴AI不僅讓學(xué)習(xí)過程變得被動(dòng)和膚淺,更會(huì)導(dǎo)致惡性循環(huán)。人們卸載得越多,獨(dú)立思考的能力就越弱,進(jìn)而更加依賴工具。

英國蘇塞克斯大學(xué)哲學(xué)家安迪·克拉克對此持辯證態(tài)度。他提出的“延伸心靈”理論認(rèn)為,利用外部工具分擔(dān)腦力本身并非壞事,但他擔(dān)憂的是,隨著人們將心智深度延伸至生成式AI與網(wǎng)絡(luò)空間,這種依賴性正讓人變得前所未有的脆弱。直白地說,一旦斷電或沒網(wǎng),人類的認(rèn)知能力可能就跟著“癱瘓”了。

美國賓夕法尼亞大學(xué)今年1月的研究顯示,與使用搜索引擎相比,使用ChatGPT輔助的志愿者寫出的文章篇幅更短、事實(shí)引用更少。研究者指出,這是因?yàn)锳I直接替人類完成了關(guān)鍵的“信息綜合”步驟,將探索與發(fā)現(xiàn)的機(jī)會(huì)徹底“交卸”給算法,導(dǎo)致學(xué)習(xí)淪為被動(dòng)接收,對知識(shí)的理解也注定流于膚淺。

一些初步證據(jù)顯示,過度使用生成式AI可能會(huì)使批判性思維能力下降。瑞士SBS商學(xué)院的邁克爾·格爾利希在一項(xiàng)涵蓋600多人的調(diào)查研究中發(fā)現(xiàn),17—25歲的年輕人比年長者更依賴AI,而他們的批判性思維得分也相應(yīng)低了約45%。格爾利希將其稱為“認(rèn)知懶惰”。當(dāng)人們連真誠的道歉信都習(xí)慣讓AI代勞時(shí),人類大腦可能已經(jīng)開始拒絕處理那些更復(fù)雜、更費(fèi)力的思考任務(wù)了,這才是最大的隱憂。

AI流暢的語言不代表有思維

既然人類的思考能力似乎岌岌可危,那么AI是否有資格“接管”人類的智力?科學(xué)界對此保持著冷靜,認(rèn)為AI看似聰明的回答,往往掩蓋了其本質(zhì)的局限。

去年6月,《自然》雜志刊登的一篇重磅評(píng)論指出:流暢的語言并不代表有思維。

3位美國科學(xué)家通過多重證據(jù)證實(shí)了這一點(diǎn)。腦成像顯示,大腦處理語言和推理的區(qū)域是截然分開的。失語癥患者雖失去語言能力,卻依然能解開復(fù)雜的數(shù)學(xué)題。而嬰兒在學(xué)會(huì)說話前,就已經(jīng)開始像科學(xué)家一樣探索世界。

如果語言能力并不等同于思考能力,那么當(dāng)下依靠概率預(yù)測下一個(gè)詞的大型語言模型就更難被視為“會(huì)思考的存在”。它們之所以能生成流暢、似乎頗有見地的回答,只是因?yàn)樵谡Z言形式上高度擬人化,卻并不具備驅(qū)動(dòng)語言背后的認(rèn)知引擎。

美國哲學(xué)家理查德·羅蒂指出,所謂常識(shí),往往是那些被反復(fù)使用而失去新意、最終化為固定表達(dá)的“死去的隱喻”。而生成式AI恰恰是從這種被大量重復(fù)的人類語言中學(xué)習(xí),它掌握的是語言的“殼”,卻未參與讓語言誕生的真實(shí)經(jīng)驗(yàn)世界。

因此,當(dāng)人們把問題交給AI時(shí),它往往只是反芻已有的詞句,被困在人類數(shù)據(jù)的牢籠里。它可以復(fù)述關(guān)于“騎自行車”的所有物理公式,卻永遠(yuǎn)無法像人類那樣,真正理解雙腳離地、保持平衡的一瞬間。

應(yīng)堅(jiān)持“先思考后AI”

要避免認(rèn)知被削弱,人們必須重塑與生成式AI的關(guān)系,讓它成為增強(qiáng)而非取代思考的工具。但做到這點(diǎn)并不簡單。研究發(fā)現(xiàn),即便自認(rèn)為思維嚴(yán)謹(jǐn)?shù)娜?,一旦缺乏明確指導(dǎo),也會(huì)迅速滑向“大腦偷懶”的舒適區(qū)。

不過,美國麻省理工學(xué)院團(tuán)隊(duì)發(fā)現(xiàn),那些先獨(dú)立寫過一次作文的志愿者,再用ChatGPT寫第二版時(shí),即便用了AI,大腦仍保持高水平連接度,思維參與度并未下降。

對此,克拉克表示,關(guān)鍵是永遠(yuǎn)做那個(gè)先思考的人。越多獨(dú)立思考,越能提升所謂“混合認(rèn)知”。還有研究者建議,使用AI的正確方式,是把它當(dāng)作強(qiáng)化既有理解的工具,而不是取代思考的捷徑。

克拉克同時(shí)提醒,要警惕“錨定效應(yīng)”,即第一條信息往往會(huì)主導(dǎo)后續(xù)判斷。即便試圖批判性地評(píng)估AI的回答,仍可能被它生成的第一個(gè)答案潛移默化地帶偏。對此,他給出了一個(gè)巧妙的反向操作策略。例如,寫一件事的負(fù)面影響時(shí),不要直接讓AI列舉負(fù)面例子,可先讓它列舉事實(shí),再自己歸納負(fù)面影響,最后再請AI找漏洞或給出相反論證。

若人們依賴AI提供所有答案,人類原創(chuàng)內(nèi)容會(huì)減少,AI訓(xùn)練所需的新鮮數(shù)據(jù)也會(huì)枯竭,最終陷入“模型崩塌”,只能重復(fù)自己的內(nèi)容,智力和創(chuàng)造力逐漸下降。如果使用得當(dāng),不只是人類會(huì)變得更聰明,AI也會(huì)隨之進(jìn)化。

看來,唯有人類繼續(xù)做那根“會(huì)思考的蘆葦”,堅(jiān)持創(chuàng)造,AI才能真正成為認(rèn)知的助力,而不是取代思維的幻象。(張佳欣)

(責(zé)任編輯:蔡文斌)

關(guān)閉窗口

    主辦單位:忻州日報(bào)社 晉ICP10003702 晉新網(wǎng)備案證編號(hào):14083039 晉公網(wǎng)安備 14090202000008號(hào)

    律師提示:本網(wǎng)站所刊登的各種信息,均為忻州在線版權(quán)所有,未經(jīng)協(xié)議授權(quán),禁止下載使用,凡不注明出處的將追究法律責(zé)任。

    地址:山西省忻州市長征西街31號(hào) 熱線:0350-3336505 電子郵箱:sxxzrbw@163.com