亚洲一区午夜,狼色av,中文字幕高清免费日韩视频在线,黄色大片网,国产91毛片,一区二区免费在线,欧美视频第五页

主頁 > 聚焦改革 > 領域改革

丁元竹:開創(chuàng)人工智能時代的新型文明形態(tài)

時間:2025-07-01 14:47 來源:經(jīng)濟觀察報 作者:見習記者 馮雨晨

  從蒸汽機驅動工業(yè)革命,到電力重塑生產方式,再到信息技術顛覆社會連接,歷次技術飛躍都深刻重構了人類文明的軌跡。而正在迅猛發(fā)展的人工智能的獨特之處在于:它催生了首個具備自主演進能力的智能主體。

  生成式AI正在以周為單位迭代,人類文明再次站在了躍遷的臨界點。與此同時,疑惑、反思、擔憂接踵而來:

  當人工智能大量自動化及替代人類工作時,人類與人工智能如何共洽?

  當人工智能像電流一般滲透進人類的工作生活,人類文明面臨何種挑戰(zhàn)?挑戰(zhàn)之中人類文明將面臨威脅還是躍升?

  當人工智能變得越來越成熟甚至超越人的智慧,人類如何保全自己的主體性?人類文明將發(fā)生什么樣的變化、又需要何種核心價值觀的支撐?

  種種嶄新的疑問面前,漸進式的討論與思考必不可少。

  經(jīng)濟觀察報專訪中共中央黨校社會和生態(tài)文明教研部教授丁元竹,探討人工智能時代的人類文明走向。丁元竹長期致力于人工智能與社會治理、人類文明演進交叉研究,在其著作《從篝火到AI:窺見無垠的共同體》中,丁元竹曾對人工智能在未來社會的角色、人類社會關系網(wǎng)絡變化的可能趨勢與問題、未來社會的可能特征等進行了分析。

  以下為經(jīng)濟觀察報與丁元竹的專訪內容。

  人工智能對社會文明帶來威脅還是躍升?

  經(jīng)濟觀察報:人工智能是一種新技術、新智能,你認為社會目前對人工智能的接受程度如何?

  丁元竹:要使人們接受新技術,需要把各個利益相關方都納入考量范圍,與社會開展對話,提高技術的社會接受度??v觀智人歷史就會發(fā)現(xiàn),只有引發(fā)社會變革的技術與適應、促進技術發(fā)展的社群協(xié)同發(fā)展、相互促進,才能推動社會的發(fā)展。誠然,人工智能在最近兩年的發(fā)展中確實存在很多問題,既存在算力問題,也有模型問題,還有數(shù)據(jù)方面的問題,這都影響人工智能的應用和發(fā)展。

  但必須看到,除了“技術—經(jīng)濟周期”之外,社會對人工智能的發(fā)展也有一個技術的“社會接受”過程,主要表現(xiàn)在三個方面:一是全體社會成員對人工智能技術的認識程度,人們如何從已有的知識框架、歷史和經(jīng)驗看待正在出現(xiàn)的新技術及其社會影響,以及對自己、對社會帶來的正面與負面影響。新科技在歷史上之所以常常帶來災難,并不是科技本身有什么問題,而是人類得花點兒時間才能學會善用科技。二是人們掌握人工智能技術和對人工智能發(fā)展現(xiàn)狀的認識會影響人們的認知。三是人們能不能對人工智能技術有深刻的理解,它的發(fā)展現(xiàn)狀、規(guī)律等,尤其是那些在社會領域中工作的專業(yè)人員,他們能不能想象出自己生活和工作領域的人工智能應用場景,且與技術人員建立起密切的聯(lián)系、溝通,甚至參與到人工智能技術開發(fā)過程中,這對加速人工智能場景落地和在經(jīng)濟社會領域中的廣泛應用非常關鍵。

  縱觀歷史,新技術進入社會領域的速度不會那么快,因為人們總是沿著某種習慣的路徑前進,盡管對出現(xiàn)的新情況、新技術抱有熱情、渴望、歡迎的態(tài)度,但真正深刻認識并迅速接受新技術往往不是大多數(shù)成員能夠做到的。

  經(jīng)濟觀察報:人們在逐漸接受人工智能這項新技術的過程中,會面臨哪些挑戰(zhàn)?

  丁元竹:人工智能技術以前所未有的速度在落地生根,廣泛滲透到各個領域,它如同一股強勁的力量,開始重塑人類生產方式、生活方式,以及社會運行等。但是,在這場看似璀璨的科技變革浪潮之下,卻潛藏著一系列不能忽視的暗流。盡管人工智能技術尚未達到高度自主可控水平,但隨著技術不斷發(fā)展迭代,未來不排除出現(xiàn)技術失控的可能性。因此,有必要從現(xiàn)在開始高度重視人工智能技術落地過程中可能帶來的風險與挑戰(zhàn)。

  以生成式人工智能為例,自然語言處理模型對社會潛在影響廣泛而多樣,幾乎涉及社會治理、公共服務、社會結構的方方面面。一是就業(yè)和勞動力市場。人工智能和自動化會導致各行各業(yè)的工作崗位流失。然而,它也會創(chuàng)造出更具復雜性、創(chuàng)造性和技術技能性的新崗位。二是隱私和數(shù)據(jù)保護。人工智能系統(tǒng)依賴大量數(shù)據(jù)引發(fā)了人們對隱私和安全的擔憂,若是監(jiān)管不當,會導致數(shù)據(jù)分析結果的濫用。三是數(shù)據(jù)訓練中的偏見和公平問題,人工智能系統(tǒng)無意中會表現(xiàn)出在訓練數(shù)據(jù)中存在的偏見,導致在工作招聘、執(zhí)法和貸款審批等領域產生不公平結果。

  人工智能的真正挑戰(zhàn)不在于技術本身,而在于如何把它接入人類社會和文化的體制機制。未來,發(fā)生在人工智能領域的競爭不僅是算力競爭,更是制度體制和文化適應性的較量——就像電動車的成功既依靠電池技術,也依靠充電網(wǎng)絡一樣。人工智能之所以特別,以至于有必要調整私法來促進其推廣并挖掘其增長潛力,原因在于它具有許多新的特性,其中兩個尤為重要:自主性和不透明性。

  經(jīng)濟觀察報:在這種挑戰(zhàn)中,人工智能會給人類文明帶來威脅還是躍升?

  丁元竹:不能簡單地談威脅還是躍升,討論人工智能的治理就需要擺脫既往的思考習慣,必須基于治理與技術同步的相關體制機制研究,探索基于“自主性和不透明性”治理的底層邏輯:AI不是簡單的技術工具,而是在受人類大腦啟發(fā)基礎上開發(fā)的具有智能特征的物種,管理好人工智能是社會治理的重要內容和基礎性工作。

  未來,大模型實體化、垂直化,具身智能社會化將會涌現(xiàn),堅持以人為中心的人工智能發(fā)展,使人類成為AI培訓師、引導者,實現(xiàn)人機良性互動將成為人工智能治理的核心問題。因此,人工智能的治理是技術與制度、體制機制、社會文化的發(fā)展進化和適應過程。

  多元文化背景下的人工智能價值對齊

  經(jīng)濟觀察報:你曾提到多元文化背景下的人工智能價值對齊,為什么我們要關注這個問題?

  丁元竹:世界文化是多元的,這是人類社會特有的現(xiàn)象,各種文化間的沖突在人工智能出現(xiàn)前就時有發(fā)生。這種文化的多元性也影響到了人工智能,例如程序員都有自己的價值取向,所以在參數(shù)設定上、向量設計中就設計進去他們的價值理念。再如來自不同國家的大模型有屬于自己國家的文化價值認知,在中國,點頭表示同意,搖頭表示不同意,但是在印度文化里面,點頭表示不同意,搖頭表示同意,在這種情況下,人與人工智能互動時會產生誤解。

  人類需要的是超越自己的人工智能,還是需要協(xié)助人類提高自己福祉的人工智能?我認為是后者,成熟的人工智能既是技術飛躍,更是人類社會的認知延伸和合作助手,它具備的核心特征將涵蓋技術、倫理和社會。

  成熟的人工智能本身具備自主性,在不依賴人的情況下可以對系統(tǒng)做出改變,甚至逃避人類。所以,我們需要關注多元文化背景下的人工智能價值對齊,讓人工智能價值和人類機制、人類需求對齊,讓人工智能成為人類福祉的一個工具。隨著人工智能技術快速發(fā)展,價值對齊不僅關乎技術安全,更涉及社會、倫理和哲學等深層邏輯。

  經(jīng)濟觀察報:不同文化背景下的沖突歷來存在,這種人工智能價值對齊也會有不少難點,怎么去實現(xiàn)對齊是需要合力解決的問題。

  丁元竹:價值對齊為什么如此困難?是因為人類價值觀的多元性與矛盾:不同文化對“公平”“自由”有著自己的理解和定義。人工智能價值對齊不僅是對技術的挑戰(zhàn),更是對文明存續(xù)的考驗。人工智能造福人類的關鍵在于把價值對齊視為一個持續(xù)過程,而不是一次性的解決方案,如盡管人們視通用人工智能的出現(xiàn)不可避免,但通用人工智能發(fā)展不僅取決于大模型技術,也取決于機械技術進化。

  回到怎么對齊的問題上,由于不同文化、族群、群體之間對“公平”“正義”的定義和理解存在著差異,價值對齊需要解決在多元文化和多元價值觀中尋求共同價值的共識,避免算法歧視或偏見。解決好這個問題,需要所有利益相關方的參與協(xié)作,需要科學家、技術專家、社會學者、人類學者、倫理學者、政策制定者及公眾共同制定對齊標準,還要建立動態(tài)反饋機制,通過用戶反饋和問責審計不斷校準人工智能的行為。

  人工智能價值對齊是人類社會的“鏡像”——它要求人們在智能時代重新審視自身的價值觀體系。唯有實現(xiàn)技術迭代、倫理深思和公眾參與的結合,才能構建既強大又可控的人工智能未來。從長遠看,解決人工智能的可靠性、可解釋性、數(shù)據(jù)偏見等問題需突破認知科學、生命科學、能源效率(如降低算力依賴)、人機協(xié)作等領域的問題。如果以“通用人工智能”或“超級人工智能”為標準,目前的人工智能技術確實不成熟。

  人工智能如何影響社會秩序與結構

  經(jīng)濟觀察報:人工智能的普及與進步將自動化更多的人類工作,你認為這會對人類社會現(xiàn)有的用工秩序和社會結構帶來沖擊嗎?

  丁元竹:人工智能對就業(yè)市場的沖擊也是人們最為關注的議題之一,我認為其替代人類工作的速度和范圍或許會遠遠超過以往任何一次技術革命。目前看,具有高替代風險的崗位是那些規(guī)則明確型的工作,諸如制造業(yè)中的裝配線工人、會計流程中的自動化報表人員、法律工作中的合同審核人員等。

  具有中等替代風險的崗位包括部分創(chuàng)意工作,比如像廣告文案人員、平面設計、新聞寫作、音樂作曲,以及個性化輔導等。那些情感互動性高或復雜性程度高的決策工作,諸如心理咨詢師、高級管理人員、社會工作者、園藝師、養(yǎng)老護理人員等目前被替代的可能性和數(shù)量或許不會太大。比爾·蓋茨認為,醫(yī)生和教師等職業(yè)將被AI取代,但軟件開發(fā)者(主要指發(fā)現(xiàn)和修復錯誤、優(yōu)化算法等)、生物學家和能源專家有望幸存。

  不容樂觀的是,那些被替代的流水線工人或文員很難快速轉型為人工智能訓練師或機器人維護員,行業(yè)轉型并非易事,2022年,美國僅54%的失業(yè)者成功轉入新行業(yè)。

  經(jīng)濟觀察報:我們需要為人工智能帶來的這種替代而焦慮嗎?

  丁元竹:從過去的經(jīng)驗來看,一個領域的工作被替代,會產生其他領域的就業(yè)崗位來。比如大模型訓練約1萬塊H100的算力中心,每天耗電花費需要75萬美元,差不多相當于一個中等城市的電力支持,那么新能源、核能等領域的就業(yè)崗位就會相應發(fā)展起來。

  對此,政府有關部門需要及早預測,制定支持勞動力轉型政策,例如,編制再培訓和終身學習計劃等,甚至需要人工智能企業(yè)與政府一道探索全民基本收入等政策,應對失業(yè)或就業(yè)不足等潛在風險。

  經(jīng)濟觀察報:在互聯(lián)網(wǎng)時代,摩爾定律和互聯(lián)網(wǎng)效應從底層邏輯上加劇了財富向少數(shù)人手中聚集。那么在人工智能時代,會加劇社會財富甚至社會關系的不平等嗎?

  丁元竹:通過提供人工智能生成的內容、產品或服務,企業(yè)可以探索新的收入來源和商業(yè)模式。隨著人工智能技術的發(fā)展,它正成為科技領域日益重要的一部分。那些忽視人工智能和機器學習的企業(yè)有可能在技術創(chuàng)新方面落伍。

  眼下,大型科技公司競相選擇生成式人工智能作為核心業(yè)務向其他領域拓展或者發(fā)展自己的人工智能,例如,蘋果、亞馬遜和 Meta 都在嘗試將機器學習融入自己的企業(yè)運營。各行各業(yè)也都在加速利用人工智能技術推動創(chuàng)新、提高效率和增強用戶體驗。問題是,這樣的拓展會不會造成財富的更加過度聚集,甚至出現(xiàn)較互聯(lián)網(wǎng)時代更為凸顯的贏者通吃現(xiàn)象呢?

  人工智能時代的新型文明觀

  經(jīng)濟觀察報:你覺得當下的人工智能迎來“奇點時刻”了嗎?

  丁元竹:我既不是技術保守主義者,也不是技術激進主義者和人文社會焦慮者??傮w來看,人工智能技術還不太成熟。

  盡管人工智能在過去十年中取得了不可思議的進展,但很多研究仍處于起步階段,尤其是機器人技術,這項技術是出了名的難,即使在深度學習普及的時代,機器人技術的發(fā)展步伐也相對緩慢。

  一是從技術發(fā)展階段性看,當前的人工智能在抽象推理、常識理解、情感表達、自我意識、創(chuàng)造性思維等方面還遠未達到人類的水平。例如,大語言模型會生成文字流暢但邏輯錯誤的答案,無法真正理解上下文和真實的語義。大模型的準確性依賴高質量數(shù)據(jù),在面對數(shù)據(jù)資源稀缺、數(shù)據(jù)偏差或動態(tài)變化的環(huán)境時,大模型表現(xiàn)出極大的不穩(wěn)定性,這種情況也出現(xiàn)在醫(yī)療診斷、復雜決策等過程中。二是從應用場景看,目前部分領域的人工智能應用已高度成熟。人工智能在特定任務上已經(jīng)超越人類,如圖像識別,包括醫(yī)療影像分析、語音識別、圍棋對決、推薦系統(tǒng)(包括電商、短視頻)等。許多企業(yè)通過人工智能優(yōu)化業(yè)務流程,這類“窄人工智能”技術已成熟到可以規(guī)?;吐涞爻潭?。有些大模型雖然不盡完美,但可以成為生產性工具,進入生產過程和市場領域。三是期望與現(xiàn)實之間存在差距。公眾對人工智能的認知時常被媒體夸大,造成一定程度的技術迷茫。技術發(fā)展快于法律和倫理框架的建設加劇了人工智能的“不成熟”感覺。

  技術表現(xiàn)接近“人類水平”的說法本身,會讓人覺得是臆想,甚至是海市蜃樓。人類的能力維度是豐富多樣的,遠非任何單一指標所能衡量。但我們的缺點和優(yōu)點一樣具有啟發(fā)性。只有更好地了解和認識人類自身,才能更好地認識人工智能。人的感知能力雖然有種種局限,但與機器截然相反。我們從整體上看待世界,不僅能識別世界的內容,更可以進一步理解不同事物之間的關系、意義、過去和未來。迄今為止,人類對自身的認識仍然存在諸多空白。

  經(jīng)濟觀察報:那面對人工智能的逐漸“成熟”,社會文明會發(fā)生怎么樣的變化?

  丁元竹:人們總是在短期內高估了技術發(fā)明,而在長期上忽視了它的價值。尤其是在人工智能技術連連迭代的時候,長期主義尤為重要。如果在早期就認識了問題所在并加以跟蹤,比技術逐步成熟并深深嵌入體制機制后再進行治理會付出更少的治理代價。

  人類正站在人工智能時代的新的門檻上,有望達到前所未有的文明水平,人工智能發(fā)展已經(jīng)勢不可擋,我們要開創(chuàng)人工智能時代的新型文明形態(tài)。這就需要培育人文社會科學家與科學技術人員之間密切合作的文化,這種文化要求人文科學家要深度了解科學技術發(fā)展的特點,科學技術人員要深度了解人文社會科學的基本原理,人文科學家與社會與自然科學家之間要達成默契:大家互相接納、共同配合。

  經(jīng)濟觀察報:開創(chuàng)人工智能時代的新型文明形態(tài),當下急迫嗎?

  丁元竹:必須從現(xiàn)在起培育人類與機器之間的默契與配合的文化,這種文化是新的人類文明和智能文明時代的文化。

  人工智能時代的合作,不僅僅是科學技術人員的事情,也是人文社會科學人員的事情,更是全社會的事情。當全體社會成員把自己的未來和命運與人工智能技術開發(fā)結合起來時,大家才會產生一種自豪感、安全感,人類才會有著更好的未來,這正是新的文明形態(tài)所需要的核心價值。

  人工智能更聰明后面臨的未來風險

  經(jīng)濟觀察報:人工智能還在繼續(xù)高速發(fā)展,你如何看待未來人工智能高度成熟后會面臨的風險?

  丁元竹:對于人工智能的未來,人們態(tài)度各異。有人認為,如果人工智能無法與人類價值觀、倫理規(guī)則和社會大多數(shù)人的利益保持一致,會引發(fā)個體權利受到侵害,甚至造成人類文明存亡的嚴重危機。的確,人工智能正在迅猛發(fā)展,前Open AI研究員丹尼爾·科科塔伊洛團隊發(fā)布了76頁“AI 2027”報告,預測通用人工智能將在2027年中期實現(xiàn);報告描繪出從2025年最貴AI誕生到2027年Agent-5滲透政府決策的發(fā)展路徑,預計AI將快速超越人類智能;研究團隊預測超人AI的影響將超過工業(yè)革命,但部分專家質疑這種預測缺乏科學依據(jù)且過于極端。

  有關人工智能未來的風險可以歸結為目標錯配問題。人工智能根據(jù)設定目標嚴格預設指標,但它無法理解人類價值觀的復雜性和模糊性。人工智能軍事系統(tǒng)或許會擅自升級沖突,如無人機做出誤判,視無辜的平民為威脅目標并發(fā)動攻擊。超級人工智能企業(yè)通過算法壟斷定價權,操縱市場,損害消費者利益。美國COMPAS司法系統(tǒng)對黑人被告給出“再犯罪風險更高”的誤判,強化了種族之間的偏見,甚至引發(fā)種族之間的沖突。算法的個性化推送制造了“信息繭房”,造成社會輿論的極端化和社會矛盾加劇。

  過度和長期依賴人工智能會導致人類判斷力、思考力退化,如飛行員會因長期使用自動駕駛技術造成駕駛技能生疏,在遇到處理緊急情況時措手不及。人工智能生成內容會損害人類原創(chuàng)文化及其多樣性。

  經(jīng)濟觀察報:除了會冒出更多風險,也會有積極的方面。

  丁元竹:人工智能將會是人類的最后一次技術革命,會改變現(xiàn)有的教育形態(tài)、科研形態(tài)等等。如前面所說,人類到目前為止并沒有解釋自己的精神世界、內心世界是怎么形成的,對人工智能的研究會讓人類反過來更了解自己。

  經(jīng)濟觀察報:你是一名教育者,怎么看待人工智能對人文社會科學教育的沖擊?

  丁元竹:一旦出現(xiàn)世界模型和數(shù)以萬計的具身機器人與人類生活在一起,人文教育事業(yè)必將產生深刻變革。未來情境下,世界模型具備經(jīng)驗學習能力、具身機器人廣泛融入人類社會、人機文明新形態(tài)形成,人工智能社會學理論架構的搭建需要突破傳統(tǒng)范式,構建一個動態(tài)適應、多維度協(xié)同的跨學科框架。