發(fā)端于20世紀(jì)中葉的人工智能(Artificial Intelligence,簡稱AI)技術(shù),在經(jīng)歷了多次跌宕起伏之后,隨著大數(shù)據(jù)、神經(jīng)網(wǎng)絡(luò)科學(xué)的發(fā)展,尤其是在深度學(xué)習(xí)技術(shù)的推動下,于近幾年迎來了爆發(fā)期,在很大程度上突破了此前所面臨的一系列技術(shù)難題。現(xiàn)在的人工智能系統(tǒng)能夠執(zhí)行20年前計算機(jī)不可能完成的各種任務(wù),比如,無人駕駛汽車、刷臉認(rèn)證、自動翻譯、“創(chuàng)作”詩詞歌曲、為人看病乃至陪護(hù)兒童和老人等等,已經(jīng)影響到人類生產(chǎn)生活的諸多領(lǐng)域,甚至正改變著我們對人的本質(zhì)的認(rèn)識。為此,包括美國、英國在內(nèi)的世界各主要國家都把人工智能作為引領(lǐng)未來的重要戰(zhàn)略性技術(shù),我國也不例外。
然而,AI的快速發(fā)展,在為社會提供強(qiáng)大發(fā)展動力和平臺的同時,也引發(fā)了廣泛爭論。人們擔(dān)心AI會讓一大批藍(lán)領(lǐng)和下層白領(lǐng)失去工作、挑戰(zhàn)社會公平、給隱私保護(hù)和數(shù)據(jù)安全帶來新問題,更有包括著名物理學(xué)家霍金和硅谷巨頭埃隆·馬斯克在內(nèi)的很多人擔(dān)心“超級AI”將來會取代或控制人類,稱AI是人類文明最大的威脅。
實際上,人們對AI目前這種亦喜亦憂的態(tài)度并不新鮮?;仡欁怨I(yè)革命以來人類的發(fā)展進(jìn)程,技術(shù)一直是人類社會變革的重要驅(qū)動力,同時也一直被視作人類社會憂患的來源。技術(shù)發(fā)展的不確定性和雙刃劍效應(yīng)讓人類在享受技術(shù)帶來便利的同時,也始終伴隨著技術(shù)可能失控的風(fēng)險。AI由于關(guān)涉了科技發(fā)展與人類生存發(fā)展之間辯證關(guān)系的根本問題,其成果時常突破人們的日常想象力,所以,在其每一項具體技術(shù)進(jìn)展問世伊始,便在社會上引發(fā)了強(qiáng)烈的關(guān)注和討論。在科學(xué)技術(shù)已經(jīng)成為現(xiàn)代人必備生存條件的今日,因為潛在的風(fēng)險就棄絕某項技術(shù)可能帶來的福祉,顯然不是明智之舉,那么,我們究竟該如何看待和引導(dǎo)人工智能技術(shù)的發(fā)展呢?
當(dāng)前,AI正以超乎尋常的速度發(fā)展,其“智能度”日益提升,在許多領(lǐng)域人類已被機(jī)器打敗。當(dāng)聽到世界圍棋冠軍柯潔哽咽著說“AlphaGo太完美,我很痛苦,看不到任何勝利的希望”時,很多人生發(fā)出將來人類會被AI取代的恐慌。這里,能夠取代人類的AI是“超級AI”,即,不僅僅是在功能或結(jié)構(gòu)層面模擬人類大腦,更是在能力層面達(dá)到或超過人類大腦。
對于“超級AI”是否會實現(xiàn)并取代人類,自20世紀(jì)50年代起,人們就一直在爭論。一些激進(jìn)的哲學(xué)家、非AI領(lǐng)域的科學(xué)家、科技類企業(yè)家,如埃隆·馬斯克、史蒂芬·霍金、比爾·蓋茨等,往往強(qiáng)調(diào)AI所帶來的各種不確定性及其對人類的威脅:而人工智能專家則對此持懷疑或批評態(tài)度,如通用人工智能學(xué)會主席本·戈策爾(Ben Goertzel)便強(qiáng)調(diào)超級AI是“向善”的;此外,政策制定者也往往將AI與人類的關(guān)系視為協(xié)作性的、互惠性的。
我們應(yīng)該看到,相比人類,當(dāng)前AI在大多數(shù)層面依然有著巨大差距。計算能力的快速提升并不意味著AI在“智力”層面也能得到相應(yīng)程度的提高。比如,一個兩歲大的嬰兒便能夠在很短的時間內(nèi)確認(rèn)一個貓的形象,而谷歌大腦則必須使用16000個CPU,并利用1000萬張來自優(yōu)兔網(wǎng)站的圖片進(jìn)行訓(xùn)練。AI的優(yōu)勢在于大數(shù)據(jù)處理能力、數(shù)據(jù)存儲能力、訓(xùn)練速度、處理速度的快速增長等,但相比于社會化的人類,當(dāng)前AI能力極為有限。我們可以把人類的能力分成以下四個層面:
(1)社會維度:社會互動及互動技巧的獲得;學(xué)習(xí)社會、組織規(guī)范、法律和文化;個人社會角色定位;合作、競爭、博弈能力。建立社會管理系統(tǒng):形成社會目標(biāo)并發(fā)展相應(yīng)的支持系統(tǒng);文化、知識的生產(chǎn)、傳播與擴(kuò)展。
(2)精神維度:自我意識;情感,個人感悟;個體目標(biāo)的形成與改變;個人及社會價值。
(3)物質(zhì)維度:將身體和精神,知識與現(xiàn)實世界相結(jié)合;改變或創(chuàng)造新的物質(zhì)形式及功能;科學(xué)、技術(shù)及工程實驗;經(jīng)濟(jì)系統(tǒng)等。
(4)理性思維維度:形成普適方法論和認(rèn)識論;主動提出新問題;形成特定領(lǐng)域中的研究方法、范式;通過歸納、演繹等方法進(jìn)行新知識的生產(chǎn);將特定領(lǐng)域中的方法運(yùn)用到其他領(lǐng)域之中;反思及改進(jìn);將邏輯與價值、激情等非邏輯因素結(jié)合起來;整合不同領(lǐng)域中的知識;基于不完全信息進(jìn)行規(guī)律總結(jié)等。相比人類,AI在社會維度、精神維度等方面的能力幾乎空白,在物質(zhì)維度也僅僅限于機(jī)器人執(zhí)行“工業(yè)、極端環(huán)境、日常生活”等服務(wù)性工作;而在理性思維維度,當(dāng)前最先進(jìn)的AI無法主動提出問題,不會將特定領(lǐng)域中的算法延伸到其他領(lǐng)域,難以基于不完全信息進(jìn)行推理等。
總之,AI只在某些方面與人有可比性,尚無法整體超越人類。超級AI還只是人們對未來AI發(fā)展的一種幻想與希冀,我們無需過度恐慌。
早在1997年,IBM的“深藍(lán)”戰(zhàn)勝國際象棋冠軍卡斯帕羅夫時,人們就驚呼“AI戰(zhàn)勝人類”,然而“AI威脅人類”的說法甚少且不久就陷入沉寂。為何近來人們對AI威脅人類的憂慮上升?
很重要的一點在于,當(dāng)前AI技術(shù)不斷侵入人類獨(dú)有的能力范疇,已展示出打破人類智能與機(jī)器智能之間邊界的趨勢?;叵霘v史上前幾次工業(yè)革命,雖然引發(fā)了人體物理層面能力的大幅躍升以及信息處理能力的極大進(jìn)步,但都沒有沖破“人之為人”的界限——“自我意識”,即能夠根據(jù)需要主動確定目標(biāo)并依靠各種資源實現(xiàn)目標(biāo)。然而,基于深度學(xué)習(xí)技術(shù)的AI,可以借助大數(shù)據(jù),提取非結(jié)構(gòu)化信息流中各種參數(shù)之間的相關(guān)性,再基于數(shù)據(jù)相關(guān)性來獲得它“心”中的世界圖景。在此過程中,雖然是AI專家創(chuàng)造了讓AI運(yùn)行的算法,但是在這一算法下,AI能生產(chǎn)出哪些知識、是否可以形成自己獨(dú)有的“相關(guān)性”或“子目標(biāo)”?這還是一個“黑箱”,即使AI專家本人也無法給出確切答案。另外,AI還有對自身所依賴的、由人類設(shè)計的算法本身進(jìn)行自主改進(jìn)的潛在可能性,這與人類可以完全控制的傳統(tǒng)技術(shù)有很大不同。這種自適應(yīng)能力或者“智能”,會產(chǎn)生人類無法預(yù)見的后果。所以,AI的發(fā)展依然有失控風(fēng)險。
對于一個尚在發(fā)展過程中、充滿不確定性的技術(shù)領(lǐng)域來說,它究竟會產(chǎn)生哪些倫理與社會后果,我們無法預(yù)先知曉,也不能坐以待斃。因為過于惶恐地拉響警報、陷入科幻式遐思,把某種未來的可能性視作當(dāng)下實際存在的問題,乃至呼吁停止技術(shù)發(fā)展,可能讓我們錯失技術(shù)發(fā)展所能帶給社會的收益;如果坐等技術(shù)發(fā)展產(chǎn)生問題后再做“事后諸葛亮”,那么,很多不必要的危害可能已經(jīng)產(chǎn)生。過早拉響警報、過晚做出反饋,都低估了我們主動塑造未來的能力,都忽視了社會和科技發(fā)展是共同演化的。
傳統(tǒng)上,技術(shù)被認(rèn)為是在某種程度上獨(dú)立于社會發(fā)展的,技術(shù)完成時被輸送給社會,然后,社會選擇是否采納某項技術(shù)。如果采納了,那么,這項技術(shù)就產(chǎn)生了社會影響。倫理道德被看作技術(shù)活動之外的一種規(guī)范力量,倫理學(xué)家的工作就是批判和反思技術(shù)的社會后果。然而,今天,人們已經(jīng)認(rèn)識到,科學(xué)、技術(shù)、社會、政治、自然與文化等因素都處在一張異質(zhì)性網(wǎng)絡(luò)之中,互動并影響著彼此。任何一項技術(shù)都是在社會語境之中發(fā)展起來的,是人工物、社會實踐、體制安排、知識體系的“社會技術(shù)系統(tǒng)”??茖W(xué)家與工程師并不是孤立地去做研究,相反,他們的研究是由社會的、文化的、經(jīng)濟(jì)的和政治的因素以及他們對自然的了解所共同塑造的。由此,對于將給人類社會帶來深刻變革的人工智能技術(shù),倫理道德作為技術(shù)的塑造者之一,可以扮演更加積極的角色。
面對人工智能可能的風(fēng)險與受益,我們必須隨著科學(xué)研究和技術(shù)發(fā)展,進(jìn)行動態(tài)的倫理考量,逐步建立AI的具體倫理規(guī)劃。這不僅需要AI業(yè)內(nèi)人士的積極參與,更需要跨越學(xué)科、社會、政治、經(jīng)濟(jì)和國家的界限,開展多方合作,以負(fù)責(zé)任的方式,讓所有受影響的個體、群體和區(qū)域都能參與技術(shù)發(fā)展過程,最終真正讓技術(shù)造福人類。
對此,無論是英國還是歐盟都把價值觀提到了人工智能發(fā)展的戰(zhàn)略高度,先后發(fā)布報告,確立了以人為本的人工智能價值觀。我國也在這方面邁出了令人欣喜的一步。2017年7月,我國印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,呼吁“建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系”“加強(qiáng)對人工智能潛在危害與收益的評估”“深化在人工智能法律法規(guī)、國際規(guī)則等方面的國際合作,共同應(yīng)對全球挑戰(zhàn)”。人工智能技術(shù)方興未艾,我們期待中國自己的人工智能價值觀和倫理觀能夠影響和幫助塑造世界人工智能技術(shù)的發(fā)展。