人工智能的應(yīng)用,可能是影響深遠(yuǎn)的社會(huì)倫理試驗(yàn)。應(yīng)通過(guò)算法給智能機(jī)器嵌入人類的價(jià)值觀和規(guī)范,讓它們具有和人類一樣的倫理道德。
前不久,包括特斯拉首席執(zhí)行官馬斯克在內(nèi)的多位全球人工智能頂尖專家簽署承諾書,呼吁不要開發(fā)“人工智能自主武器”。這已經(jīng)不是業(yè)界第一次警告人工智能的潛在風(fēng)險(xiǎn)了。盡管當(dāng)前處理單項(xiàng)任務(wù)、完成人類指令的“弱人工智能”自主性還很低,人們卻不能因此忽視新技術(shù)應(yīng)用的潛在隱患。
高效、聰明的人工智能并不完美。比如,人工智能存在算法缺陷。這種缺陷往往源于機(jī)器學(xué)習(xí)過(guò)程的不可解釋和不可理解,它的判斷有時(shí)就像在一個(gè)黑箱中完成,缺少透明性。無(wú)人駕駛汽車決定向左或右轉(zhuǎn)時(shí),人們并不完全清楚它做出轉(zhuǎn)向的過(guò)程。除了傳感器故障,人們甚至無(wú)法準(zhǔn)確找到問(wèn)題原因,這就給有針對(duì)性地調(diào)整系統(tǒng)、判定責(zé)任帶來(lái)了障礙。正因?yàn)槿绱耍痪们吧У臍W盟《通用數(shù)據(jù)保護(hù)條例》專門規(guī)定,人工智能公司必須讓人來(lái)審查某些算法決策。
不僅有近憂,更有遠(yuǎn)慮。放眼未來(lái),人工智能的應(yīng)用正在模糊虛擬世界和物理世界的界限,可能重塑人類的生存環(huán)境和認(rèn)知形態(tài),并由此衍生出一系列棘手的倫理、法律和安全難題。與歷史上其他技術(shù)創(chuàng)新相比,人工智能的倫理法律等問(wèn)題受到如此大的關(guān)注,一個(gè)重要原因在于它在理念上有望實(shí)現(xiàn)可計(jì)算的感知、認(rèn)知和行為,從而在功能上模擬人的智能和行動(dòng),進(jìn)而使得機(jī)器具有了一種準(zhǔn)人格或擬主體的特性。人類現(xiàn)有的法律規(guī)范、概念框架及知識(shí)儲(chǔ)備,能否應(yīng)對(duì)人工智能發(fā)展引發(fā)的新問(wèn)題,是人們不得不正視的挑戰(zhàn)。
針對(duì)人工智能應(yīng)用的潛在風(fēng)險(xiǎn),國(guó)際社會(huì)在標(biāo)準(zhǔn)設(shè)計(jì)、倫理道德等方面提出了一系列試圖控制智能機(jī)器系統(tǒng)的方案,逐漸形成一個(gè)共識(shí)原則:通過(guò)算法給智能機(jī)器嵌入人類的價(jià)值觀和規(guī)范,以此讓它們具有和人類一樣的同情心、責(zé)任心、羞恥感等倫理道德。人們希望,人工智能的算法遵循“善法”,在完成人類難以完成的任務(wù)同時(shí),吸取人類道德規(guī)范“善”的一面,從而達(dá)到控制機(jī)器風(fēng)險(xiǎn)的目的。畢竟,任何算法都只是實(shí)現(xiàn)目的的工具或手段,“善”的結(jié)果才是人類的追求目標(biāo)。
實(shí)際上,通過(guò)編寫代碼和算法來(lái)控制機(jī)器的設(shè)想并不新鮮。70多年前,美國(guó)科幻作家阿西莫夫提出“機(jī)器人三定律”,構(gòu)想了通過(guò)內(nèi)置的“機(jī)器倫理調(diào)節(jié)器”,設(shè)定機(jī)器人不得危害人類的原則。而今,計(jì)算機(jī)專家、倫理學(xué)家、社會(huì)學(xué)家、心理學(xué)家等正在共同努力,走在實(shí)踐這一設(shè)想的路上。
人類對(duì)人工智能發(fā)展的遠(yuǎn)慮或許來(lái)得早了點(diǎn),但未雨綢繆體現(xiàn)的正是人類的智慧和洞見,我們不能等到人工智能深度介入人類生活后才思考如何與之相處的問(wèn)題。與機(jī)器相處的和諧度,應(yīng)是人類開發(fā)利用人工智能的重要標(biāo)尺。畢竟,人工智能的應(yīng)用,不僅僅是一場(chǎng)科技創(chuàng)新,也可能是影響深遠(yuǎn)的社會(huì)倫理試驗(yàn)。
“人工智能的短期影響由控制它的人決定,而長(zhǎng)期影響則取決于人工智能是否完全為人所控制!边@是知名物理學(xué)家霍金給人類留下的警示。我們不必被人工智能的風(fēng)險(xiǎn)所嚇倒,但在享受人工智能福利的同時(shí),也需要?jiǎng)澓脗惱淼赖隆⒎梢?guī)則等紅線。(喻思南)