如果機器人有意識可以將其關閉嗎 建立真正的AI的道德含義
在“星際迷航:下一代”一集中的“一個人的度量”中,將撤消企業(yè)的一名Android機組人員Data的研究目的,除非Picard上尉可以辯稱Data與人類享有同等的權利存在。自然就會產(chǎn)生一個問題:什么東西具有權利?是什么賦予實體道德地位?
哲學家彼得·辛格(Peter Singer)認為,會感到疼痛或受苦的生物具有道德地位。他認為非人類動物具有道德立場,因為它們會感到痛苦和受苦。將其限制于人將是一種種族主義,類似于種族主義和性別歧視。
如果不認可Singer的推理方法,我們可能想知道它是否可以進一步擴展到Data之類的Android機器人。這將要求數(shù)據(jù)感到痛苦或遭受痛苦。以及如何回答取決于您如何了解意識和智力。
隨著真正的人工智能技術向好萊塢的想象版本發(fā)展,道德地位問題變得越來越重要。如果認可機構具有道德地位,像我這樣的哲學家會認為,那么它們就擁有生命權。這意味著您不能簡單地拆除它們,也可能意味著人們不應干涉他們的追求目標。
兩種智力和測試
IBM的深藍色國際象棋機器經(jīng)過了成功的訓練,可以擊敗大師級加里·卡斯帕羅夫。但這無能為力。這臺計算機具有所謂的特定領域智能。
另一方面,有一種智力可以使自己做好各種事情。這稱為領域通用情報。這就是人們做飯,滑雪和撫養(yǎng)孩子的原因,這些任務既相關,又非常不同。
人工智能(AGI)是具有領域通用情報的機器的術語??梢哉f沒有機器能夠顯示出這種智能。今年夏天,一家名為OPENAI的初創(chuàng)公司發(fā)布了其Generative Pre-Training語言模型的新版本。GPT-3是一種自然語言處理系統(tǒng),經(jīng)過培訓可以讀寫,因此人們可以輕松理解。
它引起了立即注意,這不僅是因為它具有模仿風格興盛和組合合理內容的出色能力,還因為它與以前的版本相距甚遠。盡管有如此出色的性能,但GPT-3除了如何以各種方式將單詞串在一起之外,實際上并不知道任何其他信息。AGI距離還很遠。
圖靈測試以具有開創(chuàng)性的AI研究人員艾倫·圖靈(Alan Turing)的名字命名,可幫助確定AI何時智能。與隱藏的AI對話的人能否分辨出是AI還是人類?如果他做不到,那么就所有實際目的而言,人工智能都是智能的。但是該測試并未說明AI是否具有自覺性。
兩種意識
意識有兩個部分。首先,是體驗的“我”方面,即意識的感官部分。哲學家稱這種現(xiàn)象意識。這是關于您如何體驗一種現(xiàn)象的,例如聞到玫瑰的氣味或感到疼痛。
相比之下,還有訪問意識。這就是報告,推理,行為和行動的能力,以協(xié)調和響應的方式對基于目標的刺激做出反應。例如,當我將足球傳給我的朋友在球門上打球時,我是對視覺刺激做出反應,從先前的訓練中表演,并追求由比賽規(guī)則確定的目標。我會在比賽流程中自動進行傳遞,而無需深思熟慮。
盲視很好地說明了兩種意識類型之間的區(qū)別。例如,患有這種神經(jīng)系統(tǒng)疾病的人可能會報告說,他們在視野的左側看不到任何東西。但是,如果要求他們從視野左側的一系列物體中拿起筆,他們可以可靠地這樣做。他們看不到筆,但是在提示時可以拿起筆-這是一種無意識意識的訪問意識示例。
數(shù)據(jù)是一個Android。這些區(qū)別對他如何發(fā)揮?
數(shù)據(jù)困境
android數(shù)據(jù)表明他具有自我意識,因為他可以監(jiān)視自己是否處于最佳狀態(tài)(例如,他是否處于最佳充電狀態(tài))或機械臂是否受到內部損壞。
數(shù)據(jù)在一般意義上也是智能的。他在較高的水平上做了很多不同的事情。他可以駕駛企業(yè),接受Picard上尉的命令,并與他一起商討最佳路線。
他還可以和他的船東玩撲克,做飯,與親密朋友討論熱門話題,與外星人的敵人戰(zhàn)斗以及從事各種形式的體力勞動。數(shù)據(jù)具有訪問意識。他顯然會通過圖靈測試。
但是,數(shù)據(jù)極有可能缺乏驚人的意識-例如,他不喜歡玫瑰的香味或感到疼痛。他體現(xiàn)了視力的超大版本。他具有自我意識,具有訪問意識(可以抓住筆),但在所有感官上他都缺乏明顯的意識。
現(xiàn)在,如果數(shù)據(jù)不感到痛苦,那么至少Singer提供給生物的道德地位的原因之一就無法實現(xiàn)。但是即使沒有痛苦,數(shù)據(jù)也可能滿足遭受痛苦的其他條件。痛苦可能并不需要痛苦本質上那樣的驚人意識。
例如,如果苦難也被定義為在追求正義的過程中受到挫敗而又不傷害他人的想法呢?假設Data的目標是解救他的船員,但由于四肢受傷,他無法接近她。數(shù)據(jù)功能的減少使他無法挽救船員,這是一種非現(xiàn)象性的痛苦。他本來希望挽救船員的,如果他這樣做的話,情況會更好。
在這一集中,問題最終不是基于數(shù)據(jù)是否具有自我意識,這是毫無疑問的。也不懷疑他是否聰明-他很容易證明自己是一般人。目前尚不清楚他是否具有非凡的意識。數(shù)據(jù)不會被拆除,因為最終,他的人類法官無法就意識對于道德立場的重要性達成共識。
人工智能應該獲得道德地位嗎?
數(shù)據(jù)是善良的-他的行為是為了支持他的船員以及他在外星球遇到的人的福祉。他服從人們的命令,似乎不太可能傷害他們,而且他似乎在保護自己的生存。由于這些原因,他顯得和平而容易接受具有道德地位的事物的領域。
但是“終結者”電影中的天網(wǎng)又如何呢?或憂慮最近表示伊隆·馬斯克關于AI比核武器更加危險,以及史蒂芬·霍金在AI結束人類?
人類不會僅僅因為他們?yōu)樗说睦娑袆?,就喪失了對道德地位的要求。同樣,您不能僅僅因為一個AI違背人類或另一個AI的利益就不能自動說出它沒有道德立場。您可能有理由抗擊像天網(wǎng)這樣的AI,但這并不能消除其道德地位。如果憑借非現(xiàn)象性承受能力賦予道德地位,那么即使只有Data希望幫助人類,Skynet和Data也會獲得道德地位。
還沒有人工智能機器。但是現(xiàn)在是時候考慮賦予他們道德上的地位了。人類如何選擇回答非生物生物的道德地位問題,將對我們如何應對未來的AI產(chǎn)生重大影響,無論是像Data這樣的善意和幫助,還是像Skynet這樣的毀滅性環(huán)境。
標簽: 機器人