數(shù)學(xué)公式處理人工智能中復(fù)雜的道德決策
一個(gè)跨學(xué)科的研究人員團(tuán)隊(duì)開發(fā)了一個(gè)藍(lán)圖,用于創(chuàng)建更有效地將道德準(zhǔn)則納入人工智能(AI)決策程序的算法。該項(xiàng)目專門關(guān)注人類與人工智能程序交互的技術(shù),例如醫(yī)療保健環(huán)境中使用的虛擬助手或“護(hù)理機(jī)器人”。
“像護(hù)理機(jī)器人這樣的技術(shù)應(yīng)該有助于確保醫(yī)院患者、老年人和其他需要健康監(jiān)測或身體幫助的人的安全和舒適,”該論文的通訊作者、科學(xué)副教授VeljkoDubljevi?說,北卡羅來納州立大學(xué)的技術(shù)與社會項(xiàng)目。“實(shí)際上,這意味著這些技術(shù)將被置于需要做出道德判斷的情況下。”
“例如,假設(shè)護(hù)理機(jī)器人處于兩個(gè)人需要醫(yī)療救助的環(huán)境中。一名患者失去知覺但需要緊急護(hù)理,而第二名患者的需求不那么緊急但要求護(hù)理機(jī)器人先治療他。護(hù)理機(jī)器人決定首先幫助哪個(gè)患者?護(hù)理機(jī)器人是否應(yīng)該治療失去知覺并因此無法同意接受治療的患者?
Dubljevi?說:“以前將道德決策納入AI程序的努力范圍有限,并側(cè)重于功利主義推理,而忽略了人類道德決策的復(fù)雜性。”“我們的工作解決了這個(gè)問題,雖然我以護(hù)理機(jī)器人為例,但它適用于廣泛的人機(jī)協(xié)作技術(shù)。”
功利主義決策側(cè)重于結(jié)果和后果。但是,當(dāng)人類做出道德判斷時(shí),他們還會考慮另外兩個(gè)因素。
第一個(gè)因素是給定動作的意圖和執(zhí)行動作的代理的性格。換句話說,誰在執(zhí)行一個(gè)給定的動作,他們想要完成什么?是善意的還是惡毒的?第二個(gè)因素是行動本身。例如,人們傾向于將某些行為(例如說謊)視為天生不好的行為。
所有這些因素都相互作用。例如,我們可能同意說謊是不好的,但如果護(hù)士向提出令人討厭的要求的病人撒謊,以便優(yōu)先治療第二名更急需的病人,大多數(shù)人會認(rèn)為這在道德上是可以接受的。
為了解決道德決策的復(fù)雜性,研究人員開發(fā)了一個(gè)數(shù)學(xué)公式和一系列相關(guān)的決策樹,可以整合到人工智能程序中。這些工具利用了稱為代理、行為和后果(ADC)模型的東西,該模型由Dubljevi?及其同事開發(fā),以反映人們?nèi)绾卧诂F(xiàn)實(shí)世界中做出復(fù)雜的道德決策。
Dubljevi?說:“我們的目標(biāo)是將ADC模型轉(zhuǎn)化為一種可以融入AI編程的格式。”“我們不只是說這個(gè)倫理框架對人工智能很有效,我們用計(jì)算機(jī)科學(xué)環(huán)境中可以訪問的語言來展示它。
“隨著人工智能和機(jī)器人技術(shù)的興起,社會需要倫理學(xué)家和工程師之間的這種合作努力。我們的未來取決于它。”
標(biāo)簽: