在人工智能系統(tǒng)中評估用戶信任度的建議方法
每次您與智能手機(jī)上的虛擬助手通話時(shí),您都在與人工智能(一種可以例如學(xué)習(xí)音樂的口味并根據(jù)您的互動(dòng)提出建議的AI)進(jìn)行交流。但是,人工智能還可以幫助我們開展更多充滿風(fēng)險(xiǎn)的活動(dòng),例如幫助醫(yī)生診斷癌癥。這是兩種截然不同的場景,但相同的問題都同時(shí)存在:我們?nèi)祟惾绾螞Q定是否信任機(jī)器的建議?
這是美國國家標(biāo)準(zhǔn)技術(shù)研究院(NIST)的新出版物草案提出的一個(gè)問題,目的是激發(fā)人們對AI如何信任AI系統(tǒng)的討論。這份名為《人工智能與用戶信任》(NISTIR 8332)的文件一直公開征詢公眾意見,直至2021年7月30日。
該報(bào)告為NIST的廣泛努力做出了貢獻(xiàn),以幫助推進(jìn)可信賴的AI系統(tǒng)。這本最新出版物的重點(diǎn)是了解人類在使用或受AI系統(tǒng)影響時(shí)如何體驗(yàn)信任。
根據(jù)NIST的Brian Stanton所說,問題在于人類對AI系統(tǒng)的信任度是否可以衡量,如果可以,那么如何準(zhǔn)確,適當(dāng)?shù)貙ζ溥M(jìn)行衡量。
該出版物的作者之一斯坦頓說:“許多因素都納入了我們關(guān)于信任的決定中。” “這是用戶對系統(tǒng)的看法和感覺,以及感知使用該系統(tǒng)所涉及的風(fēng)險(xiǎn)的方式。”
心理學(xué)家Stanton與NIST計(jì)算機(jī)科學(xué)家Ted Jensen共同撰寫了該出版物。他們在很大程度上基于過去對信任的研究,從信任在人類歷史中的重要作用以及它如何塑造我們的認(rèn)知過程入手。他們逐漸轉(zhuǎn)向與AI相關(guān)的獨(dú)特信任挑戰(zhàn),而AI正在迅速承擔(dān)超出人類能力的任務(wù)。
“可以對AI系統(tǒng)進(jìn)行訓(xùn)練,以'發(fā)現(xiàn)'人類大腦難以理解的大量數(shù)據(jù)。系統(tǒng)可能會(huì)連續(xù)監(jiān)視大量視頻,例如,發(fā)現(xiàn)一個(gè)落入港口的兒童其中之一。”斯坦頓說。“我們不再要求自動(dòng)化來完成我們的工作。我們要求自動(dòng)化去做人類無法獨(dú)自完成的工作。”
NIST出版物提出了九個(gè)因素列表,這些因素有助于一個(gè)人對AI系統(tǒng)的潛在信任。這些因素不同于NIST與更廣泛的AI開發(fā)人員和從業(yè)人員社區(qū)合作建立的可信賴AI的技術(shù)要求。本文展示了一個(gè)人如何根據(jù)任務(wù)本身和信任AI決策所涉及的風(fēng)險(xiǎn)來權(quán)衡不同描述的因素。
例如,一個(gè)因素是準(zhǔn)確性。音樂選擇算法可能不需要過于精確,特別是如果一個(gè)人好奇地有時(shí)會(huì)跳出自己的口味來體驗(yàn)新穎性時(shí),在任何情況下,跳到下一首歌曲都是很容易的。信任僅能進(jìn)行癌癥診斷的準(zhǔn)確率達(dá)到90%的AI會(huì)是完全不同的事情,這是一項(xiàng)風(fēng)險(xiǎn)很大的任務(wù)。
斯坦頓強(qiáng)調(diào),該出版物中的想法是基于背景研究的,它們將從公眾的審查中受益。
他說:“我們正在為AI用戶信任提出一個(gè)模型。” “所有這些都是基于他人的研究和認(rèn)知的基本原理。因此,我們希望獲得有關(guān)科學(xué)界為提供這些想法的實(shí)驗(yàn)驗(yàn)證而可能進(jìn)行的工作的反饋。”
標(biāo)簽: 人工智能系統(tǒng)