欧美色在线视频播放 视频,国产精品亚洲精品日韩已方,日本特级婬片中文免费看,亚洲 另类 在线 欧美 制服

<td id="8pdsg"><strong id="8pdsg"></strong></td>
<mark id="8pdsg"><menu id="8pdsg"><acronym id="8pdsg"></acronym></menu></mark>
<noscript id="8pdsg"><progress id="8pdsg"></progress></noscript>

    1. 首頁 >人工智能 > 正文

    NIST提出了評估人工智能系統(tǒng)中用戶信任的方法

    每次您與智能手機上的虛擬助手交談時,您都是在與人工智能交談——例如,人工智能可以了解您的音樂品味并根據(jù)您的互動做出改進的歌曲推薦。然而,人工智能也可以幫助我們進行更多充滿風險的活動,例如幫助醫(yī)生診斷癌癥。這是兩種截然不同的場景,但同樣的問題貫穿兩者:我們?nèi)祟惾绾螞Q定是否相信機器的建議?

    NIST 的新出版物提出了一份清單,列出了有助于人類對 AI 系統(tǒng)潛在信任的九個因素。一個人可能會根據(jù)任務(wù)本身和信任 AI 決定所涉及的風險對這九個因素進行不同的權(quán)衡。例如,兩個不同的 AI 程序——一個音樂選擇算法和一個輔助癌癥診斷的 AI——可能在所有九個標準上得分相同。然而,用戶可能傾向于信任音樂選擇算法而不是醫(yī)療助理,后者正在執(zhí)行一項風險更大的任務(wù)。圖片來源:N. Hanacek/NIST

    這是美國國家標準與技術(shù)研究院 (NIST) 的一份新出版物草案提出的問題,目的是激發(fā)關(guān)于人類如何信任 AI 系統(tǒng)的討論。該文件,人工智能和用戶信任( NISTIR 8332 ),將公開征求公眾意見,直至 2021 年 7 月 30 日。

    該報告有助于更廣泛的 NIST 努力,以幫助推進值得信賴的 AI 系統(tǒng)。這份最新出版物的重點是了解人類在使用人工智能系統(tǒng)或受人工智能系統(tǒng)影響時如何體驗信任。

    根據(jù) NIST 的 Brian Stanton 的說法,問題在于人類對 AI 系統(tǒng)的信任是否可衡量——如果是,如何準確、適當?shù)睾饬克?/p>

    “許多因素都被納入我們關(guān)于信任的決定中,”該出版物的作者之一斯坦頓說。“這是用戶對系統(tǒng)的看法和感受,以及如何感知使用它所涉及的風險。”

    心理學家 Stanton 與 NIST 計算機科學家 Ted Jensen 共同撰寫了該出版物。他們在很大程度上基于過去對信任的研究,從信任在人類歷史中的整體作用以及它如何塑造我們的認知過程開始。他們逐漸轉(zhuǎn)向與人工智能相關(guān)的獨特信任挑戰(zhàn),人工智能正在迅速承擔超出人類能力的任務(wù)。

    “可以訓練人工智能系統(tǒng)在大量數(shù)據(jù)中‘發(fā)現(xiàn)’人類大腦難以理解的模式。系統(tǒng)可能會持續(xù)監(jiān)控大量視頻,例如,發(fā)現(xiàn)其中一個孩子掉進港口,”斯坦頓說。“我們不再要求自動化來完成我們的工作。我們要求它做人類無法單獨完成的工作。”

    NIST 出版物提出了一份清單,列出了有助于個人對 AI 系統(tǒng)潛在信任的九個因素。這些因素不同于 NIST 與更廣泛的 AI 開發(fā)人員和從業(yè)者社區(qū)合作建立的可信賴 AI 的技術(shù)要求。該論文展示了一個人如何根據(jù)任務(wù)本身和信任 AI 決定所涉及的風險來權(quán)衡不同描述的因素。

    例如,一個因素是準確性。音樂選擇算法可能不需要過于準確,特別是如果一個人有時好奇地超越自己的口味以體驗新奇——無論如何,跳到下一首歌很容易。信任一個在癌癥診斷中只有 90% 準確率的人工智能將是另一回事,這是一項風險更大的任務(wù)。

    斯坦頓強調(diào),出版物中的想法是基于背景研究,它們將受益于公眾監(jiān)督。

    “我們正在提出一個人工智能用戶信任模型,”他說。“這一切都是基于他人的研究和認知的基本原理。出于這個原因,我們希望獲得有關(guān)科學界可能致力于為這些想法提供實驗驗證的工作的反饋。”

    標簽:

    免責聲明:本文由用戶上傳,與本網(wǎng)站立場無關(guān)。財經(jīng)信息僅供讀者參考,并不構(gòu)成投資建議。投資者據(jù)此操作,風險自擔。 如有侵權(quán)請聯(lián)系刪除!