欧美色在线视频播放 视频,国产精品亚洲精品日韩已方,日本特级婬片中文免费看,亚洲 另类 在线 欧美 制服

<td id="8pdsg"><strong id="8pdsg"></strong></td>
<mark id="8pdsg"><menu id="8pdsg"><acronym id="8pdsg"></acronym></menu></mark>
<noscript id="8pdsg"><progress id="8pdsg"></progress></noscript>

    首頁(yè) >> 人工智能 >

    NIST提出了評(píng)估人工智能系統(tǒng)中用戶信任的方法

    2021-08-25 15:36:06 來(lái)源: 用戶: 

    每次您與智能手機(jī)上的虛擬助手交談時(shí),您都是在與人工智能交談——例如,人工智能可以了解您的音樂(lè)品味并根據(jù)您的互動(dòng)做出改進(jìn)的歌曲推薦。然而,人工智能也可以幫助我們進(jìn)行更多充滿風(fēng)險(xiǎn)的活動(dòng),例如幫助醫(yī)生診斷癌癥。這是兩種截然不同的場(chǎng)景,但同樣的問(wèn)題貫穿兩者:我們?nèi)祟惾绾螞Q定是否相信機(jī)器的建議?

    NIST 的新出版物提出了一份清單,列出了有助于人類對(duì) AI 系統(tǒng)潛在信任的九個(gè)因素。一個(gè)人可能會(huì)根據(jù)任務(wù)本身和信任 AI 決定所涉及的風(fēng)險(xiǎn)對(duì)這九個(gè)因素進(jìn)行不同的權(quán)衡。例如,兩個(gè)不同的 AI 程序——一個(gè)音樂(lè)選擇算法和一個(gè)輔助癌癥診斷的 AI——可能在所有九個(gè)標(biāo)準(zhǔn)上得分相同。然而,用戶可能傾向于信任音樂(lè)選擇算法而不是醫(yī)療助理,后者正在執(zhí)行一項(xiàng)風(fēng)險(xiǎn)更大的任務(wù)。圖片來(lái)源:N. Hanacek/NIST

    這是美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院 (NIST) 的一份新出版物草案提出的問(wèn)題,目的是激發(fā)關(guān)于人類如何信任 AI 系統(tǒng)的討論。該文件,人工智能和用戶信任( NISTIR 8332 ),將公開(kāi)征求公眾意見(jiàn),直至 2021 年 7 月 30 日。

    該報(bào)告有助于更廣泛的 NIST 努力,以幫助推進(jìn)值得信賴的 AI 系統(tǒng)。這份最新出版物的重點(diǎn)是了解人類在使用人工智能系統(tǒng)或受人工智能系統(tǒng)影響時(shí)如何體驗(yàn)信任。

    根據(jù) NIST 的 Brian Stanton 的說(shuō)法,問(wèn)題在于人類對(duì) AI 系統(tǒng)的信任是否可衡量——如果是,如何準(zhǔn)確、適當(dāng)?shù)睾饬克?/p>

    “許多因素都被納入我們關(guān)于信任的決定中,”該出版物的作者之一斯坦頓說(shuō)。“這是用戶對(duì)系統(tǒng)的看法和感受,以及如何感知使用它所涉及的風(fēng)險(xiǎn)。”

    心理學(xué)家 Stanton 與 NIST 計(jì)算機(jī)科學(xué)家 Ted Jensen 共同撰寫了該出版物。他們?cè)诤艽蟪潭壬匣谶^(guò)去對(duì)信任的研究,從信任在人類歷史中的整體作用以及它如何塑造我們的認(rèn)知過(guò)程開(kāi)始。他們逐漸轉(zhuǎn)向與人工智能相關(guān)的獨(dú)特信任挑戰(zhàn),人工智能正在迅速承擔(dān)超出人類能力的任務(wù)。

    “可以訓(xùn)練人工智能系統(tǒng)在大量數(shù)據(jù)中‘發(fā)現(xiàn)’人類大腦難以理解的模式。系統(tǒng)可能會(huì)持續(xù)監(jiān)控大量視頻,例如,發(fā)現(xiàn)其中一個(gè)孩子掉進(jìn)港口,”斯坦頓說(shuō)。“我們不再要求自動(dòng)化來(lái)完成我們的工作。我們要求它做人類無(wú)法單獨(dú)完成的工作。”

    NIST 出版物提出了一份清單,列出了有助于個(gè)人對(duì) AI 系統(tǒng)潛在信任的九個(gè)因素。這些因素不同于 NIST 與更廣泛的 AI 開(kāi)發(fā)人員和從業(yè)者社區(qū)合作建立的可信賴 AI 的技術(shù)要求。該論文展示了一個(gè)人如何根據(jù)任務(wù)本身和信任 AI 決定所涉及的風(fēng)險(xiǎn)來(lái)權(quán)衡不同描述的因素。

    例如,一個(gè)因素是準(zhǔn)確性。音樂(lè)選擇算法可能不需要過(guò)于準(zhǔn)確,特別是如果一個(gè)人有時(shí)好奇地超越自己的口味以體驗(yàn)新奇——無(wú)論如何,跳到下一首歌很容易。信任一個(gè)在癌癥診斷中只有 90% 準(zhǔn)確率的人工智能將是另一回事,這是一項(xiàng)風(fēng)險(xiǎn)更大的任務(wù)。

    斯坦頓強(qiáng)調(diào),出版物中的想法是基于背景研究,它們將受益于公眾監(jiān)督。

    “我們正在提出一個(gè)人工智能用戶信任模型,”他說(shuō)。“這一切都是基于他人的研究和認(rèn)知的基本原理。出于這個(gè)原因,我們希望獲得有關(guān)科學(xué)界可能致力于為這些想法提供實(shí)驗(yàn)驗(yàn)證的工作的反饋。”

      免責(zé)聲明:本文由用戶上傳,與本網(wǎng)站立場(chǎng)無(wú)關(guān)。財(cái)經(jīng)信息僅供讀者參考,并不構(gòu)成投資建議。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。 如有侵權(quán)請(qǐng)聯(lián)系刪除!

     
    分享:
    最新文章
    站長(zhǎng)推薦