欧美色在线视频播放 视频,国产精品亚洲精品日韩已方,日本特级婬片中文免费看,亚洲 另类 在线 欧美 制服

<td id="8pdsg"><strong id="8pdsg"></strong></td>
<mark id="8pdsg"><menu id="8pdsg"><acronym id="8pdsg"></acronym></menu></mark>
<noscript id="8pdsg"><progress id="8pdsg"></progress></noscript>

    首頁 >> 人工智能 >

    在人工智能系統中評估用戶信任度的建議方法

    2021-05-21 10:07:58 來源: 用戶: 

    每次您與智能手機上的虛擬助手通話時,您都在與人工智能(一種可以例如學習音樂的口味并根據您的互動提出建議的AI)進行交流。但是,人工智能還可以幫助我們開展更多充滿風險的活動,例如幫助醫(yī)生診斷癌癥。這是兩種截然不同的場景,但相同的問題都同時存在:我們人類如何決定是否信任機器的建議?

    這是美國國家標準技術研究院(NIST)的新出版物草案提出的一個問題,目的是激發(fā)人們對AI如何信任AI系統的討論。這份名為《人工智能與用戶信任》(NISTIR 8332)的文件一直公開征詢公眾意見,直至2021年7月30日。

    該報告為NIST的廣泛努力做出了貢獻,以幫助推進可信賴的AI系統。這本最新出版物的重點是了解人類在使用或受AI系統影響時如何體驗信任。

    根據NIST的Brian Stanton所說,問題在于人類對AI系統的信任度是否可以衡量,如果可以,那么如何準確,適當地對其進行衡量。

    該出版物的作者之一斯坦頓說:“許多因素都納入了我們關于信任的決定中。” “這是用戶對系統的看法和感覺,以及感知使用該系統所涉及的風險的方式。”

    心理學家Stanton與NIST計算機科學家Ted Jensen共同撰寫了該出版物。他們在很大程度上基于過去對信任的研究,從信任在人類歷史中的重要作用以及它如何塑造我們的認知過程入手。他們逐漸轉向與AI相關的獨特信任挑戰(zhàn),而AI正在迅速承擔超出人類能力的任務。

    “可以對AI系統進行訓練,以'發(fā)現'人類大腦難以理解的大量數據。系統可能會連續(xù)監(jiān)視大量視頻,例如,發(fā)現一個落入港口的兒童其中之一。”斯坦頓說。“我們不再要求自動化來完成我們的工作。我們要求自動化去做人類無法獨自完成的工作。”

    NIST出版物提出了九個因素列表,這些因素有助于一個人對AI系統的潛在信任。這些因素不同于NIST與更廣泛的AI開發(fā)人員和從業(yè)人員社區(qū)合作建立的可信賴AI的技術要求。本文展示了一個人如何根據任務本身和信任AI決策所涉及的風險來權衡不同描述的因素。

    例如,一個因素是準確性。音樂選擇算法可能不需要過于精確,特別是如果一個人好奇地有時會跳出自己的口味來體驗新穎性時,在任何情況下,跳到下一首歌曲都是很容易的。信任僅能進行癌癥診斷的準確率達到90%的AI會是完全不同的事情,這是一項風險很大的任務。

    斯坦頓強調,該出版物中的想法是基于背景研究的,它們將從公眾的審查中受益。

    他說:“我們正在為AI用戶信任提出一個模型。” “所有這些都是基于他人的研究和認知的基本原理。因此,我們希望獲得有關科學界為提供這些想法的實驗驗證而可能進行的工作的反饋。”

      免責聲明:本文由用戶上傳,與本網站立場無關。財經信息僅供讀者參考,并不構成投資建議。投資者據此操作,風險自擔。 如有侵權請聯系刪除!

     
    分享:
    最新文章
    站長推薦