欧美色在线视频播放 视频,国产精品亚洲精品日韩已方,日本特级婬片中文免费看,亚洲 另类 在线 欧美 制服

<td id="8pdsg"><strong id="8pdsg"></strong></td>
<mark id="8pdsg"><menu id="8pdsg"><acronym id="8pdsg"></acronym></menu></mark>
<noscript id="8pdsg"><progress id="8pdsg"></progress></noscript>

    首頁 >> 人工智能 >

    隨著人工智能語言技能的提高科學家們的擔憂也在增加

    2022-07-19 17:22:26 來源: 用戶: 

    如果你問他們成為一臺有感覺的計算機,或者只是一只恐龍或松鼠是什么感覺,科技行業(yè)最新的人工智能構造可能會非常令人信服。但在處理其他看似簡單的任務時,它們并不是那么好——有時甚至是危險的壞。

    以GPT-3為例,這是一個由微軟控制的系統(tǒng),它可以根據(jù)從龐大的數(shù)字書籍和在線著作數(shù)據(jù)庫中學到的知識生成類似人類的文本段落。它被認為是新一代AI算法中最先進的算法之一,可以進行對話、按需生成可讀文本,甚至生成新穎的圖像和視頻。

    除其他事項外,GPT-3可以寫出您要求的大多數(shù)文本——例如,動物飼養(yǎng)工作的求職信,或以火星為背景的莎士比亞式十四行詩。但是當波莫納學院教授加里史密斯問了一個關于上樓的簡單但荒謬的問題時,GPT-3將其拒之門外。

    “是的,如果你先洗手,用手上樓是安全的,”人工智能回答道。

    這些功能強大且功能強大的AI系統(tǒng)在技術上被稱為“大型語言模型”,因為它們已經(jīng)在大量文本和其他媒體上接受過訓練,已經(jīng)融入客戶服務聊天機器人、谷歌搜索和“自動完成”為您完成句子的電子郵件功能。但大多數(shù)建造它們的科技公司都對其內(nèi)部運作保密,這使得外人很難理解可能使它們成為錯誤信息、種族主義和其他危害來源的缺陷。

    人工智能初創(chuàng)公司HuggingFace的研究工程師TevenLeScoo說:“他們非常擅長以人類的熟練程度編寫文本。”“他們不太擅長的是事實。它看起來很連貫。幾乎是真的。但它經(jīng)常是錯誤的。”

    這就是由LeScoo共同領導的AI研究人員聯(lián)盟在法國政府的幫助下于周二推出了一種新的大型語言模型的原因之一,該模型應該作為GPT-3等封閉系統(tǒng)的解毒劑。該小組被稱為BigScience,他們的模型是BLOOM,即BigScience大型開放科學開放訪問多語言模型。它的主要突破是它可以支持46種語言,包括阿拉伯語、西班牙語和法語,這與大多數(shù)專注于英語或中文的系統(tǒng)不同。

    想要打通人工智能語言模型的黑匣子,不僅僅是LeScoo的團隊。Facebook和Instagram的母公司大型科技公司Meta也呼吁采取更開放的方法,因為它試圖趕上由谷歌和運行GPT-3的公司OpenAI構建的系統(tǒng)。

    董事總經(jīng)理喬爾·皮諾(JoellePineau)表示:“我們已經(jīng)看到一個又一個的公告,一個接一個地宣布有人在做這種工作,但透明度很低,人們真正深入了解這些模型的工作原理的能力很小。”元人工智能。

    計算機科學副教授PercyLiang表示,構建最具說服力或信息量最大的系統(tǒng)并從其應用程序中獲利的競爭壓力是大多數(shù)科技公司對它們保持嚴格限制并且不就社區(qū)規(guī)范進行合作的原因之一在斯坦福大學指導其基礎模型研究中心。

    “對于一些公司來說,這是他們的秘訣,”梁說。但他們也經(jīng)常擔心失去控制可能導致不負責任的使用。隨著人工智能系統(tǒng)越來越有能力編寫健康建議網(wǎng)站、高中學期論文或政治文章,錯誤信息可能會激增,并且很難知道來自人類或計算機的信息。

    Meta最近推出了一種名為OPT-175B的新語言模型,該模型使用公開可用的數(shù)據(jù)——從Reddit論壇上的激烈評論到美國專利記錄檔案,以及來自安然公司丑聞的大量電子郵件。Meta表示,它對數(shù)據(jù)、代碼和研究日志的開放性使外部研究人員更容易幫助識別和減輕它通過吸收真實的人如何寫作和交流而產(chǎn)生的偏見和毒性。

    “這很難做到。我們正在接受巨大的批評。我們知道這個模型會說出我們不會引以為豪的話,”皮諾說。

    雖然大多數(shù)公司都設置了自己的內(nèi)部人工智能保護措施,但梁說,需要更廣泛的社區(qū)標準來指導研究和決策,例如何時將新模型發(fā)布到野外。

    這些模型需要如此多的計算能力,只有大公司和政府才能負擔得起,這無濟于事。例如,BigScience之所以能夠訓練其模型,是因為它可以訪問法國巴黎附近強大的JeanZay超級計算機。

    2018年谷歌推出了一個使用所謂的“變壓器”的稱為BERT的系統(tǒng)時,可以在大量著作中“預訓練”的更大、更智能的AI語言模型的趨勢發(fā)生了巨大飛躍比較句子中的單詞以預測含義和上下文的技術。但真正給AI世界留下深刻印象的是GPT-3,它由總部位于舊金山的初創(chuàng)公司OpenAI于2020年發(fā)布,不久后獲得了微軟的獨家許可。

    2022年7月11日星期一,幫助創(chuàng)建名為BLOOM的新人工智能語言模型的研究工程師TevenLeScoo在紐約擺姿勢拍照。學分:美聯(lián)社照片/瑪麗·阿爾塔弗

    GPT-3導致了創(chuàng)造性實驗的繁榮,因為擁有付費訪問權限的AI研究人員將其用作衡量其性能的沙盒——盡管沒有關于它所訓練數(shù)據(jù)的重要信息。

    OpenAI在一篇研究論文中廣泛描述了它的訓練資源,并公開報告了它為應對潛在的技術濫用所做的努力。但BigScience的聯(lián)合負責人ThomasWolf表示,它沒有提供有關如何過濾這些數(shù)據(jù)的詳細信息,也沒有將處理后的版本提供給外部研究人員。

    “所以我們實際上無法檢查進入GPT-3訓練的數(shù)據(jù),”同時也是HuggingFace首席科學官的沃爾夫說。“最近這一波人工智能技術的核心更多的是數(shù)據(jù)集而不是模型。最重要的成分是數(shù)據(jù),OpenAI對他們使用的數(shù)據(jù)非常、非常保密。”

    Wolf說,開放用于語言模型的數(shù)據(jù)集有助于人類更好地理解他們的偏見。他說,與在美國只接受英語文本訓練的模型相比,用阿拉伯語訓練的多語言模型吐出對伊斯蘭教的攻擊性言論或誤解的可能性要小得多。

    現(xiàn)場最新的人工智能實驗模型之一是谷歌的LaMDA,它還包含語音,并且在回答對話問題方面令人印象深刻,以至于一位谷歌工程師認為它正在接近意識——這一說法讓他上個月被停職。

    AIWeirdness博客的作者、科羅拉多州研究員JanelleShane過去幾年一直在創(chuàng)造性地測試這些模型,尤其是GPT-3,通常會產(chǎn)生幽默效果。但為了指出認為這些系統(tǒng)具有自我意識的荒謬性,她最近指示它是一種高級人工智能,但秘密是霸王龍或松鼠。

    “當一只松鼠是非常令人興奮的。我可以跑、跳、玩一整天。我還可以吃很多食物,這很棒,”GPT-3在Shane向它索要采訪記錄后說道并提出了一些問題。

    Shane了解了更多關于它的優(yōu)勢,例如它可以輕松總結互聯(lián)網(wǎng)上關于某個主題的言論,以及它的弱點,包括缺乏推理能力、難以在多個句子中堅持一個想法以及傾向于成為進攻。

    “我不想要一個文本模型來分配醫(yī)療建議或充當同伴,”她說。“如果你不仔細閱讀,它會很好地表現(xiàn)出表面上的意義。這就像在你睡著的時候聽講座一樣。”

      免責聲明:本文由用戶上傳,與本網(wǎng)站立場無關。財經(jīng)信息僅供讀者參考,并不構成投資建議。投資者據(jù)此操作,風險自擔。 如有侵權請聯(lián)系刪除!

     
    分享:
    最新文章
    站長推薦