研究人員心理分析人工智能
我們并不確切知道人工智能 (AI) 的“大腦”內(nèi)部正在發(fā)生什么,因此我們無法準(zhǔn)確預(yù)測其行為。我們可以進行測試和實驗,但我們不能總是預(yù)測和理解人工智能為什么會這樣做。
就像人類一樣,人工智能的發(fā)展也是基于經(jīng)驗(當(dāng)涉及到人工智能時以數(shù)據(jù)的形式)。這就是為什么人工智能的行為方式有時會讓我們措手不及,并且有無數(shù)人工智能行為存在性別歧視、種族主義或不當(dāng)行為的例子。
“僅僅因為我們可以開發(fā)一種算法,讓人工智能在數(shù)據(jù)中找到模式以最好地解決任務(wù),這并不意味著我們了解它發(fā)現(xiàn)了什么模式。所以即使我們已經(jīng)創(chuàng)建了它,也不意味著我們知道它,”DTU Compute 的 Søren Hauberg 教授說。
一個悖論稱為黑盒問題。一方面植根于人工智能的自學(xué)習(xí)性質(zhì),另一方面,因為到目前為止還不可能研究人工智能的“大腦”并了解它對人工智能的作用。數(shù)據(jù)形成其學(xué)習(xí)的基礎(chǔ)。
如果我們能找出 AI 使用什么數(shù)據(jù)以及如何工作,它就會對應(yīng)于考試和精神分析之間的某些東西——換句話說,是一種更好地了解人工智能的系統(tǒng)方法。到目前為止,這是不可能的,但現(xiàn)在 Søren Hauberg 和他的同事們已經(jīng)開發(fā)出一種基于經(jīng)典幾何的方法,這使得了解人工智能如何形成它的“個性”成為可能。
凌亂的大腦
教機器人抓取、扔、推、拉、走、跳、開門等需要非常大的數(shù)據(jù)集,而人工智能只使用能夠解決特定任務(wù)的數(shù)據(jù)。人工智能從無用的數(shù)據(jù)中挑選出有用的數(shù)據(jù)并最終看到它隨后采取行動的模式的方式是將其數(shù)據(jù)壓縮到神經(jīng)網(wǎng)絡(luò)中。
然而,就像我們?nèi)祟惏褨|西打包在一起一樣,很容易在別人看來很凌亂,也很難弄清楚我們使用的是哪個系統(tǒng)。
例如,如果我們以盡可能緊湊的目的將我們的家打包在一起,那么枕頭很容易最終落入湯鍋中以節(jié)省空間。這沒有錯,但外人很容易得出錯誤的結(jié)論;枕頭和湯鍋是我們打算一起使用的東西。到目前為止,當(dāng)我們?nèi)祟愒噲D了解系統(tǒng)學(xué)人工智能的工作原理時,情況就是如此。然而,根據(jù) Søren Hauberg 的說法,這已經(jīng)成為過去:
“在我們的基礎(chǔ)研究中,我們找到了一個理論上倒退的系統(tǒng)解決方案,這樣我們就可以跟蹤哪些模式是基于現(xiàn)實的,哪些是通過壓縮發(fā)明的。當(dāng)我們將兩者分開時,我們?nèi)祟惥涂梢垣@得更好地了解人工智能的工作原理,但也要確保人工智能不會聽取錯誤的模式。”
Søren 和他的 DTU 同事借鑒了 18 世紀(jì)開發(fā)的用于繪制地圖的數(shù)學(xué)方法。這些經(jīng)典的幾何模型在機器學(xué)習(xí)中找到了新的應(yīng)用,它們可用于繪制壓縮如何移動數(shù)據(jù)的地圖,從而通過 AI 的神經(jīng)網(wǎng)絡(luò)向后倒退并了解學(xué)習(xí)過程。
交還控制權(quán)
在許多情況下,用人工的行業(yè)制止情報,特別是在生產(chǎn)的那些部分,其中安全性是一個重要的參數(shù)。害怕失去對系統(tǒng)的控制,因此如果算法遇到它無法識別的情況并且必須自己采取行動,就會發(fā)生事故或錯誤。
新的研究恢復(fù)了一些失去的控制和理解。使我們更有可能將人工智能和機器學(xué)習(xí)應(yīng)用到我們今天不做的領(lǐng)域。
“不可否認(rèn),仍有一些無法解釋的部分,因為系統(tǒng)的一部分是由模型本身在數(shù)據(jù)中找到模式而產(chǎn)生的。我們無法驗證這些模式是否是最好的,但我們可以看看它們是否合理。這是朝著增強對 AI 信心邁出的一大步,”Søren Hauberg 說。
該數(shù)學(xué)方法是與卡爾斯魯厄理工學(xué)院和德國工業(yè)集團博世人工智能中心共同開發(fā)的。后者在其機器人算法中實現(xiàn)了 DTU 的軟件。結(jié)果剛剛發(fā)表在機器人:科學(xué)與系統(tǒng)會議上發(fā)表的一篇文章中。
標(biāo)簽: