3月3日研究人員探索人工智能在人力資源中的應(yīng)用
一個空缺職位,1,000 個申請。越來越多的大公司正在使用人工智能 (AI) 來提高人力資源效率,尤其是在尋找合適的員工時。聊天機器人可以證明有用的一個領(lǐng)域是讓潛在候選人初步了解工作將需要什么,并幫助他們評估他們實際上是否適合該職位。
Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) 的一個為期三年的項目以“人工智能、聊天機器人和招聘”為主題,調(diào)查了人力資源中人與機器之間的關(guān)系,獲得了對不同主題的寶貴見解,例如道德這些數(shù)字系統(tǒng)的各個方面以及人們愿意接受它們的程度。
FAU商業(yè)和社會數(shù)字化主席的研究人員對人力資源領(lǐng)域的潛在用戶和利益相關(guān)者以及人工智能領(lǐng)域的專家進行了采訪。由 Sven Laumer 教授領(lǐng)導(dǎo)的紐倫堡研究小組現(xiàn)已將他們的研究結(jié)果總結(jié)為一份報告,該報告具有實際意義和學(xué)術(shù)意義。
研究人員認(rèn)為,聊天機器人是一種對話系統(tǒng),適用于提高人力資源領(lǐng)域的流程效率,但他們擔(dān)心聊天機器人需要變得更加智能,并能夠以更加個性化的方式回應(yīng)用戶。盡管算法可以幫助人力資源部門做出決定,但招聘人員仍然傾向于對完全依賴數(shù)據(jù)持懷疑態(tài)度。
該研究表明,在涉及個人數(shù)據(jù)的敏感問題或提出與未來相關(guān)的建議時,用戶更喜歡人類而不是機器。另一個有趣的發(fā)現(xiàn)是,如果決策被認(rèn)為是公平的,人工智能就會被更廣泛地接受??紤]到這一點,研究人員開發(fā)并測試了一個多維公平模型。該研究還表明,申請人傾向于將提供數(shù)字招聘的公司視為具有創(chuàng)新性和吸引力的潛在雇主。
然而,仍然必須解決的一個方面是積極避免歧視。通常情況下,歧視性特征(例如人口統(tǒng)計特征)被應(yīng)用在用作生成推薦基礎(chǔ)的模型中。這強調(diào)了高度透明度的重要性,這反過來又會增加人工智能輔助招聘的問責(zé)制。
標(biāo)簽: