近年來,利用算法進行AI招聘已成為職場中的一大新熱點,如何規避AI算法可能帶來的歧視問題成為保障就業公平面臨的一個新問題。近日,在上海市政協的一場重點提案督辦專題調研暨辦理推進會上,監管部門、行業專家以及業內人士表示,防范AI就業歧視,需要加強對算法濫用的監管、強化技術手段,多方面共同努力消除隱藏在算法背后的歧視。(9月12日《工人日報》)
當前,我國互聯網招聘平臺快速發展。數據顯示,一些頭部平臺累計服務求職者已超過1億人次,求職有效簡歷數超過1.5億份,認證企業接近1000萬家。利用人工智能技術進行簡歷篩選和人力資源開發正在成為招聘領域發展趨勢,多家招聘平臺紛紛探索通過AI算法為數據賦能。
與傳統人力招聘相比,AI招聘可以大大提升人力資源開發效能,更好地對應聘者能力與崗位需求進行匹配。不過,任何技術都是把雙刃劍。從理論上講,AI招聘可以避免人為因素干擾,更加公平公正,但在實際操作中,倘若算法設置不夠科學,反而會在客觀上造成“算法歧視”,影響就業公平。更有甚者,一些人可以通過編輯算法,將對求職者的偏見和歧視巧妙地植入AI招聘中,從而逃避就業歧視責任,讓系統背鍋。
這種擔心并非多余。事實上,在人工智能發展歷程中,“性別歧視”已經不是一個新詞。2014年,美國亞馬遜公司開發了用于簡歷篩選的人工智能程序,發現該系統存在“性別歧視”,通常將男性的簡歷視為更合適的候選人。最終,亞馬遜解散了該開發團隊,棄用了這個模型。事后進一步查實,該系統選取了10年間的5萬個簡歷,對涉及的關鍵詞按重要程度進行排序,這些簡歷中大部分求職者為男性,導致AI誤以為沒有這類關鍵詞的女性簡歷不那么重要。
避免AI招聘夾帶歧視“私貨”,首先要強化技術手段,確保算法公正。近年來,國家網信辦等部門先后出臺了《互聯網信息服務算法推薦管理規定》《關于加強互聯網信息服務算法綜合治理的指導意見》,持續開展企業算法排查整治專項行動?!吨笇б庖姟芬?,建立算法備案制度,梳理算法備案基本情況,健全算法分級分類體系,明確算法備案范圍,有序開展備案工作;組織建立專業技術評估隊伍,深入分析算法機制機理,評估算法設計、部署和使用等應用環節的缺陷和漏洞,研判算法應用產生的意識形態、社會公平、道德倫理等安全風險,提出針對性應對措施。
有關部門應盡快構建算法安全風險監測、算法安全評估、科技倫理審查、算法備案管理和涉算法違法違規行為處置等多維一體的監管體系,進一步規范算法生態,確保導向正確、公平公正。
其次,加強執法監管,提高違法成本。AI招聘歧視具有一定隱蔽性,有關部門必須加強監管,打消一些企業的僥幸心理。前不久美國首起AI招聘歧視案中,我國在線教育機構麥奇教育科技與美國平等就業機會委員會達成和解。麥奇教育科技因招聘軟件算法會自動拒絕55歲以上的女性和60歲以上的男性求職者,被判賠36.5萬美元,用于補償被拒的應聘者。反觀國內,有關部門也應加大線上執法檢查力度,對于涉嫌就業歧視的企業予以依法處罰,營造風清氣正的AI招聘環境。
(編輯:月兒)
