AI面試再次成為社會熱議的焦點,“AI考官”能否擔起識人用人重任
今年春招中,AI面試再次成為社會熱議的焦點。不少求職者對AI面試的冰冷、機械感到不適,并對AI的判斷表示質疑,招聘企業(yè)和平臺也注意到AI的弱點、短板。隨著大語言模型的出現和數據的積累,AI面試官將越來越“智慧”,AI面試的公平性也將進一步提升。(6月12日《工人日報》)
近年來,AI面試已經被不少公司引入招聘面試環(huán)節(jié),成為簡歷初篩后了解求職者的新方式。據了解,AI面試已應用于快消、銀行、咨詢等行業(yè),外企、國內大型制造企業(yè)、通信公司、銀行等均有使用,在行政、柜員、客服、工廠操作工等職業(yè)要求標準化較高的崗位招聘中,AI面試官出現的次數更為頻繁。
越來越多的招聘單位采用AI面試,是因為AI面試能夠為招聘方節(jié)省招聘時間。而隨著AI技術不斷發(fā)展進步,AI面試在一些職業(yè)要求標準化較高的崗位招聘方面,也變得越來越“精準”。AI面試可以結合視頻分析技術、語音分析技術、語義理解技術、人臉特征識別技術、測量技術等,對候選人的崗位素質進行全面分析評估。
然而,AI招聘也存在一些弊端。一方面,AI沒有思想,沒有感情,在很多場景下,面試需要情感交流、情感互動,AI面試缺乏互動感,只能作為傳統(tǒng)面試的補充,不能完全替代人的工作。招聘方招聘也就不能過度依賴AI面試。
另一方面,AI算法還可能產生就業(yè)歧視?;ヂ摼W招聘平臺可以通過已知數據推測求職者的婚育狀況,AI算法的自主學習能力可能會放大社會固有的部分性別偏見。就像大數據“殺熟”一樣,AI招聘算法也存在被濫用的風險。
AI可能存在的就業(yè)歧視,就是一面鏡子,折射了一些用人單位錯誤的用人觀念,暴露出一些企業(yè)為了實現利益最大化而罔顧應聘者權益的行為。其中,AI招聘帶來的性別就業(yè)歧視更加隱蔽。按照勞動法規(guī)定,性別歧視的主體是招聘者,如果AI招聘存在就業(yè)歧視,那么該如何處理,誰來擔責,相關規(guī)定并不明確。而且,由于存在一定的技術壁壘,這也增加了有關部門防范AI招聘就業(yè)歧視的難度。
要保護好應聘者的平等就業(yè)權,就要防范AI可能帶來的就業(yè)歧視問題。不讓“AI考官”成了互聯網招聘平臺或招聘企業(yè)進行就業(yè)歧視的工具,對此要強化技術手段,加強對AI招聘的監(jiān)管,防范算法濫用。此外,還應讓勞動者參與算法治理,強化工會的專業(yè)化賦能及與第三方專業(yè)機構的制度化協作等等。治理的關鍵還是在于管好“AI考官”背后的人,讓應聘者、互聯網招聘平臺能夠履行好自身責任,真正尊重勞動者權益,防范人工智能技術的負面效應。
別讓AI招聘成了就業(yè)歧視的“新武器”“隱秘武器”。AI面試官還不是“AI伯樂”,用人單位不能將識人、用人的重任,完全交給冷冰冰的智能技術。招聘單位要完善招聘制度,善用AI面試官,這樣才能求賢得賢,也才是對求職者的善待與尊重。要讓AI招聘能夠有效鏈接求職者與招聘方,促進“雙向奔赴”,需要科學合理地使用“AI考官”,讓“AI考官”能夠幫好忙而不至于幫倒忙。