【熱點思考】
吳文芳
(資料圖)
觀點
對于人工智能技術廣泛運用帶來的勞動用工風險,應積極尋求勞動者權益保障機制與人工智能規制的雙向互嵌、滲透融合與關聯協同,提供更有針對性與體系性的對策建議。
近年來,隨著數字技術的快速發展,人工智能參與勞動用工管理的場景也越來越廣泛。例如,就業市場上深度用于人才招聘領域的人工智能技術,其核心要素以海量數據進行算法計算為基礎,分析求職人員畫像特征,通過深度學習的多模態模型“精準濾出最匹配優質人才”,并利用人工智能擬合專家經驗,建立面試決策畫布,輔助甚至替代人力資源部門專家決策。這些都已成為人工智能參與招聘的現實應用場景。
同時,人工智能也深刻嵌入在職員工的勞動用工管理過程,由算法編制的數字化系統對勞動者的管理范圍不斷擴大。在傳統企業中,人工智能已從提升企業勞動力規劃與執行的智能排班、智能考勤、智能工時管理,發展到勞動力效能的自動化、實時化評估等,技術策略得到全方位運用。新興平臺企業對從業者的管理則主要通過大數據分析和算法實現行為控制。
當前,人工智能技術在勞動領域各環節的全域融合已然成為重要的技術趨勢,在享受其提升管理效能作用的同時,也應關注其因侵害勞動者權益而可能產生的社會風險。
第一,勞動者的隱私權和個人信息被侵害的風險大幅增加。在求職階段,各類求職招聘平臺收集大量求職者個人信息,在此過程中,以非法收集方式侵害或泄露個人信息的情況時有發生。2021年5月,國家互聯網辦公室通報,51款求職招聘類軟件存在違反必要原則收集與服務無關的個人信息、未經用戶同意收集使用個人信息、未公開收集使用規則等違規行為,被要求限時整改。在勞動關系存續期間,用人單位作為主要的信息處理者和控制者,全面收集和掌握勞動者個人信息,包括教育背景、職業經歷與專業資格、心理特征、工作狀態乃至更為敏感的健康情況等。在工作環境管理日益數字化的背景下,新型信息收集方式層出不窮,信息收集和處理比以往更加便利,這些都大幅增加了勞動者隱私權和個人信息被侵害的風險。
第二,作為人工智能核心的算法并非“技術中立”,其決策可能導致就業歧視。算法不可避免地具有偏見:一是算法代碼中所包含的內部偏見,如開發人員設計的操作參數承載了開發者的優先價值,這些價值與利益在樣本分類、變量拆分、數據清洗的過程中有可能放大原有偏見導致歧視;二是在算法運行的最終環境中所塑造的外部偏見,當前,人工智能技術已發展到深度學習型算法,機器學習使得算法運行日趨復雜,甚至出現設計者無法預料到的歧視性決策結果。例如,亞馬遜在蘇格蘭愛丁堡的工程團隊曾創建了復雜算法來搜索候選人簡歷,并獲取大約5萬個關鍵術語,用于在網絡上抓取數據以推薦候選人。在使用該系統不到1年人們就觀察到,自動化招聘系統的結果對女性申請人不利,由于算法主要針對男性簡歷進行訓練,系統得出的結論是男性為首選候選人。
第三,算法的不透明性導致“算法取中”監管困難。算法系統以多個非線性方式相互作用,使得監管者要重構特定決策十分困難。以平臺算法監管為例,為保障外賣送餐員正當權益,2021年市場監管總局等七部門聯合印發的《關于落實網絡餐飲平臺責任 切實維護外賣送餐員權益的指導意見》中提出,要通過“算法取中”等方式,合理確定訂單數量、準時率、在線率等考核要素,適當放寬配送時限。然而,由于算法具有不透明性,法律監管只能提供一個框架,如何“取中”的具體設計仍由算法編寫者決定。
數字時代的人工智能技術發展已深刻影響勞動領域。對于其廣泛運用帶來的風險,應加強從傳統勞動法向智能社會勞動法轉型的回應性研究,積極尋求勞動者權益保障機制與人工智能規制的雙向互嵌、滲透融合與關聯協同,提供更有針對性與體系性的對策建議。
針對勞動者隱私權與個人信息保護問題,應堅持用勞動法律特有的勞動合同法、勞動基準法與集體合同三條路徑協作互補的方式解決。基準法是目前對勞動者個人信息保障效果最好、效率最高的途徑。應通過出臺不同場景下的個人信息保護標準,對求職者及勞動者個人信息處理劃定立法的基準線。實踐中,有關部門已經做出嘗試,如人社部出臺的《網絡招聘服務管理規定》對個人信息被泄露等做出特別規定。就勞動者個人信息的集體保護而言,集體合同符合個人信息處理的場景化需要。工會可就勞動者的個人信息保護事宜與雇主達成約定,在保護個人信息自決權與個人信息利用之間實現動態的、符合雙方主體利益的平衡。勞動立法應將勞動者個人信息保護列入集體協商的內容范圍,并對相關原則進行具體規定。在涉及勞動者個人信息相關爭議的司法實踐中,應根據自治與限制原則,對勞動關系下的信息處理作“合法、正當、必要”的體系性審查。
針對算法可能導致歧視以及算法權力濫用的問題,需要通過算法治理工具予以規制。在此過程中,應注重從算法治理的源頭控制、關系控制與外部監管等模式引入勞動者權益保障機制。同時,重視算法治理中的個人新型權利,如算法解釋權、免受自動化決策約束權等,以合理形式將其納入勞動法律規制,關注勞動者參與算法治理的具體路徑構建以及勞動者新型權利的賦權進路。從集體勞動關系的視角,應強化工會的專業化賦能及與第三方專業機構的制度化協作,積極參與算法設計、算法公開的監管程序。就程序救濟而言,由于算法的排他性和高度技術性,應合理配置舉證責任,完善救濟渠道,同時強化企業落實算法治理責任,由企業承擔違法與侵害勞動者人格尊嚴的后果,并根據算法治理的要求實現監管機構的多元化與專業化。
總之,化解人工智能技術給勞動領域帶來的用工管理風險,不應局限于單向度的算法治理或勞動法律制度完善,而應在反思算法治理的理論體系基礎上超越勞動法領域,融合算法監管的法治力量,以開放性、跨越性和交叉性的研究視野建構勞動者權益保障機制。
(作者為上海財經大學法學院教授)
標簽: