浪旅信息

您现在的位置是:首页 > 科普知识 > 正文

科普知识

AI招聘面临歧视难题?专家呼吁加强监管和技术手段

admin2023-09-29科普知识56

AI招聘受关注,如何避免歧视问题?

随着ChatGpt技术的火爆,国内的AIGC平台也在迅速跟进,采用人工智能技术进行招聘已成为当前最热门的发展趋势。然而,AI算法带来的歧视问题也引起了各界的关注。在上海市政协的一场专题调研中,监管部门、行业专家和业内人士表示,需要加强对算法滥用的监管、强化技术手段,多方面共同努力消除隐藏在算法背后的歧视,更好维护劳动者权益。

目前,许多互联网招聘平台已经开始探索通过AI算法进行简历筛选和人力资源开发,这可以避免主观因素的干扰,更好地匹配求职者的能力与岗位需求。然而,AI算法可能会将偏见和歧视更隐蔽地内嵌到决策系统中,悄无声息地侵蚀就业公平。

如何避免AI算法带来的歧视问题?

AI招聘面临歧视难题?专家呼吁加强监管和技术手段

针对算法可能存在的歧视问题,需要加强对算法滥用的监管和强化技术手段。国家已经出台了《互联网信息服务算法推荐管理规定》《关于加强互联网信息服务算法综合治理的指导意见》,并持续开展专项行动,深入排查整治各类企业的算法滥用现象。

同时,技术手段也在加强。上海市科委总工程师赵健介绍,上海的浦江实验室建设了软硬结合的蒲公英人工智能治理开放平台――OpenEGlab,该平台包括规则风险展示、评测框架等五大部分。其中,公平公正的维度,涵盖了基于性别、地域、年龄、职业健康的歧视内容。同时,建立了基于评测框架敏感问题的评测语料库,数据量达到百万级。

除了加强监管和技术手段,劳动者也应参与到算法治理中。应关注劳动者参与算法治理的具体路径构建,以及劳动者新型权利的赋权进路。同时,应强化工会的专业化赋能及与第三方专业机构的制度化协作,积极参与算法设计、算法公开等监管程序。

自选股写手点评:>在20世纪70年代,美国的一家公司因为使用性别歧视的招聘方法被起诉。这家公司使用一种叫做“Vitaphone”测试的方法来筛选求职者,这个测试被证明是歧视女性的。法院最终判决,这种测试不能作为招聘的唯一标准,公司需要对歧视行为进行改进。这是美国历史上第一次因为使用歧视性测试而被起诉的案例,也为未来的招聘行为奠定了基础。和讯自选股写手风险提示:以上内容仅作为作者或者嘉宾的观点,不代表和讯的任何立场,不构成与和讯相关的任何投资建议。在作出任何投资决定前,投资者应根据自身情况考虑投资产品相关的风险因素,并于需要时咨询专业投资顾问意见。和讯竭力但不能证实上述内容的真实性、准确性和原创性,对此和讯不做任何保证和承诺。

发表评论

评论列表

  • 这篇文章还没有收到评论,赶紧来抢沙发吧~