机器学习系统需要知情的(i.e.人的疏忽
太阳城官网日期:2021年9月29日
如果你的家庭医生拿出她的手机来诊断你皮肤上不寻常的肿块,不要惊讶. 她正在使用人工智能辅助系统, 基于机器学习(ML)技术, 以确定肿块是否有潜在的麻烦,并需要专家的眼睛. 但如果软件本身有偏见呢, 因为它训练的数据不恰当地偏向于一个种族或另一个种族?
他们的文章,”自动化公平性的失败需要更深入地理解人类-机器学习增强,出现在 九月版 of MIS的季度 作为“管理人工智能”特刊的一部分.在里面, 作者建议组织根据最终决策的位置(人类或机器)以及支持ML系统的公平标准的复杂性,将人类添加到等式中. 不同的情况决定了在什么阶段和多大程度上建议进行人为监督或干预.
在…的情况下, 说, 使用ML模型验证身份以验证贷款价值的金融科技公司, 我们只需要作者所说的“反应性监督”, 机器学习模型吐出一个结果,由人类决策者检查. 如果模型不能常规地产生这样的结果, 的, 是否被认为符合偏见规定, 然后,管理人员应该为他们的开发团队提供更清晰的公平目标.
例如,当公平性更加复杂,ML系统仍然做出最终决定时, 在在线社交媒体平台的内容过滤中,需要更多的人为干预. 这是因为过滤器本身可以反映开发者的意见, 制造“意识形态回音室”.这些模型甚至可能被精明的社交媒体用户操纵,他们在平台上充斥着自己的观点. 在这种情况下, 作者建议在早期阶段进行“主动监督”:人类应该手动审查反馈,并引导模型“走向最接近于满足商定的对与错标准的路径”.”
在最终决定取决于人的情况下,公平标准相对简单, 比如人工智能辅助皮肤科检查, ML模型提供“决策支持”.“在这种情况下,教育人类决策者,让他们知道软件在系统上是如何不公平的,就足够了.
有时, 然而, 认识到机器学习系统可能会扭曲结果,但确切地确定如何扭曲结果是不可能的. 一个例子是一个平台,通过跟踪求职者在视频面试中的行为来评估他们的就业能力. 所有的招聘客户都知道, 如果客户公司主要由男性组成,该系统可能只是基于过去的决策进行计算, 该模型更倾向于推荐男性. 在这些情况下, 无论是管理人员还是其他自动化系统都应该仔细检查系统的建议.
理解机器学习技术的细微差别至关重要, 作者总结道:“关于公平性和增强性的强有力的太阳城官网议程可以帮助组织更有效地利用ML模型的好处,同时限制潜在的不利社会影响.”
玛丽莲·哈里斯是一名记者, 作家, 在翻译复杂或技术材料方面具有专业知识的编辑, 打印, 电视观众.