尽管即使在高度复杂的技术中它也令人厌恶,但仍有一些方法可以识别和减轻特定行业 AI 工具中的 AI 偏见。
随着 AI 连续体的不断提升,该领域的某些元素不断受到合理辩护的指责。最初旨在帮助人类做出更公平、更透明的通话的人工智能 (AI) 逐渐显示出偏见和有缺陷的决策迹象。但是,不应归咎于技术,因为导致清晰度分裂的是不充分的提取和上下文技术——我将在本次讨论的后面详细介绍这一点。
人工智能偏见如何成为一件事?
长话短说;AI 偏见,以其最简单的形式,涉及相关算法的异常输出。此外,任何影响与 AI 设置有关的决策的事情都可能导致偏见。与人类决策不同,偏见与预定义的概念和观点同义,人工智能偏见通常更有针对性,但具有相似的起始点!
作为读者,您必须了解 AI 设置是由人类构思的,因此仍然容易产生隐藏甚至明显的偏见,这些偏见源自人类的思想。渗透到设置中的专业和社会倾向,跨越多个发展阶段会导致偏见。
更精细的解释是在设计决策算法和AI 模型时存在偏见假设。此外,根据人工智能模型诞生背后的心理学家的说法,有超过 180 种偏见可能最终影响决策,并将人工智能视为定义技术。
人工智能偏见的更明确原因
首先,当设计设置时不包括受保护的类时,AI 中的算法偏差通常会出现。由于没有性别甚至种族等受保护的类别,该模型没有足够的时间来清晰地做出决策。此外,对受保护方面的最小访问可能会返回未受保护的见解(如地理和人口统计数据)的不合标准的结果。
AI 偏见的另一个原因是训练特定模型的数据集较少。例如,如果一家公司计划推出基于人工智能的员工招聘工具,则需要在整体数据集上对其进行建模和训练。如果模型已经接受了与男性工作空间相关的见解的训练,那么性别偏见似乎是最合乎逻辑的偏见形式。
语言偏见也很常见,并且引起了大多数设置的关注。与 Google Translate 等翻译平台相关的 NLP 算法早先因生成特定性别的翻译而总是返回男性特定术语而受到批评。
无论出于何种原因,模型的训练方式都会确保偏差的程度或性质。此外,某些数据科学家甚至可能最终排除特定条目、欠采样甚至过采样,从而通过不成比例导致偏差。
不同类型的偏见
选择偏差
当训练数据代表性不足或没有以足够的随机化水平选择时,这种形式的偏见就会蔓延。一个很好的例子是一份研究报告,其中使用三个图像识别人工智能产品对来自非洲和欧洲国家的 1200 多名议员进行分类。该研究揭示了男性的更好和准确的反应,然后是更公平的女性。对于较深的肤色,仅实现了 66% 的准确率,从而揭示了偏差的重要性。
报告偏差
报告偏差通常是未经训练、不准确或不准确的模型的结果,其中数据集几乎不能反映现实。此外,大多数显示报告偏差的模型都是由数据科学家不规则地构思出来的,他们希望通过贬低相同的历史假设和较小的样本空间来给特定地区带来坏名声。
隐性偏见
数据科学家未经完善且严格的个人推断不应应用于 AI 模型,否则您可能会遇到隐性偏见。
群体归因成见
这是一种特定类型的偏见导致易感 AI 模型的类型。依赖通用外推法而不是随机抽样的数据科学家最终会将这种形式的偏见混入其中。
如何管理人工智能偏见?
典型的 AI 模型仍然可以帮助企业实现所需,但在医疗保健、刑事司法和金融服务等一些更敏感领域的模型实施中,偏见成为一个更紧迫的问题。
因此,消除偏见变得更加重要,因为您需要一个在整个种族、年龄和性别范围内都准确的 AI 工具。虽然 AI 法规只是为认证供应商铺平了道路,在将偏见降至最低方面可能在一定程度上有益,但减少偏见需要一种更有针对性的方法,包括:
包容性设计
如果您打算设计 AI 模型,最好将人类的判断排除在范围之外。需要遵循包容性方法,培训应包括与您将使用该工具的行业相关的大样本量。
语境考察
AI 模型正变得越来越智能。但是,如果您计划将其引入特定行业,则必须依赖决策的背景,而不仅仅是前提。
有针对性的测试是关键
无论如何,AI 模型仍应分为子组以改进指标聚合。此外,执行压力测试以打开复杂案例的方法变得更加容易。简而言之,需要跨多个阶段进行详细测试以确保减少偏差。
使用综合数据训练模型
如果你打算开发一个人工智能工具,你必须同等重视数据的收集、采样和预处理。还必须整理出歧视性相关性,这进一步扩大了准确性的范围。
除了这些过程之外,还需要进一步推动人类决策,因为它们大多是人工智能的先驱,并且表现出很多差异。最后,消除偏见的最佳建议是通过了解 AI 模型如何预测和做出决策来从根本上提高 AI 模型的可解释性。
最后的话
尽管 AI 偏见几乎存在于每个特定行业的资源中,但仍依赖负责任的做法来确保更公平的模型和算法。此外,人工智能背后的组织不断鼓励审计和评估,以进一步改进决策质量。