纸箱外包装设计图片的设计目的在于代表企业或品牌的形象,良好的纸箱外包装设计图片建立起品牌和客户之间的联系:
我们现在正面临着挑战和机遇的重要交汇。在过去的几个月里,人们的行为和需求发生了根本性的变化,一些人工智能(大赦国际)系统正在努力适应。黑人的命也是命运动提高了公众对人工智能预测警务和面部识别技术的历史和固有偏见的认识。虽然这种理解对研究和伦理界来说并不新鲜,但大众媒体上的新闻报道数量已经飙升,引起了对这一对话的更广泛关注。
让人工智能变得正确更加困难,但比以往任何时候都更加重要。除非公司承诺负责任地、合乎道德地创造和实施人工智能,否则情况不会有什么改变。
偏见就是错误
为了企业的成功和社会的福祉,我们需要人工智能做到准确,这意味着尽可能消除偏见。
让我们以一家金融机构为例,该机构试图在批准贷款之前衡量客户的"还款能力"。假设这家机构的人工智能系统根据敏感或受保护的变量,如种族或性别(顺便说一下,这是非法的)或代理变量(如邮政编码,可能与种族相关),预测某人的还款能力。在这种情况下,他们可能会批准一些无力偿还贷款的人的贷款,而拒绝那些能够偿还的人的贷款。如果一个系统将种族看得比收入更重,它可能会拒绝高收入黑人家庭获得贷款,而向低收入白人家庭提供贷款。由于人工智能基于错误的因素做出决策,它使模型中的偏见永久化,使金融机构面临失去资金和客户的风险,并可能迫使客户群依赖于掠夺性的贷款机构。
包括种族、性别和代理变量,但选择不基于这些变量做出决策将极大地提高准确性并扩大客户群。例如,如果他们看到一些社区被拒绝贷款,他们可能会考虑提供替代产品,如小额贷款,以更好地满足他们的需求。这种方法创造了一个良性循环,帮助客户改善财务状况,并最终有资格获得银行的传统贷款产品。
组织有责任确保公平和准确的人工智能解决方案——这是一项持续的努力,需要意识和承诺。虽然没有"放之四海而皆准"的解决办法,但这里有四个策略可以帮助你开始:
1.找出你的系统和流程中潜在的偏见
最近围绕人工智能和偏见的对话正在挑战"无偏数据"的概念。由于所有的数据都带有偏见,你需要后退一步,评估一下历史上使偏见永久化的系统和过程。
检查您的系统基于敏感变量做出的决策:
某些因素,如种族或性别,是否受到过度的影响?不同地区甚至不同决策者之间是否存在差异?这些差异是否代表了这些地区更广泛的人口,或者看起来一些群体受到了不成比例的影响?
一旦你发现偏差,你需要在使用这些数据训练人工智能系统之前,从过程中消除它。怎么会?关注三个核心领域:员工教育、产品开发和客户授权。
在销售力量,我们在新员工训练营向所有员工介绍我们的道德和人性化使用原则。从第一天起,新员工就知道他们对道德决策和良好的安全实践负有同样的责任。我们直接与产品团队合作,开发道德功能,使我们的客户能够负责任地使用人工智能,并审查道德风险的新功能。
2.质疑你对数据的假设
为了发现和纠正偏差并获得高质量的代表性数据,您需要深入了解将受到技术影响的每个人——不仅仅是买家可能需要的功能,还有下游影响。
对您的数据感到好奇,并提出以下问题:
我们对受影响的人和他们的价值观有什么假设?我们从谁那里收集数据?谁没有被代表,为什么?谁受到伤害的风险最大?这种伤害的影响是什么,我们如何减轻它?我们是否收集了足够的数据来对受人工智能影响的每个人做出准确的决定?
要确定你是否基于种族、性别、地理或收入等不公平的标准做出决定,你需要通过意识来实现公平。这意味着收集敏感变量以查看数据中的相关性,但不基于这些敏感变量或其代理做出决策。
正如我们在贷款例子中讨论的,代理变量会影响你的模型,所以我们也必须解决这些问题。例如,在销售力量,我们很早就了解到在销售线索评分方面,“约翰”是一个好线索的头号预测者。"名字"代表性别,也可以代表种族和原籍国。因此,该团队将"姓名"作为模型中的变量之一删除。
3.与可能受技术影响的人接触
因为我们没有人能够完全了解彼此的现实,所以人工智能创造者需要从他们的客户那里征求直