logo头像的设计目的在于代表企业或品牌的形象,良好的logo头像建立起品牌和客户之间的联系:
人工智能(大赦国际)每天触及数十亿人。它会在你最喜欢的流媒体服务上推荐内容,并帮助你在开车时避开交通堵塞。人工智能还可以帮助企业预测某人偿还贷款的可能性,或者在今天供应链中断的时期,确定分销商快速可靠地运送货物的最有效路线。
毫无疑问,这些算法带来的预测能力帮助企业迅速扩大规模。根据(同induecourse)在适当时候的数据,随着从医学研究和零售服务到物流和个人金融等领域的应用,全球人工智能产业预计到2026年将达到9000亿美元的年收入。但是,尽管人工智能为世界做出了很多贡献,但这项技术并不完美。如果不加以控制,人工智能算法可能会导致许多商业和社会犯规。
人工智能接受随着时间的推移收集的大量数据的训练。如果收集的数据显示了偏见,或者不代表系统将影响的人,它可能会放大这些偏见。例如,流行的图像数据集ImageNet最初通过在互联网图像搜索中错误地标记或识别人来延续负面偏见。研究表明,许多流行的开源基准训练数据集——许多新的机器学习模型用来测量的数据集——要么对于它们被广泛重用的环境无效,要么包含不准确或错误标记的数据。
甚至人工智能的应用方式也会放大社会中现有的不平等。例如,更多的监控技术往往存在于有大量有色人种的社区。这可能会导致在那些街区有大量有色人种被捕,即使同样的犯罪在以白人为主的街区以同样的比率发生。
借助爱因斯坦AI进行创新有助于让您的团队拥有内置智能,从而产生共鸣、提高生产力并扩展客户体验。
因此,世界各国政府已经开始起草和实施一系列人工智能法规。自2019年以来,至少有17个美国州提出了监管人工智能应用的法案或决议。然而,关于监管人工智能的辩论是全球性的,并在2021年升温。印度、中国和欧盟去年都发布了负责任人工智能的指导意见或法规草案。随着政府越来越多地在公共治理和决策中使用人工智能,所有这些讨论都在发生。
精心设计和恰当实施的监管将迫使最坏的行为者做正确的事情。与此同时,商业领袖需要为更公平的人工智能基础设施铺平道路。方法如下:
保持透明为了增加可信度,许多法规要求企业对他们如何训练他们的人工智能模型(根据一组数据训练的程序,以识别某些类型的模式)、模型中使用的因素、其有意和无意的用途以及任何已知的偏见保持透明。这通常是政策制定者以数据表或模型卡的形式提出的要求,它们的作用就像人工智能模型的营养标签。例如,销售队伍发布其模型卡,以便客户和潜在客户可以了解模型是如何被训练来进行预测的。
让你的人工智能变得可解释为什么人工智能系统会做出建议或预测?如果人工智能推荐你看新的《壮志凌云》,你可能会耸耸肩,但你肯定想知道人工智能如何权衡你的贷款申请的利弊。这些解释需要被接收信息的人理解,例如贷款人或信贷员,然后他们必须决定如何根据人工智能系统的建议采取行动。
也就是说,由IBM研究人工智能,康奈尔大学和佐治亚理工学院的研究人员进行的一项研究发现,即使是精通人工智能系统的人也经常过度依赖和曲解系统的结果。研究指出,对人工智能系统如何工作的误解"可能会导致灾难性的结果,并在需要更多人类关注的情况下导致过度自信或信心不足"。底线呢?需要对使用人工智能的人进行更多的真实测试,以确保他们理解解释。
让一个人知情一些法规要求一个人对任何具有法律或类似重要影响的事情做出最终决定,例如雇用、贷款、学校录取和刑事司法建议。通过要求人工审查而不是自动化决策,监管者希望偏见和伤害更容易被发现和减轻。
不幸的是,人类通常无法胜任这项任务。人性驱使人们选择阻力最小的道路,因此他们通常会遵从人工智能的建议,而不是依靠自己的判断。将这种倾向与理解人工智能决策背后的基本原理的难度结合起来,人类实际上并没有提供防止偏见的安全机制。
这并不意味着高风险、关键的决策应该简单地自动化。这意味着我们需要确保人们能够解读人工智能的解释,并受到激励来标记偏见或伤害的决定。通用数据保护条例(GDPR),欧盟关于数据保护和隐私的法律,允许人工智能对具有法律影响的决策提出建议(例如,贷款批准或拒绝),但需要人类做出最终决定。
避免代理变