熊猫logo的设计目的在于代表企业或品牌的形象,良好的熊猫logo建立起品牌和客户之间的联系:
人工智能(大赦国际)可能是技术中最紧迫的问题,而不是驯服狂野的西部。
在世界经济论坛(世界经济论坛)首届全球技术治理峰会(GTGS)上,与会者敲响了人工智能的警钟——这已经不是第一次了。具体来说,这种全球采用已经超出了负责任地、合乎道德地使用它的能力,或者在某些情况下超出了意愿。
随着人工智能的发展——预计2024年全球支出将达到1100亿美元——它因固有的算法偏见而受到各个部门和行业的抨击。负责任的人工智能问题如此普遍,以至于致力于促进对人工智能的理解的组织人工智能伙伴关系(人工智能伙伴关系)在2020年推出了一个事件跟踪器,以记录并希望从其失败中吸取教训。
人工智能承诺到2035年将组织的效率提高40%,这相当于惊人的14万亿美元的经济价值。
至少自2009年以来,世界经济伦理问题、偏见、包容性、隐私、问责制和透明度都是公认的严重问题,但问题依然存在。这在很大程度上是因为人工智能开发团队缺乏多样性,缺乏在技术进入社会之前评估技术的流程,缺乏做出道德决策的激励,缺乏迫使公司做"正确的事情"的监管,以及其他问题。
人工智能开发团队中缺乏种族和性别多样性是一个巨大的问题。人工智能流程包括数据收集、清理、实施和部署。如果黑人没有参与这些步骤(他们经常没有),这可能导致人工智能系统中的偏见。因此,如果人工智能的发展没有更大的多样性,它的伦理使用就无法得到充分解决。还有一段路要走。全球只有22%的人工智能专业人员是女性,黑人甚至更少。事实上,2017年出现了一个非营利组织小黑奈,以增加该领域黑人从业者的数量。
道德人工智能——谁在照看商店?在没有任何正式标准或框架的情况下,不受监管的组织只能靠自己来监管自己,并制定和遵循自己的道德人工智能指南。赌注是巨大的。
人工智能承诺到2035年将组织效率提高40%,这相当于惊人的14万亿美元的经济价值。透过这个镜头,我们可以将人工智能与工业革命带来的变化进行比较:大规模的创新、发明、效率和生产力。在一月份的世界教育联谊会(World Education Fellowship)会议上,商界领袖几乎一致认同人工智能的前景和风险,指出信任是实现人工智能全部潜力的巨大障碍。这种情绪在GTGS得到了政府官员的回应。
"我们的全球策略需要改革,"总统技术和国家安全事务副助理杰森马西尼说。"我们还没有设计原则来提供人工智能的安全保证。"
他说,美国支持经济合作与发展组织(经合组织)和世界教育联谊会(World Education Fellowship)全球人工智能伙伴关系提出的人工智能原则,但"我们需要可靠地测量这些属性的方法,而我们目前没有这些方法。"
他说,将这些原则转化为治理工具是最具挑战性的部分。
伦理人工智能不能等待正确的人工智能是一项艰巨的工作,但比以往任何时候都更重要。生命可能取决于此。以下是销售力量道德人工智能实践首席架构师的四个策略…n。
阅读博客伦理人工智能的原则和框架确实存在。私营部门、学术界、政府和专业协会已经提出了数百个框架和工具包。但正如《哈佛商业评论》所指出的,这些大多是"不明确的原则","在实践中无法明确实施"。文章指出,技术人员没有多少办法来明确支持这种高水平的指导。"尽管人工智能伦理框架可能有助于良好的营销活动,但它们往往无法阻止人工智能造成它们本应防止的伤害。"
公司需要个人道德人工智能原则销售力量道德人工智能实践的首席架构师凯西巴克斯特(凯西巴克斯特)同意我们需要正式的标准,但表示公司开发自己的框架也很重要。
"公司需要创建人工智能原则和框架,在他们自己的价值观、愿景和产品开发生命周期内工作,"巴克斯特说。"如果你有熟悉如何开发这些的人,开发和实施一套定制的原则和框架会更快更容易,你知道你的公司会接受这些原则和框架,而不是试图将别人的纳入你的公司。"
2020年,美国14个州推出了43项与人工智能相关的立法条款。三十六失败。
即使在正式标准建立和运行之后,这些定制的框架对于公司来说仍然是