介绍诺基亚的AI负责的6大支柱

实验室领导人威廉·肯尼迪,人工智能研究实验室
2022年8月24日下午3:45的时候
孩子与太阳镜握着他们的手在自来水壶嘴之外

2014年,亚马逊试图简化它的工作招聘通过人工智能(AI)。一组机器学习专家开发的算法,可以自动确定最合格的候选人在一个大量的简历,让亚马逊有效目标最好的员工对于任何给定的角色。只有一个问题:程序歧视女性。亚马逊的计算机模型研究历史模式提交简历,以男性为主申请人,最终得出的结论是,男人比女人会做出更好的新兵。简而言之,算法教自己的偏见他们是为了消除。

亚马逊关闭程序后,发现它的缺陷,但这肯定不是唯一的实例中,一个善意的AI的应用产生了一个意想不到的和不道德的结果。人工智能是创建新的价值从根本上破坏方式。公司依靠人工智能有效地利用大量的搜集的数据,创建可伸缩的解决方案。然而,如果他们这样做,盲目或目光短浅,他们有可能将他们暴露在声誉,甚至法律风险。

此外,未能考虑AI伦理将越来越多地邀请监管行动。与它的人工智能法,欧盟制定统一规定AI。因此,一些使用人工智能,比如社会得分和生物识别在公共空间中,将被视为不可接受的风险,将被禁止。其他用途,如关键基础设施管理、招聘工具和医疗设备,将受到严格控制和监控。

变得很清楚,我们作为一个行业需要采用明确的过程和实践,确保严格遵守负责人工智能AI系统原则。

负责六

诺基亚已经定义的六个原则,应该引导所有AI在未来研究和发展。我们认为这些原则应适用目前任何新的人工智能解决方案构想,然后执行整个开发过程,实现和操作阶段。这些原则不仅反映了人工智能的未来标准还全面占我们的行业的重新关注环境可持续性,社会责任和良好的治理。金博宝怎么注册

我们称这些原则的6大支柱AI负责。它们是:

  1. 公平:AI系统必须设计最大化的方式公平、不歧视和可访问性。所有AI设计应该促进包容性不受欢迎通过纠正数据偏差和不受欢迎的算法偏见。
  2. 安全、可靠性和安全性:人工智能系统应该没有直接损害和总是旨在减少间接有害的行为。他们必须是可靠的,他们应该总是执行未经授权的党。
  3. 隐私:通过设计,必须尊重隐私的AI系统提供个人与机构在他们的数据和决策。AI系统也必须尊重他们所使用的数据的完整性。
  4. 透明度:AI系统必须可辩解的,可以理解的。他们应该允许人类机构和监督生产输出平均可理解的利益相关者。这些输出应该是可审计的和可跟踪的创建信任,这最终会影响接受和鼓励增加AI系统的使用。
  5. 金博宝怎么注册可持续性:AI系统应该尝试这两个社会可持续发展,让社会和民主,和环境可持续,减少所需的力量训练和运行这些系统。我们应该倾向于一个行业定义和公认的测量对于环境的影响。
  6. 问责制:AI系统应通过磋商协作开发和部署等所有利益相关者,真正的责任成为可能。我们必须确保任何人工智能应用程序的长期效应是可以理解在内的所有利益相关者,这些利益相关者授权采取任何提议的改变是否会影响应用程序。如果一个AI系统偏离其想要的结果,那么我们需要政策来确保这些偏差检测,报告和纠正。

通过建立互信的责任

定义6大支柱是唯一的解决所面临的挑战的第一步创建新的AI值。在接下来的几个月,诺基亚贝尔实验室的研究人员将探索具体的例子详细6大支柱相关一系列的博客文章。我们将描述我们正在采取积极的步骤在每个构建负责任的技术,将使世界共同行动。

随着公司在我们的行业现在学习,AI道德不仅仅是学术问题的好奇心。它已成为一种战略业务必要性。如果公司没有制定明确计划实现负责任的人工智能,他们可能疏远公众和加强“恶毒的人工智能”的概念在媒体上推广。无法内化这些原则可能促使政府、立法者和监管者采取行动,可能在一个禁止的态度,尽管AI系统有明确的潜在业务受益,社会和人性。

负责任的AI,然而,不仅仅是一个业务势在必行。而不是被视为一组规则和指导方针,限制创新,这六个支柱应被视为一个诺基亚的机会成为一个道德的商业行为在我们行业的领导者。通过拥抱负责任的人工智能,我们开始了通向构建人工智能系统提供一个真正的竞争优势,帮助塑造未来几十年AI交谈。