人工智能和隐私:所有你需要知道的关于信任和技术
人工智能和隐私:所有你需要知道的关于信任和技术
多媒体的这个版本
通过达里奥卡塞拉爱立信产品隐私办公室负责人劳伦斯·劳森隐私专家,爱立信产品隐私办公室
人工智能。它一直在我们的文化时代以来一种或另一种形式的古希腊神话,通过弗兰肯斯坦,阿西莫夫。这个漫长而传奇的历史不能带走的事实AI现在前面和中心在我们的世界。人工智能技术是爱立信和客户关键业务的推动者。
回顾人工智能的历史,我们看到一个反复出现的主题。影响人们对隐私和人权。使用AI错误,或不尽职调查可以在许多方面导致广泛的升级问题。
今天,减轻这些风险,我们看到规范AI在工业和政府,并建立可信赖的基础,可以使上述虚构的故事简单:一部小说。
有什么需要人工智能结合人类道德和伦理的原则吗?在爱立信的发现AI伦理学内部报告。
第一个问题:什么是人工智能?
之前我们开始看看AI对隐私的影响,让我们定义意味着什么。
至关重要的是要首先明确“人工智能”意味着什么,因为它可以对不同的人意味着不同的东西,业内并没有统一的定义。因此,我们将尝试描述我们如何处理在爱立信的定义。在爱立信,我们看人工智能作为一组技术(例如机器学习、深度学习),启用功能,如图像识别、文本生成或文本分析。这些技术显示一定程度的自治和在某种程度上类似于人类的“原因”,得出一个结论。
我们有值得信赖的AI的爱立信道德准则,它本身的基础欧盟的指导方针,值得信赖的人工智能。这个欧盟指导方针强调三个关键元素AI和如何建立可信赖性。
人工智能是如何工作的呢?
人工智能是基于模型。为了解释这一点,我们将作为一个例子,一个简单的决策树。顶部的过程开始,然后向下移动下级分支基于一个决定。这种技术通常是使用较小的数据集,因为它提供了很大的透明度,但可能造成理解困难,越来越多的数据。
在本质上,这个模型展示了如下:“如果你在好心情,你累了,你饿了,你不会有很高的生产力”。
然而,这个模型也说明了人工智能的影响的偏见。举例来说,如果我们看这个模型如何工作和发展的过程,涉及的场景中模型的“决定”,一个饥饿的人不是生产力。在决定这是一个转折点:“饥饿- >不生产”。“不饿- >生产”。
明显的偏见本身没有好坏,公平还是不公平的。这只是模型决定的转折点' A ',而不是' B '。我们都能与这模型描述,我们都饿了,觉得我们是多么徒劳的在这种情况下。如果我们更进一步,把这个应用到隐私的角度来看,我们可以看到这种类型的偏见是不公平的,如果AI“决定”,缺乏效率而不是性别或年龄的证实。
人工智能和隐私之间的关系是什么?
与数字化的增加以消费者为中心的应用程序、媒体、信息和商业我们见证了主要技术的发展和使用人工智能在过去的几年中。我们也看到,并非所有的人工智能利用个人信息。事实上有很多用例5 g网络旨在改善基础设施的质量和可靠性,不需要喂AI与隐私相关的数据。
另一方面,当涉及到人工智能和隐私,我们也注意到,隐私影响必须格外小心地处理。例如,AI系统可能有能力挑选并确定个人认为不是从输入数据集的角度识别。等识别甚至可能发生意外的人工智能计算、暴露问题的个人不可预知的后果。由于这些原因我们后来在博客解释方法研发所需的步骤,以确保一个令人满意的水平的发展中AI系统的隐私。
我们怎么能相信AI系统吗?
所以,这是最基本的方式。现在让我们看看如何构建可信的AI(与固有的隐私设计)在实时系统中。,比网络系统更好的开始——在这一领域,我们看到越来越多使用人工智能和前进的显著变化。
在这里,与所有的人工智能系统,有三个关键接口工作:AI输入数据,实际上AI在网络中,人工智能的输出数据。所有三个领域关键隐私问题,为了确保我们有值得信赖的AI在每一步,我们努力需求强加给那些在爱立信工作与人工智能在每个阶段。我们在法律义务基础这些需求,客户要求,我们认为最佳实践和尝试这些需求一致的方向我们看到行业移动。
输入数据
输入数据相当容易理解。很简单,它是用来喂养人工智能的数据模型。这可以个人或非个人的天性。不管它是如何定义的,我们需要确保规则,因为它不能决定什么可以生产结束时(甚至可以在个人资料系统,或者至少推断)。这一点,再加上个人数据的广泛的性质定义叶子没有犯错的余地。
在爱立信,我们有需求涵盖从数据质量,de-identify数据的能力,数据最小化,并且能够独立的数据生产、测试和训练数据。
黑盒阶段
中间的过程,或者黑盒阶段,可能是最困难的区域详细解释。
这是两个主要原因:首先,这是机器学习和推理模型的阶段投入可玩,有时,很难解释。其次,鉴于这些经常与业务相关的流程业务的重要性,任何试图解释(除非在法律上有义务)可能泄露商业秘密的风险。
然而,我们所能说的就是,在爱立信我们有严格的要求在这个阶段包括问责制等方面,透明度,解释了人工智能的能力和配置的保护。
输出数据
最后,我们的输出数据。值得一提的是再一次在这里,只是因为我们知道和控制输入数据,我们有知识的“黑盒”中发生了什么,仍然可以有惊喜和新数据产生的结果。这个数据也有可能被敏感的性质,它可以增加保护我们需要负担得起。规则我们这里开始同样作为输入数据的数据质量,访问控制和数据安全。然而,我们这里也有额外的要求等通知用户有关人工智能的使用,提供解释结果的能力,,有趣的是,需要获得授权之前构建一个数据循环。
类型的数据集用于人工智能
对许多人来说,“数据”是一个广泛的话题,,特别是在隐私的世界。甚至个人数据,通常认为是狭隘的定义,是一个不同的和多样化的术语。
当涉及到人工智能,使用数据扩大到类型的数据集。我们有三种不同的类型处理爱立信在AI:生产数据、合成数据和混合数据。
生产数据
生产数据是实际的实时数据输入的AI系统或网络部署。这就是中踢的需求,并提供严格的规则存储,使用,和结果;很大程度上是由于这些数据集可能包含个人信息。
合成数据
显示的数据和生产数据相同的属性,但不包含真实的用户数据和人工生成的。188bet中心这些数据可以处理更低风险级别从隐私的角度来看,它不直接或间接识别个体。这些数据通常用于训练、测试和验证的结果的人工智能。
混合数据
生产数据和混合数据的组合。这些数据携带某些隐私的影响,比如个人的可识别性。另一方面,这些数据也是非常有用的模拟现实生活生产场景,因此它可以用于火车,AI的验证结果。
自然失衡数据集和固有偏见
重要的是要注意,上述所有数据集可以自然倾斜纯粹基于样本。例如,一个数据集包含更多的男性比女性工程师工程师可能导致偏见的结果伤害的少数样本中数据集从隐私的角度来看。这总是需要考虑当评估隐私的影响。
在人工智能评估隐私的影响
最有效的方法来识别哪些固有的隐私风险附加到数据集,以及人工智能在一般情况下,是执行一个隐私影响评估(PIA)。在爱立信,我们内部PIA确实是一个行之有效的做法已持续多年的精制。
然而,由于人工智能的流体性质,我们已经创建了一个额外的方法评估隐私对于那些寻求使用人工智能;这不仅需要完成并提供深入了解的隐私评估员AI的含义是什么,但也给具体信息是怎么回事。我们把这个分成四个关键部分:
- 目的评估AI的用例:用例应该描述,包括所需的输入数据,数据处理操作和预期的结果。
- 算法影响评估:该算法应该从隐私的角度和可能的隐私影响评估的算法应该记录。在爱立信的内部指引,我们列出几个问题来帮助引导过程。
- 设计选择,理由是:它应该解释为什么某些设计选择了在开发的人工智能系统。必遮盖的细节在解释数据处理系统中,以及它是如何处理。
- 输出结果:验证水平应当描述了如果和在什么条件下结果可能不符合预期的使用情况下,基于风险的方法。
人工智能的未来和隐私
可以理解的是,人工智能和隐私的话题既长又复杂。我们希望总结的一些要点上面所提到的,从它的重要性,它是如何发展的今天。我们也谈到了爱立信的方法和如何保证,我们所有的人工智能技术——隐私是嵌入过程从开始到结束。
爱立信遵循欧盟的人工智能的定义和其固有的特性。这包括我们的AI必须合法,道德和健壮。我们知道期货的隐私和AI非常自然交织在一起因为他们;这是进一步以最近的病例和相关罚款。
我们知道AI的整个格局正在发生变化。从所使用的技术,智能AI的客户需求,规定频频。即使所有这些AI变化不直接影响隐私,我们需要做好准备。在爱立信,我们可以满怀信心地说,我们在这方面领先,和有一个适应性强的系统不仅可以匹配的持续进化的步伐,但确保我们可以能够帮助塑造整个人工智能领域一个尊重隐私的关键原则。
了解更多
移动网络是社会的关键基础设施的一部分,工业,和消费者。学习如何buildibng爱立信值得信赖的系统以满足那些至关重要的需求。
读过爱立信的“人工智能——伦理在里面?”
读了爱立信白皮书:可辩解的人工智能AI——人类如何信任。
读了爱立信技术审查AI特别版2021