中文 | English | 您是第 65534986 个访问者!
您好,欢迎来到全国体外诊断网(全国实验医学网)!
热门搜索:分会介绍 | 会员名单 | 行业资讯
行业资讯
当前位置: 首页 > 行业资讯 > 业界动态

欧盟正式发布“可信赖的人工智能伦理准则”

更新时间:2019/4/23 11:53:24 浏览次数:1349


引导语

日前,欧盟人工智能高级别专家组正式发布了“可信赖的人工智能伦理准则”。在此前,2018年12月,《准则》草案发布,公开征求意见并收到500余条。


根据准则,可信赖的人工智能应该是:

(1) 合法 — 尊重所有适用的法律法规。

(2) 合乎伦理 — 尊重伦理原则和价值观。

(3) 稳健 — 既从技术角度考虑,又考虑到其社会环境。


该指南提出了未来AI系统应满足的7大原则,以便被认为是可信的。并给出一份具体的评估清单,旨在协助核实每项要求的适用情况。


原则具体如下:


1.人类代理和监督:AI不应该践踏人类的自主性。人们不应该被AI系统所操纵或胁迫,应该能够干预或监督软件所做的每一个决定;


Human agency and oversight: AI systems should empower human beings, allowing them to make informed decisions and fostering their fundamental rights. At the same time, proper oversight mechanisms need to be ensured, which can be achieved through human-in-the-loop, human-on-the-loop, and human-in-command approaches.


2.技术稳健性和安全性:AI应该是安全而准确的,它不应该轻易受到外部攻击(例如对抗性例子)的破坏,并且应该是相当可靠的;


Technical Robustness and safety: AI systems need to be resilient and secure. They need to be safe, ensuring a fall back plan in case something goes wrong, as well as being accurate, reliable and reproducible. That is the only way to ensure that also unintentional harm can be minimized and prevented.


3.隐私和数据管理:AI系统收集的个人数据应该是安全的,并且能够保护个人隐私。它不应该被任何人访问,也不应该轻易被盗;


Privacy and data governance: besides ensuring full respect for privacy and date protection, adequate data governance mechanisms must also be ensured, taking into account the quality and integrity of the data, and ensuring legitimised access to data.


4.透明度:用于创建AI系统的数据和算法应该是可访问的,软件所做的决定应该“为人类所理解和追踪”。换句话说,操作者应该能够解释他们的AI系统所做的决定;


Transparency: the data, system and AI business models should be transparent. Traceability mechanisms can help achieving this. Moreover, AI systems and their decisions should be explained in a manner adapted to the stakeholder concerned. Humans need to be aware that they are interacting with an AI system, and must be informed of the system’s capabilities and limitations.


5.多样性、无歧视、公平:AI应向所有人提供服务,不分年龄、性别、种族或其他特征。同样,AI系统不应在这些方面有偏见;


Diversity, nondiscrimination and fairness:Unfair bias must be avoided, as it could have multiple negative implications, from the marginalization of vulnerable groups, to the exacerbation of prejudice and discrimination. Fostering diversity, AI systems should be accessible to all, regardless of any disability, and involve relevant stakeholders throughout their entire life circle.


6.环境和社会福祉:AI系统应该是可持续的(即它们应该对生态负责),并能“促进积极的社会变革”;


Societal and environmental wellbeing:  AI systems should benefit all human beings, including future generations. It must hence be ensured that they are sustainable and environmentally friendly. Moreover, they should take into account the environment, including other living beings, and their social and societal impact should be carefully considered. 


7.问责制:AI系统应该是可审计的,并由现有的企业告密者保护机制覆盖。系统的负面影响应事先得到承认和报告。


Accountability: Mechanisms should be put in place to ensure responsibility and accountability for AI systems and their outcomes. Auditability, which enables the assessment of algorithms, data and design processes plays a key role therein, especially in critical applications. Moreover, adequate an accessible redress should be ensured.




请注意,这些原则中有些条款的措辞有点儿抽象,并且很难从客观的意义上进行评估。例如,“积极社会变化”的定义在人与人、国与国之间差异很大。但其他原则更为直截了当,可以通过政府监督来检验。例如,共享用于训练政府AI系统的数据可能是对抗偏见算法的好方法。


这些指导方针不具有法律约束力,但它们可以影响欧盟起草的任何未来立法。欧盟曾多次表示,它希望成为道德AI领域的领导者,并通过《通用数据保护条例》》GDPR表明,它愿意制定影响深远的、保护数字权利的法律。


但这个角色在某种程度上是环境迫使欧盟扮演的。在投资和尖端研究方面,欧盟无法与美国和中国竞争,因此它选择了伦理作为塑造这项技术未来的最佳选择。


作为这一努力的一部分,欧盟发布的报告还包括了一份被称为“可信赖AI评估列表”,它可以帮助专家们找出AI软件中的任何潜在弱点或危险。此列表包括以下问题:“你是否验证了系统在意外情况和环境中的行为方式?”以及“你评估了数据集中数据的类型和范围了吗?”这些评估列表只是初步的,欧盟将在未来几年收集公司的反馈,并在2020年提交关于其效用的最终报告。


数字版权组织Access Now的政策经理范尼·希德韦吉(Fanny Hidvégi)表示:“评估列表是该报告最重要的部分。它提供了一个实用的、前瞻性的角度,指导我们如何减轻AI的潜在危害。在我们看来,欧盟有潜力和责任走在这项工作的前列。但我们确实认为,欧洲联盟不应止步于制定伦理准则。”


其他人则怀疑,欧盟试图通过伦理研究来塑造全球AI的发展方式,这是否会产生很大影响。智库数据创新中心(Center For Data Innovation)高级政策分析师埃林·奇沃特(Eline Chivot)表示:“我们对正在采取的方法持怀疑态度,即通过为AI伦理创建一个黄金标准,它将确认欧盟在全球AI发展中的地位。而要成为AI伦理领域的领导者,首先必须在AI领域取得领先优势。”


欧盟要做AI的国际规范制定者


与北美和亚洲相比,欧盟的AI技术发展相对滞后,欧委会此次在发布该七条 AI道德原则时也坦承欧洲在AI私人投资方面落后:以2016年为例,当年亚洲在此方面吸引到的投资为109亿美元,北美区域为209亿美元,而欧洲方面得到的投资仅为24亿-32亿欧元(27-41.5亿美元)。


因此,欧盟方面也在想方设法加大对AI领域的投入。根据欧盟方面提供的资料显示,在公共投资方面,根据欧盟“地平线2020”计划,到2020年年底,欧委会计划投入约15亿欧元到AI领域,同时确保来自公共和私人投资达到至少200亿欧元。


同时,欧盟提出在未来的十年中,希望每年对AI领域投资最少200亿欧元,这笔资金不仅来自欧盟机构,也会来自私人投资机构,同时欧委会也会在“地平线2020”计划安排下每年再投资10亿欧元。



当然,在希望可以迎头赶上北美和亚洲的AI产业之外,欧盟机构也更加重视AI所有可能能带来的在隐私和安全等方面的风险,可谓未雨绸缪,且由于欧盟在重视隐私和安全方面的传统,这样的立法推进较之美国而言,相对更快。就在两周前,谷歌自身就推出了一个人工智能伦理委员会,但由于谷歌为该委员会选择的成员遭到了谷歌自身雇员的强烈反对,该委员会在成立一周之后就被谷歌自行解散了。


在欧盟方面,并不满足于仅仅为欧盟内部的AI产业设定规则。


欧盟此次指出,推出该七条 AI道德原则仅仅是第一步。随后,欧盟要在2019年的夏天展开一个正式的实验阶段,且已经告知与AI产业有关的官、产、学三界,该实验开始的具体日期。


第三步,欧盟要在国际场合为其“以人为本”的AI系统建立共识,并希望将这种方法纳入AI道德的全球舞台。


欧委会指出,技术,数据和算法不分国界,为此,欧委会继续加强同日本,加拿大以及新加坡等志同道合国家的合作,并继续在包括七国集团(G7)和G20在内的国际场合的讨论和倡议中发挥积极作用。

微信图片_20190423093719.jpg

IBM欧洲主席页特(Martin Jetter)对此表示,欧委会此次出台的指导方针“为推动AI的道德和责任制定了全球标准。”


全国卫生产业企业管理协会医学检验产业分会 全国卫生产业企业管理协会实验医学分会
本网站部分内容来自互联网,如有涉及版权问题请及时告知,我们将尽快处理
上海市长宁区延安西路1118号龙之梦大厦2209室

邮政编码:200052 电话:021-63800152 传真:021-63800151 京ICP备15010734号-10  技术:网至普网站建设