找出伦理私见有“赏金”!科学家出奇招保证AI系统公正

2021-01-14 网络
浏览
[科技新闻]找出伦理私见有“赏金”!科学家出奇招保证AI系统公正

原问题:找出伦理私见有“赏金”!科学家出奇招保证AI系统公正

智器械(民众号:zhidxcom)

编 | 董温淑

智器械114日新闻,克日,来自谷歌大脑、英特尔、OpenAI以及美国和欧洲顶级实验室的研究人员提出了一个改善AI系统伦理私见的方式:类似bug赏金设计,用赏金激励开发人员去发现人工智能系统中的私见。

随着人工智能在商业、政府和社会等方面的渗透,对于AI的关注、研究和实践也在不停增多,人们尤其体贴AI在放大私见、道德洗礼、隐私损失、数字上瘾、面部识别误用、虚伪信息和造成失业方面的影响。研究显示,一些AI系统有增强种族、性别私见的倾向,使用它们会在现实生活造成不公正征象。

好比,为了削减新冠病毒在牢狱发作的风险,美国司法部最近设计接纳名为“PATTERN”AI工具来识别出容易熏染病毒的囚犯,并优先把这部门囚犯遣送回家。而美国司法国家研究院的样本剖析数据显示,有30%的白人男性被PATTERN列为需要优先治疗,在黑人男性中这一数据仅为7%

这说明PATTERN具有种族私见,判断效果对黑色人种并不公正。

因此,研究若何规避AI开发、部署历程中的私见是有需要的。谷歌大脑、英特尔、OpenAI以及美国和欧洲顶级实验室的研究人员提出了一种新的规避AI工具伦理私见的方式,或有助于改善状态。

这项研究已经揭晓在学术网站arXiv上,论文问题为《迈向更可靠的人工智能生长:支持可核实索赔的机制(Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable Claims)》

论文链接:https://arxiv.org/abs/2004.07213

一、可核实索赔方式,提高AI系统伦理原则可验证性

近年来,包罗OpenAI、谷歌甚至是美国军方在内的80多个机构都起草了AI伦理原则,但论文作者以为制订AI伦理原则只是确保AI带来有益社会功效的第一步,而且现有的行业和学术规范不足以确保AI的负责人生长

另外,针对工人和社区的观察显示,大部门民众仍忧郁人工智能的风险,不相信上述组织能够有效地自我调节。

因此,研究人员以为需要接纳更强有力的措施,而不是停留在高水平的原则层面上。(就像)乘坐飞机的人并不会由于航司公关的宣传而感应平安,而是由于有响应的配套基础设施。”论文写到。

研究人员提出了一种赏金设计来解决AI系统的伦理私见,即向发现并讲述AI系统伦理私见的开发者提供奖励。

这个设想的难点在于AI系统伦理私见的可验证性,因此,研究者设计了一个可核实索赔的机制来解决问题。可核实索赔机制将人工智能开发历程看作一个社会手艺系统,确立制度机制、软件机制和硬件机制来验证开发者找到的伦理私见。

论文指出,为了确立一个可核实AI开发索赔的系统,跨部门、跨组织的协作是需要的。

二、确立可核实的索赔机制

凭据论文,研究人员借鉴了已有的开发者索赔机制,还设计了一些新机制,最终设计了一个包罗三方面机制的可核实的AI索赔系统。

1、机构机制:评估开发事情

机构机制(Institutional Mechanisms”涉及价值观、激励机制和责任制。指确立一个第三方审计机构,机构有权评估开发者或开发部门的事情,这有助于确保后者在开发历程中加倍勤劳。

,

科技是智慧的体验,人文科技、未来科技带您走进新时代的步伐,

秀羞科技频道为大家提供科技全方面的报道和资讯服务。

,

机构可以从以下几个方面激励开发事情:

澄清组织的目的和价值观;

提升AI开发历程中的透明度;

激励开发者以负责任的方式行事;

促进开发者之间的信息交流。

2、软件机制:制订审计跟踪要求

软件机制(Software Mechanisms”涉及详细的人工智能系统及其属性。是指尺度制订机构与学界和业界互助,为人工智能的要害平安应用制订审计跟踪要求。

关于一些软件机制的知识并不普及,因此,AI开发组织和资助机构应该支持对AI系统软可解释性的研究,着重支持风险评估和审计方面。

AI开发人员应该开发、共享、使用成套工具,用配合的尺度权衡成就,以此珍爱机械学习的隐私。

3、硬件机制:提升盘算能力

硬件机制(Hardware Mechanisms)涉及物理盘算能力及其属性。更强的盘算能力有助于确立起更强的AI系统,可以进一步增强核实索赔的手艺能力。

硬件与AI开发的许多方面相关。好比传感器、网络、影象、处置能力等。

因此,论文建议,业界和学界应该着力开发硬件平安功效,或者探索使用平安硬件的最佳方式。此外,政府资助机构也应增大在硬件方面的投入,助力提高盘算能力。

三、能与现有起劲相弥补,仍待进一步研究

论文中写道:私见和平安奖励把bug奖励设计扩展到了AI领域,(这)可以与现有起劲相弥补,可以更好地纪录数据集和他们性能限制和其他性能的模子……如果说AI伦理原则的普遍论述是确保人工智能负责任生长的第一步……那么确立可核实索赔的机制就是第二步。

然则,研究人员也指出这种设想还存在一些局限性:

首先,在索赔的可核实性和此类索赔的普遍性之间存在矛盾;

其次,索赔的可核实性并不代表他们能够在实践中被核实;

另外,纵然有一种关于AI开发的索赔被证实是错误的,权力的不对称可能会阻碍修正措施的接纳。

因此,研究人员示意,期待这些机制能够辅助AI研究机构以跨组织协作的方式开展有意义的讨论,并激励有兴趣的互助者提供更多建议。

他们还指出,发现AI系统中的私见和平安问题是这项研究的起点,但这项机制也可以用于改善其他属性(好比平安性、隐私珍爱、可说明性等)。

结语:改善AI系统伦理私见新思路,未来将有更多方式

只管另有一些局限性,但可验证索赔的方式提供了一个改善AI系统伦理私见的新思路,提高了AI系统伦理原则的可验证性,有助于塑造加倍努力、公正的AI系统。

除了赏金激励,论文中还建议用红队测试(Red Teaming)来发现AI

原创 陈根:量子纠缠纯化效率提高6000倍,量子网络的重要一步

近日,来自中国科大的消息显示,中国科大研究组与南京邮电大学的研究人员联合,利用高品质的超纠缠源,首次实现了11公里的远距离量子纠缠纯化,纯化效率比此前国际最好水平提升了6000多倍,在量子通信和量子网络…