因果推断,会对人工智能发生何种影响? | 社会科学报

2021-02-24 网络
浏览
[科技新闻]因果推断,会对人工智能发生何种影响? | 社会科学报

原题目:因果推断,会对人工智能发生何种影响? | 社会科学报

因果推断是近年来人工智能研究的热门之一,而作为其理论基础的因果观研究则较受萧条。虽然从亚里士多德到康德的那些哲学家们都对此提出过自己的看法,但其中较系统且最有影响的是英国哲学家大卫·休谟的因果观。休谟提出而有待解决的一些问题在人工智能研究中有望获得解决,对哲学和人工智能的生长可能发生深远影响。

原文 :《从人工智能视角看因果推断》

作者 |四川大学哲学系教授 任晓明

休谟对因果性的深入思索

休谟对什么是因果关系作了仔细的剖析。他在《人性论》中指出:“我们记得看到过那种我们称之为火焰的器械,感受到那种我们称之为热的感受,这让我们心中想起已往的所有事例中都有这种恒常的联络,我们就说其中一个是缘故原由,另一个是效果。并从另一个的存在推出这一个存在。”(Pearl & Mackenzie,2018)对休谟这一叙述,图灵奖得主、人工智能专家朱迪亚·帕尔作了云云解读: 因果关系是可以学习的心理习惯,它像幻觉一样虚幻,像巴甫洛夫条件反射那样短暂。看起来,休谟可能意识到这种注释面临的难题,由于他知道,公鸡打鸣总是和日出相联系,但公鸡打鸣并不导致日出。类似地,气压表的读数与下雨总是相联系的,但气压表的读数不会引起下雨,云云等等。怎么注释呢?他主张把这种关系称为虚伪的相关性(spurious correlations),即 “不含因果关系的相关性”。(cf. Pearl,2000)

那么,真正的相关性是什么呢?凭据休谟的头脑推测,真正的相关性是包罗因果性的。这实际上就把因果性归于这种(真正的)相关性之中。为此,帕尔进一步指出,不仅因果性包罗于相关性之中,而且因果性是相关性的极限,这就深化了休谟的因果性头脑。

休谟探讨了因果性的认识论问题:什么样的履历模式使人们信赖一种联系是“因果关系”?人工智能角度,我们可以这样思索:若是说鸡鸣导致日出,这有什么效果呢?谜底是:知道“什么导致什么”会对我们的行为发生一定影响。若是鸡叫可以让太阳升起,那我们可以让夜晚变短,或者早点叫醒公鸡,让它早点叫——好比,给它讲一个关于公鸡的最新笑话。这就隐含了对虚拟条件的反事实思索。休谟至少在早年没有意识到这一点,而人工智能研究者意识到了这一点。在他们看来,我们为什么不把鸡鸣看作日出的因?由于我们知道,如果哪天公鸡生病了,或者有意矫情不打鸣,而太阳照样升起。换言之,不管公鸡打鸣不打鸣,太阳都市升起。这是从人工智能视角对休谟所提问题的回覆。

休谟对因果性的深入思索袭击了那时人们对因果性研究的盲目乐观心态,再加上那时缺少适当的数学工具,因果性研究逐渐被边缘化,代之而起的是概率论和贝叶斯主义。但概率逻辑的研究面临许多难题和问题。贝叶斯主义遭遇的难题给我们的教训是:光看数据、事实不行,仅仅通过概率相关性思索难以解决多因素纠结的复杂问题。我们还需要行使因果推断来解决现代社会面临的紧迫问题。然而,在当今的学术界,那种只讨论相关性、以数据为中央的看法还根深蒂固,甚至“还阴魂不散”。(cf. Pearl & Mackenzie,2018)因此,关于因果推断的探索在科学和哲学研究中有极其重要的意义。

,科技日报,

人类获得因果推断能力

分为三个渐进层级

有幸的是,近年来人工智能科学家对因果推断研究的热情与日俱增。他们发现,当前盛行的大部分机械学习手艺都建基于相关关系而非因果关系。要实现强人工智能,必须使机械具有反事实思索的能力。若要使智能机械成为具有自我意识的智能体,就必须让机械学会问“为什么”,也就是要让机械学会因果推断,明白因果关系。 帕尔以为,人类获得因果推断的能力可分为三个渐进的层级。第一层级是考察层级,概率相关性的观点在其中占支配职位,属于弱人工智能局限。第二层级是干预层级,对照实验在其中起着重要作用。例如,人类使用工具或通过实验去干预自然界。第三层级是想象或反事实层级,在这里,可以通过(虚拟天下中的)想象来获得对天下的深度明白。

在第一层级上,我们通过被动考察寻找相关纪律,这种能力为许多动物和学习机械所共有。它只是要求我们基于被动考察作出展望,最典型的问题就是“若是我考察到了什么情况,会怎么样”,这里涉及的是相关性。我们经常收到萍水相逢的推销信息,好比,上了一次淘宝,就会一直推送产物给你;去了趟妇产科医院,就一直给你推送母婴产物。再好比,当当网的销售职员可能会问:“购置逻辑书的主顾同时购置哲学书的可能性有多大?”销售职员的做法是:首先网络所有购书主顾行为的数据,然后筛选出购置逻辑书那些人的比例数据,再盘算他们中购置哲学书的人数比例,据此测算“买逻辑书”与“买哲学书”两种行为之间的相关水平,通过丈量相关水平的概率就可以获得效果。要完成这些义务,仅靠深度学习就可以了。但它的局限在于,这只不过是在相关性层级上运行,它由考察效果驱动,致力于通过曲线拟合得出一个函数。即便拟合的数据越来越多,拟合的精度一直提高,智能机械对因果性子的可明白性仍然十分有限,且缺乏灵活性和适应性,需要上升到第二层级。

第二层级最典型的问题是“如何做”。其中的两个要件是考察和干预,做对照实验。在干预层级上可以提出如下问题:若是我干预某一历程,会发生什么情况?好比,若是我把逻辑书的价钱翻倍,哲学书的销售额会有什么转变?若是我吃了板蓝根片,是不是可以治疗新冠肺炎?提出和回覆这类问题就需要一种不局限于数据的新知识,掌握一种新的认知能力——干预。机械学习中的干预是一种控制因素,是一种深度明白,它比第一层级深入一步,但还不够。

第三层级是反事实流动层级,它主要涉及反思、想象、明白等认知流动。典型问题是:如果我那时做了什么,会怎么样?为什么?好比,我们可以问:若是图灵在二战中没有破译德军的密码,战争能在1945年取得胜利吗?事实上,图灵在二战中破译了德军的密码,使战争至少提前两年取得胜利。这种认知流动让我们能够想象并展望一种反事实状态。这就能够回覆仅仅靠干预无法回覆的问题,进而有助于解决人工智能的可明白性问题。

因果推断研究对人工智能的影响

我们以为,帕尔把反事实放在因果之梯的顶层,把它视为人类意识进化的最高阶段,实际上开启了因果推断研究的新阶段。但他的头脑无疑受到休谟的启发。如上所述,在《人性论》第3章“论知识与概然推断”中,休谟探讨了两事物间的恒常联络,给出一个因果关系的“规则性”(regularity)界说,但在厥后出书的《人类明白研究》中,他明确指出:“凡与前一个工具类似的一切工具都和与后一个工具类似的那些工具处在类似的先行关系和靠近关系中。或者,换言之,如果没有前一个工具,那么后一个工具就不可能存在。”(Pearl & Mackenzie,2018)这是休谟对因果性所下的反事实界说。显然,这个新界说比规则性界说更为深刻。由于这种反事实头脑可以把人类智能、动物智能与机械智能区分开来,这就触及“强人工智能”是否可实现的关键问题了。

在机械学习的研究中,帕尔逐渐意识到,只有当你能够教会机械人明白某个课题,才气说得上真正明白了它,而智能机械缺乏对因果关系的明白,这也许是阻碍其实现相当于人类水平智能的最大障碍。因果推断研究对人工智能的最大影响就是使强人工智能的实现有了一点点现实的可能性。(cf. Pearl & Mackenzie,2018)由于强人工智能面临的最大一道坎是可明白性,而因果推断研究有可能成为解决这一问题的突破口。然则,帕尔在这个问题上过于乐观了,他所谓的“因果革命”或“新科学”并不像他想象的那样无所不能。例如,微观天下中以量子纠缠为焦点特征的量子理论带来了因果观的伟大改变,其因果性不同于以往我们所认识到的任何形式的因果性,它具有统计的性子,而要解决其中的因果性悖论等难题,现在的因果推断研究是无能为力的。

汽车高压电池包内的软铜排应用和设计

软铜排是一种带有柔软性的通电用BUSBAR(累加可通电的薄铜板),在电池包内部结构设计过程中,可根据需要的形象进行折弯,实现布局最适化,同时,也可根据使用环境(温度, 绝缘 要求电压等)条件变更绝缘材质,产品…