爱收集资源网

不交换,因为概率是1/2,不知道你是否有被笔者成功误导?

网络 2022-11-14 09:06

你是否有自己心中的求解过程呢?其实吧,昨日笔者故意给了个误导性留言,答案并非是1/2的概率,不知道你是否有被笔者成功误导?不用奇怪,这是美国上世纪一个著名的悖论问题,在一位杂志读者给杂志的提问中提到,当时杂志人员给予了正确的回答,却遭到了上万名自称数学或者统计出身的PhD的反对,这些PhD也认为交换和不交换,选中有车的门的概率是1/2。而杂志给予的答案是,交换了,选中的概率是2/3,不交换则是1/3,并且他们给出了一个很简洁的回答,见下图。

从图中可知,杂志按照游戏规则和基于基本事件的思想给出了答案。由于每扇门背后出现的事物时随机的,所以先将山羊(Goat)和汽车(Auto)进行排列,得到了三行,并在第四列和第五列按照游戏规则给出了交换与否导致的输赢的结果。从三行可以看出,你交换了“Win”的数量是2,不交换,“Win”的数量是1,显然,概率就成了2/3和1/3。

此时的你是否更加疑惑?那1/2的概率又错在哪儿?

我们不妨把游戏规则调整一下。

假如你依然在参加这个show,但游戏规则变了,由你先任意选择一扇门,而主持人在不知道门背后有什么的情况下,在你没选择的两扇门中任意选择一扇门先打开,然后再问你,你是否愿意交换?此时我们仍然假设你选择了1号门,而主持人打开了3号门,3号门背后依然是山羊。

规则变了,但是你得到的数据却没有变,那么你交换的决策是否应该变一变呢?答案是,不交换,因为概率是1/2。

让我们来分析一下这个问题。由于门背后的事物出现的排列顺序依然有3种,主持人任意随机选择的可能有2种(2号门或者3号门),这样组合起来,新的表应该由6行,我们来看一下这张表。

此时由于你选择的是1号门,所以我们把“Door You Chose”固定为1,主持人选择的是3号门,所以将“Door Opened by Host”固定为3号门且为山羊时,就只剩下第2行和第4行,此时选择2号门和1号门赢得车的概率就显然是1/2了。也就是说,在这样的规则下,你和那上万名PhD的想法就是正确的了。

怎么样?看出区别了吗?区别就在于,主持人是否知道车藏在哪扇门背后。当主持人不知道车的位置时,被主持人打开的门就是随机的,仅受你的选择影响(因为你先选择了一扇门,主持人必须在你没选的门里进行选择),而当主持人知道车的位置时,主持人的选择就受到你的选择和车的位置两个因素影响,从贝叶斯的角度看,如果一个测试能对某个假设的合理性产生威胁,当这个假设经过测试,并幸存下来后,假设的可能性将增加。(Any hypothesis that has survived some test that threatens its validity becomes more likely.)也就是说,主持人对门背后的事物的知情与否影响到了他选择打开的门,而主持人若明明知道3号门背后是山羊,特地打开了3号门,没有打开2号门,这就使得车在2号门背后的可能性上升。

而从因果关系的角度,我们可以绘制两张图。

事故因果连锁理论_事故因果连锁理论含义_现代因果连锁理论图片

该图为因果关系图(Causal diagram),也是我们之后将用一系列文章来阐述的因果理论的基本(也是核心)表达语言。(a)代表了第一个问题的因果关系,(b)代表了第二个问题的因果关系,箭尾代表了原因(causation),箭头代表了结果(effect)。通过因果关系图可以看出,在(a)中,“Your Door”和“Location of Car”都是“Door Opened”的原因,而“Your Door”与“Location of Car”相互独立,这在因果中是一个典型的“对撞机”(Collider,在没有更好的翻译前,先沿用它),当我们把打开的门确定时(3号门),也就是对“Door Opened”施加了控制,这就使得原本的概率问题变成了条件概率,即P(Your Door| Door Opened=3)和P(Location of Car | Door Opened=3),在此情况下,引入“Your Door”和“Location of Car”的协相关性,即此时两原因因子开始不独立了(即产生了相互依赖),由此你对门的选择影响到了车位置,看到这儿,大家肯定会质疑,你对门的影响与车位置之间怎么会有关系呢?是的,并没有关系,但由于这样的对撞机因果关系,产生了二者间的虚假的相关性,这样的相关性并没有任何因果关系。而在(b)中,由于“Location of Car”与“Door Opened”间没有因果关系,故无论“Door Opened”是否受控制,都不会引入额外的相关性,两者仍然保持独立,车的位置与你的选择没有任何相关性。

我们用一个简单的例子来解释对撞机情况。假设一个人是否成名(celebrity),只受到“漂亮与否”(beauty)和“演技高与否”(capacity)影响,即这二者都是一个人成名的原因。我们知道,beauty与capacity是相互独立互不影响的,那么,当我们看见一个名人时(即celebrity = 1),若对方长相平庸(beauty=0),我们会判断出,她一定是一名实力派(capacity=1),靠着超高的演技博取赢得喜爱,而如果对方演技很差(capacity=0),我们就会断定,她一定是因为长得好看才收到追捧(beauty=1)。这显然意味着,基于celebrity = 1的条件下,原本独立的beauty与capacity产生了负的协相关性。由此可以看出对撞机在控制共同结果的情况下引入了其原因的相互依赖性,这是一种虚假的相关性,或者是没有因果关系的相关性。

为何当初上万名PhD都作出了错误的判断?其解释可能是,我们人脑天生具备处理因果关系的能力,也就意味着我们对由于因果关系产生的相关性有很强的掌握能力,但我们对非因果关系下的相关性且没有天生的判断能力,除非经过特别的训练,由于大脑没有捕获到非因果的相关性时,就产生了本文开篇的悖论性的问题。

对AI有一定研究的朋友应该清楚,现今的AI比起真正的人脑性智能相差甚远,其原因颇多,但如果让机器也具备像人一样的因果关系处理能力,是否会使得AI再进一步突飞猛进的发展呢?在最近拜读了贝叶斯信念网络之父的书籍后,笔者坚信,即使因果理论不能解决AI的所有问题,也必将是下一个研究重点方向,本文试图以这个有趣的小问题作为开端,引入以后的有关因果关系的系列性文章,敬请期待。

weixin.qq.com/r/2TguNuzEWLEnrahV923L (二维码自动识别)

本文首发于我的私人微信公众号“IT之路漫漫”,喜欢的朋友可关注哦。

因果关系 相关性分析
相关文章