橙山网 > 泛娱乐 > 今日看点 > 正文

【专家观点】深入剖析AI如何影响美国大选,,而剑桥分析,到底为什

橙山网(www.csnd.net)2018-07-01

[摘要] 原标题:【专家观点】深入剖析AI如何影响美国大选 Otago大学电脑科学系助理教授Alistair△Knott(图片来源/Alistair△Knott) 剑桥分析公司(Cambridge△Analytica)不当搜集8千7百多万笔脸书用

原标题:【专家观点】深入剖析AI如何影响美国大选

Otago大学电脑科学系助理教授Alistair△Knott(图片来源/Alistair△Knott) 剑桥分析公司(Cambridge△Analytica)不当搜集8千7百多万笔脸书用户个资,用来分析并建立人格模型,再加以投放“订制化”假新闻,企图...

Otago大学电脑科学系助理教授Alistair△Knott(图片来源/Alistair△Knott)

剑桥分析公司(Cambridge△Analytica)不当搜集8千7百多万笔脸书用户个资,用来分析并建立人格模型,再加以投放“订制化”假新闻,企图影响美国2016年总统大选。而剑桥分析,到底为什么能精准分析这么多人的档案、投放迎合个人喜好的假新闻?

新西兰Otago大学电脑科学系助理教授Alistair△Knott是一位擅长认知科学和AI研究的知名学者和语言学作家,尤其关注语言对人类大脑认知活动的影响,也因此,早在脸书剑桥分析丑闻爆发前,他就开始研究AI对美国大选和英国脱欧投票的影响,而剑桥分析公司如何操控讯息来影响选民,更是他的关注焦点。此外,Alistair△Knott也从2017年开始对外发表他的初步研究观察,而这份汇整了他研究成果的“Uses△and△abuses△of△AI△in△election△campaigns”简报更广为流传。

在这份简报中,Alistair△Knott详细谈论剑桥分析试图影响民意的作法及技术原理,而iThome也特别通过Email专访Alistair△Knott对剑桥分析事件的剖析。

Q:剑桥分析用了哪些AI技术,来分析脸书用户的人格特质、精准投放订制化的假新闻?

A:其实剑桥分析使用的技术,只是传统的监督式机器学习技术,连自然语言处理(NLP)技术都没用到。剑桥分析统整脸书用户的个人资料,并将结果对映到人格分析的尺度上,也就是说,他们观察脸书用户对哪些人、事、物和话题点赞,然后利用这些按过赞的项目,来建立这群脸书用户的人格档案。

另一方面,剑桥分析在精准投放(Micro-targeting)的作法上,简单来说,就是让不同人格特质的选民,可以收到不同内容的竞选广告讯息。如前面提到的,当剑桥分析有能力从脸书用户点赞数据,来预测该用户的人格特质之后,就可以能针对不同性格的用户,来发送各自不同的竞选广告。

不只如此,剑桥分析还利用了其他方法,来强化推播的操作,来决定什么人格特质的人,会接收到什么类型的讯息。其实这在政治选举和市场营销活动中,十分常见。你所需要的,是用来衡量广告讯息有效性的尺度。举例来说,要进行募捐,必须了解每个发送的讯息,平均募捐到的金额是多少。然后,你可以针对不同性格的人,尝试一系列的广告讯息,并观察哪种讯息最有效。

Q:剑桥分析使用的监督式机器学习技术,具体来说是什么?

A:剑桥分析采用的技术,来自于2015年发表的一篇研究论文,该文作者以脸书点赞资料来预测一个人的人格特质,而这种预测技术的基础,就是线性回归数学。

而线性回归数学,是一个古老又传统的资料分析方法,广泛用于保险业,来预测发生意外事件的可能性,或是用于银行业,来预测某人的信用等。

Q:为何剑桥分析靠脸书赞的资料,就能建立精准的人格预测模型?是否与资料量有关?

A:那篇在2015年发表的研究论文写道,脸书赞的数量,会影响人格预测的准确度。如果给线性回归模型300个脸书赞,那么它预测人格的准确度,就和你的另一伴一样准。由此看来,不需要大量资料,也能精准预测人格特质。

重点是,从脸书点赞的内容,可以看出一个人的性格。举例来说,假设A对一个重金属乐团点赞,而B正好是对基督教福音派点赞,这就说明了两人各自的喜好和信仰。

Q:剑桥分析使用的技术,解决了什么样的困难,让影响选民这件事变得更容易?

A:剑桥分析并未运用任何创新的AI技术;他们所用的,是众所周知的线性回归数学。他们创新之处,反而在于用来输入和输出的资料。剑桥分析以脸书“赞”当作输入源,以人格度量当作输出源,这样的组合很新颖,从来没有人在政治活动中应用过。

Q:除了用来影响政治竞选,剑桥分析所用的技术,是否也能应用到其他领域?

A:像剑桥分析这样的作为,其实在网络上随处可见。剑桥分析根据脸书用户的数位足迹,以机器学习技术来预测他们的性格,而Google、Amazon和脸书自己也是根据使用者的网络活动行为,以机器学习系统来预测他们最感兴趣的广告类型。这也是为什么你在Youtube、Google和脸书上看到的广告,好像都是为你订制的。而这种举动有没有道德问题,又是另一回事了。

不过在我看来,特别值得怀疑的预测工具,是脸书动态消息的预测系统。脸书这套系统,能预测用户最有可能阅读的新闻故事,然后推送这些报道。也因此,每个人都有属于自己的新闻版本,而这么一来,就加深了他们对某件事既有的看法,也助长了假新闻的散播。因为在这样的机制下,每个人接收的新闻版本不一样,所以其他人无法监督、检查别人所看到的新闻。

举例来说,如果有问题的新闻出现在实体报纸上,或是在新闻网站上,人们很快就会起疑心,进而查证,然后投诉不实报道。

但是,如果订制化新闻直接传递给个人,也就是出现在他们的社交平台首页,那别人就不知道他们到底接收了什么新闻,要检查新闻的真实性也就更难。对我来说,这是民主面临的危险。

Q:假新闻对政治和我们的日常生活,会有什么影响?

A:这个危险之处,在于许多人会被有心人士误导。也就是说,不实的政治谎言和幻想,有能力左右民众要投给谁。一个完善的民主政治体系,应该要审查政治人物或政党向人民传播的政治讯息,以确保选民了解事实。

Q:我们可以从脸书和剑桥分析事件中学到什么?

A:我们可以从中得知,民主正面临严峻的新威胁。这个新威胁,与三个新兴技术的发展有关:1. 从网络上可获得大量个人资讯;2. 现代机器学习算法可使用这些资讯,来学习、建立复杂的人格档案;3. 而社交平台,能让根据复杂人格档案建立的订制化政治讯息,有效发送给对应的受众。

这些讯息引起的效用非常大,原因有两个:第一,这些讯息是根据每个人的人格特质所发送的;第二,这种行为很难审查,因为这些讯息是直接发送给个人,而不是公开在平台上、让第三方看得到。

Q:运用科技是否能杜绝假新闻的肆虐?

A:我不认为技术能解决这个问题。在我看来,监管科技技术的法规,才是比较好的解决方法,特别是要限制哪些公司能在网络、社交媒体上取得民众个资,此外,还要限制精准投放政治讯息的管道。整理⊙王若朴

橙山网(Csnd.net)简评:而剑桥分析,到底为什么能精准分析这么多人的档案、投放迎合个人喜好的假新闻?新西兰Otago大学电脑科学系助理教授Alistair△Knott是一位擅长认知科学和AI研究的知名学者和语言学作家,尤其关注

热 门
明 星
张建亚 阿莱克斯·桑德斯 詹姆斯·霍威 黄志忠 邓淑芳 黄振辉 龙太岭 徳井义実 盖尔·安妮·赫德 宋学祺 郑善姬 徐路 炽龙 亨瑞·格兰瑟 池田秀一 陈泽民 福利斯特·惠特克 柳贤彬 演员 制片 伊能静离婚 低胸 不仅 宗介华 生了 豫剧 威尔·弗里多 托马斯·F·威尔森 黄婉君 高欣欣 selina离婚 吉米·海尼 丹尼尔.戴.路易斯 1913-04-20 收服 郭靖宇 成都