Facebook为什么要推出AI防自杀系统?

扎克伯格决定在全球范围内推广AI防自杀系统以平息用户对Facebook的不满情绪,这是怎么回事?

Does-Facebook-M-prove-humans-are-the-missing-link-in-AI

原来,之前Facebook上曾多次出现直播自杀的事件,但由于平台方没有及时排查到此类信息,一时给社会造成了很大的负面影响。而Facebook也理所当然地遭到了平台用户的责难。所以,扎克伯格才决定推出AI防自杀系统。不过,Facebook已经不是第一次因为信息管理不利而被指责了。2018年《纽约时报》和《卫报》的报道指出英国一家从事数据分析的政治咨询公司利用Facebook的信息管理漏洞,窃取了5000千多万Facebook用户的个人资料,帮助现任美国总统特朗普在2016年的大选当中获得有利舆论。

Facebook近年来争议不断,这套AI防自杀系统是它挽回用户信心的一个小动作,但是小动作中也可能藏有大玄机。

从图文到视频:AI识别自杀的技术之流

在各种AI识别人类性格、性取向、精神疾病等技术层出不穷的前提下,我们可以尝试对AI防自杀系统进行简单剖析。

1. 文字识别

AI防自杀系统会对用户的发帖内容进行识别,针对含消极情绪的语句,如“我不想活了”“我恨世界上所有人”“我为什么还不死”,AI会特别注意,并将发布此类言论的用户进行标记。然后,AI会将相应的数据移交给公司专员进行筛选和处理,最后由人工来做出决策。Facebook这套AI防自杀系统没有让AI单兵作战,而是选择人机协作的方式来筛选信息,为提高系统识别自杀的准确度提供了一定的保障。目前,AI侦测与回报机制的速度比人工的手动回报快三成,AI防自杀系统已经大大提高了Facebook信息筛选的效率,并成功阻止了多起自杀事件。

2. 图片识别

其实,要机器根据一张图片来分析一个人是否有自杀倾向是相当困难的事情,因为图片的表达内容有时候比较抽象,其中还会涉及色彩学方面的问题,就算是人类也不一定能做到。不过AI仍然可以对此做出一些尝试,深度学习的神经网络模型在各种图像识别比赛中已取得的突破性进展,目前AI鉴图一般会采用CNN、GoogleNet、ResNet三种深度网络模型结构。开发人员需要从技术层面研发出一个“分类器”,从而让AI能够计算出该图属于某种类型图片的概率。这套鉴图原理从理论上来说对于所有的图片识别都通用,只不过AI要从图片中识别出自杀倾向的难点在于抓取此类图片的共同点。所以,在第一步建立“分类器”时,AI可能会遇到比较大的困难。因此,后续AI识别的准确率相对文字识别来说,也不会有太大的保证。

3. 音视频识别

用户在社交平台上发布的内容不仅是文字和图片,还有很多是音频或视频的形式。所以,AI防自杀系统在视频直播中也植入了AI程序。虽然Facebook并没有透露有关该AI视频识别技术的相关细节,但是我们仍然可以从机器视觉领域的进展来一窥究竟。之前,一家公司的计算精神病学和神经成像研究小组团队利用机器学习预测大脑精神疾病抑郁症,通过对59名普通人的语言方式进行追踪和分析,从而预测他们潜在的患病风险,其精确度达到83%,由此可以看出机器具备一定能力从语音层面来分析人类情绪。另外,南加州大学曾推出一款AI心理治疗师,能够分析受访士兵的面部表情变化,并将AI分析表情的结果作为诊断士兵是否存在PTSD(创伤后应激障碍)的依据之一。所以,AI防自杀系统要判断视频中的人是否有自杀倾向,需要从人物的面部表情、是否存在危险器械、是否有流血等画面三个方面进行分析。总的来说,AI防自杀系统的有关图像识别技术基本上与以上提到的两个机器学习技术类似。

AI防自杀识别系统之痛

虽然现在AI识别人类情绪的工程一直在持续推进,但是情绪识别对于机器来说仍然不是一件简单的事情。

首先,我们需要弄清楚AI是否分得清“演戏”和“真实”。例如在快手上存在大量小剧场表演式的视频类型。人们把这些视频当作娱乐消遣,而机器会如何看待这种视频?嘴角下扬、泪眼婆娑、声嘶力竭等画面会被机器的“眼睛”迅速捕捉,并将其标记为极端消极负面的情绪传播。人们津津乐道的一场表演在机器眼里成了有自杀倾向的人群在宣泄情绪,这让人哭笑不得。模仿是人类的天性之一,长期熟悉模仿式表演的用户能够很快分辨出模仿和真实情绪流露之间的细微差别,但是就是这一点点细微的差别却是机器情绪识别最难突破的瓶颈。

其次,当机器将识别出的一些负面关键词作为标记自杀人群的标准时,我们必须让机器知道那些说要“死”的人是不是真的想寻短见。Facebook这一AI防自杀系统应用于国外会有什么“乌龙”,我们还不清楚。但是设想一下,如果把这一系统挪到中国来,那么人工筛选的信息量会大大增加。在中国,人们喜欢把“死”作为程度词来使用。在日常生活中,随时随地都会听到有人说“热死了”“冷死了”“烦死了”“讨厌死了”,这类句子在人类看来只是十分常见的日常用语,但是机器对此却难以判定。因为机器对这个世界暂时还没有一个全面的感知系统。当中国被誉为“四大火炉”的城市一到夏天,每个人都能感受到高温袭来,在这个时候说“热死了”是多么正常的表达,而机器并不知道现实世界到底有多热。

另外,在机器的背后还需要思考的问题是悬在各大社交平台头顶的一把“达摩利斯克之剑”——隐私之殇。2018年6月4日,《纽约时报》报道称,在过去十年中,Facebook至少与60家设备制造商达成协议,向它们提供用户隐私信息,这些协议中的多数至今还在生效。Facebook建立了庞大的信息帝国,但是每一次信息技术的革命只是在表面上让信息看上去更加去中心化。然而,实际上只是建立了更加庞大的信息垄断市场。对比现实世界的条条框框,网络承担了社会“减压阀”的功能。负面情绪再怎么样都是人类的基本情绪,也是人类本该有的情绪。原本以为在网络世界,人能拥有展示脆弱的机会。但是,谁知道人的脆弱已经被平台收集,躲在黑暗中却被各大商家悄悄盯上。在商业世界中,商人需要不断发掘人性的弱点,以便于制定推广商品的策略,而Facebook正在承担这样一个角色。

AI防自杀系统的落地

AI防自杀系统在正式投入使用后,一个月检测并拦截到的自杀事件有上百个,确实有效挽救了不少生命。但是从一个争议不断的社交平台的角度来说,AI防自杀系统的目的到底是什么还需要探讨。这样一套AI程序究竟是为了及时拯救生命,还是为了肃清平台环境,或只是平台针对外界质疑的挡箭牌?这还需要进一步探讨。

去除一些个例,AI防自杀系统还有很大的落地空间。因为AI防自杀系统不仅是在社交平台,还在医疗机构、审讯机构等发挥作用,及时阻止一些不必要的伤亡。目前,自杀已经成为世界第十大死亡原因,2016年美国卫生统计中心发布的数据显示,美国的自杀率在15年间上升了24%。在全球自杀的人群当中,仍然有相当一部分人属于非理性自杀,他们需要有一个AI防自杀系统帮助他们再获得一次重生的机会。所以,我们期待AI防自杀系统在解决了一些硬性问题之后,全面落地到日常生活当中,挽救更多可能在不经意间逝去的生命。

未经允许不得转载:涨姿势 » Facebook为什么要推出AI防自杀系统?

赞 (1) 打赏

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏