拯救自杀进行时!人工智能如何向轻生者伸出援手?

你知道吗?全球每40秒就有1个人自杀身亡,每年有近80万人因此失去生命。很多人认为,自杀可能是个人的选择,但其实很多人自杀,是他们不知道该去向哪些地方求助,或者该向哪些人求助,怎样求助……

出品:"SELF格致论道讲坛"公众号(ID:SELFtalks)

以下内容为中国科学院心理研究所朱廷劭演讲实录:

我是来自中科院心理所的朱廷劭,下面由我向大家介绍一个比较沉重的话题——自杀。

从最早的明星自杀,比如张国荣、乔任梁的自杀,到近期的一家三口因为借贷问题自杀、高中生自杀,自杀其实离我们每个人并不遥远。

拯救自杀进行时!人工智能如何向轻生者伸出援手?

大家可能不太不了解自杀问题的严重性,在世界范围内,自杀占总人口死因的第13位,在15-30岁之间是首位。自杀占中国总人口死因的第五位,在15-30岁之间是首位,自杀问题确实是年轻人死亡的首要原因。

我们需要对自杀问题做一些干预,目前自杀干预的主要困境是自杀的主动求助率特别低,很多人都会认为自杀是个人的事情,是自己的选择,自己挖一个坑把自己埋了就算了。

拯救自杀进行时!人工智能如何向轻生者伸出援手?

但其实很多人选择自杀是因为他们不知道该向哪些人求助,该怎样求助。根据统计,大概有80%的人是因为不知道向哪些方面求助而自杀的,只有20%的人不想取得任何的帮助,直接了结自己的生命。

在这种情况下,我们就希望能够去帮助这些人。刚才讲了,在自杀人群中年轻人占首位,在网络使用人群里年轻人也是主力军,这样我们就发现自杀的主要人群和网络使用的主要人群有非常大的重合,这个重合也提醒我们,或许我们可以利用网络的手段主动找到那些有自杀倾向的人,向他们提供帮助。

我是来自中科院的,中科院研究生院有时候会有学生跳楼的事件。给我印象最深的是一个博士二年级的学生跳楼,本来跟导师联系好要开会,结果开窗户就跳下去了,没有任何征兆。

我们觉得很遗憾,毕竟他已经读到博士了,以后的前途也会非常好。因为各种原因,我们没有办法知道他到底经历了什么样的心理变化,什么样的痛苦,我们也不知道该怎么帮他。

我们每天都上网,可以通过网络技术汲取大量的数据,我们希望通过网络的手段,实施对自杀的主动干预,帮助我们救助更多的人。这是我们做这个研究的初衷,我们希望能够主动找到那些有自杀倾向的人,主动提供帮助。

拯救自杀进行时!人工智能如何向轻生者伸出援手?

每个人都希望在网络上把自己装扮得非常好,比如应用很广的美颜软件,我们习惯拍照后先美颜一下再上传。所以我们担心有自杀企图的人会不会在网络上没有任何的负面表达,就像乔任梁的自杀,乔任梁的微博大号里面没有任何负面的内容。如果这样的话,我们通过网络就没办法找到那些有自杀倾向的人。

我们想做一个极端情况下的研究,我们想看一下那些确认自杀死亡的用户在网络上说的话、表现的行为,是不是跟和一般用户有区别。如果有区别,我们就可以继续往下做,如果没有区别,就说明我们也无法通过网络的手段找到他们。

拯救自杀进行时!人工智能如何向轻生者伸出援手?

通过对比研究,我们发现自杀死亡的用户的互动更少,更加关注自我,在情绪上有更多负面表达,非常抑郁、焦虑。他们说的内容和死亡、宗教相关的较多,和工作相关的比较少。这些自杀死亡的用户,确实在网上说的话和表现的行为跟一般用户是有区别的。这就为我们做进一步的分析提供了基础。

毕竟已经确定自杀死亡的用户和普通用户是两个极端用户,更多情况下我们面对的应该是一些不同风险的用户。我们在网上找了900多个用户,通过分析,按照他们的自杀可能性分为高风险、低风险两组。通过两组数据对比分析我们也看到了区别。

拯救自杀进行时!人工智能如何向轻生者伸出援手?

高风险用户的社交活跃度更低,夜间更加活跃。这跟我们其他的研究也是相关的,我们发现夜间更加活跃的人抑郁程度会提高,希望大家12点以后尽量不要使用手机。高风险用户关注他人更少,使用更多表达死亡的词语,很少使用表达未来的词语。

自杀的高风险人群在网上说话的时候,会不由自主地体现出跟其他人的差异,这种差异可以帮助我们利用计算机的办法找到他们。人工智能可以通过分析用户在网上说的话或行为自动识别出他的自杀可能性,我们通过实验发现建立这样自杀的模型确实是可行的,它有比较好的召回率,但是误报率比较高。

通过分析之后我们发现一个问题,很多有自杀倾向的人在网络上也并不是每句话都要说到自杀,大部分是正常的描述,如果用这个模型算就会带来延时,用户必须说到一定程度的时候模型才会识别出自杀可能性,这样一方面我们可能耽误了对他的反应,另一方面我们也没法确定他说的每句话都有自杀意念。

拯救自杀进行时!人工智能如何向轻生者伸出援手?

解决办法就是我们针对单条微博,分析每句话内含的自杀可能性。图片上我们按照自杀研究得出的结论,按照不同的层级分成1、2、3级。1就是有自杀意念,2是有自杀意念,同时有自杀计划,3是不仅有自杀计划,还有自杀的实施。

拯救自杀进行时!人工智能如何向轻生者伸出援手?

大家可以看一下具体的例子,图上第一句话:昨晚尝试自杀未果,今早又照常醒来,希望今晚成功,我会有见到你的机会么?这句话有非常明显的自杀计划,且已经开始实施自杀,是一个比较紧急的情况。第二句:哪一天我下定决心了,就喝好多酒,醉的不省人事,然后跳进河里。别人只会说喝酒误事,不会怪我。这是只有自杀计划,没有实施。

第三句:从前我只是晚上才会想到死亡,最近就算在有阳光的时候都会觉得要活不下去了,我该怎么办?这个就是有自杀意念,紧急程度没有前两种那么高。我们希望拿到一句话之后,计算机能够自动识别出自杀风险,如果人工看的话,工作量特别大,没法做到时效性高。

我们通过各种机器学习的算法对这个模型进行调优,对一条微博的识别精度可以达到80%,就是说把一条微博送到计算机系统里面,计算机通过各种计算一个代表自杀倾向的值,这个值的准确率可以达到80%。

拯救自杀进行时!人工智能如何向轻生者伸出援手?

实际分析中我们会发现另外一个问题,因为中文的博大精深,有时候正话反说,反话正说。比如第一句“整理遗物是我最快乐的时光”整理是中性的,快乐时光是积极的,只有遗物这个词有点负面,这样的话机器识别就很难,人工去看才可以正确判断出自杀倾向。

第二句话“饭饭,很快就要看到你了”,大家一般觉得没问题吧?但这句话是有一个情境的,“饭饭”是大家对微博用户“走饭”的昵称,是在2012年自杀死亡的一个用户。饭饭的最后一条微博下累计有一百多万条的回复,同时以每个月六千多条的速度在增加。

所以在饭饭的最后一条微博下评论“很快就要看到你了”本身就是非常大的问题,但是计算机判定可能就会这句话没有任何问题,在不同的语境下就会带来很大的偏差。

我们可以利用这个系统可以发现自杀意企图的用户,那发现之后怎么办呢?我们该怎么跟他们联系、怎么帮助他们?这其实是一个很大的问题,前一段在网上曾经出现过网络暴力,每个人都想做一个正义的化身,我们想去帮助别人,但最后达到了反效果。

英国的慈善机构Samaritans Radar人类协会开发的一个Facebook应用给了我们很大的启发,这个应用会扫描你关注的所有好友,如果如果你的好友有自杀意念或者负面表达的话,它就会通知你。

我们一开始觉得这个出发点是好的,我可以了解朋友的情绪变化,如果他有负面情绪的话,我可以马上帮助他、安慰他。但是这样做侵犯了隐私,所以这个应用上线十天之后就被永久关闭了。也就是说不管出于什么样的动机和好心,我们首先要保证别人的隐私,以侵犯别人隐私为代价做的任何事情都没有意义,甚至是对别人的不尊重。

基于保护隐私的考虑,我们就想利用微博中的私信,它类似于邮件,邮件的好处就是端对端,不会公布出来。通过私信的方式,我们可以保证一对一的交流,同时保护用户的隐私。

但这又带来另一个问题,因为我们每天都会收到大量的信息,其中有很多垃圾短信、广告邮件、广告电话,要么删掉,用户很容易把我们的信息当成垃圾短信,直接删除或忽略掉。

如何保证我们发的信息不会被有自杀意念的用户当作垃圾信息删掉或者忽略掉,如何让他们愿意打开看,这就是我们需要解决的第一个问题。因为如果他们不看的话,我们后面所有的工作都没有意义。

我们在2016年暑假期间找了两批有自杀意念的用户,我们希望通过对这些人群的了解,知道有自杀倾向的人群最需要什么样的信息。对这两批用户做访谈的时候,我们最后都会提供一个专业的指导,因为虽然有时候这些人在一起会相互鼓励,但有时候反而会互相产生负面的影响,我们希望不要出现网络上那种“相约自杀”的事件。

拯救自杀进行时!人工智能如何向轻生者伸出援手?

通过这样的研究之后,我们就确定了我们的私信格式。这个私信需要说明几个问题,第一,介绍我们自己;第二,说明我们是怎么找到他们的;第三,我们该怎么帮他们;第四,表达我们的同理心。

我们的私信生成之后,我们就在2016年11月份的17号、18号,分两次向4222人发出私信。因为我们一直在用新浪微博发私信,新浪认为我们是不怀好意的广告主,把我们的账号一再限制,所以我们只能分两次发送。

这4222名用户是在2016年3月份到9月份这半年期间真正发表过带有自杀意念的微博的用户,甚至我们发出的私信回复有些是家人回复的,说他姐姐已经走了,所以说这些人是真正处于危险状态的。

我们在发了私信之后非常紧张,担心大家会认为我们在惹事,因为新浪有一个规定,如果收到三个以上的投诉,这个账号就会被关闭。但这个结果让我们觉得很好,我们向4200多人发了私信,有300多人直接给我们回复了,这300多个回复私信里面,只有个位数的人是极度的负面表现,绝大多数都是正面的反馈。

拯救自杀进行时!人工智能如何向轻生者伸出援手?

这些回复让我们觉得我们做的事情很有意义,第一次通过这种技术手段找到这些人,向他们发送帮助信息,主动地提供帮助。通过这次的调查,我们觉得也有一些问题需要引起大家的关注,一个就是自杀人群的低龄化,在我们调查的具有自杀倾向的人群中,高中、大专和本科这个人群的比例是最高的。初中生开始逐渐出现自杀倾向,并且比例有逐渐上升的趋势。

拯救自杀进行时!人工智能如何向轻生者伸出援手?

高中生自杀主要是因为家庭的压力,因为家长对高中生的期盼只是考大学,但高中生也生活在一个小社会里面,他们遇到了问题需要解决,如果自己解决不了,而家长也不帮他们,他们就可能会走极端。

拯救自杀进行时!人工智能如何向轻生者伸出援手?

同时我们也调查了一些有自杀倾向的人,其中有50%的人从来没有寻求过任何的帮助,但在那些会寻求帮助的人里面,家人不是第一选择,对家人的求助甚至低于对陌生网友的求助。

我们一直说家庭是最重要的精神支持来源,但从我们的调查看来,很多时候家人甚至是他们自杀的主要动因,因为家人对他的期盼和压力使他走上了极端。所以我们希望家庭和学校能够共同努力,一方面为这些学生创造更好的环境,同时也告诉他们该怎么应对遇到的问题。

拯救自杀进行时!人工智能如何向轻生者伸出援手?

我们做了这个实验之后,冰点周刊给我们的点评我觉得很贴切,“第一次发出了柔性的光芒”,我们希望通过技术的手段体现出对自杀倾向人群的关怀和温暖。

有了这个调查结果,我们就可以做一个主动干预。我们通过技术自动下载微博发表的内容,利用机器模型自动识别出有自杀意念的微博,识别出来之后需要人工进行最终的确认,因为如果有误判的话,我们发了私信之后,可能会被贴在网上调侃,大家可能会对我们的工作产生质疑。

人工确认之后,我们才会给用户发私信。私信发出后,如果收到回复,我们就会有志愿者跟进,我们的志愿者是经过认证的心理咨询师,因为这种服务是专业服务,不是简单的好心办好事,如果没有专业的知识与技能,有可能会好心办坏事。

拯救自杀进行时!人工智能如何向轻生者伸出援手?

经过这样的过程,我们就实现了对自杀的主动干预,这个主动干预系统从去年的7月份开始正式上线,截止到2018年4月15号的统计,我们已经对所有的微博里的30多万条评论进行识别,发现大概两万多条是有自杀意念的,这些评论来自于一万多名用户。

我们当时遇到一个问题,就是有的人会多次在网上表达自己自杀的念头,我们每次都会检测到,那我们应该给他发送几次私信呢?也没有以前的研究经验可以借鉴,我们就定为五次,五次私信想表达的思想就是,我们并没有放弃,希望你也不要放弃。我们通过五次不断地发送信息,希望向给他们提供最好的帮助。

拯救自杀进行时!人工智能如何向轻生者伸出援手?

这是截至2018年4月15号的调查数据,我们可以看到有接近60%的人有自残行为,同时有真正的自杀企图;大概40%的有自杀企图,同时只有很少人接受过专业救助;有接近一半的人不仅有自杀意念,也自杀计划。

这就提醒我们,这些人在网上并不只是说说而已,他们真的有可能实施自杀,结束自己的生命,这是非常重要的事情。我们也想知道我们的干预到底能不能给他们带来帮助,我们就通过后台的技术,看一下这些人在整个过程中说的内容有没有变化?

我们刚才讲了,高自杀风险的人使用表示死亡的词更多,表示未来的词更少,通过我们的干预,我们发现这些用户谈论死亡的次数降低了,谈论未来的次数增加了,对未来抱有更大的期望,这就说明我们的干预能够起到一定的效果。

但我们的干预并不能解决他们现实中的问题,比如有的人自杀是因为高利贷,我们没有办法解决高利贷的问题。但是我们希望通过这种办法主动找到他们,向他们传递一些社会支持,让他们感受到来自社会的温暖,同时我们也希望通过志愿者的沟通,利用专业的技术帮助他们去克服自己心理上的困难。

“SELF格致论道”讲坛是中国科学院全力推出的科学文化讲坛,致力于精英思想的跨界传播,由中国科学院计算机网络信息中心和中国科学院科学传播局联合主办,中国科普博览承办。SELF是Science, Education, Life, Future的缩写,旨在以“格物致知”的精神探讨科技、教育、生活、未来的发展。关注微信公众号SELFtalks获取更多信息。

本文出品自“SELF格致论道讲坛”公众号(SELFtalks),转载请注明公众号出处,未经授权不得转载。

未经允许不得转载:科学 » 拯救自杀进行时!人工智能如何向轻生者伸出援手?

相关推荐