Facebook 预防自杀,Google 筛查癌症,科技巨头是怎么让人类的生命更有尊严的?

在搜索框里输入“每天有多少”后面联想最多的两个问题,一个是每天有多少人死亡,一个是每天有多少人出生。生死问题无疑是人类存在最关心的问题,关于人工智能充满危机和恐惧的想象也是人类求生本能的一部分,或是机器自我进化最终无人能敌,或是落入霸权手中成为统治工具。尽管常被视为人类潜在的威胁,人工一手创造出来的智能对人类生命的挽救似乎也为自身的存在也找到了更多合理性。

Facebook 在3月1日公布称,已经应用人工智能技术来监测 Facebook Live 和 Messenger 上的自杀危险信号,识别出有自杀倾向的用户,以及时让他们得到帮助。

facebook-suicide-prevention-2017-03-01-01

通过对大量的用户帖子及评论进行观察,人工智能系统会将含有危险信号的信息报告给运营团队,随后由团队工作人员进行人为干涉和帮助。说得再具体一些,这套人工智能系统使用的是模式识别算法,训练的方法就是把海量的、已确认的自杀贴做为试题,在训练中找出语言特征,记住自杀人群最爱说的话,其中大多数为自暴自弃、过度厌世的言论。

其实此次人工智能的介入只是一种升级, Facebook 的防自杀工具已经上线不少时日。2016年6月 Facebook 正式推出防自杀工具,用户可以对有自杀倾向的好友状态进行标记,借助平台资源为对方提供帮助。只是那时的监测多数是好友间的互相监督,恶作剧和疏漏不下少数,而此时人工智能系统的监测则是全天在线,敏感度更高、覆盖面更全,没有劝慰也没有讥笑。

有人认为这样的人工智能反自杀机制只是摆设,不能解决自杀的实质问题,治标不治本。

但互联网式的自杀有其自身的特殊性。比起隐秘的消失,网络自杀人群选择在社交平台开诚布公的宣布结束生命,把生死置于万千口舌之中,这样的方式或许本身就是一种求助的信号。但是这样的方式得到的反应也常适得其反。2014年微博用户小曾发微博直播自杀,整个讨论过程有安慰有嘲笑,小曾的想法也有过动摇,但随着嘲讽的声音渐高,小曾最后还是做出了看似赌气的决定,结束了生命。

社交平台上情感交错、声音嘈杂摇摆不定,一个没有感情的机器或许正是一个很好的平衡工具。

在为救人这事儿做贡献的不只是 Facebook 一家。如果说 Facebook 用人工智能想要尝试解决的是心理导向型死亡,那谷歌近日的动作则是更加”治本“的解决身体机能导向型死亡。

Google-AI-Breast-Cancer-Image-1

继今年 1 月 Google 宣布深度学习算法在识别皮肤癌上已经达到专家级水平之后。Google 现在又学会了如何识别身体里的癌症,现在已经可以实现人工智能技术对乳腺癌的检测,比起来用深度学习识别一只猫的品种,谷歌的人工智能正在逐步走向严肃。

乳腺癌诊断是一项庞杂的工作,尤其在病理学家对患者的病理图像进行的分析的时候,是最耗费时间也是最容易产生分歧和误判的。Google 用深度学习对荷兰大学提供数千片癌细胞切片进行分析,AI 对这个巨大的数据库进行特征提取,记住癌症切片的特征,在临床实验的时候一一对应,看是不是符合癌症切片特征。这样看来,除去复杂性和严肃性,这种训练方式实际和训练人工智能识别一只猫并没有本质区别,但在应用价值却高几条街。

不同于知识问答和游戏竞赛,人工智能在医学这种门槛更高的领域的应用,更让很多人有了危机感。当人工智能不再是一个聊天的工具,而是贴上了“专家级”的标签,真正的专家要靠什么来保住自己的饭碗。

不过这项技术背后的工作人员也站出来说了,这套系统只是一个小软件,在病理诊断一系列复杂的工作中只是小小的一部分,它的主要作用只是帮医生快速的获取更加准确的信息,最终的决定权依然在医生手中。

如果说这项技术应用时间短、没有看到实际救援效果的话,那或许 IBM 去年的例子更有说服力一些:同样也是通过深度学习训练,IBM 的 Watson 成功的诊断出之前被医生漏诊的白血病患者。

不管是从社交领域还是医疗领域,科技公司们接二连三的推出能用来救人的 AI 技术,这些技术虽然都只是提供信息的辅佐工具,但比起来在网上当键盘侠对一个生命冷眼旁观,人工智能还是在做一些微小的努力的。

更多有趣好玩的内容 尽在品玩微信公众号
brand

PingWest品玩移动客户端