繁體中文版
首页 > 硅谷高科 > 正文

脸书将如何解决网络“色情报复”问题?

2017-04-18 15:49 来源: 侨报网 编辑: 苏晚 字号:【

【侨报编译凯森4月17日报道】你能想象出遭受“色情报复”(Revenge porn )后,受害者的感受吗?

chrissy-chambers-revenge-porn-victim

“色情报复”受害人(图片来源:Cyberbullying Research Center)

据福克斯新闻报道,网络中已出现了很多“色情复仇”的事例,比如有人在浴室里拍了一张你的不太雅观的照片,然后有一天你突然发现,这张照片传遍了互联网和社交媒体,这可能会给你造成很多压力,甚至出现抑郁。

主办离婚案件的律师菲利普斯(Stacy Phillips)认为,“色情报复”显然是一种不道德和卑鄙的行为,会改变受害者的整个生活状态,在未经受害者同意的情况下泄露其裸体或性行为等影音图像,不仅触犯了受害者的隐私权,也对其造成巨大的耻辱。

虽然现在还未制造出可识别非自愿图像的人工智能,但脸书已开始采取行动了。该社交网络已使用识别模式系统,如果有用户将发布的影音图像设定为“色情报复”,该网站将会阻止这些图像的继续传播,同时向发布者和传播者发出警告。

伊利诺伊大学人工智能专家瓦什尼(Lav Varshney)指出,脸书目前的这一“色情报复”识别模式系统是基于内容检索模式,或称相联存储模式,这一模式类似于人类嗅觉记忆运作的过程。如果再次出现与已做标识的图像类似的图像,它将会被识别。

他指出,脸书的这一警告系统将是有效的,会迫使用户考虑在其他的社交媒体发送不雅的图像视频,或通过短信发送传播。

但他也指出,目前采用人工智能识别并阻止初始图像还做不到,要进行识别就必须有上下文背景,目前还没有人工智能可以自动了解图像视频的背景,因而判断不出自愿还是非自愿。这也是为什么网络的“报告步骤”是如此重要,以及必须要向机器学习技术迈进。

机器视觉公司Clarifai创始人兼首席执行官塞勒(Matt Zeiler)认为,脸书上共享和转载的图像有数十万,规模巨大,但没有人对这些图像进行识别和阻止,这也是该社交平台采用“色情报复”识别模式系统的主因。而这一做法将有助于减少不雅图像的传播,以缓解受害者所承受的社会压力。

但这些专家也表示,虽然脸书的这一做法值得称赞,但其实它还可以做的很多。

网络公民权利倡议协会(the Cyber Civil Rights Initiative)创始人、总裁兼执行董事雅各布斯(Holly Jacobs)博士也是一名“色情报复”受害者,她对脸书的这一做法表示了肯定,但她也认为科技巨头们还可以做的更多。

她说,一旦一张图片上传至网络,几秒钟内就可以让其他人看到、下载、分享和上传到其他网站,因此,防止受害者受到伤害的最好方法是阻止这些图像上传或以其他方式共享,而他们将继续推动科技产业做到这一点。但专家称,期望人工智能做到这一点还需要对目前的技术进行大幅改进,而目前的人工智能技术还远远做不到。

(编辑:苏晚)

分享此页面

相关文章

发表评论 已有0人发表了评论

愿您的每句评论,都能给大家的生活添色彩,带来共鸣,带来思索,带来快乐。

评论列表查看所有0条评论