□吴睿鸫
近日,广州一女子在地铁上的照片被AI一键脱衣,造谣说她在地铁上拍裸照,造谣图在网络广泛传播引发关注。事实上,照片的女主角是小红书的一名博主,而所谓的“裸照”则是她去年7月在平台分享的一张照片。原图中她衣着正常,完全没有任何不妥之处,但却被有心之人用AI软件一键脱衣,故意全网散播。她在得知此事后,立即向警方报案,并在小平台上发文澄清。(3月29日 极目新闻)
利用AI对他(她)人照片“一键脱衣”,恣意在网络空间传播,这分明是明目张胆地“造黄谣”,不仅突破了基本的做人底线与道德操守,也践踏到了法律的“红线”。
所谓“一键脱衣”,早在四五年前已经在网络出现了,刚开始的功能主要是简易“换脸”,以娱乐玩梗的方式进行传播,但是在应用过程中,逐渐被一些不法分子钻了漏洞,用于制造不雅照片和视频,在网络上传播和售卖,以此牟利或实施诈骗,不仅严重侵害公民的合法权益,也让科技成为造黄谣的“助力器”
现在的问题是,尽管虽然AI一键脱衣相关软件早已被封禁,但网络上并不难找出替代品,这显然意味着,AI“一键脱衣”,犹如脱缰的野马,仍在一直裸奔。数据显示,目前已经有数百万张被AI一
在这个个人隐私信息,可以轻松被窃取、窥视和涂改的新科技时代,我们应该得到什么样的保护,如何找到破解之道?这是国家职能部门、互联网企业、包括每位公民都应该进行深刻思考与积极探究的。
实际上,对于AI“一键脱衣”等“深度合成”技术,并不缺少法律法规约束。《互联网信息服务深度合成管理规定》明确规定,不得利用深度合成服务从事侵犯他人合法权益等法律、行政法规禁止的活动;《网络安全法》也特别强调,明知他人实施危害网络安全活动的,不能够为
显然,对于“一键脱衣”等灰色软件,职能部门仍需持续强化监管,激活现有法律,让平台守土有责,强化对侵权图片、视频的审核,加大打击灰色软件力度,将问题消灭于萌芽,让 AI科技不为造黄谣助力。
网络空间不是法外之地。除强化事前防范外,对造黄谣者乃至一切造谣者,依据《个人信息保护法》《刑法》等,让其付出沉重的法律代价,还当事人以清白和公道。
当然,作为每一名公民,也应成为信息安全的“守门员”,遇到不实、不雅等图片、视频信息时,要勇于举报,不去浏览低俗内容,这既是在保护他人和自己,也是在净化网络生态环境。
来源:红网
作者:吴睿鸫
编辑:田德政
本文为红辣椒评论原创文章,仅系作者个人观点,不代表红网立场。转载请附原文出处链接和本声明。