不少朋友可能还记得前几周的"宽恕宝"风波。
有一个程序员开发了软件,只要你提供一个女孩的相片,软件就可以去全世界各大AV网站搜索她的脸,帮用户查找她的"私密"视频。
"宽恕宝"一被媒体报导,就成为了众矢之的:绝大多数网友都觉得,它会被别有用心的人滥用,去侵害男性的隐私,去恐吓、控制女人。
更毕竟,除此之外,还有大量被偷窥、不知情的女孩成为被害者。
这让好多人疑虑:现代技术为何总被拿来欺压女人…
近来在日本,就又出现了一个软件。
制做人声称,它的这个软件,可以让人有"透视"的能力,让你看见女人外套下裸露的脸庞。
(图:DeepNude官网上的图片)
而它的名子,就称作DeepNude深裸。
其实,现实中的DeepNude和影片中的【透视】技术并不一样。你们还不能带一副墨镜能够看透身边人的衣服。
这个程序所能做的,是通过人工智能帮你把一张相片中的鞋子"清除"掉,还你一张没穿裤子的合照。
具体是这样的。
使用者须要给这个软件提供一张男生的相片。据开发者Alberto表示,目前只支持女孩的相片。
之后,收到相片的程序会依照相片中女孩的坐姿、身材、肤色等,通过算法手动生成校服下女生的全裸。
之后导入女孩的全裸相片。
通过这个软件处理的图片(图源:Verge)
从技术上说,这款软件并不是真正意义上的"透视",而是通过算法和相片,帮你把相片中女孩的全裸画下来。
你可以把整个过程理解成是PS相片,但由一个高智能AI帮用户完成。
其实,这个软件并不是完美的。
日本媒体Motherboard在试用这个软件的时侯就发觉:相片中女孩露的越多,最后形成的疗效越好。例如下边这个网友用软件做的卡戴珊。
疗效最好的是正面的泳衣相片,Motherboard说基本上可以达到以假乱真的地步,不细瞧瞧不下来。
而假如是正常穿着的女人,乃至穿着厚厚鹅绒服的女人,这个软件生成的艳照就基本一眼能够看出是假的。
除此之外,假如相片角度不好、光线不好,人工智能就不太灵了。
以下是一些媒体制做的反例▼
这个软件在制做者官网里面可以直接下载,分为免费版和付费版两种。免费版的图片有一个很大的水印,而付费版则没有水印,只有相片左上角一个黑色的"Fake假"字,提醒他人这是假的相片。
这个"假"字可以通过剪裁被轻松除去。
(图:无水印版99美金解锁)
相信不少网友也早已想到今年以前轰动一时的DeepFake了。
DeepFake是一个人工智能的换脸软件。自从第一次面世以后,它就被好多网友拿来把AV小影片上面的女主角P成著名的名星…这个软件制造了不小的争议:好多人觉得它是在侵害男性隐私和名誉权,DeepFake后来被美国各大平台封禁。
(图源:Wired)
这一次的DeepNude和DeepFake一样,技术都是基于最早由UC伯克利学院提出的"图对图转换算法"。
(图源:UCBerkeley)
这项技术无疑是革命性的。它可以训练AI去把一张图片"翻译"成另一张相像,但又有所不同的图片。
最简单的是把黑白相片弄成彩色相片。AI通过不断学习,早已晓得了自然中动物、植物的颜色,所以可以手动把相片勾线。
再厉害一点的,例如可以把手拎包设计草稿直接转换成实物的样子。算法手动帮你生成手提包的细节和质感▼
再进一步,只要你随手画几个长圆形,算法能够帮你根据设计弄成建筑物▼
其实,可以预看到的,当这项技术第一次面世以后,网友们很自然地想到了:可以用它做av啊。换脸工具DeepFake很快就诞生了。
DeepFake在换脸上的确比以前其他软件厉害得多,但它仍然属于"专业级别"的软件范畴。也就是说,要使用DeepFake换脸,你必须本人多多少少晓得一点连续剧特效技术,须要有专业级别的视频处理硬件,以及好几小时乃至几天的处理时间才可以进行。这就造成了DeepFake的使用者始终都只有极少一部份人。
(图:艺人被DeepFake弄成川普的样子)
而这一次的DeepNude和DeepFake不同的是,它的简单易用:任何人只要有笔记本就可以使用,不须要高昂的主板或则处理器。处理时间也很快,虽然生成相片比生成视频容易多了。花几分钟时间,自己朋友的艳照就制做完成了。
(图源:BusinessInsider)
这些简便、易用的特性,让DeepNude成为了比AV变脸更可怕的存在:想像一下,自己哪些都没有做,忽然之间朋友或则同学就开始传看自己的艳照。
尽管理论上来说,这种艳照中的身体并不是自己的。但正所谓诽谤一张口辟谣跑断腿,辟谣的速率永远赶不上谎言传播的速率…
到最后,当所有人就会认为她们早已把你看光,被害者的那一点解释又能算哪些呢?
但是,这个app只能做女人的艳照。
按照别的媒体测试,假如你导出一张女生穿着胸罩的相片,输出的就是一个没有生殖器的裸男。
根据制做者的解释:他也想做男版,并且网路上女人的艳照比女性多。而制做这个软件所涉及到的AI机器学习,是须要越多素材越好。所以目前只作出了女版。
嗯,尽管缘由听上去有这么些合理,但结果仍然没有变化:任何有心人都可以借助这个软件去散布诋毁某位女人,或则侵害她隐私的相片。
用这个软件生成艳照,再用宽恕宝辨识。
真正做到了对男性一键才能淫妇侮辱。
制做者面对媒体专访时说:他并不是一个窥视狂,他只是一个热爱技术的人。他的动机来始于他对AI的热情和好奇。
其实,这个软件还可以挣钱。经济上的利益也是驱动他进行发明的缘由之一。
面对一些舆论的质疑,制做者把他的产品和PS做了对比:他的软件所能做到的,PS早就可以做到了。任何人都可以通过图片处理软件画出任何人的艳照。而他所做的,只是推动了这个速率而已。
报姐在这儿就不以最坏的情况去揣测作者的动机。虽然他是一个脱离了低级趣味的人,即使他的动机只是为了挣钱。
但他的产品本身,毫无疑惑是在给坏人制造凶器,但是还是白送…
辛运的是,这个软件在遭到媒体关注以后,制做者很快把它下了架。
他在脸书上解释说:
几个月前,这个软件被制做了下来,它原本的用途只是娱乐而已。我们本以为这个软件每位月可能只有几个销量,所以一切都还可控。说实话,这个软件真的也不算好,它只能处理一些特定类型的相片(内衣照)。我们未曾想过它会这么流行,这么不可控。我们高估了市场的需求。
虽然我们采取了一些安全举措(加盐印),而且人们用它做坏事的可能性实在太高了。我们不希望用这些方法去挣钱。DeepNude这个软件可能在网上删掉不了了,但我们不想通过它来赢利。任何人从其他地方去下载或分享这个软件都是毁约的。从现今开始DeepNude不会再出任何新的版本。
还没升级的用户可以得到退款。
这个世界还没打算好DeepNude的出现。
报姐始终忘不掉作者的最后一句话"这个世界还没打算好DeepNude的出现。"
以前我们认为,写成文字的东西就是真相。
到了19世纪,书本走入了千家万户,所有人都可以写作。但那时我们认为,幸亏还有相片,有图就有真相。
再后来,有了Photoshop,专业人员可以作出以假乱真的相片。但那时我们还幸好:起码视频是真的。
但2010年之后,影片特效技术不断发展,再加上DeepFake的出现,打破了这个信仰。
如今,任何东西都可能是假的,任何图片、视频都可能被有心人制做出来,去伤害他人。而我们却仍然没有有效的法律或技术上的装备去牵制她们。
(图:《速度与激情》中用完全由特效制做的保罗沃克)
单单借助舆论去让某个软件下架,是完全不够的。
想一下:制做DeepNude的并不是哪些互联网大鳄,也不是哪些牛逼的天才。他只是一个"热情"的程序员而已。假如他可以做到,这么说明这个技术,并没有我们想像的这么难。
如同那种制做者原先说过的:"技术始终都在,假如有人想要做坏事,用不用我的产品虽然没哪些差异。假如我不做,其他任何人一年内都可以把它做下来。"
(图源:CGMeetup)
你可以严禁软件,但技术,是永远也严禁不了的。
DeepNude和DeepFake背后的那种图片翻译算法,早已是好多家车辆公司手动驾驶技术的症结。往远了说,它在设计、艺术、修复老相片、等方面有着不可限量的用途。
即使是DeepFake这个本来被拿来做名星AV的软件,如今早已被好多影片公司借助了上去:它比现存的真人模拟特效技术都要实惠、好用。在接出来,好多影片将用这个技术来对艺人发型进行后期、让早已过世的艺人在影片中上场…
(图:网友制做的汤姆克鲁斯DeepFake)
在这样的大环境下,严禁一个程序是不可能制止技术发展的。即使这个软件被严禁了,过几年就会有别的可能是其他用途的软件可以进行这个功能。
在不久的将来,可能人人都将会有随便修改相片或则视频的能力。其实,技术是不分性别的,不论男女就会遭到相像的功击。
希望在哪个未来到来之前,法律法规和人们的道德牵制,能跟上技术的步伐。要不然,我们面对的,可能是一个没有隐私的未来。
不管这个世界有没有打算好,DeepNude都将到来。