一秒P掉衣服,制作你的“裸照”?这个后期软件让人脊背发凉......

一秒P掉衣服,制作你的“裸照”?这个后期软件让人脊背发凉......

当然是为了满足一些人“恶臭”的想法,把意淫化为现实。

然而会用PS的大家都知道,这么简单的水印,去除起来有多简单。

而且这个软件只适用于女性......

如果你放入一张男性的照片,也只能看到一个“丰满”的男性怪人。

发明软件的程序员说:自己没有偷窥的恶趣味,只是单纯的爱好技术。

信你个鬼......如果是爱好技术,可以去做更复杂的服装替换,节省了试衣服的麻烦,岂不是更造福人类?

最后在舆论的影响下,DeepNude上架一周后创始人宣布关停软件。

从AI换脸到AI脱衣

没有人知道你的脸会被用在哪

说道AI,就不得不提前不久爆红的APP,名叫ZAO的换脸软件。

发布不到24个小时迅速蹿红,不仅在朋友圈上刷屏,还登上了苹果iOS免费榜第二,微博热搜话题榜前十。

ZAO最大的噱头就是和“明星”换脸,并融合进视频中,操作简单门槛低,只需要一部手机、一张照片,就能过把明星瘾。

之前也有很多技术大佬,做过明星之间的换脸。

朱茵和杨幂换脸

刘亦菲和鹿晗换脸

佟湘玉和寡姐换脸

一开始大家觉得新鲜,看着图个乐,视频制作者也获得了一大批曝光。

然而AI换脸技术,其实是把“双刃剑”

有人曾在网上发布AI换脸后的色情片,盖尔·加朵的脸,被无缝替换。

打开搜索软件,输入“AI明星换脸”,有一半的图片都是色情视频换脸。

你以为这种事只会发生在明星身上?

NO,也有人把朋友、同学的脸替换到色情影片上。

给大家讲一个真实案例吧:

印度的记者 Rana Ayyub,因为揭露了古吉拉特暴乱中官员的黑幕和不作为。

被不法分子利用换脸技术,把她的脸换在了色情片女主角的身上,视频疯狂地在网络上传播。

就像很多人会去相信“XXX明星私密小视频”一样

当时印度的网民也都信以为真, 甚至她的家人都拿着视频来问:这真的是你吗?

最后她承受不住网友的辱骂,患上了严重的抑郁焦虑症。

没有人在意真相到底是什么,相比起真相,八卦、虚假消息传播的更快。

在19世纪左右,有一句话叫做“有图就有真相”,毕竟那时照片不能作假。

到了20世纪,Photoshop可以合成照片,但是我们还相信视频都是真实的。

而现在,电影特效、AI换脸技术的出现,让视频也能轻松造假。

“你所看到的不等于真实发生的”

是的,科技是无罪的,但人心难测,没有人知道使用这项技术的人是怀着什么样的目的。

如果是应用到电影的“真人模拟”特效,无疑是一个好的途径,因为它比现存的技术都要便宜、好用。

就像AI仿生机器人一样,这些技术之所以还没有被投放到大众生活,正是因为法律法规和道德制衡还没跟上科技的脚步。

甲之蜜糖,乙之砒霜,现在我们还没有做好让Deep Nued这样的科技,融入生活。

今日话题

关于AI智能,你是怎么看的?

利大于弊,还是弊大于利?

来留言区畅所欲言吧

看完文章,别忘点个 在看查看


比丘资源网 » 一秒P掉衣服,制作你的“裸照”?这个后期软件让人脊背发凉......

发表回复

提供最优质的资源集合

立即查看 了解详情