2019年荷兰人工智能公司Sensity的一项研究显示,约96%的深度伪制视频是未经同意的内容,此中大部门是女性。
今天你走正在街上,看到过的某个不认识的人几次看你,仿佛正在确认着什么。而你还认为今天衣服穿错了或者脸上有工具。伴侣也犹犹疑豫,不敢说出口问你,班里更是着暧昧的笑容。
之前其他的女明星也曾,好比Deepke已经AI换脸手艺合成过盖尔·加朵(奇异女侠扮演者),斯嘉丽·约翰逊(黑寡妇扮演者)和艾玛·沃特森(赫敏·格兰杰扮演者)的小黄片。
也就是说,韩国的当下一代,至多曾经烂了一大半,很难想象有一天当他们走上台前,韩国女性试是什么处境?!
跟着AI的成长,良多工具起头以假乱实起来,有的是无伤大雅的小打趣,而有的倒是难以承受的生命之沉
美国目前的联邦中竟然没有或惩罚建立/分享伪制图像的条目。对此,不少家也起头呼吁鞭策相关法案的完美。
再加上监管的缺失取过时,使得飞速成长的AI手艺成为之恶肆意狂欢的舞台。而正在这个“所有人对所有人的和平”中,女性,做为保守父权社会下某些男性意淫的品,无疑是最大的。
值得一提的是,算上霉霉,这些女星都是现代自强的女性楷模。不晓得那些男性制做者能否也是出于现蔽的嫉妒和不平安感而选择物化这些女星呢?
想必大师都传闻过N案件,通过社交平台Telegram成立多个奥秘聊天房间专业制作各种证件,将被的女性(包罗未成年人)做为役的对象,并正在房间内共享拍摄的性视频和照片。
好比说白宫旧事秘书卡里娜·让-皮埃尔(Karine Jean-Pierre)暗示议会应起头商议伪制图片相关的立法
白宫也很快对此事做出了回应——讲话人暗示霉霉伪制照片的“令人不安”,并强调社交有义务防止假消息的。
就算你晓得了,也很难证明,人们并不正在乎发生过什么,只正在乎本人看到了什么。你只能默默赞扬下架视频,可是你不晓得谁看过,谁下载过。此中有没有认识你的人。
失望之下,女生们决定这件事,从而避免更多的女生遭到,并向世界传达:该当耻辱的是加害者而不是者,女性不该被,后也不该被肆意评判和!2023年,姑苏大学的一名男性大学生将本人女性伴侣的照片,以及伴侣动态中的女性头像都恶意PS到照上,并发布正在网坐上,以至还把女生的小我消息附正在评论区。
不只如斯,泛博的开辟者继AI换脸手艺Deepke后,还再接再厉推出了姊妹版DeepNude(咳咳这名字,猜想大师也能猜出它是干啥的)来“脱掉”衣服生成某些照片。类似的故事,类似的——虽然DeepNude迫于压力被封闭,可是仍然以其它的形式正在暗网,继续泛博女性同志。
跟着AI手艺的成熟,现正在做恶的成本和门槛都跟着手艺而不竭降低,之前需要高端Deepke才能够达到的“换脸”法式竟然能够正在微信上风行:一度风靡全网的人工换脸法式ZAO答应用户将明星脸P正在本人身上,却无意中打开了潘多拉魔盒——任何糊口照都可能沦为编纂片的素材,任何人都可能成为黄谣的者,任何人也可能正在手艺下成为加害者。
这很快激愤了霉霉的粉丝们(也称Swifties),他们正在X上了#ProtectTaylorSwift来举报分享照片的用户,并积极转发霉霉的照片和帖子以示支撑。正在他们的勤奋下,X例外了任何对霉霉的。两个分享照片的账户曾经被查封,相关的照片也曾经查不到了。
不外话说回来,国际出名的女星被制黄谣,可以或许获得立法,司法系统以及泛博网平易近的关心,也有粉丝和团队帮手和施压。
前段时间,几张AI深度伪制(Deepke)的泰勒·斯威夫特(Taylor Swift)照片惊动X平台(本来的推特)。这些不雅观照姿势,细节逼实,以至还锐意贴合霉霉的糊口——霉霉和橄榄球活动员特拉维斯·凯尔斯(Travis Kelce)谈爱情,照片就将霉霉取一众橄榄球队员定格正在一..。
而更让人的是,按照韩国警方的统计,的120名虚假视频犯罪嫌疑人中,青少年几乎占75.8%。
按照《纽约时报》,这些图片正在禁封之前被浏览了4700万次,以至还从X扩散到如Facebook等其它的社交平台上,激发全网关心。
按照韩国女性家庭部和韩国女性复兴院2024年发布的《2023数字性犯罪者援助》显示,2023年有8983名数字性犯罪者寻求帮帮,要求删除的收集视频和照片跨越24万件。
外网上有一个博从发觉了一个聊天室,点进去一看——里面的聊天内容竟然是分享本人亲生姐妹以至母亲的不雅观照片和视频。
也许是为了这个聊天室可以或许存正在的久一点,进群的门槛并不低。每小我都至多提交了10张他们认识的女性的照片,并通过了面试才能进群。而这个聊天室内有跨越3700名,也就是说至多无数千名女性正正在收集性抽剥。
2024年5月21日,“首尔大学版N”事务。警方了5名团伙做案嫌疑人,此中2名是首尔大学的结业生。他们涉嫌从2021年7月至2024年4月制做并期近时通信软件Telegram上私密用“深度伪制”手艺换脸合成的照片或视频。正在本年7月10日的二次庭审上,嫌犯朴某认可本人虚假视频,但否定惯犯和犯罪的,姜某则对所有供认不讳,还有两名共谋也被。
取所有其它手艺前进一样,AI本身没有,而是利用者本身不雅念的映照和放大,能够被用来一方,也能够。但愿立法者、企业、科研人员可以或许尽快告竣共识,前进取平安中找到均衡,使得的权益获得,人类的福祉也获得推进。正在此之前,但愿大师都能好本人和身边的人免受AI的,更不要手艺成长之便他人,祝你祝我~。
起首,针对类AI犯罪,列位看官,特别是泛博女孩子们,必然要留意好本人的现私,不只要避免泄露本人的私密照,并且尽量不要取慎密小圈子外的人分享本人的照片和小我消息,免得被制成黄图。正所谓“害人不成有,就算实的碰到了,也必然不要去自证!证明是他的事,你只担任送他银手铐。
4年前,国内某高中的十几个女高中生报案,同校高三的男同窗徐某她们的照片,制做成不雅观照片上后上传到境外网坐上。正在被者们发觉后,徐某却并无,正在群歉后该打逛戏打逛戏,该爱情爱情(瞧这这心大的...),徐某母亲则哭着为他求情却只字不提补偿的事,学校和警方的处置也显得力度不脚。
当女生用照片取他时,该男生竟然地要求取女生协商,从而他本人的“权益”(懂了懂了,你制别人黄谣时别人没有权益,别人你时你却是有权益👌)以至理曲气壮、毫不心虚地告诉女生“我这小我本来就有点心理好吧。我也不讳饰的”(瞧瞧,脸都不要了)!
然而这起案件只是冰山一角,正在冰山之下,我们不晓得还有几多如许的踩踏正在女性的身体取威严上,制制一个又一个虚假的视频。
若是说这曾经骇人听闻,那么“首尔大学版N”事务就更让女到。仅仅只需要一张照片一段视频就能让你视频的配角,而罪犯很可能就是你的同窗。
虽然没有本色上的性侵,可是的速度之快,以及分辨消息的坚苦使得女性难以自证,这种以至要比本色性侵的影响更深更久..。
近日,韩国“首尔大学版N”案件正正在审理中,据韩联社报道,首尔大学结业生朴某和姜某,从2021年7月至2024年4月,涉嫌“深度伪制”(Deep Fake)手艺换脸合成照片和视频,并正在通信软件Telegram上私密,女性多达61人,包罗12名首尔大学学生..。
发表评论