【如何预防AI换脸犯罪?】韩国几十万女性受害者被通过技术手段换脸金融加杠杆,移花接木到yellow的图片和视频,震惊韩国全国,背后的deepfake技术浮出水面,这个技术可以防范吗,如何保护自己呢?
信托公司对私募基金牌照的热情逐渐消退,12月2日,北京商报记者注意到,年内又有一家信托公司主动注销了私募基金管理人备案资格。来自中国证券投资基金业协会(以下简称“中基协”)“已注销私募基金管理人名单”板块中显示,国投泰康信托已于11月25日主动注销了私募基金管理人备案资格。
首先,deepfake技术是一项开源技术,所谓开源,就是全世界的程序员都可以免费下载,稍加部署,用一张显卡就可以进行训练,达到替换人脸,做出以假乱真的图片和视频,所以想防范它,就得从源头进行保护。
1.保护自己的脸
在人均自媒体时代,要更加重视自己的隐私。人脸这个数据一般泄露的通道就是来自于你发朋友圈(私域),某书某手某抖等(公域),只要你稍加注意,尽量少在朋友圈和某书某手某抖等上发个人照片或用真人头像,就不能被坏人获取到你的人脸,也就无法把你的脸移花接木到其他的地方去。
2.降低甚至禁止使用deepfake技术
由于deepfake是开源技术,所有人都可以下载,所以只能在源头上屏蔽其链接,让大多数懂技术的人获取不到;还需从立法层面禁止在各大平台上发布使用了deepfake技术的内容,同时用了deepfake技术获罪的必须重判,才能刹住这股风。
最后说一点金融加杠杆,韩国这股歪风传过来,很可能会让一些懂技术的人找到发家致富的新路径,所以大家要格外重视保护自己的隐私,包括不限于人脸、声音等。