同时 @cyberAngel_ 认为,未来的 AI 绘画将越来越难以分辨真假,AI 生成和 AI 检测是互相进化的,创作者们更加清楚 AI 哪里不像真人,所以会努力让这部分「像」真人,比如 AI 产出的美少女过于完美,可以适当模糊化,加点「胶片感」。
哪怕 AI 颜值博主还没那么真,和「俄罗斯美女」大同小异的剧情已经出现,平台明明已经提示「疑似包含 AI 创作信息」,评论区仍有人留下彩虹屁,甚至追着询问衣服链接,似乎真或假的问题,最终将不可避免地让位于美丽即是正义。
等到粉丝量上来了,AI 颜值博主的变现方式可以十分多样,有的自力更生,通过广告等将流量变现,有的知识付费,卖课、卖定制模型,按 @cyberAngel_ 的话说,「新媒体有新媒体的变现方式,技术有技术的变现方式」。
AI「俄罗斯美女」和「颜值博主」,和之前骗中老年女性情感和钱财的「假靳东」有些相似之处,却更加可怕,也更加有想象空间。
「假靳东」没什么技术含量,和明星相关的视频和照片是下载或者打包购买的,深情的声音是用变声软件伪造的,粗糙得「一眼假」,AI 的段位更高,有时候还真的没那么好辨别。
只能说,当我们看到盘靓条顺的互联网帅哥美女时,最好不要默认是真人,也不必太真情实感,网红公司不想花钱在真人 KOL 上,观众也更加快速地消费批量的美貌和廉价的观点,多么符合互联网的传播规律。
AI 模仿你的脸,还要恐吓你的心
除了通过「颜值博主」和「俄罗斯美女」广撒网,AI 同样也能精准锁定。
或者说,AI 既能编织出温柔乡,也能改头换面当 PUA 大师。
一类常见的 AI 诈骗是,骗子伪造来电显示和熟人声音,告诉接到电话的中老年,他们的孙子孙女遇到了麻烦,要么是犯了事需要拿钱消灾,要么是身陷险境得用赎金救出。
虽然此事有了调查结果,也有网友怀疑是内鬼作祟而已。跨国公司的风险管控措施如何不为人知,但可以确定的是,AI 换脸还可以延伸到很多地方,从最早的色情片换头,到假冒明星在直播间带货。
所幸,AI 还没有那么完美,辨别方式依然简单可行。
假如是通过 AI 换脸视频,摄像头的原始画面在几层转换时十分消耗算力,声音和画面往往会有延时。另外,可以引导对方做些动作,比如张嘴、大幅度摇头、把手指挡在脸前来回移动等,若是 AI 换脸,「人脸」可能会出现变形和瑕疵。
然而,对于很多中老年来说,智能手机和互联网本来就玩不明白,现在 AI 又来捣乱了。
AI 时代,文字、声音、图片和视频都有可能是假的,甚至以组合形式上场,骗子伪造的身份更加具体,诈骗也更加对症下药和真情实感,让中老年受骗的概率更高。
以魔法对抗魔法,以技术攻防技术,是个此消彼长的猫鼠游戏,中老年未必能快速消化,我们或许从诈骗的本质入手,降低中老年上当的可能。
不管技术如何发展,很多诈骗的套路万变不离其宗:窃取隐私,利用恐惧、贪欲、情绪价值编故事,冒充熟人或包装自己获取信任,图穷匕见以钱为最终目的。
尤其接到可疑电话、短信时,不要盲目相信「一面之词」,不管对方是谁,谈到钱就多个心眼,通过多种方式验证对方身份,如果对方说家人遭遇了某事,再次回拨家人电话确认情况是否属实。
另一类是主动出击有备无患,中老年有自己偏好的媒体,家人可以将政府部门微信公众号等信源的反诈内容转发给他们。如果条件允许,也可以向中老年展示如何使用 ChatGPT 等 AI 工具。
当然,对于不懂智能手机的老人,尽量在源头解决问题,最好不要在微信、支付宝绑定银行卡,只存少量的零钱。
AI 诈骗得逞只是最后的结果,防范 AI 骗局却可以随时开始。
技术应当服务于每一个人,引路人为后来者照亮数字世界的灯塔,探明水下未知的暗礁,我们才能共同走向一个技术不被恐惧而是被合理使用的未来。