APP下载
APP二维码
联系我们
APP二维码
返回

警惕AI生成技术:张伯礼院士揭露假视频诈骗,公众需提高防范意识

来源:网络   作者:   日期:2025-03-16 13:10:24  

快速发展的AI生成技术使生成假照片,伪造的图像,甚至是视频更改的更容易,并且很难区分真实和虚假。特别是,由AI合成的假录像带甚至模仿了著名的医生和名人,以进行虚假的宣传并对公众进行欺诈。张·博利(Zhang Boli)是中国工程学院的院士,也是天津传统中医大学的名誉校长,也是受害者之一。

院士带来的货物实际上是假的AI

不久前,互联网上出现了一段视频,院士张·博利(Zhang Boli)正在推广美白皮肤护理产品。

张·博利(Zhang Boli),中国工程学院的院士,天津传统中医大学的名誉校长:所有这些内容都是假的。我从来没有使用过这种皮肤护理产品,我从未在这一领域进行过任何宣传,也从未研究过它,因此已完全制作。

实际上,这是一个AI制作的视频,Zhang的院士的形象和声音用于实现假和真实的效果。张Zhang介绍了至少有十二个虚假视频,涉及他的形象和声音在互联网上传播。

中华人民共和国的民法典表明,自然人享有肖像,声音和其他权利,任何组织或个人使用信息技术来伪造它是一种侵权。为此,天津传统中药急切地向互联网信息部致信,申请控制和处理相关视频和涉嫌侵犯Zhang Boli的肖像肖像权利和名称权利的相关视频和公共帐户。

张·博利(Zhang Boli),中国工程学院的院士,天津传统中医大学的名誉校长:我很生气。我认为假视频对我的影响是第二。更令人恐惧的是,这些事情误导了消费者并对人民产生影响。他们还花钱在人民身上。有时,他们甚至购买假药,这会影响人们的健康。同时,他们还违反了国家法律并破坏了市场秩序。我们确实很生气,但是当专家的形象受到污染时,无助。

近年来,经常发生通过AI-Deep的假技术冒充名人的事件。除了Zhang Boli的院士外,一些商人还使用了AI面对面的和合成的人声来转移一些著名的医生,名人和企业家的面孔和声音。有些用于实时流媒体,有些用于促进营销产品,有些被制作成有趣的视频。

专家:AI伪造

这是一个必须消除的“绊脚石”

AI发电技术最初是一件好事,但是在被别有用心的人使用后,它成为制造虚假信息的工具。专家要求AI伪造成为新兴技术发展的“绊脚石”,必须受到严厉惩罚。

专家指出,AI改变面向的声音般的虐待和不当虐待已成为非法侵权的最困难的领域,这很容易侵犯肖像权利,侵犯公民的个人信息和欺诈行为,这不利于建立“以人为导向,聪明的”,智能和良好的“人工智能发展生态系统”。

福丹大学新闻学院的教授Ma Ling:我见过许多像这样的数字人物。他们将拦截某些人的图像,并产生一个非法的数字人来现实播放商品。因此,它不仅会影响老年人,而且会影响一个更广泛的群体,包括一些互联网上冲浪的孩子。

据报道,另一方面,AI产生的虚假信息的扩散也对社会信誉构成了严重的挑战。

Fudan University新闻学院教授Ma Ling:AI假新闻界对新闻业的负面影响很大。普通的记者不会使用这样的图像,但是如果某些具有别有用心的人使用这些图像并被社交媒体广泛使用,它将损害社会的信誉。它不仅抹黑媒体,而且使公众的认知感到困惑。如果继续这样做,整个社会可能会彼此不信任。

最近,为了促进人工智能的健康发展并标准化了人工智能的生成和合成内容识别,国家互联网信息办公室和其他部门共同发出了“为人工智能产生合成的内容识别的措施”,这将在9月1日起生效。合成内容。没有组织或个人可以为他人提供工具或服务来实施恶意行为,并且不会通过不当身份损害他人的合法权利和利益。

中国政治科学与法律大学传播法研究中心副主任朱·韦(Zhu Wei):从表面上看,这是形式上明确的法律规定,其客观影响是深远的。不仅要确定知识产权,而且更重要的是,确保信息的开放性和公平性和信息流畅的流动。

张·博利(Zhang Boli)是中国工程学院的院士,天津传统中医大学的名誉校长:例如,在在线自我媒体上发布时,应该有一个监督。有些是由平台发布的,平台的从业者应负责审查。当我们提出投诉和报告时,我们必须有一个特殊的部门来接受它们并承担责任。第二点是加强监督,网络部门和互联网监督部必须发挥作用。接下来是法律,即使是公共安全部门,无论是谁是联合责任,都必须干预和增加处罚。我认为应该采取一些全面的治理措施来解决这个问题,不能延迟。

AI对AI的解释:

什么是AI假信息,给AI留下了最深刻的印象?

尽管AI技术可显着提高所有行业的工作效率,但它也大大降低了欺诈的门槛。对于AI,最近AI创建错误信息的情况是什么? AI可以识别AI生成的错误内容吗?

中国中央电视台的记者郑伊兹(Zheng Yizhe):使用AI来解释AI,我只是问了最近令人印象深刻的AI欺诈案件。它列出了许多人并将其分类。

例如,自然灾害谣言是它认为具有很大影响的类别,而AI产生的虚假信息已成为“恐慌放大器”。许多人熟悉的西藏县地震发生后,“一个被埋葬在废墟中的小男孩”的照片在互联网上传播了。这张照片是因为男孩发现了六个手指,但引起了很多恐慌。

还有另一个类别:AI Technology伪造了名人代言和权威数据伪造,并利用公共信任来赚钱。传闻的虚假信息前一段时间,例如“ 80年代后的死亡率为5.2%”,“一个人在80年代后几代死亡”在公共领域造成了巨大伤害。因此,闭路电视新闻频道很快发表了谣言,说明了西藏丁格里地震废墟中这个小男孩的虚拟照片以及80年代后一代死亡率的问题,以便观众可以学习最有权威的信息。

CCTV记者Zheng Yizhe:可以使用AI来识别AI-Fake内容吗? AI告诉我,许多机构和软件现在已经实施了这项技术。以图片为例。其中一些是假AI生成的图像,可以用肉眼来判断。还有一些假图片看起来相对真实,但是在人工智能的眼中,它们通常隐藏了像素规则,甚至是电子签名。 AI还承认,这些所谓的技术“缺陷”可能更难通过将来的深层伪造来识别。但是,人工智能的创造力和辨别能力是彼此之间的游戏,并且不断上升。必须合并平台治理,有效的监督和公众对预防的认识,以便可以在正确的道路上使用新技术。

(CCTV新闻客户CCTV记者Yang Yang,Li Bin,Zheng Yizhe,Zhao You,Dragon King Palace Jia)

分类: 股市
责任编辑: admin
版权声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。

发表评论

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。