专家称,人工智能驱动的仇恨内容正在增加

专家称,人工智能驱动的仇恨内容正在增加

专家表示,人工智能技术正在使网上仇恨内容和错误信息的数量迅速增加。

片段是一个真实的历史事件--纳粹独裁者阿道夫-希特勒在 1939 年第二次世界大战开始时发表的演讲。

但有一个重大区别。这段病毒视频是由人工智能修改过的,在视频中,希特勒用英语发表了反犹太言论。

据《连线》杂志今年 3 月报道,一名极右阴谋论影响者今年早些时候在 X(推特的前身)上分享了这些内容,浏览量很快就超过了 1500 万次。

这只是监控仇恨内容的研究人员和组织称之为令人担忧的趋势的一个例子。

加拿大反仇恨网络(Canadian Anti-Hate Network)的记者彼得-史密斯(Peter Smith)说,我认为每个研究仇恨内容或仇恨媒体的人都会看到越来越多的人工智能生成的内容。

不列颠哥伦比亚大学民主制度研究中心助理主任克里斯-特诺夫(Chris Tenove)说,仇恨组织,如白人至上主义组织,历来是互联网新技术和新工艺的早期采用者。

这是一个联合国咨询机构在 12 月提出的担忧。该机构表示,它对反犹太主义、仇视伊斯兰教、种族主义和仇外心理的内容可能被生成式人工智能强化深表担忧。

有时,这些内容会渗入现实生活。

他说,在人工智能被用来生成史密斯所说的极具种族主义色彩的皮克斯风格的电影海报后,一些人打印了这些标志并张贴在电影院的一侧。

凡是公众可以获得的、流行的或新兴的东西,尤其是涉及到技术的东西,都会很快被改造成仇恨宣传品。

只需一个简单的提示,生成式人工智能系统几乎可以立即创建图像和视频。

史密斯说,一个人无需花费数小时制作一张图片,只需敲几下键盘,就能在同样的时间内制作出数十张图片。

加拿大圣约信徒会在最近一份关于反犹太主义的报告中指出了人工智能生成仇恨内容的问题。

报告称,去年,利用人工智能制作或篡改、伪造的反犹太主义图片和视频空前增多。

研究和宣传部主任理查德-罗伯逊(Richard Robertson)说,该组织观察到一些非常可怕和生动的图像,通常与否认大屠杀、贬低或歪曲大屠杀有关,都是利用人工智能制作的。

他举例说,一张经过篡改的图片描绘了一个集中营,而集中营内有一个游乐园。

他说,大屠杀的受害者正在乘坐游乐设施,似乎在纳粹集中营里享受着乐趣,可以说这只有使用人工智能才能实现。

该组织的报告还称,在以色列-哈马斯战争之后,人工智能极大地影响了宣传的传播。

人工智能可用于制作深度伪造视频,或以非常逼真的方式模拟名人、政客或其他公众人物的视频。

特诺夫说,在以色列-哈马斯战争中,deepfakes 造成了有关事件的虚假信息传播,并将虚假说法归咎于以色列军方和哈马斯官员。

因此,一直以来都有这样的事情发生,那就是试图激起人们对另一方的愤怒或恐惧,并利用欺骗来达到目的。

滑铁卢大学(University of Waterloo)计算机科学学院教授吉米-林(Jimmy Lin)也认为,虚假内容......专门用来煽动双方民众的虚假内容有所增加。

加拿大打击伊斯兰恐惧症特别代表阿米拉-埃尔加瓦比(Amira Elghawaby)说,自冲突开始以来,反犹太主义和仇视伊斯兰教的言论都有所增加。

她说,人工智能和仇恨内容问题需要更多的研究和讨论。

人工智能生成的仇恨内容是一个新出现的问题,这一点毋庸置疑,但专家们尚未就这一问题的范围达成共识。

特诺夫说,现在有相当多的猜测,这与社会对社交媒体平台上传播的有害或有问题内容的广泛质疑类似。

林说,像 ChatGPT 这样的系统已经内置了保障措施。OpenAI 发言人证实,该公司在发布任何新系统之前,都会让模型学会拒绝生成仇恨言论。

但林表示,人工智能系统也有越狱的方法,他指出某些提示可以诱使模型产生他所说的下流内容。

加州大学伯克利分校校长公共学者戴维-埃文-哈里斯(David Evan Harris)说,除非这些模型背后的公司确保这些内容有水印,否则很难知道人工智能内容的来源。

他说,一些人工智能模型,如OpenAI或谷歌制作的模型,是闭源模型。而另一些模型,如 Meta 的 Llama,则更加开放。

他说,一旦一个系统向所有人开放,坏人就可以剥离安全功能,以很难察觉的方式制造仇恨言论、诈骗和网络钓鱼信息。

Meta 公司在一份声明中说,该公司在其系统中建立了保障措施,并没有开放所有源代码。

它说,由于社区不断提供反馈、审查、开发和缓解措施,开源软件通常更加安全可靠。

在加拿大,自由党政府表示联邦立法将有助于解决这一问题。其中包括 C-63 法案,这是一项旨在解决网络伤害问题的拟议法案。

司法部长阿里夫-维拉尼(Arif Virani)的发言人尚塔勒-奥贝尔坦(Chantalle Aubertin)说,该法案对煽动仇恨的内容的定义包括任何类型的内容,如图片和视频,以及任何人工生成的内容,如深度伪造的内容。

加拿大创新部表示,其拟议的人工智能监管立法《C-27 法案》将要求人工智能内容具有可识别性,例如通过水印。

一位发言人说,该法案还要求负责高影响和通用人工智能系统的公司评估风险,测试和监控其系统,以确保它们按预期运行,并采取适当的缓解措施来应对任何危害风险。