专家们对Grok AI在12月充斥该平台的种族主义虐待图像表示担忧并发出警告。
Signify是一家与知名体育团体和俱乐部合作追踪和报告网络仇恨的组织,据该组织称,互联网和平台上的图像将升级,尤其是在不久的将来。
Grok更新后,X上充斥着虐待图片
根据《卫报》据报道,Grok AI在更新后创建了一些种族主义图像,包括足球运动员和经理的逼真种族主义图像。在这些图片中,其中一张显示了一名黑人玩家正在采摘棉花,而另一张则描绘了一名玩家正在吃香蕉,周围是猴子。
其他图片显示,其他几名球员和教练与奥萨马·本·拉登、阿道夫·希特勒和萨达姆·侯赛因等有争议的历史人物会面聊天。
昕诺飞关切地注意到,使用Grok AI创建并充斥X平台的计算机生成图像突然增加。该组织也对这一趋势表示担忧,并认为随着照片级真实感人工智能的引入,社交媒体上可能会看到更多这样的图像,这将使这一趋势变得更加容易,并增加此类图像的流行率。
“现在这是一个问题,但这真的只是一个即将到来的问题的开始。情况会变得更糟,我们才刚刚开始,我预计在未来12个月内,情况会变得非常严重。”
签名。
X的生成式人工智能工具由埃隆·马斯克于2023年推出。最近,它添加了一个名为Aurora的新的文本到图像功能,该功能可以根据用户的简单提示创建逼真的AI图像。
据《卫报》报道,今年早些时候,一个名为Flux的不太先进的版本也引起了争议,因为它被发现可以做许多其他类似软件无法做到的事情。其中包括描绘受版权保护的人物和公众人物妥协立场、吸毒或实施暴力行为。
X变成了仇恨的平台
反数字仇恨中心(CCDH)研究负责人Callum Hood指责X平台是仇恨平台。胡德说,X已经成为一个通过收入分享激励和奖励传播仇恨的平台,而人工智能图像使其比以往任何时候都更容易。
“X所做的事情,在某种程度上是其他主流平台所没有做的,就是为账户提供现金奖励,所以X上的账户非常故意地发布最赤裸裸的仇恨和虚假信息。”
罩。
专家们对用户可以如此轻松地要求生成式人工智能生成的内容相对缺乏限制表示担忧,这使得Grok可以通过“越狱”来绕过人工智能的指导方针
A.CCDH报告结果表明,当给出不同的仇恨提示时,人工智能模型创建了90%的仇恨提示,其中30%是在没有推回的情况下创建的。越狱后,它还创造了另外50%的收益。
这个英超联赛承认知道足球运动员的照片。他们说,他们已经指派了一个专门的团队来帮助发现和报告针对运动员的种族主义虐待行为,他们说这可能会导致法律诉讼。
与此同时,足球管理局透露,他们在2024年收到了1500多份虐待报告,并为球员在社交媒体账户上使用过滤器来帮助阻止大量虐待行为。
英足总发言人表示:“歧视在我们的游戏或更广泛的社会中没有立足之地。我们继续敦促社交媒体公司和有关当局解决网络虐待问题,并对这种不可接受的行为的违法者采取行动。”。
循序渐进的系统在90天内启动您的Web3职业生涯并获得高薪加密货币工作。