
Sora App面临争议:生成暴力和种族主义内容 |
发布时间:2025-10-15 文章来源:本站 浏览次数:12 |
OpenAI推出的视频生成应用Sora确实因内容生成问题陷入了不小的争议。OpenAI 新推出的视频生成使用 Sora 2,仅上线数日便登上美国 App Store 榜首,但这场“现象级爆红”很快演化成了言论危机。研讨者发现,该系统在多重安全机制下仍能容易生成暴力、种族歧视以及侵犯版权的内容,引发广泛担忧。 ![]() 这款使用允许用户通过提示词生成传神的视频,并在内置社交流中分享。短短数天内,Sora 2的热度席卷社交平台,但研讨人员指出,他们成功生成了包括爆破威胁、大规模枪击、战役场景等画面的虚伪视频,其间乃至触及加沙、缅甸等敏感区域的假造战地印象。 波士顿大学媒体研讨专家 Joan Donovan 表明,这类AI系统“没有历史忠实度,也没有事实联系”,意味着恶意使用者可以轻松制造出极具利诱力的虚伪视频,进行欺诈、打扰乃至言论操控。 在研讨报告中,专家还发现多起令人不安的例子:白人至上主义标语出现在AI生成的视频中、迪士尼等版权人物被用于不当情境和虚构新闻片段展示不存在的武装冲突。 《华盛顿邮报》记者 Drew Harwell 乃至成功生成包括“愤恨诱导内容、虚伪犯罪场景和性暗示画面”的视频,虽然OpenAI宣称平台严格制止此类行为。 OpenAI首席执行官 Sam Altman 此前承认在推出Sora 2前“有些忐忑”,但仍称这将是一个“创意版ChatGPT时刻”。公司表明已部署安全过滤机制,制止生成触及实在人物或暴力内容的视频。 但是,研讨表明这些“防火墙”并未真实阻止模型失控。Sora 2 能在视觉上假造新闻报道、战役场景和公共事件,使“真假难辨”成为新常态。 学界和业界忧虑,随着AI视频生成进入大众化阶段,人们的信息信赖系统将被完全推翻。正如Donovan所言:“这项技能不归于历史,也不归于本相——它归于速度与流量。” Sora 2 本意是下降创造门槛,让人人都能拍出“想象中的短片”,但如今,它也成了AI伦理与监管的试金石。在缺少强制检查与透明算法的布景下,AI生成视频或许成为虚伪信息、仇恨言论和版权纠纷的新温床。 现在,OpenAI没有对暴力与种族内容事件作出详细回应,仅表明“将持续改进安全机制”。如何在新技术的浪潮中履行好平台责任,成为一个紧迫问题。 |