AI凭空给人“判刑”,底线何在?
黄玉婷(广西大学)
据上观新闻报道,北京某知名国际高中音乐教师小河(化名),用AI搜索自己名字时,竟被虚构出“因猥亵学生获刑10年”的犯罪记录。
这般离谱的AI幻觉,让毫无涉案的当事人平白蒙受污名,而此类AI“造谣伤人”事件,早已不是个例。北京律师黄贵耕遭百度AI张冠李戴,被安上“威胁法官、非法吸存”等罪名,已提起索赔诉讼;江苏一男子利用AI换脸伪造他人不雅照传播,最终因诽谤罪获刑一年三个月。
AI生成内容以假乱真、言之凿凿,让受害者背负着名誉受损、社会偏见、维权成本高昂的沉重代价。小河的遭遇更是敲响警钟:当AI幻觉以“判决书”的形式,虚构他人人生、篡改个人名誉,我们必须正视核心问题:AI的“信口胡说”绝不能没有边界,技术开发方与服务平台,必须对虚假生成内容承担起应尽责任。
从危害程度来看,AI编造的虚假信息,远超普通信息偏差。对于教师而言,“猥亵学生”的指控无异于职业生涯的“死刑判决”,即便后续澄清,也难消除旁人“无风不起浪”的偏见;对于律师来说,虚假犯罪记录更是对职业信誉的毁灭性打击。
更值得警惕的是,此类AI谣言并非随意拼凑,而是精心构造出完整叙事逻辑。小河一案中,AI甚至梳理出事件爆发、部门通报、法院判决、入狱执行的完整时间线,还附上学校停职通报。这种结构化的虚假信息,借着公众对AI“客观公正”的信任,将技术幻觉包装成司法事实,欺骗性与传播力远胜传统网络谣言。
究其根源,此类离谱的AI“凭空造罪”,主要源于三方面问题。首先,生成式AI的训练数据混杂了大量未经核实的网络信息,模型本身不具备事实判断能力,只会盲目且“自信”地编造内容,黄贵耕案中AI随意替换姓名、张冠李戴,正是此类问题的典型体现。其次,AI服务提供商缺乏完善的内容审核与快速纠错机制,小河发现问题后,多次联系客服、提交证明材料,甚至向市民热线反映,耗时一年才让虚假链接失效,迟缓的响应速度,放任虚假信息持续传播、持续伤人。更关键的是,当前法律针对AI生成虚假信息的责任认定尚不清晰,受害者难以明确追责对象,维权路径漫长、成本高昂,普通人根本无力承受这般耗时耗力的自证清白。
小河的遭遇绝非个例,这是关乎所有人的警示。任何人的姓名、职业信息,一旦被AI错误关联负面事件,就可能沦为“数字判决书”下的囚徒。试想,求职时用人单位用AI核查背景、家长用AI了解教师口碑、合作方用AI核验商业资质,若AI频繁输出有损人格的虚假信息,整个社会的信任机制都将遭受根本性破坏。而且这种伤害具有不可逆性,“造谣零成本,辟谣一整年”,即便虚假链接下架,搜索引擎缓存、网络截图传播仍会持续造成负面影响。技术发展的初衷是造福人类,绝非让普通人在算法幻觉里疲于奔命、自证清白。
AI可以有技术层面的容错空间,但绝不能冒充事实、伤及无辜,更不能成为不负责任的“造谣者”。
遏制AI幻觉伤人,需从三方面筑牢防线。首先是完善法律法规,明确AI服务提供商的内容核查义务与纠错时限,超时不作为需承担相应赔偿责任;其次,需搭建便捷高效的受害者申诉通道,压缩虚假信息存续周期,杜绝“一年才纠错”的荒诞情况;最后,要加强行业自律,在AI搜索结果显著位置标注风险提示,明确“内容由AI生成,可能存在误差”,同时优先展示权威信源内容。
技术是服务人类的工具,而非判定他人的法官。当AI开始随意给普通人“判刑”,我们每个人都可能成为下一个受害者。在追逐技术创新的路上,必须守住底线——保护每一个普通人的名誉与尊严,才是技术发展最该坚守的初心。


