当前位置:首页 >评论专栏 >《科学时评》>正文

各尽其责,维护技术向善的底线

 2025/10/17 9:32:30 《科学时评》 作者:中国青年报 我有话说(0人评论) 字体大小:+

近日,一张西安大雁塔玄奘法师铜像长满青苔的图片在网络上广泛传播,引发热议。经向西安大慈恩寺求证,网传图片系AI生成,内容与事实不符。该事件再次将AI生成内容的真假争议推向台前——如今,这类虚实难辨的内容正随人工智能的普及不断涌现。信息真实是社会信任与秩序的基石,AI作为内容生产的新引擎,其服务提供者与使用者能否履行义务,直接决定着技术红利能否转化为社会价值。唯有各类主体恪守真实底线,才能避免数智时代陷入真假不分的信任危机。

人工智能不同于传统技术工具,其技术特性决定了提供者和使用者必须共担责任。这既是遏制信息造假的关键,也是维护社会秩序的必然要求。AI技术的发展速度已远超传统监管响应周期:一条AI合成的虚假谣言,几小时内就能演化为舆情事件;一段伪造的外卖小哥与保安的冲突视频,可迅速激化社会情绪。从消费者因AI虚假测评误购劣质商品,到企业因深度伪造文件遭遇商业诈骗,虚假内容的扩散往往始于服务提供者的技术失范,因使用者的放任传播而愈演愈烈。如果将AI比作“汽车”,服务提供者就是“制造商”,既要确保“车辆”性能达标,也要为安全使用设定基础规范;使用者则是“驾驶员”,需遵守“交通规则”,对自身行为负责。二者各司其职、相互配合,才能保障“道路交通”顺畅安全。网络空间的健康发展,需要技术提供者与使用者各尽其责,坚守技术向善的底线。

在人工智能时代,AI服务提供者作为技术源头,应当承担首要责任。这包括3个方面:其一,履行内容标识义务。服务提供者应借助数字水印、元数据嵌入等技术,对AI生成内容进行明确标注;同时,要建立分级分类的风险提示机制,针对不同应用场景设置差异化的警示信息。例如,在新闻生成场景中明确标注“AI辅助创作”,在图像生成工具中提示“内容含虚构元素”。这种标识既是对用户知情权的尊重,更是构建信任的基础。其二,构建算法伦理审查义务。算法设计不能仅以流量和效率为导向,而应嵌入真实性评价指标,运用大模型进行信源核查,将虚假内容处置周期压缩至小时级,杜绝技术沦为造假工具。其三,履行数据全生命周期管控义务。AI生成内容的品质取决于“输入成色”,《生成式人工智能服务管理暂行办法》已明确要求数据来源合法、质量可控,并要求说明算法机制机理,这就需要服务提供者应在事前严格审查语料安全,事中实时监测异常使用,事后快速响应侵权投诉,确保训练与生成环节的真实性。

媒体与记者作为AI使用者,更需以专业操守守护内容真实。面对“AI幻觉”问题,媒体应当遵循“辅助而非替代”的原则,摒弃单一的内容核查模式,构建技术审核与人工核实相结合的双重防线。在新闻生产中,AI虽能够提升信息采集和初稿写作的效率,但事实核查、价值判断等核心环节仍需人工主导。这种义务履行不仅是媒体职业伦理的体现,更是对公众知情权的保障。在AI生成内容日益增多的今天,媒体的专业验证已成为区分事实与虚构的关键标尺。

博主、主播等内容创作者与普通网民,同样需承担合法使用AI的法律和道德义务。前者作为具有社会影响力的群体,是网络空间中的流量枢纽,需在信息生产传播中坚持诚实守信、尊重他人合法权益和规范内容标识的义务。一方面,要在广告推广、内容创作等场景中明确披露AI的使用情况;另一方面,还需对AI生成内容进行必要的审核与标注,避免误导受众。这种自律不仅是对粉丝负责,更是对自身社会声誉的珍视。

对广大网民而言,树立负责任的传播意识、提升数字素养、培养批判思维同样至关重要。面对可疑内容,要主动通过主流媒体和权威平台提供的查询功能进行核实,拒绝“随手转发”的传播惯性,不做虚假信息的“二传手”。正如驾驶员需要考取驾照、学习交通规则,数字公民也应当掌握必要的辨识能力,恪守传播伦理。

人工智能本身并无善恶,其价值实现取决于服务提供者的良心守护和使用者的义务坚守。服务提供者以技术伦理构建向善源头,新闻机构以专业责任把控内容品质,内容创作者与广大网民以传播自觉守护道德底线——只有社会各界深度参与,共同维护治理生态,才能推动AI健康有序发展。这是对数智时代信任底线的守护,更是技术与人文和谐共生的应有之义。(卢家银)

版权声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。