那个视频,你可能也转过。
画面里,一个女孩走在盲道上,一辆车径直驶来,撞了上去。视频只有十几秒,却让无数人愤怒、心疼、转发。
然后,它被证实是假的。
网警发了通报:蓄意摆拍,行政处罚。镜头里的”车祸”是设计好的,盲道是真的,受害者是假的。那条让全网揪心的视频,从头到尾是一场表演。
假的。
这两个字很轻,却砸得很重。
我们愤怒的那一刻,没有人质疑视频是真是假。我们心疼的那一刻,没有人要求看原始素材。我们转发的那一刻,自动站到了”正义”的一边。
这就是假视频最狠的地方——它消费的,不是盲人的权益,而是公众的善意。
盲道,对于真正看不见的人来说,是命。《中华人民共和国道路交通安全法》第三十八条明确规定,盲道不能被占用、不能被损坏。这是写进法律里的生命线。摆拍者把盲道当成背景板,把伪造的车祸当成素材,把几千万人的眼泪和愤怒,当成了流量。
他赌赢了流量,输掉的是什么?
先说法律层面
网警通报里写的是”行政处罚”。依据是《治安管理处罚法》第二十五条:散布谣言,谎报险情、疫情、警情或者以其他方法故意扰乱公共秩序的,处五日以上十日以下拘留,可以并处五百元以下罚款;情节较轻的,处五日以下拘留或者五百元以下罚款。
这个处罚不轻。但如果我们细想,这件事的影响,真的只停留在”扰乱公共秩序”吗?
视频在多个平台登上热榜,播放量以百万计。“盲道危险”这个议题被大规模讨论——但讨论的依据是一段伪造的视频。这意味着,在真相揭晓之前,无数人收到的信息是变形的。他们的担忧、愤怒、共鸣,都是基于一个谎言构建的。
更深一层:如果这段视频被境外媒体或别有用心的账号引用呢?“看,中国盲道不安全,中国政府对弱势群体漠视”——这种叙事一旦出口,辟谣的难度会比视频本身的传播还要大十倍。
好在这一次,辟谣跑赢了谣言。但这不该只是一场幸运。
再说平台
多个平台同时将这条视频推上了热榜。算法在追流量,而造假视频天然带有高情绪值——愤怒、震惊、同情,这些是算法最喜欢的”饲料”。
《网络信息内容生态治理规定》第三条明确要求,网络信息内容生产者应当真实、准确、完整,不得发布虚假信息。但现实是,平台的审核系统对摆拍类视频的识别能力仍然有限。“车祸”画面稍加剪辑,配上悲伤的背景音乐,系统判断它”真实”并不困难。
这不是平台的原罪,但确实是平台的短板。
然后是AI
2024年了,摆拍已经不满足于手机录像。AI生成图像、AI配音、AI换脸——这些技术正在让”眼见为实”变成历史上最不可靠的成语。
如果下一个类似视频,是AI生成的”真实场景”呢?如果造假者不需要真的开车,不需要真的撞人,只需要一行prompt(提示词)呢?
现有的法律框架,对传统摆拍有约束力。但对AI生成内容的监管,还存在大量空白。《互联网信息服务深度合成管理规定》已经出台,明确了标注义务,但执行层面,距离真正落实还有距离。
这不是危言耸听。技术跑在法律前面,从来都是常态。
最后,想说说那群人
盲道上,真的有盲人在走。
中国的视力障碍人士超过1700万。他们中的许多人,每天都在和被占用的盲道、被损坏的盲道、被忽视的盲道搏斗。他们走路的方式,是用脚底去感知,用耳朵去倾听,用比我们想象中更艰难的方式,维持着最低限度的尊严和自由。
他们需要一条真正能走的盲道。不需要被消费,不需要被代言,更不需要被一场摆拍剥夺公众对盲道问题的关注。
下一次,当一条真实的盲道新闻出现,公众还有多少心力去关注?
这才是这场流量豪赌,真正的代价。
信任这东西,建立起来需要很多年,毁掉它只需要一条假视频。