我在刷短视频的时候,看到有个韩国女明星的短视频底下,有个人评论,大意是说这个女明星以前在疫情的时候,捐了10亿韩元给中国。。。这个评论引发了很多人的点赞和评论。
我当时好奇,就去搜索了下,结果是:没有搜到任何关于这位明星10亿韩元的捐款。
看到这帮人这么吹捧那位女明星,我既无聊又有些八卦地留言问,
请问,这个捐款10亿韩元的新闻出处哪里?
结果呢,那人很快回复了我,说是证据确凿,还让我搜某度。。。
一听要搜某度,我就觉得不靠谱,这玩意早都烂大街了,上边一大堆垃圾数据和广告。。。
隔了一会,那人发了他认为“证据确凿”的截图,是某宝AI回复的信息,大意是说经过搜索的确有这个影星捐款过10亿韩元信息。。。
我用chatGPT再次问了下,回复如下,

我再搜索了下,确实没有任何关于这个明星的“10亿韩元”捐款信息,这下可以肯定,这个所谓的“10亿韩元捐款”纯属是这些无脑的粉丝杜撰编造的。
“给中国捐10亿韩元”目前缺乏可信来源,不能当真。
不过也不能说这个明星没有任何捐款,chatGPT也给出了依据,
洪真英在新冠初期确实做过与武汉侨民/医护相关的防疫物资捐赠(捐了约 5000个口罩)
对,是捐了5000个口罩,不是10亿韩元。
我在网上看了下,类似这样的虚假消息满天飞,很多人点赞、评论和认同,说这个女星很爱中国云云,有人甚至建议让这位女性加入中国国籍。。。
可以看到,现在网上造价的成本实在太低,只需要一句话,很多人就盲目相信和认同。像这类不触犯到个人利益的,估计绝大多数人都懒得去较真和辨别真伪,反而给造谣者制造了很大的便利,让很多无脑者盲目相信,甚至崇拜,不能不说讽刺之极。
这真应了那句话,“造谣一张嘴,辟谣跑断腿。”
AI大模型的底层训练数据来自互联网,数据的真实程度取决于大模型训练的数据。
比如像chatGPT这种来源于公开网络资料,虽然可信度较高,但依旧不乏存在一些虚假不实的数据。
至于像其他一些如前边提到的某宝AI,这类AI采集的训练数据大多来自于短视频,而短视频上的信息不仅跟现实脱节,与传统的互联网都有间隔,大量夸张、虚假的内容不乏其中,用这类缺乏真实依据的内容作为训练基础,其可信度可想而知了。

是的,不能全信,有的还需要自己去核实一下。
是的,有些不但得自己验证,而且还要防止被它讨好型忽悠了
ChatGPT想象力很强,要小心。
对,有些还得自己验证。