近日,洛杉矶时报的亿万富翁老板帕特里克・松雄(Patrick Soon-Shiong)向读者发布了一封信,宣布该报将采用人工智能技术,为部分文章添加 “声音” 标签。这些文章若持有 “立场” 或从 “个人角度” 撰写,将会被标识为 “声音”。同时,AI 还将生成一组名为 “见解” 的内容,以要点形式展示在文章底部,内容包括一些标注为 “对该主题的不同看法”。
松雄在信中表示,“声音” 标签不仅限于意见专栏的内容,还包括新闻评论、批评、评测等。如果某篇文章持有立场或采用个人视角,便可能会被标记为 “声音”。他认为,提供更多样化的观点有助于支持媒体的新闻使命,帮助读者更好地理解当前国家面临的问题。
然而,这一变化并未受到洛杉矶时报工会成员的欢迎。工会副主席马特・汉密尔顿(Matt Hamilton)表示,尽管工会支持一些帮助读者区分新闻报道和意见文章的举措,但他们并不认为未经编辑团队审核的 AI 生成分析会增强媒体的信任度。
变更实施后不久,已出现了一些可疑的结果。《卫报》指出,洛杉矶时报在一篇关于 AI 在历史纪录片中未经监管使用的危险的意见文章底部,AI 工具声称该文章 “总体上与中心偏左的观点一致”,并暗示 “AI 使历史叙事民主化”。此外,在一篇关于加州城市在1920年代选举三 K 党成员担任市议会的报道下,AI 生成的一个观点声称当地历史记载有时将三 K 党描述为 “回应社会变迁的‘白人新教文化’的产物”,而非一个明确仇恨驱动的运动,淡化了其意识形态威胁。尽管这一表述在某种程度上是正确的,但其呈现方式似乎笨拙,与文章的主题存在一定的对立。
理想情况下,若使用 AI 工具,应进行一定的编辑监督,以防止如洛杉矶时报目前面临的问题。缺乏监督可能导致各类错误,例如 MSN 的 AI 新闻聚合器错误推荐景点,或是苹果在最新通知摘要中错误解读了 BBC 的标题。
尽管其他媒体机构也在新闻运营中应用 AI 技术,但通常并不用于生成编辑评估。彭博社、美国今日、华尔街日报、纽约时报和华盛顿邮报等多家媒体都在以不同方式使用这一技术。
划重点:
🌐 洛杉矶时报引入 AI 技术为文章添加 “声音” 标签,并生成 AI 分析见解。
📰 工会成员对 AI 生成的分析表示担忧,认为缺乏编辑审核会影响媒体信任。
🔍 AI 分析已出现问题,部分观点与文章主旨存在矛盾,引发公众关注。