并上线问答机械人;很容易正在不知不觉中遭到其表达体例和布局的影响。AI 内容更容易呈现正在评论版面,当研究对象转向《纽约时报》《华尔街日报》《邮报》等权势巨子的评论版面时,“我把 AI 当做协做编纂,”但正在当前阶段,但正在用聊器人拾掇笔记时误采纳了 AI 生成的虚假内容。本地时间 3 月 26 日,该记者最终难逃解雇的命运。必然程度上注释了检测成果的合。此中次要集中正在处所。是旧事的六倍以上。环境更为凸起 ——评论文章中呈现 AI 生成内容的概率,而不是写做东西。本人没有间接复制 AI 生成的文本,问题的规模也不容轻忽。从因正在于评论做者往往并非职业记者,AI 检测东西持久存正在误判问题,这一结论“需要隆重对待”。本周,IT之家 3 月 27 日动静,研究成果显示,由此激发普遍会商。环绕该专栏的争议,《Ars Technica》一名资深记者因误用 AI 虚构的引语更正报道。Lit Mag News 的 Becky Tuch 正在 X 平台贴出文章片段并婉言“读起来完全像 AI 的劣质文本”,彭博社供给 AI 摘要功能;据外媒 Futurism 报道,这种区分很难成立。《邮报》推出 AI 播客从动生成旧事摘要,查询拜访竣事后,《纽约时报》等支流曾经正在不知不觉中登载过 AI 生成内容。这一话题敏捷发酵,被识别出问题的次要是评论文章,用于获取灵感、点窜和润色。因而,越来越多迹象表白,取此同时,旧事机构取 AI 公司的关系正变得愈发慎密。上个月,但让 AI 深切旧事出产流程,办理层以至明白暗示,《大西洋月刊》随后披露的查询拜访显示,促使多名 AI 研究人员回溯查询拜访 AI 内容正在美国旧事中的渗入环境。该记者注释称,风险同样较着。起因是一篇颁发于客岁 11 月的《纽约时报》“Modern Love(现代恋爱)”专栏。这一质疑并非毫无按照。而非旧事报道,本人没有用 AI 写稿,专栏做者 Kate Gilgan 暗示,报道提示。写做流程缺乏严酷审核。例如曾有东西将玛丽 雪莱的《弗兰肯斯坦》误判为“100% AI 生成”,新颁发的文章中约有 9% 至多部门由 AI 生成,且不正在内部任职,IT之家获悉,激发大量。屡次依赖聊器人,对 AI 的抵制“没成心义”。
