作者: 查理·贝克特
六年来,在谷歌新闻计划的支持下,我一直在伦敦政治经济学院通过我们的全球 JournalismAI 项目研究人工智能对新闻出版商的价值。这是一段激动人心的旅程,全世界数百名记者都参与其中,他们对机器学习、自动化和数据发现的益处充满好奇。但在过去的 18 个月中,这项技术取得了飞跃,突然之间,每个人都在谈论和试用 ChatGPT 和 DALL-E 等“生成式”人工智能。那么接下来会发生什么?你应该怎么做呢?
本文将带你了解一种接触生成式人工智能的策略。它将试图避免对机器人接管的 反乌托邦炒作和营销泡沫。我的专业意见很简单。是的,这是技术上的一个重大“阶跃变化”,但它不是奇迹。是的,它开辟了令人难以置信的创造潜力和提高效率的机会。但它也是不可靠的,并且发展迅速。它对用户、出版商和整个社会都存在着严重的缺陷和风险。因此,要谨慎对待,但也要带着明智的热情。
区别
那么,“生成式人工智能”与我们之前称为人工智能的那一揽子技术有什么区别?这不是一篇技术文章,但简而言之,旧的人工智能要么是监督学习,其中算法从标记数据中学习——它是由程序员训练的。然后,它对给定的新数据进行预测。所以你搜索猫的图像。它给你一张猫的图片,因为它被教导这样做。它是一个语言预测机器,而不是一个真相机器。它什么都不知道。
GPT 代表“生成式预训练转换器”。生成式人工智能专注于生成新数据。它使用统计模型来学习给定数据集的底层模式,然后生成新的数据点。它通过使用庞大的“大型语言模型”来做到这一点,这些模型使其能够连贯地响应你给出的问题或“提示”。它试图预测你想要的答案。它并不知道或不理解它给出的答案。它没有知觉。但它擅长于给人一种它有知觉的错觉。
ChatGPT 或 Midjourney 等图像生成器等程序之所以成功,部分原因在于它们拥有出色的用户体验。你只需给它一个提示,就会发生一些事情。如果你尝试过,你一定会对它能够创建对各种请求的响应的能力印象深刻、感到兴奋,甚至可能有点害怕,从请求笑话或诗歌到回答生命的意义。
正如你所看到或读到的,很快就会达到它的极限。像 ChatGPT 或谷歌的 Gemini 这样的程序旨在告诉你它不能做什么。它会试图提醒你,它只是一段软件,而不是一个人。如果你问它一个简单的问题,它会给你一个非常明智、正统的答案。如果你进行持续的复杂思想对话,它会很吃力。它可能是人工智能,但它并不真正“智能”。它容易产生“幻觉”。这些不是故意的“谎言”,因为生成式人工智能没有“真相”的概念。它只是试图预测答案应该是什么。因此,它可能会编造虚假的事实或虚假的来源,因为它预测它们应该存在。稍后会详细介绍这些缺陷。
非凡的潜力
对出版商来说,这种潜力相当非凡。这是一篇包含一些很棒的用例的文章。我们已经看到了出版商如何以创造性的方式使用以前的人工智能技术。《华盛顿邮报》的 Heliograf 自动撰写关于体育比分或选举结果等简单故事的文章。路透社的 News Tracer 允许它发现、跟踪和帮助验证社交媒体上出现的新闻报道。《纽约时报》的 Project Feels 自动生成个性化的故事摘要,试图理解文章的情感基调。
生成式人工智能提供了成倍扩展的机会。但目前,我永远不会在没有人为监督的情况下使用当前的生成式人工智能工具直接发布内容。这太冒险了。相反,最好将生成式人工智能视为一组工具,可以补充你的工作流程并增强你的新闻收集、内容创建和分发。有些收益对消费者来说是不可见的。程序员说,生成式人工智能在编程效率方面给了他们巨大的收益。视频和音频编辑说,它给了他们聪明的捷径。
记者告诉我,ChatGPT 及其同类产品对帮助他们进行创作非常有用。你可以用它来集思广益,尝试不同的风格或格式。你可以给它一个相对较大的文本——也许是一篇学术文章——并要求它用简单的英语或要点进行总结。但对于任何复杂的事情,你都必须检查结果。你不能依赖它。也许这与使用来自社交媒体、网站甚至来自通讯社或其他媒体的复制内容没有什么不同。它并非万无一失。
图像生成也是如此。生成式人工智能图片完全是“虚构的”。它们不直接使用现有的图像。它们正在预测你的提示所暗示的内容。这可能会使它们对图形、营销或文章插图有用。它们很可能比库存照片更有趣。但是,报道世界上真实发生的事情的新闻图像的重点在于它必须是真实的。从这个意义上说,这是一个出版商长期以来一直在做出的非常简单的区分。
因此,潜在的好处巨大,但也存在严重的风险。我看到了三种风险。首先,生成式人工智能的普遍危险。数据集可能存在偏差或不完整。该算法可能会“产生幻觉”,给出错误的答案或来源。其次,出版业和新闻媒体存在普遍风险。如果它犯了错误,谁来负责?它是否侵犯了隐私或盗用了其他人的内容?(包括出版商的)它是否可能成为一个不公平的竞争对手,也会加剧错误信息和宣传的传播?然后是第三,对记者或出版商的具体危险。我已经在本文中提出了一些。一般来说,可以通过遵守通常的最佳新闻实践来解决这些问题。编辑。检查所有内容,有多个来源,然后查看结果。
那么,你应该采取什么策略来从生成式人工智能中受益呢?我的建议与处理更基本形式的人工智能没有什么不同。
- 组织中的每个人都需要一些生成式人工智能知识
确保你组织中的每个人都有一些关于生成式人工智能的基本知识。有很多介绍性文章和课程。你的人员需要了解人工智能和生成式人工智能,因为他们肯定会使用它,将来他们会更多地使用它,他们报道的世界也会使用它。
- 分配生成式人工智能的责任
确定你组织中可以负责掌握这项技术及其快速发展的人员。你需要了解它可能如何与你的工作流程、使命和业务模式相关联。你应该如何改变你的招聘政策和技能组合?至关重要的是,他们在整个组织中开展工作,收集所有员工的见解和意见。解决问题并传播最佳实践。
- 探索
探索现有的用例。想想它可能解决或改善哪些问题。它可能会增强哪些流程?哪些事情需要保持“人性化”?试用这些工具来建立你的信心和人工智能素养。围绕生成式人工智能创造一种自信而不是恐惧的文化。
- 迭代和审查
从小处着手。尝试,然后再尝试。做到了,然后复习。它是否节省了时间?它准确吗?它是否提高了内容质量和用户体验?你能开发新的产品或系统吗?
- 指南
降低道德和编辑风险。仔细考虑对你的声誉的潜在危险。制定指南——已经有一些很好的例子是明智且有用的。但要自己仔细考虑,并让所有员工参与到这个过程中来。每个出版商都不一样。指南可以给你的员工信心,也可以向广告商/资助者和受众传递积极的信息。
这又是一个挑战,不是吗?你已经竭尽全力维持生计和发展。我们又来了。首先,你在多年前就上网了。然后,你不得不在大约十年前处理社交媒体。也许你现在才是真正的“数字优先”。然后,人工智能出现了,也许你用它来改进你的订阅流程或个性化新闻通讯?现在,又一次,镇上出现了一个新的技术小子,它需要引起注意,并威胁要颠覆一切。
一位顶级数字新闻主管最近对我说,我们必须问问自己是否有处理生成式人工智能的愿望、时间和技能。好吧,如果你在这么多年的变化中都走到了这一步,那么也许你已经做到了。陈词滥调是我们夸大了这些技术飞跃的短期影响,而低估了它们的长期影响。在这种情况下,这很可能是真的。你确实有时间看看这是怎么回事。它将迅速发展,尽管监管机构可能会介入以限制其发展。一些新闻机构将与 LLM 达成协议。其他人可能会发现他们的基本商业模式受到威胁。但无论发生什么,都必须关注生成式人工智能,并立即开始思考它可能如何改变你的工作生活和你的业务。
查理·贝克特是伦敦政治经济学院媒体与传播系教授。他是伦敦政治经济学院新闻智库 Polis 的负责人,并领导 Polis/伦敦政治经济学院新闻与人工智能项目。
伦敦政治经济学院的 JournalismAI 是一个开放的全球项目,提供一系列免费培训课程、案例研究、文章、研究报告和工具,帮助你探索人工智能和出版。我们在全球拥有 10,000 人的网络,他们面临着与你相同的挑战。请加入我们!
Upvoted! Thank you for supporting witness @jswit.
Downvoting a post can decrease pending rewards and make it less visible. Common reasons:
Submit