首页> 网络焦点>正文

全球新闻业人工智能应用调查报告

2020/1/22 16:10:38 来源:互联网 编辑:匿名

编者按:本文来自微信公众号“腾讯媒体研究院”(ID:TencentMRI),作者:Charlie Beckett,36氪经授权发布

AI(人工智能)、机器学习和数据处理的实际应用状况和其具备的潜力表明,它们将赋予新闻工作者全新的力量:发现、创造与连接。

未来我们可以期待的是,新闻工作者能够通过算法进行“充电”,以更有效的新方式发挥人类擅长的技能。人工智能还会改变新闻编辑室,使其从单一性生产线转变为网络信息和参与中心,让工作者推动新闻行业进入数据时代。

算法将为系统提供动力。但是,新闻中的人情味——来自新闻工作者的洞察和判断——将弥足珍贵。新闻界能否抓住这个机遇?

互联网、社交媒体和移动通信为新闻业提供了新的工具和途径。现在,人工智能将带来新一次技术飞跃。但它同时也会带来经济、伦理和编辑层面的威胁,而我们是否意识到其中的问题?在21世纪,依靠算法获得增强的新闻工作者,以及使用人工智能的新闻机构,都在进入另一大过渡阶段。新闻如何维持其公共价值?

为了了解新闻媒体对人工智能的看法,以及新闻界接下来的可能做法,伦敦政经学院的查理·贝克特教授率领团队进行研究并发布了《全球新闻业人工智能应用调查报告》。

报告基于对来自32个不同国家的71个新闻机构在人工智能(AI)和相关技术方面的态度和使用情况的调查,邀请了许多正在使用AI的记者回答以下问题:对AI的理解、在新闻编辑室中如何使用AI、对AI新闻业潜力及风险的看法、对AI伦理的了解。除此以外,研究团队在新闻业相关会议上还进行了采访,与新闻业相关从业者沟通交流,以作为补充。


其中大多数受访者都是技术专家,是最早运用数字技术的人,所以他们比随机抽取的记者样本要更了解AI。此次报告选取了116名来自不同部门的记者,并展现他们对AI的观点。


腾讯媒体研究院对报告全文进行了编译,通过这份长达4万字的报告,我们能够理解全球范围内的媒体机构是如何理解并运用AI的,以及如何从内容到组织对AI进行全流程的配套。

1.报告核心摘要

2.人工智能在新闻编辑室中的定义

3.当今新闻业如何使用AI

4.AI策略的制定

5.编辑与道德伦理

6.人工智能和新闻的未来

7.结语:人工智能对新闻业意味着什么?

温馨提示:由于报告篇幅较长,若有需求可直接滑至文中感兴趣部分进行阅读,以提高效率。


1.人工智能(AI)是一系列包括机器学习、自动化和数据处理的技术,目前已成为新闻业的重要组成部分,但应用地域分布不均。

2.它对未来的影响尚不确定,但人工智能对新闻的产生和消费具有广泛而深远影响。

3.即使是对AI运用在行业领先的新闻编辑室,也认为AI只是作为新闻业的附加品和催化剂,而非具有变革性影响。

4.本报告中描述的“力量”和“潜力”清楚地表明,所有新闻编辑室都应该警惕AI的作用。

5.新闻编辑室将AI定义为与人类或技术相关的事物。

6.未来应该对AI进行系统定义来帮助制定策略并促进对新闻编辑室中的AI的理解和沟通。

7.不到一半的受访者表示,他们使用AI进行新闻采访,三分之二的人表示他们将其用于生产,一半以上的人表示他们使用AI进行分发。

8.受访者普遍希望提高效率腾出资源,以增强编辑室的功能,并提供新的或经改进的内容和服务。

9.使用AI的三个主要动机是:使新闻工作者的工作更有效率(68%);向用户提供更多相关内容(45%);提高业务效率(18%)。

10. 三分之一多一点的受访者表示自己有一个积极的人工智能战略。

11. 布局AI战略的主要方法有四种:对现有部门的管理;设立独立团队从事AI项目;整合技术和编辑架构;实验小组制——分散或整合。

12. 新闻编辑室大概可以分成两类,一类是已经做好了运用AI的准备,另一类则刚刚开始或仍在计划中。

13. 人们非常担心自己的新闻编辑室落后。对于小型新闻编辑室来说,这是一个特别重要的问题,因为这会导致新闻编辑室之间的不平等日益加剧。

14. 人们发现新闻编辑室的岗位正在发生更多变化:现有工作增加而非替换。现有职位的人员将会有新的任务、工作流程,但很少有针对AI的新岗位。

15. 受访者认为运用AI的最大挑战是财政支出(27%)和知识技能(24%)。但是与这些一样重要的是企业文化层面的抗拒(24%),这里面包括害怕AI会导致自己改变工作习惯,以及对新技术的普遍敌视。缺乏对AI的了解(19%)以及缺乏战略管理洞察力(占17%)也是关键要素。他们认为AI的搭建和管理成本通常很高。

16. 从我们的调查中可以明显看出,这些新闻编辑室普遍缺乏战略规划。人工智能战略将始终根据新闻编辑室的性质以及他们所处的阶段而变,但从这项研究中得出了以下需要考虑的关键要素:

评估AI现在的准备阶段和状态;

了解你正在考虑使用的人工智能技术并为其分类;

确定AI如何与您的品牌和总体策略相关,它能解决的问题,或它可以满足的需求;

评估机构的哪些领域可能使用AI及其原因;

确定主要障碍:资源、技能、文化、管理等,并计划如何系统地解决它们;

分配角色和职责并建立沟通整个组织的结构,包括所有利益相关者;

建立监测和审查绩效的系统和优先事项;

建立与合作伙伴、客户和广泛的AI资源的外部联系,以调查和整合人工智能创新;

17. 大多数受访者表示他们对AI持有信心,但前提是新闻机构保留其道德准则和编辑立场。

18. 新闻编辑室确定了六个AI可能改变的领域:

经济:AI可能会带来效率的提升及成本的降低,可将节省出的资源用于提高新闻质量;

算法偏见:数据使用不当可能导致编辑错误,例如不准确或失真信息甚至歧视某些社会群体或观点;

错误信息/过滤气泡:人工智能将助长虚假信息泛滥。粗暴地使用个性化分发会导致偏见或冲突。但是管理良好的AI可以帮助应对错误信息并提高公共信息质量;

增强编辑决策和透明度:人工智能可以帮助纠正偏见并增加故事及受众的多元化。它可以帮助提高新闻的透明度;

平衡人类和人工智能:AI新闻业保留了人类的价值,甚至增强了人类的判断力和创造力;

科技公司的作用:有人担忧科技公司的力量可能会成为竞争对手,并担心技术会控制研究和产品开发。但他们还被视为创新、工具和系统的来源。科技公司有必要增加透明度、与新闻业的持续对话、支持。

19. 未来将出现三个层面的思考:

第一:短期内改善和迭代现有的产品和编辑团队;

第二:中期2-5年内对新的应用程序进行创新;

第三:长期的创新和试验可能会使用全新的方法或结构;

20. 当我们问到他们如何面对未来AI的挑战时,回答最多的两个答案与技术并没有直接关系:在新闻编辑室进行培训、教育和扫盲(44%);招募有新技能的人才(43%)。

21. 受访者的未来AI工具愿望清单中最常提到的三个工具是:更方便的标记/信息提取(新闻收集);更好的机器生成内容(新闻制作);更好的个性化/推荐引擎(新闻发布)。

22. 受访者最希望接受培训和教育的六个方面是:

AI素养:在新闻机构中促进理解;

AI技能:基本技能,例如编码和数据培训;

更高级的AI技能:促进创新并作为全体员工职业发展的一部分;

对于管理人员:提高全体意识并了解AI系统和其他AI模型;

道德伦理:了解如何减少算法或数据偏差并提高准确性和可靠性;

对AI的总体了解:对AI及其对用户和社会的影响具有更科学的了解。

23. 尽管存在竞争压力,但人们仍希望提高标准和创新并提倡协作:

新闻机构内的各个部门;

新闻机构之间——既在故事层面也在技术发展层面;

国家内部或跨国合作;

与科技公司合作;

与初创企业和中介组织合作;

与大学/研究人员合作。

24. 人工智能将以渐进的方式重塑新闻业,但具有长期的结构性效应,反映出新闻媒体如何在技术、社会和商业的作用下发生变化。在一个更加网络化的世界里,人工智能将在所有领域变得更加重要。

25. AI将使新闻媒体更加“不平等”和多样化,并改变工作结构、新闻流以及与公众的关系。

26. AI将为新平台和工具提供动力,例如AR、无人机、语音、图片和文字生成以及可穿戴设备。

27. 人工智能将为信息和公众议题的探讨提供动力,尽管通常并不通过新闻媒体发生作用。新闻编辑室必须适应新的编辑权威和信任的形式。

28. 新闻业可以从其他行业中学到很多东西,包括科技公司和初创公司、营销公司和广告主,以及法律、游戏、赌博和音乐行业:他们如何使用技术来改变工作流程、营销习惯,他们与用户的关系以及道德伦理。

在我们了解受访者对AI的评价之前,应当首先明确AI的含义。通用人工智能(AGI)在操作上尚不存在,仍然只是一个假设。

机器无法像《2001太空漫游》中Hal计算机那样完全自主思考。“通用”或“强大”的AI距离今天还有数年之遥,或者可能根本无法实现。

如今在新闻和其他行业中使用的AI被定义为“窄”AI或“弱”AI,这种AI受编程限制较多。它们或许比人类更快或更有效,但实际上这只是“机器学习”(ML)或“自然语言处理”(NLP)。

许多被当作AI的技术流程通常都包含更多常规技术。这些是由人类创建或“训练”的系统,它们响应能力强且适应性强,但通常只能执行非常简单的自动化或数据处理任务。

对于此报告,我们借用了一个简单的定义:人工智能是一个与计算机系统执行能力有关的思想和技术的集合,所执行的任务通常需要人类智慧才能完成。

我们将使用“AI”作为总括性术语,并始终认为它指的是相关技术的集合。AI由算法驱动,是“为解决特定问题或完成已定义的步骤而采取的一系列步骤”。这些可以都编程为机器学习或自动化,被当作“机器人”之类的工具。

关键因素是它们在一定程度上具有的自主性和适应性程度。极端情况下,“计算机可以决定一切,自主行动,无视人类”。低端一点,“计算机提供了一套完整的决策/行动方案”供人类参考。

人工智能的运作涉及三个领域,几乎涵盖了新闻生产的所有过程:新闻收集、制作和分发。我们首先询问受访者他们使用哪种“人工智能”的操作定义。这些定义反映了主题的复杂性和方法的多样性。此外,这些定义部分反映了受访者对于AI的理解,也反映了使用该技术的动机。

尽管有些人对AI有客观或科学的定义,但大多数人还是将其定义与技术的用途和目的联系在一起,他们始终认为AI是对新闻业现有的补充——“增强型新闻”。有时,该术语的使用方式十分特殊,例如,它被用来描述用于分析数据集(例如法院记录)以进行调查的工具。此外,该术语还有更系统的使用方法,例如通过受众数据为用户提供持续的个性化内容。

新闻室定义AI的方式通常反映了AI在其组织中的作用。这些定义通常用于与同事、公众或合作伙伴进行沟通。新闻界对AI的理解也需要考虑到这些利益相关者的观点。

技术定义基于算法、自然语言处理、自动化和数据分析的思想。对于约三分之一的受访者而言,“机器学习”是关键术语:

“从技术上讲,AI是机器学习/神经网络驱动的系统,但从新闻编辑室的层面而言,我将其更多地视为自动化系统,而不仅仅是一个非常简单的工具。”

考虑到技术快速发展的特性,受访者意识到他们的定义不可能就是最终定义。当我们询问受访者更具体的想法时,部分人表示需要将其定义与“人工智能”一词的炒作区分开:

“通常而言我们根本不使用这个术语。我们对AI的定义更狭窄,例如“机器学习”,或者当我们谈论某个特定领域时,我们使用的术语是NLP(自然语言处理)或深度学习。‘AI’对我们来说只是个时髦的词。”

更多的人对AI在技术层面上的定义强调了AI的工作方式。例如,通过在管理大量数据中创建模式识别,或使用预测和分类的原理来定义AI。

与人类或任务相关的定义方法将AI视为执行、复制或模仿与人类的认知能力或“人类智能”相关的任务的能力。一般而言,他们不仅与新闻记者有关,而且与受众有关。人们几乎总是将AI定义为增强或扩展人类能力的工具:

“AI可以利用计算能力来解决基于数据的问题,并进行人力无法实现的分析——通过学习/自我完善或通过处理和分析大量数据。”

我们的受访者都是在新闻编辑室中工作或与新闻编辑室合作,而不是进行纯粹的研究。因此,几乎所有人对AI的定义都具有功能性这一点也就不足为奇了。尼克·迪亚科普洛斯曾提到关于混合AI新闻的想法:“我们将AI视为可以获取、理解信息并得出结论,然后从其决策中学习的技术。”

四分之一的受访者表示,他们的组织没有对AI的正式定义,或者正在进行讨论:

“我们没有一个对AI的正式定义。我们正在讨论这件事呢。”

英国广播公司(BBC)是个有趣的例外。也许由于其规模和操作的多样性,它对AI下了多个定义:

“英国广播公司(BBC)对人工智能没有一个特定的定义。本来不同的人会对AI从不同的角度有不同的定义,并且通常用于指代前沿先进技术。

但在BBC里人们所说的“人工智能”一词指的是一些常见的事物:(1)基于任何形式的机器学习技术(尤其是神经网络);(2)表示智能代理(例如语音代理,聊天机器人);(3)使以前需要人们完成的任务自动化进行的技术(例如,使用NLG (自然语言生成)撰写文章,自动翻译或转录等)。“人工智能”产品常常同时属于这三类。”

这个定义很重要,因为它反映了新闻编辑部可能会如何考虑其AI策略。对AI定义是为了有助于思考它与其他技术的不同之处。它反映了组织中AI素养水平以及与同事、与外界进行交流的能力。新闻编辑室采用任何新技术的核心压力之一是技术专家与其他部门之间的文化冲突。新闻机构如何定义AI可能有助于解决该问题。

随着技术的进步,新闻编辑室将拥有越来越多具有执行系统和自治功能的AI。了解什么是人工智能对于实现其潜力以及所涉及的机遇和风险至关重要。但是,新闻编辑室具有多样性,人工智能也是如此。技术及其用途不断发展,因此其定义也会改变。定义的灵活性反映了该技术及其应用的复杂现实。

我们问新闻编辑室他们在使用什么AI,为什么使用它以及有什么成效。答复大致分为三个方面:

新闻收集:信息的来源,故事创意的产生,确定趋势,调查,跟踪事件,提取信息或内容。

新闻制作:内容生成,编辑,用于不同形式和平台的包装,文本、图像和视频生成,为不同受众重新提供内容。

新闻分发:个性化分发,营销,寻找受众,了解用户行为,订阅。

不到一半的受访者表示他们使用AI进行新闻收集,三分之二用于生产,一半以上用于分发。但是,在当代的“网络化” 或“混合” 新闻业的背景下,投入与产出是一个高度相关的过程。

人工智能和新闻学的关键联系之一是,人工智能可以使整个新闻业变得更加完整,并在生产和传播过程的不同部分之间形成反馈循环。例如,AI可以将用户评论的审核视为收集、生成或编辑该内容,以及增加受众参与度的一种方式。这是一个几乎所有新闻编辑室都会进行的操作:

“推荐相关文章、机器人新闻(例如体育赛事报道)、个性化新闻源、预测性分析可优化新闻策划、语音转文字服务可提高编辑人员的工作效率、流失预测和订阅倾向预测、标签/实体识别、纠错检查。”

我们通常可以将新闻编辑室使用的AI更具体地描述为机器学习、自动化和数据处理等形式。“ AI”标签下的某些流程可能存在不同程度的限制,不可避免地会有一些灰色地带。新闻业继续经历着彻底的改革和创新过程,但我们并不是很清楚某种技术将在何处产生影响。

支撑所有AI流程的是数据:有关受众的数据,例如受众行为;有关报道主题的数据,例如官方文献;有关新闻的数据,例如情感和语言。无论使用哪种分类,我们都可以明显看出人工智能的使用正在渗透新闻业。这使得识别和评估人工智能的作用变得更加困难,但同时也反映了该技术的适应性及其与新闻业的紧密结合。

受访者对AI如何改善工作这个问题提出了“竞争力”、“效率”和“节省时间”几个答案。但是主要回答还是“AI能够更好地将创作的内容与受众有效地联系起来,从而使受众更加忠诚,能够为新闻业付出更多的精力或金钱”。还有一些回答包括处理错误信息和事实核查。

总体而言人们普遍希望使用AI来节省成本以强化新闻编辑室的功能以及提供新的内容和服务。受访者还认为使用AI需要跟上技术和市场变化的步伐。总的来说,人们感觉到AI正在发挥重要作用。

与AI相关的新闻收集是数据驱动生产的一部分。人工智能可以帮助收集资料,也可以帮助评估用户的兴趣所在:

“相对于我们的产品,我们将更多的精力放在支持我们编辑团队的决策上,而不用重新建立决策流程。我们关注的一个主要方面是信息的分析处理:我们每天都会摄取大量视频内容。我们希望AI帮助记者处理大量信息,以确定哪些信息与受众相关。”

AI可以帮助你筛选来自官方的内容,也可以筛选来自公共和社交媒体的内容,例如自动过滤UGC(用户生产内容)。人工智能程序可以按不同目的对信息或材料进行大规模分类。

为了使AI正常工作,材料就必须转换成数据,这意味着标记数据或“元数据”的过程至关重要。人工智能可以在某种程度上实现自动化。虽然这实施起来很困难,但是却为其他一切奠定了基础:

“我们为CMS(内容管理系统)内置了文章自动标记器(该标记器使用主题/关键字标记文章,以前这是由编辑完成的)。”

人工智能可以帮助新闻编辑室做内容决策:

“我们有一个内部工具,结合了数据分析和语言生成系统,可以编写全部或部分故事,并提醒记者注意数据中存在的机会。”

借助机器学习算法,发现新的新闻也成为可能,该算法可帮助新闻工作者发现可能被遗漏的趋势和事实:

“我们需要建立一个新闻档案库,去收集墨西哥尽可能多的出版物,这样我们就可以跟踪全国的每日报道。在墨西哥各地收集的大量本地和国家新闻报道的Google News就非常合适。这项工作要求我们确定正式记录的凶杀案数量与Google新闻上这些杀人事件的新闻报道数量的差别。

这要求机器学习算法能够识别一个报道的故事,然后查明事件发生的地点。有了这些信息,我们就能将媒体报道的事件与墨西哥2400多个城市的凶杀案政府报道联系起来。”

AI可以是可以帮助新闻编辑室更精细地创建内容:

“我们的编辑和记者目前使用采用人工智能来协助检查英语文章的语法和拼写。”

”我们已开始将AI用于一般文章,我们尝试将AI Writer和Deepl.com一起用于翻译。”

但是,即使是最基本的AI例行部署也始终是数据循环过程的一部分,该过程通过良好的反馈循环促进了新闻业的生产:

“我们使用信息提取工具来分离不同类型的信息,并在文章生成过程中将其呈现给记者。这样可以提高我们使用的标签的质量。我们还将其用于内部新闻跟踪。当我们从世界各地抽取数十万篇文章时,我们必须丰富每篇文章的元数据并将其分类。”

AI的另一个重要功能是进行信息核查,它可以增强内容可信性。诸如Chequeado和Full Fact之类的网站采用了机器学习工具来进行自动事实检查:

“我们使用机器学习来帮助我们将事实陈述与其他句子分开。这有助于事实检查人员确定每天要检查的内容。机器检查会自动根据信息数据库检查事实陈述。我们使用国家统计局的数据实时检查事实陈述。例如,如果有人说“自2016年以来,就业人数下降了10%”,我们的系统就会找到正确的数字并实时生成图表、给出答案。”

随着错误信息利用新技术继续大规模散布,事实核查将成为新闻编辑室的关键增长领域,例如对“深度造假”的检测。语音转文本、自动翻译、图像识别、视频制作和叙事文本生成都是其用途:

“我们的档案馆使用AI通过自动提取关键字、主题、诸如人物和地点之类的实体来自动标记内容。它们通过使用面部识别算法标记新闻视频中的面部表情来构建自己的训练数据集,目的是给没有经过训练的面部识别软件识别不出来的政客建立数据集。档案馆还使用语音转文本算法来创建字幕。由于方言识别是一个难题,档案馆通过训练方言数据算法来启动方言识别项目。”

通过AI组织材料可以自动生成内容,且通常用于社交媒体:

“我们使用的算法可以在Facebook和推文上撰写帖子。它可以处理文本、在预定时间发布推文、发送电子邮件等等。”

芬兰公共服务广播公司非常相信自己的机器人记者:

“Voitto机器人新闻记者每周制作数百篇内容(文字内容和插图)。Voitto可以为新闻应用程序以及各种新闻通讯和多个Twitter帐户量身定制内容。”

AI可以增强事件相关的用户信息收集,例如在《Sky News》最近的皇家婚礼现场直播中,该报道用面部识别技术来识别在婚礼现场的名人。

Le Monde的一个项目着重介绍了AI如何在选举期间进一步影响本地新闻报道:

“2015年,我们与Syllabs合作自动生成报道内容。法国的选举地图由大约36000个城市组成,我们无法报道每个城市,但机器人可以。我们从法国内政部获得了有关数据,Syllabs的机器对这些数据进行了分析和管理,并在36000个页面上展示出大约36000个报道,我们在这些报道中列出了数据库里的信息,例如人口、位置、先前的选举结果、财富、就业率等。”

另一位受访者指出,“自动生成和发布”不仅可以用于“足球比赛评论”,还包括“交通事故和天气预报”。自动化新闻还可以撰写新闻标题和摘要。

AI也可以辅助新闻工作者,针对特定受众量身定制海量数据集。新闻协会的“ RADAR”(记者,数据和机器人)新闻服务结合了人与机器,以“犯罪率、住院时间和学生缺课”为主题,大规模地进行了本地报道。

卫报的“ ReporterMate”就是一个将AI与人类相结合的“增强型新闻”案例:

“机器人系统能帮助记者根据特定的数据集建立简单的模型。ReporterMate于2019年1月发表的第一篇关于政治捐赠的文章就是基于澳大利亚选举委员会的数据的。”

人工智能正在促进新闻业新形式的发展,尽管对于许多受访者而言依然“路漫漫其修远兮”:

“我们还在尝试新的新闻形式。通过自动化系统进行的实验使我们能够结合各种基于数据的叙事方法。基于AI的实验使我们能够创建身临其境的内容体验,用户可以在其中直接定制内容。”

AI的许多功能还与调查性新闻有关,这部分是人类无法独自完成的:

“我们使用AI分析了大量的房屋和城市发展的图片,以识别各种住宅区的问题(例如霉菌、烟雾探测器缺失等)的集中度。如果没有大量数据集的话这是不可能的。”

人工智能还可以增加一般新闻的深度:

“我们正在使用AI来解决报道中的某些特定问题。例如,我们使用深度学习模型(ResNet)在成千上万的图像上搜索非法采矿的地方。我们还使用深度学习(基于ULMFit的模型)进行自然语言处理(NLP),从而从数百万条新闻中搜索需要的内容。我们还可以机器学习来创建不同主题的地图。我们还在其他两个项目中使用了机器学习,并从社交网络中获取数据,例如对Twitter消息进行的情感分析。”

或许新闻编辑室可以更开放地与其他新闻编辑室共享AI成果:

“我们已经与四个主要新闻机构就目前正在进行的项目进行了合作,预计将在未来几周内发布。”

AI不仅可以进行新的调查,还可以使新闻编辑室实时追踪新闻并跟踪其发展过程:

“我们用机器学习使新闻工作者披露竞选信息时更加方便。我们将继续与斯坦福大学的计算机科学家合作,并在有竞选新闻出现时,使记者更容易通过电子邮件警报获得通知。”

越来越多的创新受到基金等外部资源的支持:

“在骑士基金会的一项试点拨款下,我们正在积极帮助我们的记者和其他新闻机构的记者。例如,我们使用机器学习技术编写了有关Lyft首次公开发行股票的新闻,其中包含了Lyft风险因素的分析。我们拿到了警用直升机的飞行数据,这些可以让本地新闻编辑室实时了解他们所不知道的重大事件。”

借助AI网络新闻,内容生成和消费之间并不总是存在明显的区别。如上所述,一个案例就是AI驱动的评论审核。它增加了内容,但也是吸引读者的一种重要方式。人工审核评论很费力,但是AI可以有效减少有害言论并进一步促进互动:

“三年前我们创建了一个工具,它允许管理员创建一个评论监视列表,任何风险性评论都会提醒我们的管理员。后来,开发人员在现有基础上使用了机器学习技术,建立模型将评论分为好和坏,并进行自动审核,准确性很高。”

用户对内容的处理方式(包括参与度、共享、评论、综合浏览量和页面停留时间)可以帮助制定内容策略。《伦敦时报》花了三个月的时间使用机器学习将10个用户指标与16个不同的内容元数据(例如标题和文章格式)相关联,以了解最适合读者的内容。

结果导致为一些平台生成的内容的数量和类型发生了变化,并且更加着重于提高参与度。例如,通过社交媒体宣传哪些内容?如何使社交媒体的内容分发策略更加有效?许多新闻编辑室正在采用更全面、更个性化的方法改善用户体验:

“我们所有的网站都包含某种形式的个性化推荐。我们最大的网站的首页大约有50%的推送是个性化的。该个性化系统使用实时数据,根据各种因素向用户推荐商品。它使用一些机器学习算法,例如协同过滤、文章评分。但是,系统也有一些简单的规则。

例如,一篇文章用户看的次数越多,它的得分就越低(因此显示在页面的下方)。我们使用这项技术来推荐内容,以及进行个性化的广告分发(购买订阅),并决定何时向用户进行内容营销。在不久的将来,我们将开始个性化和自动化推送的新时代。”

每个新闻编辑室与用户之间的关系都有不同的模式,其中一些可能会因为AI流程可能受到限制:

“坦白说,我只看到了推荐应用程序,它们并不能激起我的兴趣的。它非常注重互动,但不像是在给用户提供服务。”

用户即使面对自己不想要的内容也可以对其进行个性化设置:

“我们的用户对个性化新闻产品的接受程度还很低。他们要么看不到个性化的价值,要么就不想个性化他们的新闻体验。但是在测试中,个性化内容的参与度超过了人工分发。”

一些新闻编辑室正在将个性化引入新的分发渠道,例如音频:

“我们的算法可针对音频内容,根据用户行动并结合数据(从听故事到整个过程:跳过,在社交上分享等等)为用户量身定制音频内容。我们一直致力于优化数字平台上的人均收听时间,用户在数字平台上的平均收听时间远远超出了传统广播电台。”

AI允许针对不同的细分受众群自动生成和定制内容。这对受众体验和内容制作都有影响,将会带来支持诸如付费专区和订阅之类的商业模型。诸如《伦敦时报》和《纽约时报》等较大的新闻机构已经采用了先进的AI驱动系统,但是较小的发行商也表示其在“智能动态付费门槛”上部署了多种AI,且转化率更高:

“内容主题自动管理索引/主题页面;预测好内容的相对潜力;允许新闻编辑室做出相关的促销政策;兴趣内容跟踪等。”

尽管我们的受访者认同AI新闻业,而算法可能也是有效的,但人工判断对于计划、执行和管理这些过程仍然至关重要。

未来已至,我们的受访者赞赏的一系列AI应用程序:

《华尔街日报》的动态付费专区:机器学习治下的订阅策略“显示了不同的访问者不同的订阅可能性,以及对网站的访问级别不同”。

《华盛顿邮报》的Heliograf:例如,在报道2016年夏季奥运会和选举日的国会竞选时,成功运用了自动写作等功能。

新闻协会的RADAR:由新闻协会和Urbs Media建立的自动化新闻服务,“以人工无法实现的频率和精度来撰写当地新闻报道”。

《伦敦时报》的JAMES:JAMES是“Journey Automated Messaging for higher Engagement through Self-Learning”的首字母缩写,译为“通过自动学习实现自动参与的自动消息传递”,它“使用数据来了解读者的习惯、兴趣和偏好。”

彭博的Cyborg:一个自动化系统,使用AI提取来识别数千家公司的收益报告中的关键数据点,并在几秒钟内生成标题和文章。

DeepL:该公司建立了以深度学习为动力的工具来理解和自动翻译文本。

《纽约时报》的Project Feels:“了解并预测《纽约时报》文章的情感影响”,然后相应地投放个性化广告。

Texty的 Leprosy of the Land::通过“机器学习模型”可以进行调查性新闻报道,发现了乌克兰非法开采琥珀的线索。

Yle的Voitto:一款智能新闻助手,通过在锁屏上提供智能新闻推荐通知,“确保您不会错过要阅读的新闻”。

我们可以看到新闻编辑室正广泛运用AI,但原因是什么?我们的受访者给出了三个核心原因:


正如我们将在第二章中看到的那样,新闻业有多种使用AI的方法。但只有一小部分人有特定的AI计划,大多数人用的方法都是临时性的。少数新闻机构有特定的目标,比如有些专业新闻机构更专注于调查新闻;其他新闻机构则处于早期阶段,因此实施的项目非常有限,侧重于个性化等方面;大多数新闻机构的动机多种多样,很多人采取了全盘接收的方法:

“我们的目的是为了增加用户、记者和新闻编辑室,并创建反馈循环。我们旨在提供更直接、有意义和引人入胜的内容体验。我们旨在增强新闻记者的新闻报道和故事叙述能力。我们希望创新方法和工具,以更好地了解自己和我们周围的世界。”

AI的复杂性给人们在实践和心理上都造成了阻碍,还有一个阻碍是新闻编辑室的开发工作过多。我们的受访者通常是早期技术采用者,因此总体基调还是积极的。他们的核心目标是改进现有产品,这意味着要支持新闻记者:

“我们认为,在资源日益紧张的社会中,我们需要通过减少新闻工作者需要做的艰苦工作和改善新闻事业来为其提供支持,让他们专注于真正重要和最擅长的事情。”

大多数受访者将“简化工作流程,通过AI削减成本,提高生产率”描述为实现改善工作而不是削减成本的方法:

“通过查看大数据集来提高调查能力。”

“为了更快地查找新闻。”

“加强事实核查/消除虚假信息。”

但他们还看到了AI在经济环境中的地位,在这种情况下新闻机构不仅仅只是相互竞争。他们通过在线上的其他服务来争取订阅和收入。AI被视为潜在催化剂:

“媒体行业正处于危机之中,必须采取一切可能的措施增强竞争优势。”

“没有技术的新闻将无法在数字时代生存。”

他们认识到其他行业也在使用AI,因此新闻媒体也必须使用AI :

“机器学习算法的进步为银行、零售商、金融公司、执法机构、社交媒体公司等提供了强大的支持。尽管我们可以(并且应该)讨论一下这些行业是如何使用AI的,但这些方法为他们的从业人员提供的好处毋庸置疑。现在,积极进取的新闻工作者也可以使用机器学习方法,从而利用这种能力来报道原本很难报道甚至不可能的新闻。这就是下一代数字新闻。”

正如我们将在第二章和第三章中看到的那样,这主要是关于现有产品和过程的新增或替代,但逐渐地,这将成为新闻工作者的结构性问题。

新闻编辑室中技术创新的结果总是不可预测的。技术创新是迭代的,并受现实世界新闻环境的限制。不同的技术有不同衡量成功的标准。但对新闻编辑室而言仍有一些常用的方法是有用的。对于许多受访者来说,现在下结论还为时过早:

“大多数应用程序仍处于新生阶段,其成功或失败仍不确定。对于基于语音和聊天环境的智能产品而言尤其如此。”

对于一些人来说,他们也曾有过失败,或者他们意识到AI不是解决某问题的正确方法:

“我们在AI使用上经历了多次失败。大多数成功的创新应用程序并非基于AI。”

失败这个词很难一概而论,但它们往往与和新闻编辑室需求无关的复杂性或紧急程度有关:

“当前可用于新闻行业的NLP (自然语言处理)系统并不适合新闻编辑室的需求。第三方NLP协议无法提供符合编辑标准的信号。新闻行业迫切需要开发一种通用的NLP方法,将其作为用于个性化和内容推荐的工具。”

有些案例本来就很棘手:例如让人们掏钱,或核实复杂的意见。一些最显而易见的成功往往是有着明确目标的特定任务:

对象提取/自动标记;

自动事实核查;

内容(预)审核;

语音转文字;

广告定位工具;

兴趣模型;

机器生成的内容。

但是无法立即解决问题并不意味着受访者放弃对数字技术的痴迷:

“我们认为重要的是继续进行测试并继续努力,为我们的个性化工作方式建立透明性,让用户可以实现个性化。”

“在AI方面,我们会采用MVP(最小可行性产品)思路。从本质上讲,这意味着启动早期版本,从用户那里获得反馈,然后推出新的功能,然后不断地对反馈进行迭代。虽然AI可能无法解决所有问题或挑战,但我们坚信创新AI驱动可以有效地促进我们的内容生成、广告和营销工作。”

尽管一些新闻编辑室尝试使用一系列工具或产品,但大多数新闻编辑室都致力于以下几个方面:

“尝试做太多事情通常会导致什么也做不成。”

正如我们将在第二章中看到的那样,部分问题在于如何定义“成功”。起作用的不一定是需要的。对于那些指责新闻媒体缺乏创新欲望的人,我们的受访者表示:

“这取决于您如何定义成功。我们从尝试过的每一件事中都学到了很多东西。”

一般而言,新闻编辑室没有时间或资源来随意尝试。实际上,如果要将新的想法大规模转化为可持续增值的资本,即使是由风险投资资助的初创企业也需要制定战略。当涉及可能对新闻编辑室发展产生结构性影响的创新时,组织的总体长期战略就显得尤为重要,需要对诸如KPI之类的标准进行衡量以确定影响。

目前新闻编辑室尚未大规模、有效地应用AI。新闻编辑室必须掌握相关知识和技能,任何AI策略都必须反映出使用AI的必要条件。它必须能诊断当前状况,了解新闻编辑室要达到的目标以及达到目标所要采取的一致行动。

调查显示,为了实现此目标,我们需要做到从制定总体计划到更详细的操作时间表和评估程序不等。为了适应过去二十年来的技术和市场发展,大多数新闻机构已经制定了业务和生产策略。对于习惯了商业模式和技术模式的新闻组织来说,这种发展“战略”的思想是一个新颖的事物,而这些商业模型和技术模式在过去的半个世纪中一直没有变化。

上网、数字化和基于订阅、付费专区或会员资格建立新的业务模型都是结构性战略调整。所有这些都对工作流程和受众关系产生重大影响。总体策略包含针对特定细节的子策略,例如平台、电子商务或内容制作。新闻编辑室如何制定AI战略?

我们对这一问题采用定性分析方法,因为了解新闻机构的想法和行为至关重要。根据编辑技术策略师Francesco Marconi的说法,他们可能会这样想:

挑战:您要解决哪些挑战?

流程:您如何将这一挑战转化为工作的实际步骤?

数据:您是否拥有解决问题的正确数据?

研究:数据来自何处以及如何进行审查?

陷阱:算法可能会出现什么错误?如何加强监督?

超过三分之一的受访者声称已有灵活的AI策略,三分之二的受访者则表示没有。这似乎与先前答案中涉及AI的新闻事业成功或失败的结果相一致。


数据/技术/数字/创新团队的职责通常是有明确的AI策略:

“数据部门是融合所有与AI相关计划的部门。他们收集公司其他领域的需求,并制定实施路线图。”

一方面,战略制定部门承担责任。另一个方面,产品团队承担责任。一位受访者说:“这是由数字新闻编辑室领导的,包括相关项目涉及的不同部门”。因此,AI策略不是通用策略,而是部门或团队级别。其他部门表示,人工智能的责任是完全分散的:

“AI策略在新闻编辑室、技术、数据和产品团队之间共享。”

有时,AI工作被放在一个不受约束的独立部门中:

“我们已经将参与AI策划的团队作为一个单独的孵化器。AI之类的新事物与当前的IT并不匹配。只有独立出来,才能吸引人们的注意力。”

许多受访者称他们对角色和责任感到困惑。几位受访者认为,在使用AI的早期阶段,最好有一系列AI应用的不同方法,而不是一个正式的总体策略:

“由于与AI的应用非常多样化,因此多设置几种策略才是合理的。到目前为止,这项工作涉及的部门有很多:新闻编辑室(特别是编辑研发团队)、数据新闻部门、社交媒体部门、营销部门、产品开发团队。”

一些受访者也在尝试以多种方式来组织工作,从而体现这种多元化:

“我们与跨职能的Scrum团队合作,其中包括产品团队、数据科学家、数据工程师、软件工程师和Scrum管理员。根据项目的不同,这个组合也会有所不同。这些团队成员将向组织中的不同人员汇报工作,但是团队工作对我们而言很重要。”

解决问题的核心思路是“学会走路之前不要跑”。在制定AI策略之前,您需要了解您的新闻编辑室现在是如何工作的,这是新闻组织过去经常感到理所当然的事情:

“在使一部分工作流程自动化之前,您需要了解您的工作流程。在给你分配任务时,通常来说下一步是交出你完成的内容,而这之间发生的一切都会被遗漏。当涉及到AI时,这中间的过程必须明确。作为记者,你的工作并非全部与创造力有关。”

在经历一系列其他数字挑战之后,AI相关的技术仍然相对较新、多样且复杂。因此,受访者对AI的准备程度的差别很大,这并不奇怪。感觉自己赶上潮流的人和觉得做得还不够的人大概一半一半。尤其是因为我们的许多受访者都是早期使用AI的人,他们认为自己已经迈出了第一步:

“我们知道事态发展情况,我们有负责该技术的部门,我们有解决这些问题的项目。”

通过启动AI项目,许多受访者已经意识到他们的组织尚未准备好通用的战略。例如,针对人工智能仍存在文化/管理方面的挑战:

“作为大型的新闻编辑室,我们比大多数新闻编辑室更了解自动化/人工智能的潜力和挑战。但是,我们仍然需要在整个公司范围内传播这些知识,以使每个人都意识到并思考如何优化技术并考虑风险。”

人们经常提到这些管理挑战,这是在整个组织中实现战略变革的重要障碍:

“业务区域和新闻编辑室之间存在不平衡。文化变革是最大的挑战,并且围绕AI制定的策略不仅限于战术。”

在那些声称自己还没有准备好的人中,他们都感觉到加快速度是一项紧迫的任务:

“我们对第三方过于依赖,缺乏内部资源,无法假装已经准备就绪。我们必须弄清楚AI的用途,我们必须明确一家中等大小的公司的损益。我们希望能够在2-3年内制定出真正的AI路线图。”

对于较小的新闻编辑室,这是一个超前的问题:

“我们已经开始有这方面的想法,但我们的组织规模很小,我们缺乏资源来充分利用AI进行新闻报道。”

任何有关AI战略讨论的关键问题之一就是AI将会带来什么。机器人会取代人类吗?电脑奇才会取代经验丰富的黑客吗?传统技能会被算法取代吗?我们的受访者强调,人工智能既可以创造劳动力,也可以减少劳动力。

但是可以肯定的是,人们的行为将会因此改变。但是在新的环境中,传统的新闻技能可能会变得更加重要。许多人认为AI将影响组织的所有领域,尽管不会以相同的方式产生影响:

“新闻的生产、分发和消费都将受AI驱动的技术的影响。基于AI技术的全新内容体验仍然遥远。在新闻制作中,音频和视频节目的编辑工作很可能会成为最早受影响的领域。在新闻的分发和消费中,个性化内容的提供,尤其是单个内容或体验的个性化,也可能最早受到影响。”

这将意味着AI将增强新闻业而不是替代。正如一位受访者所说:

“我认为影响将是微妙的。我反对‘机器人新闻工作者’的想法,实际上‘机器人新闻工作者’并不实用。我认为大多数AI应用程序将很快存在于后台,支持工作流程和报道,但不能替代人。

取而代之的是,我们将看到任务的自动化和扩充,例如翻译、转录、图像搜索、扩充写作、自动化摘要,或者新闻框架内的某种形式的个性化。我正努力不被AI带来的宏伟愿景和想法所迷惑。”

新闻的核心功能之一是编辑,即对新闻的把关。尽管这可能变得更加重要,但AI将改变:

“主页的编辑人员将需要一种不同的工作方式。一年前,他们以编辑论文的方式编辑首页:确定统一的消息,将各部分组合在一起,并使其看起来有某种联系。如今他们了解到不同的用户对页面的体验将有所不同,那就是另一种工作方式了。

同时,编辑的工作也变得越来越令人兴奋。现在,他们可以在更细化的层面上进行布局。例如‘显示此文章,除非用户已经看过,否则就显示其他文章’,这在以前是不可能的。不过,如果我们展望10年后,‘首页’可能不再扮演主要角色。当然,这也将改变编辑的工作方式。”

随着AI开始产生影响,许多新闻编辑室开始引入AI。但绝大多数情况下,受访者表示,在新闻编辑室中很少创建新的AI特定岗位,部分原因在于资源问题。无论在哪里,关键角色都在于充当“大使”的技术:

“尽管数据新闻业是一个非常有前途的领域,但由于缺乏财务资源,我们没有雇用数据记者团队。在我们的软件部门中,我们越来越多地开始聘请数据科学家和数据工程师以及AI专家。除了大数据分析和与AI相关用途之外,他们的任务是进行内部讲座和培训,向员工详细说明AI的实际潜力。”

多数观点认为,创建全新的、与AI完全相关的全新岗位可能适得其反。随着技术的实施,焦点似乎集中在调整现有工作流程和岗位上,而不是创建全新的工作流程和岗位:

“尽管我们拥有不断壮大的数据团队来支持这些工具和AI技术扩展,但我们的新闻编辑室使用AI的意义不在于创建新岗位,而在于发展现有资源、训练和教育到更多精通AI技术的人。我们认为,数据和AI不应仅局限于少数几个角色,它们必须在整个组织中保持数据流通。”

 “我认为我们不需要特定的AI岗位,但是需要有人专注于工作流自动化和扩充。人工智能在这里确实发挥了作用,但是其他不同的技术也是如此。”

不过,目前新闻工作者的工作流程正在发生变化:

“我们没有确切的AI岗位,但是已经有很多人受到影响。调查记者对自动执行的任务越来越满意。人们越来越期望高级管理人员了解AI基本概念,并注重新的发展机会。”

其中一些新的工作流程将意味着创建以AI为重点的新闻编辑室岗位:

“我们现在有许多特定于AI的岗位(当前由8人组成的数据科学团队工作,包括数据科学家、数据工程师和产品所有者)。”

但使用AI将逐渐成为新闻编辑室的潮流,它将通过逐步发展和适应带给新闻编辑室变化。将近一半的受访者表示他们已经使用AI,但是大约有1/3的人认为AI要真正发挥作用还要等上2至5年。


在大多数新闻编辑室中,对于如何发挥AI的作用尚不确定。临时或灵活的策略可能是一个现实的选择,但这意味着很难进行系统规划。正如我们将在第四章中看到的那样,人们对关于人工智能在其他行业中的真正潜力仍争论不休。极端的情况是有人对AI的影响持怀疑态度:

“我不认为AI会产生重大影响。”

另一方面,少数人表示:

“这不是技术转变,而是文化范式的转变。”

这反映了AI技术会扩大处于不同规模、资源下新闻机构之间的不平等。变革即将到来,但分布不均。

受访者认为使用AI最大的挑战是资源、知识或技能,但与其同样重要的是文化抗拒:害怕失业、改变工作习惯以及对新技术的普遍敌视。整个新闻机构缺乏对AI知识,以及缺乏战略管理认知。但是,最重要、最具体的因素可能是缺少了解该技术及其与新闻编辑室之间关系的专家。

其他问题也很重要,例如所提供技术的质量或相关性,以及道德伦理担忧(例如过滤气泡),责任和法律问题(我们将在第三章中详细介绍)。

我们面临的AI主要挑战体现在:

缺乏财务资源和/或不愿意投资。

缺乏AI相关技能,以及难以吸引和雇用人才。

怀疑新技术以及恐惧失业。

结构性问题,包括部门之间的技术差距。

对人工智能的潜力缺乏认知和了解。

缺乏战略,尤其是管理层。

缺乏时间,难以确定AI项目的优先级。

(其他挑战包括:数据质量、道德问题、复杂性、缺乏技术基础设施、语言障碍、现有AI技术的准确性较低)

令人鼓舞的是,人们并不认为这些挑战是无法被解决的。人与复杂的新技术之间存在知识鸿沟并不奇怪,但它并不仅仅意味着信息短缺。受访者认为这是一种进步障碍:

“人们对‘AI’一词没有共同认识,而这在实施机器学习算法时会有所帮助。缺乏共同认识不仅会导致错误的预期,还将使人们难以寻找AI的合适用法。

与此相关的是更普遍的文化抵抗,其特征是对“技术炒作”的恐惧:

“我认为人工智能的最大问题之一是围绕这个术语传达的想象力和愿景。大多数人都是从科幻和投机活动中了解人工智能。我们希望公司的其他部门不会用到AI技术,这将有助于避免任何不必要的讨论,因为人们担心AI会使他们失去自己的工作。”

记者们意识到,引入新技术有时会带来更多的工作:

“关键问题在于文化挑战,因为AI确实会减少工作流程,从而给新闻编辑室中的人们带来更多时间。但这也意味着要提高生产率,这是很多人可能并不希望看到的。这些文化障碍需要在内部协作过程中加以解决:计算机科学家和记者之间存在文化鸿沟。

对于计算机科学家来说,使用算法个性化等技术是直接明智的选择,但记者更关注技术带来的编辑责任、过滤气泡等问题。在出现解决方案之前,我们需要让所有人参与其中,彼此讨论交流。我们(AI团队)目前每月都会与编辑举行会议,以使每个人都参与其中,提出我们的想法并要求反馈。”

人工智能不是随随便便就能提高效率和创新的神奇事物,它需要耗费大量资源。这可能会导致人们不愿使用AI:

“AI的构建和管理成本很高。确保数据干净和有效的机器学习需要做大量的工作。这是大公司才有可能承担得起的工作,他们可以开发人工智能服务并将其出售给较小的公司。”

过去,作为一个行业,新闻媒体一直倾向于在不向记者提供更多技能或经验的情况下将其提升为管理人员。近年来,随着各种技术和市场的混乱,这种情况正在改变,但受访者仍然强烈地认为,管理层没有能力甚至不了解AI带来的问题:

“经理不了解技术,并且由于没有技术技能而缺乏想象力。”

AI非常复杂,因此存在管理问题也就不足为奇了:

“我们遇到了很多挑战:怎么知道我们应该自动化什么?最先进行哪个AI项目?与所有报道一样,你必须权衡受众的需求、报道的影响、新闻编辑室的收益等等。缺乏对人工智能的了解会造成非常实际的文化问题:在竞争激烈的市场中,你要为效益负责,因此很难聘请有才华的数据工程师和科学家。”

人工智能技术有自己的术语和逻辑,且通常是为其他行业创建的。对于某些新闻编辑室来说,投资AI知识和技能是不值得的。虽然有时候他们也会面临语言方面的问题,但数据质量才最重要:

“对我们想要做的许多AI应用程序而言,它们都需要高质量、标签明确的数据,但是我们目前还没有这样的数据,标记这些数据需要大量的资本投资。”

受访者的反馈表明,需要提高新闻编辑室和整个行业的AI素养水平并解决文化问题。新闻机构需要建立一个技能库来创建相关有效产品和系统,以及衡量成功或失败的指标:

“整个媒体行业的转型实际上才刚刚开始:没有人知道如何建立并重新定义组织文化,使其转变其核心业务和产品,从而在新兴的、人工智能驱动的世界中蓬勃发展。整个组织面临的最大挑战是了解当前业务及其活动的优化,以及创新和建立未来业务所需要的是什么。优化和创新需要不同类型的指标和KPI来评估哪些有效、哪些无效。简而言之:如何以最有效的方式协调资源并用于以后的发展。”

对于已经习惯应对变化的行业而言,其中一些障碍并不陌生。尽管技术培训是艰巨的任务,但假如新闻媒体不想落后于其他行业,就必须要采取行动,哪怕去寻求外部支持。

从我们的调查中可以明显看出,新闻编辑室普遍缺乏AI战略规划。该策略将始终根据新闻机构的性质及其到达的阶段而有所不同,但这些才是研究中需要考虑的关键因素:

如何为您的新闻组织准备AI战略:

评估您所处的AI使用阶段

了解您正在考虑的AI技术并为其分类

决定AI如何与您的品牌和总体策略相关联,包括可能解决的问题或可以满足的需求

评估您所在的新闻编辑室的哪些部门可以使用AI以及为什么

确定主要障碍:资源、技能、文化、管理等,并计划如何系统地解决这些问题

分配角色和职责,并在整个组织内建立一个沟通框架,以囊括所有利益相关者

建立审查绩效和优先级的系统

与合作伙伴、客户及其他拥有AI资源的外部关系合作以整合AI创新。

AI可能部署在非常狭窄的领域,例如某些功能的自动化。但是,即使将其部署在特定领域,进行整体规划也将使AI最有效地发挥作用。受访者认为孤立的工作总是会受到固有限制,使用一种战略方法必须考虑整个新闻编辑室。AI需要新闻编辑室有技能、知识基础、明确的角色定位、系统的评估以及将技术与编辑或营销联系起来的文化。

人工智能将改变新闻编辑室的工作方式及其与观众和收入的关系。正如我们将在第三章中看到的那样,这同样会带来道德问题以及财务影响。在第四章中,我们将了解新闻组织如何制定这些未来战略。

人工智能改变了新闻的创造和消费方式,但它如何改变新闻本身?什么样的内容会被生产出来,又如何改变新闻与个人消费者和社会的关系?任何新技术出现,人们都会担心它对业内人士和普通民众的影响。人们的期待和恐惧往往基于错误的前提和猜想。

纵观媒体的历史,我们知道印刷术、广播或电视等“新媒体”也引发了乌托邦式的期待以及反乌托邦式的道德恐慌。技术不应被孤立地看待,但它的影响确实超出了实际问题。人工智能引起了人们的广泛关注,不仅因为其力量和潜力影响新闻的方方面面,更是因为它是一种复杂而隐蔽的技术。

受访者一般都精通技术,所以相对于新闻机构或其他利益相关者,他们可能不太担心人工智能的负面影响。对人工智能的熟悉也意味着他们确实对新闻业受到的影响有深入的了解。他们谈到了六个关键领域,这些领域都是相互关联的:

经济问题:存钱还是投资?

算法偏见

虚假消息和“过滤气泡”

增强编辑决策和透明度

平衡人工智能和人类智能

科技公司的作用

本章介绍了新闻编辑室使用的人工智能道德和编辑政策。这是我们采访新闻编辑室得到的内容,而不是有关技术或解决方案的详细指南。我们对“道德”的定义较为广泛:与可信度、准确性、问责制和偏见等问题相关的思辩。“编辑政策”是围绕新闻“质量”产生的广泛问题。

人工智能如何改变内容的标准或性质,以及对受众的社会价值?新闻业本身具有悠久的道德历史,在前所未有的政治和经济压力下,公众对新闻的信任并不是很高。与此同时,关于人工智能的公开辩论有:算法是否歧视某些人群?这项技术是否会导致大规模失业?社会如何对这项技术负责?

来自新闻编辑室的受访者和我们讲述了人工智能如何影响他们与内容和受众之间的关系。我们同样就技术及其影响询问了他们对技术的责任或控制技术的态度,特别是那些提供特定工具和基础设施的科技公司。

尽管它们确实触及了新闻学的思想和宗旨,但这些不仅仅只是哲学问题。它们也是实际的、直接的问题。例如,现在的世界虚假消息日益增加,可信度是保证用户信心和注意力的关键,这些用户很有可能会继续支持新闻编辑室的发展。

约五分之一的受访者表示,至少在现阶段,他们并不是非常担忧技术的发展:

“说到人工智能的影响,比起担忧,我其实觉得更兴奋一些。目前有一些对人工智能的负面情绪,我反而认为这些技术将增强新闻编辑室的能力,并节省宝贵的资源,以便解决亟需新闻工作者关注的重大问题。”

在新闻工作的某些领域中,可能在质量和数量之间存着在合理的取舍。新闻工作往往需要做出很多妥协:

“特别是在机器创造新闻的早期,我们正在以质量换取数量,从整体上来说,它仍然提供了更多有价值的用户体验。我个人认为这是正确的事情。但显然,仔细选择这样操作的新闻工作类型十分重要。”

大多数人相信,如果新闻机构坚持其道德和编辑立场,这种影响总体上看是有益的。这可能表明,受访者为具有良好历史声誉、注重可信性和公共服务的新闻机构工作。一些人认为,即使他们现在没有发现问题,但如果机构内部没有适当设立和监控人工智能,问题可能就会出现:

“我现在并不担心。我认为关注数据偏见十分重要,同时也对新闻工作者和新闻机构经常考虑(或至少尝试考虑)工作中的偏见问题感到振奋。”

最显而易见的问题是,使用人工智能节约下来的资金是否被重新用于编辑,或用于减轻新闻机构的财务负担:

“最大的问题是,省下来的钱(如果有的话)是否会被用来进行新的投资,或是用来应对营业额减少的问题?”

少数人担心,如果人工智能用于提高效率,人类投入的价值可能会降低:

“‘低价值’新闻可能会更快被制造出来。声誉良好的新闻机构对故事进行的分析和验证可能将成为稀缺资源。”

大多数受访者相信,节约下来的金钱将用于投资技术或提升新闻质量。然而,人们更担心AI会加剧新闻机构之间的不平等,从而影响媒体的多样性和“优质”新闻生产的可持续性:

“关于新闻工作质量的最大问题是,与能够构造/购买和部署人工智能的新闻编辑室相比,缺乏相关资源的工作者可能会受到影响。换句话说,未来很可能会有一场军备竞赛,而只有资源最充足的新闻编辑室才能参与。”

新闻机构认识到,他们面临道德选择。如果采取有利于短期目标的财务决策,他们可能会损害公众价值和新闻标准。显然,这取决于其企业文化,以及对“优质”的定义:

“即便是被公众信赖的媒体品牌,也可能从错误的数据库中自动生成文章,可能导致虚假信息传播。一般来说,我们必须谨记,优质媒体不能只关注经济上的成功。如果训练机器学习算法的目标在于最大限度地提高收入,那么很有可能导致诱导性文章比调查新闻更加优先。因此,应该仔细考虑对哪些指标进行优化,以及如何维护质量标准。”

许多受访者相信,行业正在做出正面选择:

“我对知名的媒体机构很有信心,我自己也在这样的机构工作。任何新的技术,无论再怎么自动化和电子化,总是会被滥用,我相信现在和将来都会有人利用这一点。尽管如此,真理是一种永远不会失去价值的商品,我相信大多数新闻工作者都会意识到这一点,并将使用人工智能来尽其所能地叙述真理。”

每种算法都可能含有某种“偏见”,就像所有的新闻都包含某种程度的“偏见”,这反映了的是生产背景。一般来说,算法偏见属于“生产型偏见”,即由于输入数据、数据训练和操作而导致的偏见。这些可能是非常技术性的因素,例如数据分类类别,但它们在确定内容的质量以及如何消费方面仍然具有重要意义。

然后还有我们常说的“不公平”偏见,如种族或性别偏见。这种偏见不仅不被社会接受,而且还有道德、政治甚至法律方面的风险。所有系统都会含有偏见,因为它们反映了其创造者和使用者的意愿和立场。重要的是,如何意识到偏见的存在,以及如何优化管理、减少偏见。

这意味着,处理道德和编辑问题要依靠系统战略。尽管受访者整体心态乐观,但的确有一半人担忧行业内的人工智能应用:

“我担心新闻工作者过度自信,过度依赖算法,最终可能对受众造成伤害。目前在新闻业中存在许多使用人工智能并产生偏见的案例。训练有素的算法可能会对新闻业造成更大的伤害。”

监控和纠正算法偏见需要高度的知识水平。不仅需要技术知识,还有在新闻编辑室的限制范围内应用该技术的时间和资源。新闻工作者还有向消费者进行解释的责任:

“新闻业需要在使用算法和数据上保持透明。如果要使用算法,我们应该尝试阐明并帮助用户理解算法,并尽可能控制算法对用户的影响。”

还有一个问题关乎新闻可信度,即新闻在打击虚假消息和促进良性公开讨论方面的作用。在针对虚假消息的斗争中,新闻工作者需要控制和信任自己使用的工具:

“在发生政治攻击和虚假新闻时,使用AI导致的错误可能会使媒体信誉受到威胁。”

还有人指出了人工智能技术和信息面临的更广泛的道德挑战。例如其在扩大(和打击)虚假消息不断增长的作用:

“机器学习是生成“深度假货”和虚假内容的完美工具,这将是所有新闻机构和可靠媒体面临的主要问题。此外,内容验证将变得更加困难和(或)依赖于工具。我们需要机器学习工具来检测机器学习假新闻。”

许多受访者强调,算法个性化可能进一步巩固所谓的“确认偏误”,即认知心理学家提出的概念:人们倾向于提供反映自己的信念和价值观的内容,而不是对自己的认知做出挑战。

这是一个复杂且往往主观的问题。最近的学术研究表明,在线消费新闻的用户更容易接收多样化的内容,尤其是相对于拥有传统媒体消费习惯的用户。但无论绝对趋势或总体趋势是什么情况,受访者担心商业需求会突出所谓的“过滤气泡”、两极分化和冲突问题:

现今社交媒体中的过滤气泡非常危险,但我们希望这个问题能随着时间的推移而得到解决,一方面通过更改算法、改进规则和标准以提升透明度,一方面希望我们的受众对此影响有进一步了解。

许多受访者已着手解决这些问题,他们通过自定义人工智能以适应道德或编辑政策:

“对于某些关键质量指标,我们的系统赋予其较高来源排名,如原创性(此来源是否专注于该主题?)、多样性(此来源是否提供独特观点或反映未被充分代表群体的声音?)、真实性(此来源历史上是否含有虚假消息记录?)。人工智能去偏见化,可能还有其他标准,包括情感和可读性。”

受访者表示,这是说明“增强”新闻的一个好例子:人类的编辑洞察力与人工智能相结合:

“为了防止用户陷入某种意识形态,我们纳入了“编辑评分”。这是由人工判断某话题的重要性,以提升新闻编辑室提供的内容服务。”

但是使用人工智能并不是简单的事情,某些情况下甚至不应该使用:

“根据我们使用人工智能的经验,算法判断男女来源比例的结果非常不可靠;很难自动进行性别评估,特别是判断外国姓名。所以如果现在我们要做这样的事情,不使用人工智能会更好。”

“我们正在努力去除训练数据中的偏差,但如果不能的话,应该把它们标注出来并告诉用户。如果我们无法识别数据集中的偏差(或偏差难以描述),那么该数据集(以及人工智能算法)不应该用于编辑中。”

编辑决策和透明度?

所有的新闻编辑室都有“偏见”。有些偏向性的作用是积极的,例如特别关注某种问题。然而,最近有这样一个热议,关于传统的媒体文化是否会导致编辑议题缺乏多样性,以及新闻编辑室是否与某些人群或公众关心的领域脱节。人工智能能否帮助我们发现本来会被遗漏的问题、故事或事实?人工智能是否可以帮助我们创造不受专业假设或规范限制的新闻报道?

大多数受访者表示,他们还没有见过这样的纠正效果。他们的重点仍然在集中在算法或受众的偏见上,而不是新闻的“过滤气泡”。但只有极少的人表示,对人工智能偏见的质疑导致他们重新考虑自己的假设,并重新考虑读者的需求:

“我认为,人工智能对揭露行业内已经存在的偏见和意外后果方面发挥着重要作用。我们有机会进行反思,思考我们如何制定决策,还有以更公平的方式“重新设计”决策。”

用户数据是人工智能挑战新闻编辑室猜想的一种方式:

“我们使用的工具(新闻标题测试、倾向模型和算法推荐)表明,我们认为读者可能感兴趣的内容与他们真正感兴趣的内容并不总是相符。我们对“严肃新闻”的认识存在很大的偏见,这不一定是用户想要的。”

尽管这有违直觉,但受众反馈可以帮助新闻编辑室优化内容:

“新闻编辑室往往会认为新内容更具相关性,所以常常没有旧背景信息的内容。我们的个性化算法更擅长处理此事。”

“我认为这是一个良性循环,彼此促进。人工智能使我们意识到我们的偏见,反之亦然。在新闻编辑室,编辑倾向于根据直觉和经验做出决定,而不是根据数据。人工智能让我们意识到,必须改变这种不良习惯。”

我们将在下一章节进一步探讨,人工智能可能使新闻工作者重新考虑行业的基本概念:什么是信息?新闻工作者如何决定何为真实或重要?公众为什么使用新闻?人工智能有能力从更广泛的消息源中收集、整理和解释数据,但它能在多大程度上改革传统范式和陈规旧习呢?

“人工智能使你质疑一切。人工智能模型的质量取决于建构和训练的人类。通常反映了新闻工作者对某些话题的了解和理解。我们小心翼翼地把人工收集新闻的标准应用于我们开发的人工智能工具上。还需要不断地重新训练人工智能并测试偏差,这也是我们流程的一部分。”

更加了解流程这一趋势使得受访者提出将提高透明度作为解决方法,既避免算法偏见的损害,还可以建立公众的信心:

“这始终取决于新闻机构如何决定解决问题:公开透明是关键。用户永远对内容的生成和发布有知情权。”

新闻编辑室之所以能够更好地展示自己的工作,部分原因是新闻媒体面临直观的信任危机,以及大众对权威、可信、经过验证的新闻与网络虚假消息加以区分的愿望。对此人工智能可以提供帮助,因为它能显示哪些人消费了哪些内容:

“知晓哪些用户看到哪些内容,并在一定程度上能够核查技术代替新闻工作者所做的选择。”

但是这很困难,因为它们是新闻的一部分,“大多数人工智能程序将隐形”:

“有必要开始考虑我们工作分配的透明度,以此获得公众的信任。无论是个体用户还是机构客户,算法都不应反映其过去或现时的偏见。我们必须深入思考内在偏见及其影响。”

解决这个问题,意味着更多地关注新闻编辑室的标准意味着什么,以及如何展示高质量:

“如果我们妥善设计和使用人工智能系统,我觉得完全不必担心质量或原创性问题。不过要想达到这一效果,我们必须阐明新闻质量。哪些新闻需要两个一手来源,而哪些一个就足够了?在道德层面,我认为沟通和透明度问题至关重要。为了不让读者失去对我们的信任,我们必须有效地说明哪些内容由算法创建,以及遵循了哪些原则。”

关键领域是围绕人工智能使用数据的隐私,以及使用的新型平台:

“在人工智能助手的竞技场上,社交平台目前的隐私、选择、回声室等问题可能会被放大,这是非常现实的问题。”

新闻编辑室正在考虑如何正规监督。偏见总是出现,但是问责制呢?:

“从理论上讲,智慧的批评和开放的心态应该能够驱使新闻编辑室不断质疑他们的假设、数据和偏见——但在实践中很难做到,并且把这些编入代码就更难了。可能需要某种内部或外部的监督机构来定期检查新闻编辑室的偏见。”

公开透明是一种美好的愿望,但是,除非它是工作体制的一部分,并且标准公开,否则是纸上谈兵。例如,美联社正在思考在风格指南中增加内容,以反映这些问题。但是有很多解决方法,例如保证内容本身的来源合乎准则。

已有代码试图解决数字技术和新闻界提出的特定问题,如ONA社交媒体代码。现在人工智能需要新的代码或指导方针。保罗·布拉德肖(Paul Bradshaw)主张,建立有效透明度的一个关键因素是,新闻工作者要清楚人工智能的局限性和不确定性的程度。

透明度做法可以借鉴金融和医学等其他学科。而且已有一些实际的方法可以使新闻编辑室更加透明化,例如在文章署名中标明人工智能编辑。这不是新闻工作者自己可以解决的问题,因为他们的许多工作依赖于高科技公司提供的基础设施而进行:

“新闻媒体实际上没有对编辑指南和编辑工作的最终发言权。现有的技术平台及其算法已成为无所不能的编辑过滤器,新闻机构并不能真正直接对其产生影响。”

我们也将在之后的章节中提到,这属于新闻业处理与科技公司关系中更广泛的顾虑的一部分。

另一个关键的道德和编辑隐患是:新闻失去“人”的元素。

“自动化技术会使新闻报道中的“人类智能”减少,这可能会产生不可预见的后果。”

这一隐患包括不同问题。我们已经解决了针对技术的文化敌意问题,打消了大家对失去工作的恐惧。但是,新闻业依然有许多隐患,并且和算法的关系越来越大。一是新闻工作贬值导致新闻业地位下降:

“如果内容是由人机合作甚至由人工智能重新整合,那么新闻对“故事大师”的吸引力是否会减弱?如果是的话,那么何时会产生影响?基础工作自动化是否会导致新闻基本概念衰落?”

在考虑与人工智能相关的道德和编辑政策时,新闻工作者更需要监控机器:

“在获得受众同意的前提下,我们可以尝试根据相似行为来个性化每个人的新闻源,提高我们的内容元数据的完整性,自动识别故事中的人脸、名字和有用的数据等。但是,我们认为有必要为每天做出的每个有意义的决定保持坚实的人文基础。”

这是一种平衡术,但受访者明确表示,从一开始就必须将新闻的“人文价值”嵌入技术应用中:

“新闻价值观和原则需要支配人工智能解决方案的发展,以确保影响是完全积极的。”

受访者认为“人类价值观”适用于受众和新闻业的社会角色:

“如果媒体过多地受到错误的技术指标驱动,可以鼓励新闻工作者尝试与机器人或人工智能推荐系统竞争。相反,耐心、毅力和好奇心是人类宝贵的品质,在新闻编辑室内应当得到鼓励。”

在海量信息通过网络传播的世界中,在新闻中使用人工智能引发了整个社会的道德问题,而不仅仅是新闻行业的道德问题:

“我过去看到的最大错误是,把技术融入社会看为简单的信息技术问题。实际上,这是一个复杂的社会问题。”

[利益相关声明:这项研究得到了Google新闻计划的支持。]

科技公司有着不同的商业模式和公司文化,因此他们与新闻以及人工智能的关系也有着很大不同。谷歌、亚马逊、苹果、Facebook和微软等科技巨头都进行研发、产品创新以及提供新闻机构使用的基础设施。一些公司还资助新闻制作,为新闻编辑室或新闻教育和创新提供支持。

出版商认为,这些公司与新闻机构抢夺广告收入、消费者的注意和时间。他们提供了发布新闻的设备和网络,以及许多对新闻生产至关重要的工具。他们对数据的胃口很大,在人工智能技术上的支出也很大。所以,新闻机构和受访者所描述的高科技公司之间,不可避免地存在矛盾。 

关系在不断发生变化。例如,在我们调查完成后不久,Facebook发布了“新闻选项卡”功能,该功能结合了人工编辑和个性化算法,对来自出版商的内容进行独立新闻提要策划,其中一些需要付费。谷歌最近也宣布将要改变算法,在搜索结果中展示更多的“原创”新闻内容。

受访者普遍了解技术,并对其作用持积极态度。但有少数人公开表达了对科技公司的抵触:

“Facebook和谷歌是人工智能公司,他们窃取消费者的注意力和广告收入,影响到了新闻行业。”

受访者意识到,他们无法完全控制技术。新闻机构已经与科技公司合作,创建新的工具或系统:

“大多数现成的解决方案都是大型科技公司的云API。这会对我们上传的数据造成影响,并使许多解决结果质量下降。这也导致新闻业对科技公司的轻度依赖。如果已经采取了某种解决方案,那么就很难从这一种切换到另一种。好消息是,数据模型和框架的品质都很出色。”

例如,《纽约时报》和《国家报》利用开源工具Perspective来改进其评论审核,该工具由谷歌母公司Alphabet旗下的技术孵化器Jigsaw开发。受访者意识到,科技公司可能是下一个人工智能和新闻结合产品的始作俑者:

“在未来, 任何“对话式新闻AI”都将由大型科技公司(如谷歌)生成,而不是新闻机构。”

如果这些工具或系统需要符合新闻工作者的优先项和公众利益,那么科技公司和新闻机构之间的关系就变得至关重要。受访者提出了一系列改善关系的方法。这是很不平等的一点,因为科技公司拥有资金和技术知识,他们的价值观或优先级事项很也可能与新闻工作者不同:

“推动新闻工作者和新闻业发展的因素——信任、影响力、增进理解、促进公民参与和对话——都很难作为这个行业可衡量的KPI指标。我们与技术合作伙伴对成功的定义不同,如何有效地合作?”

有人呼吁科技公司与新闻机构就道德和工程问题进行对话:

“对于已成功利用人工智能,或者正在努力开发人工智能的科技公司,我希望他们能够去宣传用途并担任大使。人类社会过渡到由人工智能驱动的未来,科技公司至关重要。他们不仅要在正确制造人工智能上承担重大责任,还应该为创造健康的生态系统负责。”

要实现这一点,双方都需要关注这些问题:

“对于新闻工作者来说,现阶段极其重要的工作是遵循大型科技公司的步骤,并尝试分析其算法。同样重要的是,科技公司了解这种新闻的重要性,并且愿意公开讨论。”

训练至关重要,而科技公司有能力支持训练:

“平台在训练、教育和创造关于人工智能的透明度文化等方面发挥着至关重要的作用。对于新闻工作者来说,这关乎信任问题,非常重要。”

许多受访者表示因科技行业炒作而感受到压力。尽管不太情愿,但他们也认为科技公司在解决媒体技术道德问题和支持研究方面处于领先地位:

“部分大型科技公司在公平公正和人工智能(如微软公司,在此投入了大量资金)方面占据领先地位,大多数大型科技公司在(学术)出版和分享方面做了很多实事,这推动了我们进步。”

受访者表示,科技公司中人工智能相关业务必须公开透明:

“通过云服务,科技公司使人工智能技术更加普及易用。但对于如何建立这一系列人工智能机器,他们并没有给出详尽的解释。他们应该公开数据集中的算法和偏见。”

平台算法对新闻机构制定营销策略有很大的影响。随着近年来搜索和推荐算法发生变化,对科技公司最常见的要求是“公开数据集中的算法和偏见。”这不仅仅是一个商业问题。最近的学术研究认为,人工智能技术的作用正在改变“透明”的含义。在人工智能时代,值得信赖的沟通者意味着什么?对于公众来说,“机器”可以成为新闻来源。这听起来可行,但有些人认为这意味着,如果将某种责任转移到“机器”上,这项技术就会挑战新闻权威的核心。这就是为什么一些受访者希望采用共享、开源的方式来评估技术的内部运作:

“科技公司已经提出用API以低成本展开人工智能实验,媒体公司的创新者对此都非常感兴趣。我希望能有更多的开源和离线项目可以让我们进行操作并做出贡献。”

受访者表示,他们非常欢迎科技公司更好地理解新闻及其当前的问题:

“他们有资源来改变现状:DeepMind和谷歌就是一个例子。但他们也会在数据和道德方面犯下严重的错误。我希望他们真诚地接受新闻领域中的问题,并为我们提供有意义的专业知识和支持,以探索大家提出的问题。我相信所有的主要平台也会从中受益:他们在新闻推荐和出版时可遇到了不小麻烦。”

这是一个通病。新闻业在有关运作方式的公开辩论中表现不佳。公开透明可能损害其独立性。科技公司在采用透明度方面也进展缓慢。他们认为这是商业机密,泄露代码或算法可能是不良的商业行为。但受访者的总体态度是,需要进行更为坦诚的对话。围绕道德和编辑政策(以及商业问题)需要进行的讨论还有很多:

“科技公司有能力也应该在创建工具时减少偏见,尤其是因为他们聘用了领先的人工智能研究人员,并在该领域建设了许多基础工具并发表了众多论文。我们希望“谷歌新闻倡议”和“Facebook新闻项目”一类的项目能够迎来更多的对话和资金的持续增长。最终,这些对话应该推动制定更好的策略和协议。”

讨论道德、编辑政策以及人工智能的关系不仅仅是为了处理后果,产品开发过程中就应该加入这个环节。新闻工作者需具备一定的技术能力,不要把讨论推给开发者或技术专家。这个讨论必须始终将用户的观点考虑在内。

道德/编辑讨论也需要考虑更广泛的社会影响——包括人工智能的好处。此事即将发生。举例来说,骑士基金会的“人工智能和新闻公开挑战”已采取了一系列举措,目的是识别和解决上述问题。本报告的受访者表示,新闻编辑室欢迎这种讨论。

我们让受访者思考未来。如果你有资源,你接下来会做什么?人工智能的什么功能对你的机构最有帮助?我们也想知道怎样才能达成这种效果。最后,我们要求他们思考,如何改变整个行业,以及如何改变新闻本质。在我们的调查中,各家新闻机构还处于采用AI的不同阶段,所以对于某些人来说,未来已触手可及,而对于其他人来说,AI仍然是科幻小说中的概念。

对未来的畅想分为三个层级:

第一层:利用已有的产品和编辑团队对现在的工作进行改进和迭代

第二层:在未来2-5年里利用新的工具进行中期创新

第三层:长期创新和试验,可能包括全新的方法或结构。

受访者通常既参与技术又参与编辑工作,因此可能与其他部门对将来发生的事情有不同的看法。

人工智能的发展向来不是一帆风顺的上扬。在人工智能世界中,依然存在着关于最好的前进路线的基本讨论。目前许多长期的人工智能研究项目都基于深度学习,但一些计算机科学家认为这或将是一个“进化死胡同”。这种讨论不在本报告的范围,但提出了更紧迫的问题。

令人感到惊讶的是,我们询问受访者什么可以在未来应对人工智能的挑战,他们提到的两个关键点与技术并没有直接关系。46%的受访者提到新闻编辑室的培训、教育和扫盲,43%的受访者提到需要招募具有新技能的员工。

我们的调查显示,在将来,另一个重要的非技术主题是,新闻编辑室和其他机构(如大学)之间的合作可能性,以及向其他行业学习及其人工智能使用方法的需求。来自新闻编辑室的受访者坚持认为,新闻可以在人工智能世界中蓬勃发展,但人们确实担心随着技术的进步而落伍。

受访者投出的未来三大人工智能工具愿望清单:

更多自动标记/实体提取(新闻收集)

更好的机器生成内容(新闻制作)

更好的个性化/推荐引擎(新闻发布)

大家对人工智能有着浓厚的兴趣,这会微妙地改变新闻编辑室与内容或新闻编辑室与受众之间的关系:

“我认为,就广播公司而言,人工智能带来的最根本的变化不是在新闻编辑室流程中,而是在内容和受众之间的互动中。理解用户的语音请求并根据我们的存档内容明确回答问题,而不是依赖于我们与用户之间的第三方(Google、亚马逊等)及其框架,这将是激动人心的变化。但显然现在还做不到。”

通常需要对其他新闻编辑技术进行结构性调整,这种辅助关系才能正确集成人工智能,从而将最初级的创新转变为中期乃至长期发展成果: 

“我们将重建IT系统,并更迭新闻编辑室管理层的关键职位。”

大概不止一家新闻编辑室拥有这种宏大的野心:

“我会建立一个能够获取千兆字节文本的系统,并以对话的形式回答有关当前业务的问题。没有一家新闻机构有足够的资源来做这件事,而且任何出版商提供的可用文章的规模都太小,无论如何都无法用来训练大型深度学习系统。”

一些受访者已经厌倦了持续的变化,不愿对未来大加思考: 

“我们首先要专注于了解已经完成的工作。”

但大多数人都想要改变新闻编辑室的结构,以便建立、管理和开发人工智能。

正如我们在上个章节中提到的,战略十分关键,但情况在不断变化。虽然人工智能开发在存在文化和知识壁垒,但人员依然被视为未来的关键资源因素。如果组织结构不发生变化、不能正确认识人工智能,就无法为开发特定工具或产品持续提供更多资源:

“有能力在技术、产品和形式上进行更多的创新,这是好事,但是如果没有(可能的)重大组织结构变革,很难将这些创新融入进去。”

迈向未来的第一步是,了解如何到达未来:

“我会把资源投入到阐释我司作为传统媒体的前进方向,并制定战略,让员工和部门能够为之铺平道路。以当前的技术发展速度,制定详细计划是不太可能的。如果不了解潜力和极限,就不可能在未来制定战略并保持竞争力。”

大多数受访者建议创建团队,开发综合人工智能和制定数据战略,然后在有足够资金的情况下确定优先级并执行任务。也许这并不奇怪,因为一些受访者已经在这样的团队中工作了。尽管这些部门各不相同,通常从事特定项目,但大多数受访者强调有必要与其他新闻编辑室整合。受访者提出了两种方法,分别是实验法和学科交叉法:

i.实验法:

我会建立一个小团队,负责对人工智能进行实验。任何项目都需要一名相关编辑或新闻业内人士。我不要求他们生产最终产品,而是在开始确定可实现的方案和预测可能的危险。

我会建立一个内部实验室,由人工智能专家组成核心团队,然后每个部门的同事都可以在实验室待上一或两个月。实验室的内容是分析过程,研究读者对人工智能生产内容的理解,测试或自己发明新工具。

ii.学科交叉法:

我认为我们需要一个专注于更广泛领域的小型团队,例如自动化和内容增强。这个团队不应仅由新闻工作者和开发者组成,还应有社会科学家和设计师加入。团队也不应该固步自封,只停留在新闻编辑室内,而是成为公司不同部门的桥梁,所以资源和知识不只用于内部。报社不仅仅是新闻编辑室。

我会创建一个团队,大约15到20名新闻工作者(文字,视频)+一个专门的项目团队(PO+UX+UI设计师+图形设计师+运动设计师+3名开发者和1个技术主管+1-2名开发人员)+2名项目经理+4名数据分析师+1名增长分析师以及1位项目负责人。这个团队将拥有专门的支持和我们的5%观众(当然还包括志愿者)。它将有自己的路线规划和专门的优先项/KPI。但这将是一个很棒的工作团队 :-)

受访者对未来的最大期望是,针对人工智能的通识教育和专业培训。在新闻机构中,“科技扫盲”被认为是改变风尚、增进对新工具和系统的了解的重要因素。解释和揭秘人工智能可以使人们学会它的使用方法:

“扫盲非常重要。从基础编码,到数据科学,我们正在研究怎么从这些方面更好地教育新闻工作者。从经验来看,越是能够接受技术、越早提出人工智能项目想法和储备专业知识的新闻编辑室,他们的结果就越好。”

培训可以通过在线课程或第三方来完成,但这与整个新闻编辑室的发展以及个人学习一样重要:

“参与技术运行原理和潜在应用的基本培训,可能会帮助我们认识从前错过的应用程序,从而发现商业机会。”

技能培训针对特定功能,但也可能包括新闻学的基础知识,比如说编码:

“我们都需要具体的人工智能培训:即使是密切相关的人员也可能无法完全理解技术,因此也无法预见各种可能性。对于新闻编辑室来说,新技能着重在人工智能素养和数据分析上;对于技术团队而言是基础层次的人工智能解决方案知识。”

潜藏在人工智能培训需求背后的问题是编辑人员的STEM(科学、技术、工程和数学)素养短缺、以及反思现有的新闻实践和原则之间关系的能力的短缺:

“新闻工作者并不需要立刻掌握编写代码的技能,但他们应该了解去往美丽新世界所需的基本工具。这意味着要围绕数学、数据和计算机科学建立核心能力。对于自动化项目,你要经常总结新闻经验和判断。这就要求新闻工作者以系统的方式思考,为什么要做出某类决策,以便机器进行学习。”

一些受访者认为,创新训练应包括实验元素,而不是简单地提出行为模板:

“我认为训练的侧重点是,由来自不同领域的人员组成小团队进行实验。这将有助于沟通彼此的想法,可以在未来产生巨大的影响。”

人工智能培训被认为是所有参与者的职业发展的一部分:

“以前没有接受过计算新闻学方面训练的人需要接受基础培训,还有关于数据抓取技术的基本培训。而了解技术较多的人员需要进一步接受训练,把深度学习或机器学习的结果应用于现实生活中的新闻故事。”

了解人工智能是新闻机构中管理人员必不可少的知识。这不只是为了改善系统,还促进新闻编辑室从其他地方学习,以便进行战略调整:

“提高认识:了解竞争对手的技术水平如何,了解其他新闻编辑室的实际情况,然后确定该技术如何改变我们新闻编辑室——然后留心这些问题。了解机器如何提高我们的表现和输出,而不是取代我们。观察发现表现出色的类似/其他行业。”

我们在上一章中提到了,我们需要理解广泛的道德问题,才能解决人工智能中的偏见和其他道德问题。只有拥有更好的洞察力,才能以系统的方式达成公开透明:

“我们要理解提供给算法的输入值和变量,以最大程度地减少偏差。建立反馈和迭代过程。在编辑大会或其他论坛上公开透明地讨论“过滤气泡”、道德和人工智能倡议。在多个部门建立测试组,加入多种编辑功能(例如订阅者模式/编辑者模式),以演示新功能并提供反馈。”

除了开展培训,新闻编辑室还需要拥有能够持续收集技术变化趋势信息的系统:

“新闻编辑室和新闻工作者需要就技术的前进方向、技术如何改变世界、以及新闻在其中的作用等问题进行更多的讨论和培训。这不是学习特定的技术或人工智能技能,更是了解变革的步伐,了解可能性,以及知晓如何保持现在的优势。”

新闻编辑室中,并非每个人都需要了解人工智能的方方面面。但至少一部分人需要对技术可能产生的整体、系统性影响有综合的了解:

“我认为,新闻编辑室中所有使用人工智能的人都需要知道这些事情:在相对较高的层次上,人工智能系统是如何工作的。 例如:定义问题,收集数据,建立模型,评估模型,生产过程,反馈到定义问题组以及迭代。

我觉得现在存在着一个误解,大家认为构建模型或工具是困难的部分,而实际上最复杂的地方在于定义和评估阶段。在做出编辑判断之前,了解系统行为也很重要。系统规定参数是什么,有什么限制?然后是相关人员需要了解的特定事项,例如评估指标。”

少数人认为,不应该把高水平的培训或教育浪费在新闻编辑室上。他们认为,为不懂技术的人创造工具是技术人员的工作:

“技术人员需要为新闻工作者创造易用的产品和服务,并且应当界面简洁、操作方便。人工智能需要被揭开神秘面纱。”

“如果我们做好本职工作,人工智能在人们的日常工作是会隐形的。唯一的例外大概是我们的数据团队,但他们也正在努力。”

传统意义上,新闻业是一个互相竞争而非携手合作的行业,受访者对人工智能的热情代表了业界思维甚至是新闻制作方式的重大转变。受访者往往有来自其他行业的工作经验,因此可能比其他新闻编辑室员工有更多的合作经验,这是新闻业的真实趋势。

技术驱使着我们改变,但市场、受众的变化甚至是道德也是原因。绝大多数受访者同意这一点:新闻业需要更多的合作关系。在之前的章节中我们谈到新闻编辑室的内部合作,它也是外部合作的先决条件:

“使用人工智能技术进行创新的一个主要障碍是,新闻机构对自己的内部流程和工作流程的了解不足。很难自动化执行流程,只有执行部门才懂得如何去做。解释清楚过程/工作流将是合作的良好起点。”

人工智能提供了与其他机构合作的机会。这包括一系列广泛的活动,包括研发、新闻调查、数据共享以及培训。还有,可以与其他新闻媒体一起合作解决某些问题:

“建设一个用于人工智能和机器学习的集中式历史文章数据库,全国各地的新闻编辑室将从中受益。”

合作还可能涉及科技公司、学术界和民间社会组织。一些受访者认为自己已经有很多合作经验,有人认为现在谈合作还为时过早。总的来说,大家有意愿进行合作:

“媒体机构之间的合作越多越好,但也可以与跨学科人士合作,例如社会科学家,他们可以帮助处理数据。这也是统一数据和人工智能道德规范的方法。”

合作可以创造经济效益。团体协作有助于为研究提供资金:

“合作越多越好。独立出版商在新闻所需的人工智能创新和产品开发方面缺少资金。具有明确战略目标并与合作伙伴步调一致的创新团队可使研发更具影响力。”

新闻媒体目前的竞争非常激烈,并为新闻独立感到自豪。越小的组织往往对合作最为积极,但是有人建议通过中介机构来促进合作:

“有实力的新闻编辑室往往拥有强大的独立文化,让他们进行紧密合作的难度很大。具有讽刺意味的是,小型新闻编辑室通常不担心这个问题。我们需要的可能是诚实的经纪人(来自学术界、非营利组织或投资人),此人能够召集所有人并制定出人人愿意参与的条件。”

协作有好处,但也有代价:

“我们相信,合作对于人工智能在该领域的成功至关重要。但是,合作本身就是一项工作。组织跨地域的机构非常耗费资源。但是,如果我们想建立全球适用的工具,就必须做出这样的权衡。”

新闻往往跨越国家,因而合作对于全球报道具有重要意义:

“跨国新闻合作关系是新闻界一大热门话题。我们见到了一些合作案例,并期待全球话题(例如跨境腐败和气候变化)方面能有更多合作。”

这在各个国家/地区都具有价值,来自捷克、荷兰和斯堪的纳维亚半岛国家的受访者都表示这些合作会成为未来的榜样:

“丹麦版美联社正在尝试建立自然语言处理方面的合作,分析丹麦各媒体公司的内容并加上标签。希望这只是开始。”

“至少在斯堪的纳维亚半岛,新闻界人士在分享人工智能技术的进展和发现时放下了戒心。这是因为所有人都意识到,竞争已从新闻编辑室之间转移到了有影响力的大型技术平台。”

国际调查记者同盟(ICIJ)是新闻业的专门组织,不仅在《巴拿马文件》的帮助下产出许多优秀的跨国新闻,而且还提供普及的培训和合作资源。它与 Quartz 人工智能工作室、斯坦福大学以及众多新闻机构进行合作。这个例子很好地说明了,独立供资的中间机构也能提供人工智能新闻资源和专业知识。

这份报告展示了新闻编辑室现在在用人工智能做的事情,以及未来要做的事。我们已经看到了人工智能对新闻资源和公众关系产生的影响,以及引发的新型挑战,例如科技公司的作用和培训的需要。但是,受访者如何看待人工智能的长期发展趋势?本报告的受访者常常与人工智能接触,因此不出意外,他们认为人工智能对重塑新闻业有着至关重要的作用。

“采用人工智能不是可选项,而是必选项,如果哪家新闻机构还没有加入到这场马拉松中,那么他们应该尽快开始了。”

纵观媒体历史,我们知道,技术有着浅显和深刻的影响:

“技术一直影响着新闻业:互联网改变了传播方式;打字机和计算机先后提高了生产力;印刷机扩大了报纸的规模。自动化和人工智能已经改变了行业的各个方面,这一趋势将继续下去。”

大多数受访者认为,人工智能对未来的影响是渐进的、增强式的。但少数人认为,人工智能是推动新闻“结构化”转变的核心,未来将由自动化和个性化算法推动内容创作:

“人工智能技术实际上使我们从单向输出,也就是广播通信面向读者,变成了双向交互式交流。”

未来的新闻将是围绕人工智能的跨学科行业,这意味着需要创造新的技能组合、组织管理模式和新闻学科方法。新的工作模式可能会产生与人工智能相关的新职位,如自动化编辑、计算新闻记者、新闻编辑室工具经理、人工智能道德编辑等。但他们做的事情会有什么不同?

新闻编辑室期待人工智能重塑新闻的十大方面:

更好的个性化内容发布

更高效、自动化的内容生成

动态广告和订阅价格策略

在数据中找到更多故事;在故事中找到更多数据

更好的自动化转录

更好的内容审核管理模式

假新闻/机器生成假新闻识别

用于揭穿真相的新工具

增强的图像/视频搜索

更深入的用户生成内容情感分析

大多数受访者认为,人工智能将强化现有的工作流程,或使流程更有效率:

“我认为新闻编辑室的任何工作都可以借助人工智能进行增强,真正的问题是,这样做对吗?值得我们花时间吗?有前景的领域可能是……评估内容、简化评论审核、提供优化建议还有提供更好的语境。像“识别新闻报道或独家新闻”这样的领域可以使用人工智能,但是我会我会小心翼翼地使用,因为语境经常变化,编辑判断十分关键。”

对于人工智能的具体应用还有许多大胆想法:

“把文本自动转化成任意形式,文本到语音,文本到视频,这可能是不久的将来最常用的功能。”

即使是增强作用,新闻媒体现在也正在竞相利用这项技术:

“在人工智能的帮助下优化工作流程,这将是保持竞争力的必要条件。要做到这一点,新闻媒体公司会越来越像科技公司,建立自己的软件开发部门。”

人工智能增强可能会累积正面的影响:

“人工智能可以使文章内容更有深度,并在研究中收入更多的第一手资料。对我来说,通过窗口小部件丰富个性化的内容生产似乎也很有意思。”

在过去的二十年里,新闻编辑室一直在应对不断扩大的规模和日益复杂的新闻采编、生产和发行等问题。最近,许多人提到高度集中且十分复杂的定制内容、订阅和用户参与的模型。收入来源、受众行为以及行业“重组“都发生了巨大变化,许多领域的产能不足,行业新鲜血液也得不到补充。许多受访者认为,人工智能将成为整个行业发生改变的另一大主要力量:

“现有的新闻制作工作流程可能会被彻底颠覆,新闻产品会出现全新类别(例如自动化新闻和程序汇编)。目前还不能确定这种人工智能颠覆力量会来得多快或多强,但它很有可能改变新闻业,这是人们所公认的。

将新闻内容发布到支持人工智能的平台,然后基于这些已发布的内容资产创建数据经验,这可能会严重破坏新闻行业的业务模型及其创建独特的编辑经验的能力。行业结构加剧了这种情况,具有强大市场力量的平台越来越少。迄今为止,在这些环境中还没有建立起新闻发布的范例。”

思考未来,就需要重新考虑新闻实践和行业结构:

“我们需要更加坚定立场,了解自己的使命,以及掌握分配给系统的任务。如果我们不加强密切合作,人工智能的发展可能会增加垄断,因为小型媒体公司无法负担任何新闻项目。”

新闻媒体不再仅仅是与同类竞争:

“大多数竞争者来自新闻界外,拥有比信息产业还多的资源,在这样的世界里,我们需要找好定位、发掘效益。”

人工智能可能是一种改革力量,但它带来的好处是否会被平等分配?人工智能在新闻业是为多数人服务还是为少数人服务?

“人工智能在新闻和信息的挖掘、生产和发布中的作用日益重要,一个关键问题是,传统且资源匮乏的新闻编辑室在这个生态系统中能发挥什么作用。他们能拥有和人工智能竞争的工具吗?他们是否会提供‘人工’内容,以作为大型组织在人工智能新闻引擎中使用的‘原料’?新闻生态系统的哪些部分不会离开新闻编辑室?”

人工智能将有助于推动的一个变化因素是“物联网新闻”,将发布内容转移到不同的设备上。随着日常设备互联互通,它们以新鲜的方式方法向消费者传播新形式的新闻。

弗朗切斯科·马可尼(Francesco Marconi)在美联社进行了实验,例如使用传感器收集新闻数据,并开辟了新闻制作新方式:“我们可以监控娱乐场所和政治场所的振动和噪音,以此确定音乐会上最受欢迎的歌曲,或者比赛中气氛最好的一局,甚至是竞选集会上产生最大共鸣的语句。”

无人机、可穿戴设备、语音和虚拟现实都成为了新闻制作和发布的一部分。正是人工智能使这些功能可用并具有扩展性。这种增强新闻有许多形式,需要新技能和创造力。有关受众行为的数据是理解这种新的“发布式新闻”的关键:

“我们希望从单向沟通变为双向反馈,似乎人工智能可以帮助我们理解用户并与之互动。”

借助受众互动、社交媒体和和多平台发布,新闻编辑室已经习惯了“互联式”或“发布式”新闻形态。人工智能会增加差异性:

“我认为在新闻编辑室中,增强对技术及其含义的抽象能力和提高分析技巧,这两项是必要的开始。我们需要提高新闻编辑室中处理新闻模式的人员比例,而不是讲述单独故事的人员。”

除了了解数据和抽象概念之外,新闻工作者可能不得不更加努力地在人情味上下功夫。在坐拥众多技术的情况下,你是否仍能保持人类思考角度并将用户体验作为核心?

“人工智能是否可以支持我们与读者的互动,而不会造成其他影响,我也很想知道这一点。如果我们能使工作更加透明,并且惠及更多人群,那么前景将十分广阔。”

培养公众对新闻的信任和兴趣的关键因素是情感。新闻需要从用户的角度看待世界,并让他们觉得新闻反映了自己的价值观、身份和情感。情感一直是新闻界中“人类利益”的一部分,但在数字和社交网络时代,它是获得关注和促进分享参与的关键因素。随着人工智能在理解“情绪”方面的进步,这项技术将有助于新闻编辑室更好地与观众产生联系。

新闻业是一个独特的行业。新闻工作具有许多特殊条件:新闻周期、公共利益、监管制度、不同的商业模式、不同的格式、高度差异化的受众和多样但强大的“专业”文化。出于道德和商业原因,新闻十分重视独立性。因此,一些受访者(约10%)认为,不需要花费太多时间去看待其他行业在人工智能方面的表现:

“在这个领域里,我宁愿只关注自身。”

然而,大多数人认为新闻媒体过于孤立:

“我认为新闻应该关注其他行业。事实上,我担心的事情是,作为一个行业,新闻业总是在内部寻找指引。《纽约时报》在做什么?《华盛顿邮报》在做什么?我们需要向其他行业取经,看看他们的创新、错误和忧患是不是也适用于我们。”

一些受访者曾经在其他行业工作过,许多人觉得,除了新闻媒体还可以从业界之外学到很多东西。呼吁“新闻界的Spotify”或“新闻界的Netflix”已经成为陈词滥调,但是有对比可能就有进步。这些是充分利用人工智能技术的新兴公司。但受访者也将视线投向其他传统行业,特别是结构经过优化并将技术带来的威胁转化为可持续模式要素的行业:

“如果从长远出发,我们应该看看任何存在供应链管理问题的行业。例如,20年前的音乐产业。”

显然,广告和营销等媒体行业与新闻行业密切相关,但其他不太相关的行业也被引用进来,如Ebay、亚马逊和阿里巴巴等在线零售公司:

“在线零售是一个已经将人工智能深度集成到其自动化流程中的行业。部分原因在于,在线零售会生成大量高度结构化的数据,这使得对用户行为及高级目标的深入分析变得更加容易。尽管媒体行业可能无法复制在线零售中使用的点对点技术,但是产品推荐、动态定价、客户决策过程分析甚至自动化产品描述/标题生成的等最先进的机器学习模型绝对值得一看。”

我们甚至从赌博业也能学到如何使用技术来了解受众:

“博彩网站真的很有趣,他们对用户行为的追踪程度超过了其他任何行业,而这正是我们真正想达到的效果——被本地新闻所吸引。”

游戏化新闻最巧妙地采用了新技术来展现全新内容格式,例如《金融时报》的Uber Game,但受访者认为游戏行业本身更具相关性:

“就个人而言,我认为游戏行业是所有人工智能使用领域中的最佳实践。人工智能在人机交互中的无缝实现令人印象极为深刻。”

进行比较,可以得到正面的启示和负面的教训。例如,法律从人工智能支撑的数据搜索中受益,但人工智能也对合法劳工模式造成了负面影响。教训不仅仅来自技术层面或经济层面。其他行业的人工智能正在引发一场全新的争论,即在我们和用户之间隔着自动化的机器,信任意味着什么。医学、制药和生物技术行业都面临着深刻的道德挑战,新闻业应该予以正视:

“我们应该向他们学习在数据精度、验证、数据完整性以及匿名大型数据池使用方面的标准。”

但最常见的老师是各大科技公司。他们在研究方面占主导地位。他们正在创造新闻工作者可能会使用的新产品和网络。科技公司也面临着同样的市场和道德挑战,新闻业可以从中学习:

“软件巨头和数字技术公司(例如Microsoft,Google和Facebook)是该领域的领先者,我们需要不断向他们学习和借鉴。”

“科技公司就是明显的例子——他们犯了很多错误,也提了很多假设,我们可以从中学习,避免问题发生。”

最近的历史已证明,面对技术变革,新闻行业适应性极强。然而,新闻业的规模不断缩小,并苦苦争夺资源。

根据受访者的看法,人工智能会带来更多的变化和巨大的挑战,但也为那些理解和部署技术的人提供机会,提高他们的工作水平。新闻业是一个相对规模较小的行业,而人工智能是一项庞大而昂贵的技术。如果以人工智能为动力的增强新闻蓬勃发展,新闻业就必须再一次展现想象力以及决心。

结论:人工智能对新闻业意味着什么?

本报告代表了全球多家新闻机构从事人机合作人士的观点。受访者较为熟悉人工智能,并对其应用抱有积极的态度。所以,当他们指出人工智能的局限性以及使其正常工作需要付出的努力时,事情的发展就更有趣了。他们表明,人工智能正在赋予他们更多力量,但随之而来的还有编辑和道德责任。

受访者强烈认为,人工智能有助于提高新闻工作者的工作效率,并使他们更好地办到以下两件重要事情:

1.在新闻行业为取得经济发展以及公众信任而努力的时代,不管有没有人工智能的帮助,让新闻工作者有时间创造更好的新闻工作。

2.帮助公众应对新闻过载和信息失真的世界,并以轻松的方式把人们与其生活密切相关的、实用的、令人激动的新闻联系起来。

要做到这一点,新闻机构必须(再一次)改变。他们需要采取某种形式的人工智能战略。还要改变工作流程、管理系统和招聘方式。

即使如此,这将是一次艰难的改变。人工智能是一种新兴的技术,其应用可能会十分复杂和昂贵。它也有严重的问题,比如说算法偏见或对短视的收益政策。某些挑战是全行业的危机。作为一个行业,新闻业必须有更多的内部和外部协作。新闻编辑室需要进行重大投资,吸收新闻需要的技能、知识和创新创造,以优化人工智能并减少潜在的危害。

这需要行业思想的转变。新闻行业一直以来竞争严重、相对孤立。而改变需要灵活调整和长期规划,可能与新闻周期的快速优先以及来自市场的压力相矛盾。公共媒体部门将面临类似的挑战,也需要适应。新闻媒体需要强大而有效的方法来处理与其他利益相关者的关系,如科技公司。

人工智能技术既不会拯救也不会扼杀新闻业。新闻业本身面临许多其他挑战,如公众的冷漠和反感、其他事物的吸引力。

也许,在这个人工智能领跑许多领域(从政治到医学)的世界中,新闻业最大的希望是人工智能和世界比以往任何时候都更需要良好的新闻。在这里“引用”美国总统肯尼迪的话:新闻工作者不应只问人工智能可以为他们做什么,他们应该问自己可以为人工智能世界做什么。

首先,他们需要和人工智能一同行动起来。这并不意味着它会屈服于炒作。这意味着业界要对技术的价值以及战略部署的方式做出明智的判断。这还意味着业界要再次接受事实,必须适应新闻及其消费方式正在发生变化。“远见”对新闻业仍然很重要,特别是在世界似乎变得更加混乱和矛盾之时。

人工智能为新闻提供了一系列工具。不是推倒新闻“信息守护人”的卓越地位然后重来,而是成为可信赖的信息创建者和策划人,成为具有批判性和独立分析的新闻来源,以及成为能够进行各种相关讨论的论坛。正如克莱·舍基(Clay Shirky)十多年前所言:“不存在信息超载,只有过滤失败。”人类的新闻技能和价值观若能和技术完美结合,会十分有益。

各家新闻无法单打独斗,因为对算法和新的通信网络还不够了解,需要更好地理解人工智能如何为新一代公民塑造信息生态系统。新闻机构需要找到其他资源和专业知识的利用方法。他们需要向公众和社会证明,新闻可以成为这项技术健康发展的关键因素。

也许我们从这份报告中获得的最有用信息是,我们正处于另一个关键的历史时刻。如果我们认为新闻业是一种由人类提供的社会福利,那么在所有新闻机构必须采用这种技术之前,我们还有2-5年的时间。好消息是,调查中获得的回应显示,全球新闻业大部分成员正视这一挑战,并努力实现目标。他们热衷于使用新力量,但也接受新责任。

就我们而言,期待建立新闻和人工智能网络,目的是促进相关方沟通、促进更好的培训、激发研究,以及推动最佳实践和对话的交流。

查理·贝克特教授

2019年11月于伦敦政经学院

  • 幽默搞笑
  • 奇闻异事
  • 八卦娱乐
本站内容来自互联网,不提供任何保证,亦不承担任何法律责任.
COPYRIGHT © 2014-2020 591.info INC. ALL RIGHTS RESERVED.广告合作联系邮箱:591info@2980.com. 版权所有 591资讯