首页 云计算

谷歌Docs,现在已经可以自动生成文本摘要了!

对我们很多人来说,每天都需要处理大量的文件。当收到一份新文件时,我们通常希望文件包含一个简要的要点总结,以便用户最快的了解文件内容。然而,编写文档摘要是一项具有挑战性、耗时的工作。

为了解决这个问题,谷歌宣布 Google Docs 现在可以自动生成建议,以帮助文档编写者创建内容摘要。这一功能是通过机器学习模型实现的,该模型能够理解文本内容,生成 1-2 句自然语言文本描述。文档编写者对文档具有完全控制权,他们可以全部接收模型生成的建议,或者对建议进行必要的编辑以更好地捕获文档摘要,又或者完全忽略。 

用户还可以使用此功能,对文档进行更高层次的理解和浏览。虽然所有用户都可以添加摘要,但自动生成建议目前仅适用于 Google Workspace 企业客户(Google Workspace 是 Google 在订阅基础上提供的一套云计算生产力和协作软件工具和软件)。基于语法建议、智能撰写和自动更正,谷歌认为这是改善工作场所书面交流又一有价值的研究。

如下图所示:当文档摘要建议可用时,左上角会出现一个蓝色的摘要图标。然后,文档编写者可以查看、编辑或忽略建议的文档摘要。

 

模型细节

过去五年,特别是 Transformer 和 Pegasus 的推出,ML 在自然语言理解 (NLU) 和自然语言生成 (NLG)方面产生巨大影响。

然而生成抽象文本摘需要解决长文档语言理解和生成任务。目前比较常用的方法是将 NLU 和 NLG 结合,该方法使用序列到序列学习来训练 ML 模型,其中输入是文档词,输出是摘要词。然后,神经网络学习将输入 token 映射到输出 token。序列到序列范式的早期应用将 RNN 用于编码器和解码器。

Transformers 的引入为 RNN 提供了一个有前途的替代方案,因为 Transformers 使用自注意力来提供对长输入和输出依赖项的更好建模,这在文档中至关重要。尽管如此,这些模型仍需要大量手动标记的数据才能充分训练,因此,仅使用 Transformer 不足以显着提升文档摘要 SOTA 性能。

Pegasus 的研究将这一想法又向前推进了一步, 该方法是在论文《PEGASUS: Pre-training with Extracted Gap-sentences for Abstractive Summarization 》中提出,通过引入一个预训练目标自定义来抽象摘要。在 Pegasus 预训练中,也被称为 GSP(Gap Sentence Prediction ),未标记的新闻消息和网络文档中的完整句子在输入中被 mask 掉,模型需要根据未被 mask 掉的句子重建它们。特别是,GSP 试图通过不同的启发式把对文档至关重要的句子进行 mask。目标是使预训练尽可能接近摘要任务。Pegasus 在一组不同的摘要数据集上取得了 SOTA 结果。然而,将这一研究进展应用到产品中仍然存在许多挑战。

PEGASUS 基础架构是标准的 Transformer 编码器 - 解码器。

将最近的研究进展应用到 Google Docs数据

自监督预训练生成的 ML 模型具有通用的语言理解和生成能力,但接下来的微调阶段对于该模型适应于应用领域至关重要。谷歌在一个文档语料库中对模型早期版本进行了微调,其中手动生成的摘要与典型用例保持一致。但是,该语料库的一些早期版本出现了不一致和较大变动,其原因在于它们包含了很多类型的文档以及编写摘要的不同方法,比如学术摘要通常篇幅长且详细,而行政摘要简短有力。这导致模型很容易混淆,因为它是在类型多样的文档和摘要上训练的,导致很难学习彼此之间的关系。

幸运的是,谷歌开源 Pegasus 库(用于自动生成文章摘要)中的关键发现之一是:有效的预训练阶段在微调阶段需要更少的监督数据。一些摘要生成基准只需要 1000 个 Pegasus 的微调示例即能媲美需要 10000 + 监督示例的 Transformer 基线性能,这表明我们可以专注于模型质量而非数量。

谷歌精心地清理和过滤了微调数据,以包含更一致且更代表连贯摘要的训练示例。尽管训练数据量减少了,但生成了更高质量的模型。正如数据集蒸馏等其他领域最近的工作一样,我们可以得到以下这个重要教训,即更小的高质量数据集要优于更大的高方差数据集。

服务

一旦训练了高质量模型,谷歌转向解决在生产中为模型提供服务时面临的挑战。Transformer 版本的编码器 - 解码器架构是为摘要生成等序列到序列任务训练模型的主流方法,但该方法在实际应用中提供服务时效率低且不实用。效率低主要归咎于 Transformer 解码器,它利用自回归解码来逐 token 地生成输出摘要。当摘要更长时,解码过程变得很慢,这是因为解码器在每一步都要处理之前生成的所有 token。循环神经网络(RNN)是更高效的解码架构,这得益于它不像 Transformer 模型那样对之前的 token 施加自注意力。

谷歌使用知识蒸馏(将知识从大模型迁移到更小更高效模型的过程)将 Pegasus 模型提炼为包含 Transformer 编码器和 RNN 解码器的混合架构。为了提高效率,谷歌还减少了 RNN 解码器层的数量。生成的模型在延迟和内存占用方面有显著改善,而质量仍与原始模型相当。为了进一步改善延迟和用户体验,谷歌使用 TPU 为摘要生成模型服务,这实现了显著加速并允许单台机器处理更多请求。

持续的挑战

虽然谷歌对迄今为止取得的进展感到兴奋,但仍要继续应对以下一些挑战:

文档覆盖率:由于文档之间存在显著差异,因此在微调阶段开发一组文档很难。推理阶段也存在同样的挑战。此外,谷歌用户创建的一些文档(如会议记录、食谱、课程计划和简历)不适合总结或难以总结。

评估:抽象摘要需要捕捉文档的本质,保持流畅且语法正确。一个特定的文档可能存在许多可被认为正确的摘要,不同的用户也可能喜欢不同的摘要。这使得仅使用自动指标评估摘要变得困难,用户反馈和使用情况统计对于谷歌理解和不断提高模型质量至关重要。

长文档:模型最难生成长文档的摘要,因为它更难捕获所有要点并抽象(总结)在一个摘要中。此外,长文档的训练和服务期间内存占用显著增加。但是,长文档对于模型自动生成摘要这一任务而言可能最有用,因为它可以帮助文档编写者在这项繁琐的任务中抢占先机。谷歌希望可以应用最新的 ML 进展来更好地应对这一挑战。

官方微博/微信

每日头条、业界资讯、热点资讯、八卦爆料,全天跟踪微博播报。各种爆料、内幕、花边、资讯一网打尽。百万互联网粉丝互动参与,TechWeb官方微博期待您的关注。

↑扫描二维码

想在手机上看科技资讯和科技八卦吗?

想第一时间看独家爆料和深度报道吗?

请关注TechWeb官方微信公众帐号:

1.用手机扫左侧二维码;

2.在添加朋友里,搜索关注TechWeb。

手机游戏更多