之后文本摘要总结使命,用GPT可能耽忧交给大模子了 。大模
文本摘要,总结摘靠作为做作语言天生(NLG)中的谱比一项使命 ,主要用来将一大段长文本缩短为杂乱的人类摘要,好比往事文章、流利源代码以及跨语言文本等多种内容都能用到 。用GPT
随着大模子(LLM)的大模泛起,传统的总结摘靠在特定数据集上妨碍微调的措施已经不在适用。
咱们不禁会问,谱比LLM 在天生摘要方面下场事实若何?
为了回覆这一下场 ,人类来自北京大学的流利钻研者在论文《 Su妹妹arization is (Almost) Dead 》中妨碍了深入的品评辩说。他们运用人类天生的用GPT评估数据集评估了 LLM 在种种摘要使命(单条往事、多条往事 、大模对于话、总结摘靠源代码以及跨语言摘要)上的展现。
在对于 LLM 天生的摘要、家养撰写的摘要以及微调模子天生的摘要遏制定量以及定性的比力后发现,由 LLM 天生的摘要清晰受到人类评估者的喜爱 。
接着该钻研在对于以前 3 年宣告在 ACL、EMNLP 、NAACL 以及 COLING 上的 100 篇与摘要措施相关的论文妨碍抽样以及魔难后,他们发现约莫 70% 的论文的主要贡献是提出了一种总结摘要措施并在尺度数据集上验证了其实用性。因此 ,本文展现「摘要(简直)已经去世( Su妹妹arization is (Almost) Dead )」 。
尽管如斯,钻研者展现该规模依然存在挑战 ,好比需要更高品质的参考数据集、改善评估措施等还需要处置 。
论文地址 :https://arxiv.org/pdf/2309.09558.pdf
措施及服从
该钻研运用最新的数据来构建数据集 ,每一个数据集由 50 个样本组成。
好比在实施单条往事、多条往事以及对于话摘要使命时 ,本文接管的措施模拟了 CNN/DailyMail 、Multi-News 运用的数据集构建措施。对于跨语言摘要使命 ,其策略与 Zhu 等人提出的措施不同 。对于代码摘要使命 ,本文接管 Bahrami 等人提出的措施。
数据集构建实现之后,接下来便是措施了