文本分类的通用语言模型微调(Universal Language Model Fine-tuning for Text Classification)
基本信息
打开支付宝首页搜“673273051”领红包,领到大红包的小伙伴赶紧使用哦!
相关书籍
内容介绍
迁移学习已经对计算机视觉领域产生了很大的影响,但NLP领域的现有方法仍然需要针对任务进行修改和从零开始进行训练。本文提出一种有效的迁移学习方法——通用语言模型微调(Universal Language Model Fine-tuning, ULMFiT),该方法可应用于任何NLP任务,并介绍了对语言模型进行微调的关键技术。 我们的方法在六个文本分类任务上显著优于最先进的技术,在大多数数据集上将错误率降低了18-24%。此外,仅使用100个标记示例,它的性能不比在100倍以上的数据上从零开始训练的模型的性能差。我们将开源预训练模型和代码。
下载地址
打赏