阅读理解模型
给定上下文与问题,从上下文中抽取答案。
给定上下文与问题,从上下文中抽取答案。
使用额外语料训练一个基于BART的机器翻译模型。
将机器翻译服务发布成api。
通过预训练语言模型opus-mt-en-zh和opus-mt-zh-en实现快速的机器翻译。
使用额外语料训练一个更优异的GPT-2模型。
本文将探索如何通过GPT生成更流畅的文本。
通过Transformers这个库可以很方便地使用GPT模型。
BERT是由OpenAI开发的一种预训练语言模型。
基于BERT-wwm-ext和sentence-transformer把玩中文句子embedding并寻找和查询短语相似度最接近的句子。
Sentence-BERT是基于预训练过的BERT的孪生网络,能够获得在语义上有足够意义的篇章向量。