0%

给定上下文与问题,从上下文中抽取答案。

使用额外语料训练一个基于BART的机器翻译模型。

通过预训练语言模型opus-mt-en-zh和opus-mt-zh-en实现快速的机器翻译。

使用额外语料训练一个更优异的GPT-2模型。

本文将探索如何通过GPT生成更流畅的文本。

通过Transformers这个库可以很方便地使用GPT模型。

BERT是由OpenAI开发的一种预训练语言模型。

Sentence-BERT是基于预训练过的BERT的孪生网络,能够获得在语义上有足够意义的篇章向量。