0%

使用额外语料训练一个更优异的GPT-2模型。

本文将探索如何通过GPT生成更流畅的文本。

通过Transformers这个库可以很方便地使用GPT模型。

BERT是由OpenAI开发的一种预训练语言模型。

Sentence-BERT是基于预训练过的BERT的孪生网络,能够获得在语义上有足够意义的篇章向量。

KeyBERT是一种基于BERT嵌入的关键词提取技术,它通过计算文档与子短语之间的余弦相似度来识别文档中最重要的关键词和短语。

通过Bert模型来实现中文地址的自动解析任务,类似于寄送快递单时自动识别文字的地址并进行划分省、市、区、街道等不同字段信息。