补充语料对GPT2微调
使用额外语料训练一个更优异的GPT-2模型。
使用额外语料训练一个更优异的GPT-2模型。
本文将探索如何通过GPT生成更流畅的文本。
通过Transformers这个库可以很方便地使用GPT模型。
BERT是由OpenAI开发的一种预训练语言模型。
基于BERT-wwm-ext和sentence-transformer把玩中文句子embedding并寻找和查询短语相似度最接近的句子。
Sentence-BERT是基于预训练过的BERT的孪生网络,能够获得在语义上有足够意义的篇章向量。
微调一个BERT模型,实现微博数据的情感极性分类。。
KeyBERT是一种基于BERT嵌入的关键词提取技术,它通过计算文档与子短语之间的余弦相似度来识别文档中最重要的关键词和短语。
通过Bert模型来实现中文地址的自动解析任务,类似于寄送快递单时自动识别文字的地址并进行划分省、市、区、街道等不同字段信息。
通过Bert模型来实现命名实体识别任务。