微调BERT实现中文微博情感分类
微调一个BERT模型,实现微博数据的情感极性分类。。
微调一个BERT模型,实现微博数据的情感极性分类。。
KeyBERT是一种基于BERT嵌入的关键词提取技术,它通过计算文档与子短语之间的余弦相似度来识别文档中最重要的关键词和短语。
通过Bert模型来实现中文地址的自动解析任务,类似于寄送快递单时自动识别文字的地址并进行划分省、市、区、街道等不同字段信息。
通过Bert模型来实现命名实体识别任务。
BERT思路的完成品,RoBERTa。
通过Transformers这个库可以很方便地使用BERT模型。
BERT是由Google开发的一种预训练语言模型。
通过一些实验对NLP领域三大主流的特征抽取器(CNN/RNN/TF)做个比较。
Transformer是第一个用纯Attention搭建的模型,不仅计算速度更快,在翻译任务上获得了更好的结果,也为后续的BERT模型做了铺垫。
Self-Attention是Attention的变体,其减少了对外部信息的依赖,更擅长捕捉数据或特征的内部相关性。