从RNN到Transformer(6) 发表于 2020-11-12 更新于 2022-06-28 Self-Attention是Attention的变体,其减少了对外部信息的依赖,更擅长捕捉数据或特征的内部相关性。 您好, 这里需要密码.