Transformers里面所谓的Self-Attention在做什么? openreview.net
主旨是Self-Attention其实就是在计算sequence的self-expression。文章贡献有多大我不好评论,但其实这也是我一直认为Transformers就在做的事情。其实想法非常简单。
voters
Report Story
主旨是Self-Attention其实就是在计算sequence的self-expression。文章贡献有多大我不好评论,但其实这也是我一直认为Transformers就在做的事情。其实想法非常简单。
留下你的评论