Transformer开山论文惊天「翻车」?图与代码不一致,神秘bug看傻了

今天,AI圈被一个惊天「翻车」刷屏了。 

谷歌大脑的NLP奠基之作、提出Transformer架构的开山鼻祖级论文 《Attention Is All Your Need》 中的图,被网友扒出与代码并不一致。 


这是一个从 https://www.36kr.com/p/2250521328873090 下的原始话题分离的讨论话题