谷歌PaLM 2细节曝光:3.6万亿token,3400亿参数

谷歌最新大语言模型PaLM 2,更细节内幕被曝出来了!

据CNBC爆料,训练它所用到的token数量多达3.6万亿


这是一个从 https://wallstreetcn.com/articles/3689133 下的原始话题分离的讨论话题