内积共1篇
Self-Attention:初步理解 - MaxSSL

Self-Attention:初步理解

Self-Attention的基本结构与计算Attention(注意力)实际上就是权重的另一种应用的称呼,其具体结构与初始输入的content\(\vec{x_{1}},\vec{x_{2}},\cdots,\vec{…
MaxSSL的头像 - MaxSSLMaxSSL3年前
40