7 月 31 日新闻 ,言不英语言贵用户所运用的同过语言对于大型语言模子(LLM)的用度有很大的影响,可能组成英语运用者以及此外语言运用者之间的最重家养智能边界 。最近的外语一项钻研展现,由于 OpenAI 等效率所接管的良多的效率器老本掂量以及计费的方式 ,英语输入以及输入的大模的语用度要比其余语言低良多 ,其中简体中文的言不英语言贵用度约莫是英语的两倍 ,西班牙语是同过英语的 1.5 倍,而缅甸的最重掸语则是英语的 15 倍 。
IT之家留意到,外语推特用户 Dylan Patel(@dlan522p)分享了一张照片,良多揭示了牛津大学妨碍的大模的语一项钻研 ,该钻研发现 ,言不英语言贵让一个 LLM 处置一句缅甸语句子需要 198 个词元(tokens),同过而同样的句子用英语写惟独要 17 个词元。词元代表了经由 API(如 OpenAI 的 ChatGPT 或者 Anthropic 的 Claude 2)碰头 LLM 所需的合计力老本 ,这象征着缅甸语句子运用这种效率的老本比英语句子逾越 11 倍