微软的一篇论文在发布时意外暴露了GPT模型的核心机密,引起了广泛关注。论文中提到,4o-mini版本的GPT模型参数规模仅为8B,而o1版本的参数规模也仅为300B。
这次曝光让人们对GPT模型的内部构造和参数规模有了更深入的了解。尽管这些数字对于非专业人士来说可能难以理解,但它们无疑揭示了GPT模型在保持高效性能的同时,也在不断优化自身的参数规模。