谷歌研究院发布了“Titans”系列模型架构,通过仿生设计实现了200万Token上下文长度的突破,并计划未来开源技术。该架构的核心是深度神经长期记忆模块,灵感源于人类记忆系统,结合了短期记忆与长期记忆优势,并运用注意力机制处理即时上下文,形成高效信息处理体系。
Titans在长序列处理任务中表现突出,在语言建模和时间序列预测方面均取得进展,甚至在某些场景下超越GPT-4等模型。谷歌承诺开源技术,预示着Titans可能为AI领域长文本处理带来新方向,展现了降低参数量的同时提升处理效能的可能性。