品玩

科技创新者的每日必读

打开APP
关闭

TII发布开源大模型Falcon H1R 7B,以7亿参数实现优异推理性能

1月6日

品玩1月6日讯,据 TII 官网获悉,阿布扎比技术创新研究院(Technology Innovation Institute,TII)推出全新开源大型语言模型Falcon H1R 7B。模型仅拥有7亿个参数,却在数学、编程与科学推理等多个基准测试中展现出了超越部分更大规模模型的性能。

Falcon H1R 7B 在冷启动监督微调阶段,基于前代模型,在专业领域进行训练;强化学习增强阶段,通过奖励机制进一步优化模型的逻辑性与输出质量。模型采用Transformer与Mamba的混合架构,显著提升了处理长文本时的效率和吞吐量。

在数学推理测试AIME-24中,该模型获得88.1%的分数,优于许多150亿参数的模型。其DeepConf推理方法能以更少的计算量实现更高的准确性。在常见的批量处理任务中,它的推理吞吐量可达每个GPU每秒处理1500个词元,效率达到部分竞争对手的两倍,使其在低算力环境下同样具备实用价值。

目前,该模型的完整检查点及量化版本已在Hugging Face平台开源。TII表示,Falcon H1R 7B可为开发者和企业提供一个高效、紧凑且强大的AI工具。

取消 发布

下载品玩App,比99.9%的人更先知道关于「FalconH1R7B」的新故事

下载品玩App

比99.9%的人更先知道关于「FalconH1R7B」的新故事

iOS版本 Android版本
立即下载
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测