品玩4月18日讯,APUS今天在“AiLMe·最懂你”发布会现场发布自研多模态人工智能大模型“AiLMe”。

AiLMe参数已达千亿规模,具备对文本、图像、视频、音频的理解和生成能力。针对具体应用场景,APUS从AiLMe内蒸馏出文本模型“异雀八”、图像模型“异雀三”、视频模型“异雀四”、音频模型“异雀六”多个垂直领域精炼模型,并基于此创新研发出“智能问答大师、简笔成画、墨染、Daily Astro、Star Night、KJV Bible Now、PicPik”等系列AI产品。
AiLMe的技术架构设计,在文本、图像、视频、音频的“理解”部分,采用目前业内主流的Transformer架构。同时,AiLMe吸收了目前人工智能最前沿的研究成果,设计了一套“插件式”架构,可以自主学习和使用“工具”,这些“工具”以插件的方式接入到AiLMe的平台中,可以极大提升AiLMe的能力。在文本、图像、视频、音频的“生成”部分,AiLMe沿用了目前业内主流的扩散模型(Diffusion Model),并继承了开源社区的生态。
在AI大模型时代,数据、算法和算力正在经历新的演变,大模型参数量以指数级速率提升,数据量也随着多模态的引入进行大规模增长,导致算力需求剧增。AiLMe在模型训练时,分为预训练(Pre-trained)阶段和微调(Fine-tuning)阶段。为解决算力问题,APUS在国内郑州和新加坡分别建设了两大智算中心,还融合自建GPU服务器算力和第三方的算力协同作用。
通过自主学习和人类反馈不断解锁新能力,AiLMe还将更高效地解决个性化、开放式的海量任务。目前,AiLMe已在多个To C场景中落地,在场景多样性、任务复杂度上显示出能力与潜力。
据悉,AiLMe将会向客户开放API接口和服务,届时,客户可根据实际应用需求,调用AiLMe的各项AI技术能力。




0 条评论
请「登录」后评论