1月28日

AI资讯速递6个月前更新 大Joe
145 0

1月28日·周日 AI工具和资源推荐

AI全网资源导航-aiguide.cc为您提供最新的AI新闻资讯和最新的AI工具推荐,在这里你可以获得用于营销的AI聊天机器人、AI在商业管理中的应用、用于数据分析的AI工具、机器学习模型、面向企业的AI解决方案、AI在商业客户服务中的应用、AI和自动化工具等。

工信部等九部门联合印发《原材料工业数字化转型工作方案(2024—2026年)》
工信微报

工业和信息化部、国家发展改革委、财政部、自然资源部、生态环境部、国资委、市场监管总局、中国科学院、中国工程院等九部门近日联合印发《原材料工业数字化转型工作方案(2024—2026年)》,提出到2026年,我国原材料工业数字化转型取得重要进展,重点企业完成数字化转型诊断评估,数字技术在研发设计、生产制造、经营管理、市场服务等环节实现深度应用,生产要素泛在感知、制造过程自主调控、运营管理最优决策水平大幅提高,为行业高质量发展提供有力支撑。来源:微信公众号【多知网】

CPU可跑大模型!国内首个非Attention大模型发布,训练效率7倍于Transformer

岩山科技旗下创企岩芯数智(Rock AI)推出国内首个非Attention机制的大模型Yan,也是业内少有的非Transformer架构大模型。Yan是一个通用大语言模型,拥有相较于同等参数Transformer的7倍训练效率、5倍推理吞吐、3倍记忆能力,同时支持CPU无损运行、低幻觉表达、100%支持私有化应用。an不采用Attention机制,也不采用RNN序列,而是建立一种线性的向量方式,将计算复杂度大幅降低,做到线性时间复杂度,还能做到常量的空间复杂度,从而提高大模型的性能和效果。训练集上,Yan的预测准确率比Transformer高出17%,验证集上Yan要高出13%。在推理吞吐量对比方面,相同资源下,Yan的吞吐量都要高于相同情况下的Transformer,达到其5倍,能支持更多用户的并发使用。当模型输出的Token从200增加到3000时,Transformer会出现显存不足,但Yan模型始终显存稳定。理论上可以实现无限长度的推理,应用成本更低。以古诗续写为例,对Yan与Transformer的记忆能力进行对比。训练集上Yan的准确率达到Transformer的3倍,记忆能力更强。来源:IT之家

© 版权声明

相关文章

暂无评论

暂无评论...