4月26日

AI资讯速递3个月前更新 大Joe
138 0

4月26日·周五 AI工具和资源推荐

AI全网资源导航-aiguide.cc为您提供最新的AI新闻资讯和最新的AI工具推荐,在这里你可以获得用于营销的AI聊天机器人、AI在商业管理中的应用、用于数据分析的AI工具、机器学习模型、面向企业的AI解决方案、AI在商业客户服务中的应用、AI和自动化工具等。

为什么要做长文本、长图文、长语音的大模型?深度解读讯飞星火V3.5春季上新

4 月 26 日,科大讯飞发布讯飞星火大模型 V3.5 的功能上新,其中一个重点就是面向用户各种场景中高效获取信息需求,发布首个长文本、长图文、长语音的大模型,能够支持文档、图文资料、会议录音等各种信息来源的快速理解和学习,还能够结合各种行业场景知识给出专业、准确回答。比如面对上百万甚至上千万文字,长文本大模型消耗的运算资源非常大,业界大模型往往处理一半或者更少就无法处理了,长文本功能的落地,需要解决高效处理。为了解决这一问题,科大讯飞用业内领先的讯飞星火 V3.5 提升对长文本的理解、学习、回答能力,在此基础上使用稀疏剪枝技术,裁剪出小模型来处理长文本任务,同时使用了大模型知识蒸馏技术,极大提升了小模型的通用能力。从而推出业界最优的 130 亿参数的大模型,在效果损失仅 3% 以内的情况下,使得星火在文档上传解析处理、问答首响时间以及文字生成效率方面都获得了极大的效率提升。来源:微信公众号【机器之心】

会颠勺的国产机器人来了:大模型加持,家务能力满分

刚刚,来自星尘智能公司的自研 AI 机器人 Astribot S1,在同规格机器人中展现了「最强操作性能」。在未经加速处理的 1 倍速视频中(业界常见为 3 到 10 倍速),S1 机器人展示了家居、工作场景中的卓越性能,完成了叠衣、分拣物品、颠锅炒菜、吸尘清洁、竞技叠杯等一系列复杂任务。S1 通过模仿学习,能以媲美成年人的敏捷、灵活和丝滑度,执行多项对人有用的复杂任务,建立了新的 AI 机器人标准。S1 机器人已接入大模型测试,并预计在 2024 年内完成商业化。星尘智能 CEO 来杰表示:「我们的目标是让数十亿人拥有 AI 机器人助理。新一代 AI 机器人,正是『为你而生,为你而智』(Naturally Yours),能像人一样学习、思考和劳动,会使用人的工具和设备、帮人完成枯燥、困难或危险的任务,甚至能适应环境和变化,从而真正照顾家庭老幼。这样的世界将需要数百万、甚至数十亿个机器人。我们欢迎大家向 S1 提更多需求,让它的能力能从 55%、85% 成长到 99.99%,无限接近人类水平。」来源:微信公众号【机器之心】

奥特曼斯坦福演讲:专注当前AI局限性没用,GPT-5让一切努力过时

昨天,黄仁勋亲自为 OpenAI 送来了全球第一台 Nvidia DGX H200 超级计算机,三人合影(老黄、奥特曼、Greg Brockman )引得大家津津乐道。大合影后,奥特曼也没闲着,现身斯坦福大学的 Nvidia 礼堂发表演讲,大约超过 1000 名学生排起了长队。GPT-4 之后的下一个 AI 模型(如 GPT-5)将更加强大,这表明该领域的进展速度惊人。奥特曼认为,GPT-5 会比GPT-4更聪明,GPT-6又会比GPT-5更聪明。我们远没有达到曲线的顶部。虽然复刻 GPT-4 等现有模型已经很简单了,但真正的创新在于定义 AI 能力的下一个范式转变。奥特曼将 AI 的潜力与 iPhone 对移动计算的变革性影响进行了比较。其次是通向 AGI 之路。OpenAI 的使命是实现 AGI,开源 AI 可能不是实现这一目标的最佳方法。免费、无广告的 ChatGPT 是 OpenAI 追求其目标的同时积极影响社会的方式。为了让所有人都能用上 AI,重点应该是让 AI 计算变得更易承担并在全球范围内广泛使用,从而消除不平等。作为一种旨在增强人类能力的工具,向 ChatGPT 注入情感是没有必要的。无需担心超级 AI,因为与未来的模型相比,每个新模型都被认为是不足的,这样才能持续进步。来源:微信公众号【机器之心】

字节发布视觉基础模型ViTamin,多项任务实现SOTA

字节提出新基础模型——ViTamin,专为视觉语言时代设计。在使用相同的数据集和训练方案时,ViTamin在ImageNet零样本准确率上比ViT提高了2.0%。此外在分类、检索、开放词汇检测和分割、多模态大语言模型等60个不同基准上都表现出了良好的结果。当进一步扩展参数规模时,ViTamin-XL仅有436M参数,却达到了82.9%的ImageNet零样本准确率,超过了拥有十倍参数(4.4B)的EVA-E。最终这一成果,入选计算机视觉顶会CVPR2024。研究团队们测试了几种常见模型,包括纯Transformer的ViT,纯卷积网络的ConvNeXt,以及混合卷积和Transformer的CoAtNet。最终在一个公开的数据集上进行了系统性的训练和比较,得出了一些关键发现:第一,模型的扩展性:由于可扩展的自注意力机制,ViT能最好地适应不同规模的任务。第二,数据的扩展性:随着训练数据的增加,所有模型的性能都有所提升。第三,特征的分辨率:在训练过程中,模型需要理解更广泛的信息,而不仅仅是简单的类别标签。因此,提取的特征的分辨率对模型的预测能力有很大影响。第四,混合架构:在一般情况下,CoAtNet表现优于其他模型,但将其扩展到处理数十亿数据可能会有一些挑战。基于这些发现,研究人员设计了ViTamin模型。它采用了三个阶段的混合架构。前两个阶段使用了轻量级的MBConv Blocks,第三个阶段包含了可扩展的Transformer Blocks。来源:微信公众号【量子位】

© 版权声明

相关文章

暂无评论

暂无评论...