12月12日

AI资讯速递7个月前更新 大Joe
198 0

12月12日·周二

谷歌在线笔记工具NotebookLM已接入Gemini Pro大型模型

谷歌于 7 月开放了 NotebookLM 的抢先体验,在这个基础上,最新引入了十多项新功能,让您可以轻松地从阅读转向记笔记再到写作。 以下是一些亮点。一个新的记录和参考笔记的空间:一项关键功能要求是能够将与 NotebookLM 的有趣交流保存为笔记。推出了一个新的记事板空间,您可以在其中轻松固定聊天中的引言、来源摘录或您自己的书面笔记。
在流行的建议问题功能的基础上,推出了新功能,可以根据您正在做的事情动态建议操作。 例如,当您在阅读源文件时选择一段文字时,NotebookLM 会自动将文本总结为新笔记,或帮助您理解技术语言或复杂的想法。 当您撰写笔记时,NotebookLM 将提供工具来润色或完善您的散文,或根据您刚刚编写的内容从您的来源中建议相关想法;提供了新工具来帮助您将整理的笔记组织成结构化文档。 只需选择您收集的一组笔记并要求 NotebookLM 创建新内容即可。 它会自动建议几种格式,例如主题大纲或学习指南。 但您也可以在聊天框中输入任何您想要的指令。NotebookLM 是真正的 AI 原生应用程序的一个示例,它利用当今技术的非凡功能从头开始构建。 由于这是技术和创意方面的新领域,NotebookLM 仍然是一项实验,将根据您的反馈进行改进。 而且您的个人数据不会用于训练 NotebookLM,因此您的来源中的任何私人或敏感信息都将保持私密,除非您选择与合作者共享您的来源。来源:Google

CritiqueLLM:高质量、低成本的评分模型

基于模型的评价方法严重依赖基座模型的选取,只有GPT-4这样“顶级”的大模型才能取得令人满意的评价效果,但其仅能通过API访问的特性又给研究者带来花费高昂、访问困难、数据泄露等一系列挑战。因此,GLM技术团队提出了可解释、可扩展的文本质量评价模型 CritiqueLLM。该模型可以针对各类指令遵循任务上大模型的生成结果提供高质量的评价分数和评价解释。其中 CritiqueLLM 将大模型生成文本和参考文本进行了详尽的对比,全面总结了生成文本的优缺点,最终给出了6分的评分(分数范围为1-10)。在各项任务上660亿参数的CritiqueLLM与人工评分的相关系数均显著超过了ChatGPT,达到和GPT-4相当的水平。尤其是在具有挑战性的无参考文本设定下,CritiqueLLM能够在3项任务(包括综合问答、文本写作和中文理解)上超过GPT-4,达到目前最优的评价性能。和同期工作(如PandaLM, AUTO-J, PROMETHEUS)相比,CritiqueLLM 通过对话式评价数据构造方法同时构造高质量的含参考文本/无参考文本的评价数据,可支持在两种设定下均提供高质量评价结果Critique LLM还全面分析了影响评价模型性能的重要因素,在数据和模型层面均展现出很好的缩放性质。Critique LLM-66B能够在3项任务上超过GPT-4的评价性能,这也揭示了其在真实场景中替代GPT-4评价的应用潜力。来源:微信公众号【GLM大模型】

LM-Cocktail模型治理策略,像调鸡尾酒一样调制“多技能”语言大模型

近日,智源研究院信息检索与知识计算组发布LM-Cocktail模型治理策略,旨在为大模型开发者提供一个低成本持续提升模型性能的方式:通过少量样例计算融合权重,借助模型融合技术融合微调模型和原模型的优势,实现“模型资源”的高效利用。收集和构建目标任务数据集并对大语言模型(LLM)进行微调,可以提高其在目标任务的性能表现。然而,这种方式通常会导致除目标任务以外的一般任务的性能明显下降,损害LLM原本具备的通用能力。模型融合技术可以通过融合多个模型提高单模型的性能。受此启发,LM-Cocktail策略进一步通过对目标任务计算不同模型的重要性,赋予不同模型不同的权重,在此基础上进行模型融合,在提升目标任务上性能的同时,保持在通用任务上的强大能力。开源社区的模型逐渐增多,大模型开发者也可能在多次训练中累计了越来越多的模型,每个模型都具有各自的优势,如何选择合适的模型执行任务或进一步微调反而成为一个问题。LM-Cocktail 策略可以帮助汇总各模型的优势能力,就像制作鸡尾酒那样,通过加入不同的模型进行调制,得到一个具备多种特长的“多技能”模型。具体而言,LM-Cocktail 可以通过手动选择模型配比,或者输入少量样例自动计算加权权重,来融合现有模型生成一个新模型,该过程不需要对模型进行重新训练并且具备适配多种结构的模型,如大语言模型 Llama,语义向量模型 BGE等。此外,如果开发者缺乏某些目标任务的标签数据,或者缺少计算资源进行模型微调,那么采用 LM-Cocktail 策略可以省去模型微调步骤,通过构造非常少量的数据样例,融合开源社区中已有的大语言模型来调制自己的“LM鸡尾酒”。来源:微信公众号【智源研究院】

© 版权声明

相关文章

暂无评论

暂无评论...