ChipNeMo 是英伟达发布的一个探索将大型语言模型(LLMs)应用于工业芯片设计的项目。与直接使用现成的商业或开源 LLMs 不同,我们采用了定制的分词器、领域自适应的持续预训练、带...
Mini-Gemini是一个多模态视觉语言模型,支持从2B到34B的系列密集和MoE大型语言模型,同时具备图像理解、推理和生成能力。它基于LLaVA构建,利用双视觉编码器提供低分辨率视觉嵌入和高分辨率候选区域,采用补丁信息挖掘在高分辨率区域和低分辨率视觉查询之间进行补丁级挖掘,将文本与图像融合用于理解和生成任务。支持包括COCO、GQA、OCR-VQA、VisualGenome等多个视觉理解基准测试。
使用BrainSoup,您可以创建自定义AI代理来处理任务并通过自然语言自动化流程。提高AI的能力与您的数据,同时保持最佳的隐私和安全性。BrainSoup支持多个大型语言模型和语义核心技术,使AI代理更加强大和个性化。
VideoDrafter 是一个内容一致的多场景视频生成框架。它利用大型语言模型(LLM)将输入提示转换为包含多场景脚本的综合脚本,脚本包括描述事件、前景 / 背景实体以及相机运动的提示。VideoDrafter 识别脚本中的共同实体,并要求 LLM 对每个实体进行详细描述。然后,将每个实体的描述输入到文本到图像模型中,以生成每个实体的参考图像。最后,通过考虑参考图像、事件描述和相机运动,通过扩散过程生成多场景视频,扩散模型将参考图像作为条件和对齐进行处理,以增强多场景视频的内容一致性。
ChatDev是一个虚拟软件公司,由扮演不同角色(如CEO、产品经理、技术总监、程序员、测试员等)的智能体组成。这些智能体通过参与设计、编码、测试等专门的功能研讨会来协作开发软件。ChatDev旨在提供一个易于使用、高度可定制和可扩展的框架,基于大型语言模型(LLM),是研究集体智能的理想场景。它支持定制化设置,如自定义软件开发流程、角色设置等。用户只需使用自然语言描述想法,ChatDev就能高效生成对应的软件。
VideoPoet 是一个大型语言模型,可将任何自回归语言模型转换为高质量视频生成器。它可以根据输入的文本描述生成视频,无需任何视觉或音频指导。VideoPoet 能够生成各种类型的视频,包括文本到视频、图像到视频、视频编辑、风格化和修复等。它可以用于电影制作、动画片、广告制作、虚拟现实等领域。VideoPoet 具有高质量的视频生成能力,并且可以灵活应用于不同的场景。
SALMONN是由清华大学电子工程系和字节跳动开发的大型语言模型(LLM),支持语音、音频事件和音乐输入。与仅支持语音或音频事件输入的模型不同,SALMONN可以感知和理解各种音频输入,从而获得多语言语音识别和翻译以及音频-语音共推理等新兴能力。这可以被视为给予LLM“听觉”和认知听觉能力,使SALMONN成为通向具有听觉能力的人工通用智能的一步。