魔搭社区是一个人工智能模型的开发者社区。它汇聚各领域最先进的机器学习模型,为用户提供模型探索、定制、训练、部署和应用的一站式服务。用户可以便捷地搜索感兴趣的模型,快速上手使用。同时,社区还开源了众多预训练模型,开发者可以基于这些模型进行二次开发。魔搭社区致力于降低AI开发门槛,帮助开发者更便捷地获取、使用AI能力。
Kaggle是一个面向数据科学家的在线学习平台。它提供了各种数据集、代码示例、论坛交流、在线课程和机器学习竞赛。用户可以在这个平台上免费学习数据科学相关知识,与同行交流并参与机器学习竞赛实践。
SegMoE 是一个强大的框架,能够在几分钟内将稳定扩散模型动态组合成专家混合体,无需训练。该框架支持即时创建更大的模型,提供更多知识、更好的粘附性和更好的图像质量。它受到 mergekit 的 mixtral 分支的启发,但专为 Stable Diffusion 模型设计。安装简单,使用方便,适用于图像生成和合成任务。
Cradl AI是一个专为开发者和具有高级数据捕获需求的企业设计的文档解析API。利用深度学习的强大能力,快速构建、训练和部署先进的文档解析模型,无需具备机器学习经验。提供灵活的定价和部署选项,适用于各种场景。
Generative AI Courses是一家提供AI学习课程的在线平台。通过课程学习,用户可以掌握GenAI、AI、机器学习、深度学习、chatGPT、DALLE、图像生成、视频生成、文本生成等技术,并了解2024年AI领域的最新发展。
magickimg是一款AI驱动的图像增强平台,利用深度学习技术优化和转换您的照片,发挥其最大潜力。体验创意与技术的交集,进行先进的AI图像编辑。
XTuner是一个为大型模型(如InternLM, Llama, Baichuan, Qwen, ChatGLM)设计的高效、灵活且功能齐全的微调工具包。它支持在几乎所有GPU上进行LLM和VLM的预训练和微调,能够自动调度高性能操作,如FlashAttention和Triton内核,以提高训练吞吐量。XTuner与DeepSpeed兼容,支持多种ZeRO优化技术。它还支持各种LLMs和VLM(如LLaVA),并设计了良好的数据管道,能够适应任何格式的数据集。此外,XTuner支持多种训练算法,包括QLoRA、LoRA和全参数微调,使用户能够选择最适合其需求的解决方案。
image-matting是一个基于深度学习的在线图像抠图工具,能够实现人像及通用场景下的图像抠图,可提取图像中的主体物体并输出对应的背景图、前景图及遮罩。该工具使用了模型堂的cv_unet_image-matting和cv_unet_universal-matting模型,实现了高质量的图像抠图效果。该工具提供了简单便捷的在线抠图体验,支持图片上传抠图及URL抠图两种方式,可广泛应用于图像编辑、电商平台中的人像处理等场景中。
LaVi-Bridge是一种针对文本到图像扩散模型设计的桥接模型,能够连接各种预训练的语言模型和生成视觉模型。它通过利用LoRA和适配器,提供了一种灵活的插拔式方法,无需修改原始语言和视觉模型的权重。该模型与各种语言模型和生成视觉模型兼容,可容纳不同的结构。在这一框架内,我们证明了通过整合更高级的模块(如更先进的语言模型或生成视觉模型)可以明显提高文本对齐或图像质量等能力。该模型经过大量评估,证实了其有效性。
CS25是斯坦福大学提供的一门课程,主要探讨深度学习模型Transformers,该模型在全球范围内产生了巨大影响。课程邀请了Transformers研究领域的前沿人物,讨论从GPT和Gemini等LLM架构到创造性应用(如DALL-E和Sora)在内的最新突破。CS25已经成为斯坦福最热门和最令人兴奋的研讨会课程之一。
AnimateLCM是一个使用深度学习生成动画视频的模型。它可以仅使用极少的采样步骤就生成高保真的动画视频。与直接在原始视频数据集上进行一致性学习不同,AnimateLCM采用了解耦的一致性学习策略,将图像生成先验知识和运动生成先验知识的萃取进行解耦,从而提高了训练效率并增强了生成的视觉质量。此外,AnimateLCM还可以与Stable Diffusion社区的插件模块配合使用,实现各种可控生成功能。AnimateLCM已经在基于图像的视频生成和基于布局的视频生成中验证了其性能。
SDXS是一种新的扩散模型,通过模型微型化和减少采样步骤,大幅降低了模型延迟。它利用知识蒸馏来简化U-Net和图像解码器架构,并引入了一种创新的单步DM训练技术,使用特征匹配和分数蒸馆。SDXS-512和SDXS-1024模型可在单个GPU上分别实现约100 FPS和30 FPS的推理速度,比之前模型快30至60倍。此外,该训练方法在图像条件控制方面也有潜在应用,可实现高效的图像到图像翻译。
ControlNet++是一种新型的文本到图像扩散模型,通过显式优化生成图像与条件控制之间的像素级循环一致性,显著提高了在各种条件控制下的可控性。它通过使用预训练的判别性奖励模型来提取生成图像的对应条件,并优化输入条件控制与提取条件之间的一致性损失。此外,ControlNet++引入了一种高效的奖励策略,通过向输入图像中添加噪声来扰动图像,然后使用单步去噪图像进行奖励微调,避免了与图像采样相关的大量时间和内存成本。
Altern 不仅仅是一个目录,更是一个 AI 爱好者社区驱动的中心。在这里可以发现最新的 AI 产品、工具、模型、数据集、新闻通讯和 YouTube 频道,全部集中在一个地方。加入我们不断增长的社区,分享您的见解,为最佳资源投票,编写评论,并与其他 AI 迷联络。您进入 AI 内部的旅程从 altern.ai 开始!
VideoCrafter2是一个视频生成AI模型,能够根据文本描述生成高质量、流畅的视频。它通过克服数据局限,实现了高质量视频生成的目标。该模型可以生成照片级质量的视频,支持精细的运动控制和概念组合。用户只需要提供文本描述,VideoCrafter2就可以自动生成剧本级别的视频作品,可用于视频创作、动画制作等领域。
Amazon SageMaker是一个完全托管的机器学习服务,能够帮助开发人员和数据科学家快速且低成本地构建、训练和部署高质量的机器学习模型。它提供了一个完整的开发环境,包含了可视化界面、Jupyter笔记本、自动机器学习、模型训练和部署等功能。用户无需管理任何基础设施,就可以通过SageMaker构建端到端的机器学习解决方案。
ML-YouTube-Courses是一个开源项目,致力于整理和索引YouTube上最新的、最好的机器学习课程。项目包含各种主题的课程,如机器学习、深度学习、自然语言处理、计算机视觉等,涵盖基础知识和前沿技术。该项目帮助开发者和学习者高效地发现优质的在线教程。
BASE TTS是亚马逊开发的大规模文本到语音合成模型,运用了10亿参数的自动回归转换器,可将文本转换成语音代码,再通过卷积解码器生成语音波形。该模型使用了超过10万小时的公共语音数据进行训练,实现了语音自然度的新状态。还具有音素解离和压缩等新颖的语音编码技术。随着模型规模的增大,BASE TTS展现出了处理复杂句子的自然语调能力。
AudioCraft 是一个用于音频处理和生成的 PyTorch 库。它包含了两个最先进的人工智能生成模型:AudioGen 和 MusicGen,可以生成高质量的音频。AudioCraft 还提供了 EnCodec 音频压缩 / 分词器和 Multi Band Diffusion 解码器等功能。该库适用于音频生成的深度学习研究。
Quickchat AI是一款帮助公司构建自己的多语言AI助手的技术。借助我们的无代码平台和强大的集成功能,公司可以构建会话式AI界面,并将其连接到任何网站、产品、应用、游戏或智能设备。Quickchat AI由生成式AI模型(如GPT-3)驱动,可以实现多语言的自然对话,并提供自动化客户支持、线索生成等功能。
img2img-turbo是一个开源项目,它是对原始img2img项目的改进,旨在提供更快的图像到图像转换速度。该项目使用了先进的深度学习技术,能够处理各种图像转换任务,如风格迁移、图像着色、图像修复等。
SCEPTER是一个开源代码库,致力于生成式模型的训练、调优和推理,涵盖图像生成、迁移、编辑等一系列下游任务。它整合了社区主流实现以及阿里巴巴通逸实验室自研方法,为生成式领域的研究人员和从业者提供全面、通用的工具集。这个多功能库旨在促进创新,加速这个快速发展的领域的进步。
aiXcoder 是一款智能软件开发工具,基于深度学习技术,实现代码自动生成、自动补全、智能搜索等功能,提升开发效率。其方法级代码生成、智能代码补全等功能可帮助程序员提高工作效率。aiXcoder 支持多种主流编程语言和 IDE,提供本地和云端两种模式,适用于企业和个人开发者。产品定位于提供智能化编程辅助,助力开发者提升编程体验。
Denser Chatbots可以利用您的个人网站或上传的文件创建聊天机器人。Denser采用先进技术处理您的数据,并使用大型语言模型从您的特定数据中提取见解来回答您的查询。使用Retrieval Augmented Generation (RAG)方法,Denser Chatbots能够生成基于您独有的知识库的答案,提供比标准大型语言模型更个性化和相关的响应。构建和部署Denser Chatbots非常简单,只需提供您的网站URL,即可开始构建和部署,无需任何编程技能。
Stable Diffusion 是一个深度学习模型,可以从文本描述生成图像。它提供高质量的图像生成,可以根据简单的文本输入创建逼真的图像。它具有快速生成的优势,可以通过修复和扩展图像的大小来添加或替换图像的部分。Stable Diffusion XL是该模型的最新版本,使用更大的UNet骨干网络生成更高质量的图像。您可以免费在Stable Diffusion在线使用这个AI图像生成器。
AI Fashion Model Studio可以为您的服装品牌生成专业的模特照片。您可以上传自己的服装设计,选择不同肤色、体型和发色的虚拟模特,一键生成高质量的模特照片。该产品提供成本低廉的模特替代方案,同时保证视觉营销效果,有助于提高电商转化率。
该代码仓库包含从合成图像数据(主要是图片)进行学习的研究,包括StableRep、Scaling和SynCLR三个项目。这些项目研究了如何利用文本到图像模型生成的合成图像数据进行视觉表示模型的训练,并取得了非常好的效果。
法唠AI,也称为法律人工智能,是一种结合了人工智能和法律领域的技术。它利用大语言模型预训练的机器人对法律知识和案例进行深度学习和分析,以提供法律咨询、法律文书撰写、法律案例研究等服务。法唠A|的出现,对律师行业的专业提供方式及案例判例研究方面产生了深远的影响,它能够提供更快速、准确、全面的法服务,同时也为法律行业带来了新的机遇和挑战。
stable video diffusion是一个基于AI的视频生成平台。用户可以通过文本或图像,将概念转化为引人入胜的视频。平台采用了最先进的深度学习技术,可以高质量生成各类视频内容,包括商业宣传视频、教学视频、演示视频等。优势是生成速度快,质量高,使用简单方便。定价采用创建视频数量的订阅模式。定位面向需要频繁生成高质量视频的企业客户。
MDT通过引入掩码潜在模型方案来显式增强扩散概率模型(DPMs)在图像中对象部分之间关系学习的能力。MDT在训练期间在潜在空间中操作,掩蔽某些标记,然后设计一个不对称的扩散变换器来从未掩蔽的标记中预测掩蔽的标记,同时保持扩散生成过程。MDTv2进一步通过更有效的宏网络结构和训练策略提高了MDT的性能。
VerificAudio使用深度学习模型分析音频文件的可靠性,以验证它们是否未被合成手段生成。该工具结合了新闻核实技术和先进的人工智能模型,旨在检测和分析含有信息内容的音频文件的真实性。
Etna模型采用了Diffusion架构,并结合了时空卷积和注意力层,使其能够处理视频数据并理解时间连续性,从而生成具有时间维度的视频内容。该模型在大型视频数据集上进行训练,使用了深度学习技术策略,包括大规模训练、超参数优化和微调,以确保强大的性能和生成能力。
四维时代人工智能技术开放平台通过深度学习算法,提供小物体建模、大场景建模、SLAM视觉追踪、人工智能视觉识别等数字化服务,实现数字世界与实体世界的高效连接。
云从科技拥有世界领先、自主可控的核心技术,在人脸识别、3D结构光、跨镜追踪ReID、3D人体重建、语音识别等领域形成从智能感知到认知决策的技术闭环。产品覆盖智慧金融、智慧治理、智慧商业、智慧出行等领域,为企业智能化转型提供支持。
OnlyFakes是一款免费的AI图片生成器,使用先进的深度学习技术生成从逼真的图像到Hentai到引人注目的数字艺术的图片。用户可以自由发挥创造力,无需注册即可使用。支持生成各种风格和类型的图片,包括写实、动漫和数字艺术等。同时,用户可以浏览和分享社区中的图片。
FMA-Net是一个用于视频超分辨率和去模糊的深度学习模型。它可以将低分辨率和模糊的视频恢复成高分辨率和清晰的视频。该模型通过流引导的动态过滤和多注意力的迭代特征精炼技术,可以有效处理视频中的大动作,实现视频的联合超分辨率和去模糊。该模型结构简单、效果显著,可以广泛应用于视频增强、编辑等领域。
Cerebras Systems宣布推出其第三代5纳米晶圆级引擎(WSE-3),这是一款专为训练业界最大AI模型而设计的芯片。WSE-3的性能是前代产品WSE-2的两倍,同时保持相同的功耗和价格。该芯片基于5纳米工艺,拥有4万亿晶体管,通过900,000个为AI优化的计算核心,提供125 petaflops的峰值AI性能。
Text-to-image扩散模型是一类深度生成模型,展现了出色的图像生成能力。然而,这些模型容易受到来自网页规模的文本-图像训练对的隐含偏见的影响,可能无法准确地对我们关心的图像方面进行建模。这可能导致次优样本、模型偏见以及与人类伦理和偏好不符的图像。本文介绍了一种有效可扩展的算法,利用强化学习(RL)改进扩散模型,涵盖了多样的奖励函数,如人类偏好、组成性和公平性,覆盖了数百万张图像。我们阐明了我们的方法如何大幅优于现有方法,使扩散模型与人类偏好保持一致。我们进一步阐明了如何这显著改进了预训练的稳定扩散(SD)模型,生成的样本被人类偏好80.3%,同时改善了生成样本的组成和多样性。
AlphaMissense是一个开源的蛋白质变异效应预测模型,可以为所有可能的人类氨基酸替代预测功能影响。它利用深度学习在蛋白质序列水平进行预测,不需要实验结构信息。AlphaMissense可以准确预测细胞实验验证过的致病性变异的功能影响,对药物设计和遗传性疾病研究具有重要意义。
ConsiStory是一个无需训练就能实现在预训练的文本到图像模型中生成一致性主体的方法。它不需要微调或个性化,因此比先前最优方法快20倍。我们通过引入以主体为驱动的共享注意力模块和基于对应关系的特征注入来增强模型,以促进图像之间的主体一致性。另外,我们开发了在保持主体一致性的同时鼓励布局多样性的策略。ConsiStory可以自然地扩展到多主体场景,甚至可以实现对常见对象的无需训练的个性化。
RMBG是一个基于人工智能的图像背景去除工具,可以在几秒内自动去掉图片中的背景。该工具使用前沿的深度学习算法,无需任何人工操作就可以快速高效地实现图片背景的消除。RMBG完全免费,用户可以随意上传图片进行处理,非常方便。
ComfyUI-layerdiffusion是一个GitHub项目,提供了Layer Diffusion模型的自定义节点实现。该项目允许用户通过Python依赖安装,并且目前仅支持SDXL模型。项目的目标是为ComfyUI用户提供Layer Diffusion模型的便捷集成。
Boximator是一款由Jiawei Wang、Yuchen Zhang等人开发的智能视频合成工具。它利用先进的深度学习技术,通过添加文本提示和额外的盒子约束,生成丰富且可控制的视频运动。用户可以通过示例或自定义文本来创造独特的视频场景。Boximator与其他方法相比,使用了来自文本提示的附加盒子约束,提供更灵活的运动控制。
清图是一款基于深度学习技术的图像处理工具,能够将模糊图片快速转换为高清图。它采用先进的算法对图片进行重建,使得图片的细节更加清晰、锐利。清图还提供抠图、证件照处理、黑白图片上色、图片超级压缩、修改图片 DPI 等功能。它适用于个人用户、摄影师、设计师等多个场景。
终极人声去除GUI是一款使用深度神经网络技术的人声去除工具。其核心开发者训练了所有提供的模型,除了Demucs v3和v4 4声道模型。该应用使用先进的源分离模型从音频文件中去除人声。无需额外的先决条件即可有效运行。适用于Windows 10及以上版本。
Vision Mamba是一个高效的视觉表示学习框架,使用双向Mamba模块构建,可以克服计算和内存限制,进行高分辨率图像的Transformer风格理解。它不依赖自注意力机制,通过位置嵌入和双向状态空间模型压缩视觉表示,实现更高性能,计算和内存效率也更好。该框架在 ImageNet分类、COCO目标检测和ADE20k语义分割任务上,性能优于经典的视觉Transformers,如DeiT,但计算和内存效率提高2.8倍和86.8%。
MovieLLM由复旦大学和腾讯PCG提出,是一个创新框架,旨在为长视频创建合成的、高质量的数据。该框架利用GPT-4和文本到图像模型的力量,生成详细的脚本和相应的视觉内容。
MakeML是一个无需编写任何代码就可以搭建图像目标检测神经网络的开发工具。它提供了一个简单易用的图形界面,用户只需上传训练集图片,绘制bounding box,设置参数,就可以训练出一个高效的目标检测模型,并导出成CoreML格式在iOS App中使用。MakeML解决了神经网络开发门槛高的痛点,不需要任何机器学习或编程知识,就可以获得强大的深度学习能力。
Depthify.ai是一个工具,可以将RGB图像转换为与Apple Vision Pro和Meta Quest兼容的各种空间格式。通过转换RGB图像为空间照片,可以为各种计算机视觉和3D建模应用提供支持。它可以生成深度图、立体图像和HEIC文件,可在Apple Vision Pro上使用。
InstantMesh是一个基于LRM架构的前馈框架,用于从单张图像高效生成3D网格。它支持低内存GPU环境,并能生成具有纹理映射的3D网格模型。
UniRef是一个统一的用于图像和视频参考对象分割的模型。它支持语义参考图像分割(RIS)、少样本分割(FSS)、语义参考视频对象分割(RVOS)和视频对象分割(VOS)等多种任务。UniRef的核心是UniFusion模块,它可以高效地将各种参考信息注入到基础网络中。 UniRef可以作为SAM等基础模型的插件组件使用。UniRef提供了在多个基准数据集上训练好的模型,同时也开源了代码以供研究使用。
NeuroSpell是一款智能自动校对神器,基于深度学习技术,能够自动纠正拼写和语法错误,提高写作质量。它能够识别多种语言,包括英语、法语、西班牙语等,并提供大量的功能,如拼写检查、语法纠错、翻译等。NeuroSpell可以在不同的场景中使用,包括写作、翻译、教育等。它的使用非常简单,只需将文本输入系统中,即可快速得到校对后的文本。
FRESCO是一个用于零样本视频翻译的框架,它通过引入帧内和帧间对应关系来建立更强大的空间-时间约束,从而确保跨帧的语义相似内容的一致性转换。该方法显著提高了翻译视频的视觉连贯性,并在产生高质量、连贯视频方面取得了显著效果。
去噪视觉变换器(Denoising Vision Transformers,DVT)是一种针对视觉变换器(ViTs)的新型噪声模型。通过解剖ViT输出并引入可学习的去噪器,DVT能够提取无噪声的特征,从而在离线应用和在线功能中显著改善基于Transformer的模型的性能。DVT不需要重新训练现有的预训练ViTs,可立即应用于任何基于Transformer的架构。通过在多个数据集上进行广泛评估,我们发现DVT在语义和几何任务中持续显著改善现有的最先进通用模型(例如,+3.84 mIoU)。我们希望我们的研究能够鼓励重新评估ViT设计,特别是关于位置嵌入的天真使用。
OMG(Once More Generalization)是一个开源的图像超分辨率工具,它利用深度学习技术来提高图像的分辨率。该项目旨在通过AI模型增强图像质量,使其在放大后仍然保持清晰和细腻。
Nudify是一款AI衣物移除工具,可以从任意图片中移除衣物。它使用先进的深度学习算法,快速准确地去除图片中的衣物,帮助用户实现衣物无痕消失的效果。Nudify可以用于个人娱乐、广告设计、模特摄影等多种场景。
MoE-LLaVA是一种基于大规模视觉-语言模型的专家混合模型,展现出在多模态学习中出色的性能。其具有较少的参数,但表现出较高的性能,并且可以在短时间内完成训练。该模型支持Gradio Web UI和CLI推理,并提供模型库、需求和安装、训练和验证、自定义、可视化、API等功能。
DUSt3R是一种新颖的密集和无约束立体3D重建方法,适用于任意图像集合。它不需要事先了解相机校准或视点姿态信息,通过将成对重建问题视为点图的回归,放宽了传统投影相机模型的严格约束。DUSt3R提供了一种统一的单目和双目重建方法,并在多图像情况下提出了一种简单有效的全局对齐策略。基于标准的Transformer编码器和解码器构建网络架构,利用强大的预训练模型。DUSt3R直接提供场景的3D模型和深度信息,并且可以从中恢复像素匹配、相对和绝对相机信息。
DaVinciFace是一款基于深度学习的软件,使用生成对抗网络(GAN)技术,能够从任何人脸照片中生成达芬奇风格的肖像。具有超过5亿个训练参数的生成神经网络,仅需不到2分钟即可生成达芬奇风格的肖像。该软件可应用于艺术创作、娱乐等场景。免费生成的肖像带有logo,商业用途需要购买无logo的高分辨率版本。
OOTDiffusion是一个基于潜在扩散模型的虚拟服装试穿开源工具。它支持半身和全身两种模型,可以实现服装的自然融合。用户可以通过调节各种参数实现对试穿效果的精确控制,满足不同的需求。该工具开源在GitHub上,已获得超过300星的关注。