
Yi大模型是由李开复博士领导的AI公司“零一万物”发布的一款开源的中英双语预训练大模型。这个模型在多个性能指标上取得了国际最佳性能认可,被称为“全球最强开源模型”。Yi-34B模型特别之处在于它拥有全球最长的200K上下文窗口,能够处理40万汉字的超长文本输入,这在语言模型中是非常重要的,因为它对于理解和生成与特定上下文相关的文本至关重要。
Yi大模型的命名来自“一”的拼音“Yi”,其中的“Y”上下颠倒,形同汉字的“人”结合AI里的“i”,代表Human + AI,强调以人为本的精神,为人类创造价值。这个模型可以用于学术研究和免费商业使用,但正式的商业使用需要通过申请获得许可。它的开源属性为开发者提供了在更长上下文窗口进行微调的可能性,适合多元场景的应用。零一万物公司还计划推出更多的模型,包括更大尺寸的模型、对话模型、加强的数学和代码模型、多模态模型等。总的来说,Yi大模型是一个强大的工具,旨在推动AI技术的发展和应用。
Yi大模型的功能特点:
- 超长上下文窗口:Yi-34B模型支持200K超长上下文窗口,能够处理约40万汉字的超长文本输入,理解超过1000页的PDF文档。
- 高性能:在Hugging Face的评估中,Yi-34B在预训练基础大语言模型中排名第一,显示出其卓越的性能。
- 中文优势:Yi-34B在中文指标上具有优势,满足国内市场需求,并在多个中文评测中表现出色。
- AI基础架构技术:采用了AI Infra技术,实现了训练成本的显著下降和故障预测的高准确率。
- 开源与兼容性:模型开源,提供了微调代码,与主流语言模型微调框架兼容,方便开发者进行适配。
- 多模态能力:Yi系列模型计划包括对话模型、数学模型、代码模型和多模态模型等,适用于多元场景。
Yi大模型的使用指南
步骤一:环境配置
首先,确保你的系统满足以下条件:
- Python版本为3.8或以上。
- 已安装PyTorch 1.12或更高版本,推荐使用2.0及以上版本。
- CUDA版本为11.4或以上,以充分利用GPU加速。
步骤二:安装Yi大模型
安装依赖: 使用pip安装所需的库和依赖项
- pip install -r requirements.txt
下载模型: 从ModelScope社区下载Yi大模型的预训练权重。
- wget modelscope.yi/weights/yi-34b.pth
步骤三:模型推理
1、加载模型: 使用PyTorch加载下载的预训练权重。
- import torch
model = torch.load(‘yi-34b.pth’)
2、准备数据: 准备你的输入数据,确保它们符合模型的输入格式。
3、执行推理: 将数据输入模型并获取预测结果。
- predictions = model(input_data)
步骤四:模型微调
1、准备微调数据: 收集并准备你的微调数据集,确保数据质量。
2、微调模型: 使用提供的微调脚本对模型进行微调。
- python finetune.py –data_path your_dataset_path
3、评估微调模型: 在验证集上评估微调后的模型性能。
数据统计
相关导航

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!

CatVTON
CatVTON是一款基于扩散模型的虚拟试穿技术工具,旨在提供高效、低资源需求的虚拟试穿体验。通过在空间维度上简单地拼接服装和人物图像来实现不同类别服装的虚拟试穿,该方法有效地降低了模型复杂度和计算成本,同时保持了高质量的虚拟试衣效果,特别适用于电商平台、时尚设计、个人造型顾问、增强现实应用和虚拟时装秀等场景。

Magic Clothing
Magic Clothing是一个专注于控制性的服装驱动图像合成的项目,它是OOTDiffusion模型的一个分支版本,旨在通过服装来控制图像的生成。

StereoCrafter
StereoCrafter是腾讯AI实验室开发的一款开源框架,能够将普通的 2D 视频转换为沉浸式的 3D 视频。通过深度估计和立体视频修复技术,StereoCrafter 提供高质量的 3D 视频生成,支持多种视频源,包括电影、视频博客、3D 动画和 AI 生成内容。

YAYI2
YAYI2(雅意2)是中科闻歌推出的新一代开源大语言模型,支持中文、英语等 10 多种语言。基于 Transformer 架构,参数规模达到 30B。YAYI2 采用 2 万亿 Tokens 的高质量语料进行预训练,并结合人类反馈强化学习,确保模型与人类价值观对齐。其多模态交互功能支持图文互生成、PDF 解析等。YAYI2 广泛应用于媒体宣传、舆情分析、政务治理、金融分析等领域,为企业提供 AI 辅助工具和知识库问答系统。

MotionGen
MotionGen 是由元象科技推出的创新 3D 动作生成模型。通过结合大模型、物理仿真和强化学习等前沿算法,简化 3D 动画制作过程。用户只需输入简单的文本指令,即可快速生成逼真、流畅且复杂的 3D 动作。无论是动画、游戏、电影还是虚拟现实行业,MotionGen 都能显著提高创作效率,降低制作成本。

商汤日日新大模型
商汤日日新大模型体系

Tarsier
Tarsier是由字节跳动研发的大规模视频语言模型家族,旨在生成高质量的视频描述,并具备良好的视频理解能力。Tarsier 采用了简单的模型结构,结合了 CLIP-ViT 编码帧和 LLM 模型来建模时间关系。通过精心设计的两阶段训练策略,Tarsier 展现出了强大的视频描述能力和视频理解能力,在多个公共基准测试中取得了最先进的成果。
暂无评论...