能力更强推理速度更快 零一万物发布Yi大模型API开放平台
- +1 你赞过了
3月14日,零一万物发布Yi大模型API开放平台,将为开发者提供通用Chat、200k超长上下文、多模态交互等模型,带来更大参数、更快推理速度等提升,通过更丰富、灵活的开发工具赋能开发者来适应多样化的2C、2B应用场景。
此次API开放平台提供的模型如下,未来还将跟进新版模型:
Yi-34B-Chat-0205:支持通用聊天、问答、对话、写作、翻译等功能。
Yi-34B-Chat-200K:200K 上下文,多文档阅读理解、超长知识库构建小能手。
Yi-VL-Plus: 多模态模型,支持文本、视觉多模态输入,中文图表体验超过 GPT-4V。
全新的API也带来了一系列了亮点:
200K 支持处理约30万个中英文字符——适合用于多篇文档内容理解、海量数据分析挖掘和跨领域知识融合等,为各行各业提供了极大的便利。例如,可以轻松处理整本《哈利•波特与魔法石》小说;金融分析师可以用它快速阅读报告并预测市场趋势;律师可以用它精准解读法律条文;科研人员可以用它高效提取论文要点;文学爱好者可以用它快速掌握作品精髓等。
Yi-34B-Chat-200K在大海捞针评测中性能提高了10.5%,达到99.8%。“大海捞针”测试的设计是:将一个目标句子(针)放进一个随机文档语料库(大海),然后提出一个只能使用“针”(目标句子)中的信息才能回答的问题来测试模型的回忆能力。在“大海捞针”测试中,Yi-34B-Chat-200K的性能从89.3%提升到99.8%。
多模态模型 Yi-VL-Plus,可支持文本、视觉多模态输入,面向实际应用场景大幅增强:
增强Charts, Table, Inforgraphics, Screenshot 识别能力,支持复杂图表理解、信息提取、问答以及推理。中文图表体验超过GPT4V。
在 Yi-VL 基础上进一步提高了图片分辨率,模型支持 1024*1024 分辨率输入,显著提高生产力场景中的文字、数字 OCR 的准确性。
保持了 LLM 通用语言、知识、推理、指令跟随等能力。
更快的推理速度
零一万物在API侧进行了推理优化,让Yi-34B-Chat系列API具备较快的推理速度,这不仅缩短了处理时间,同时也保持了出色的模型效果。此外,优化的 API 接口显著降低了模型回复的延迟,进一步提高了用户体验的流畅性和响应速度。
值得一提的是Yi大模型API与OpenAI API完全兼容,开发者只需修改少量代码,即可平滑迁移。
在中文图表识别功能评测中,Yi-VL-Plus模型能准确识别图表对应数据,而 GPT-4V则识别错3处数据。
Yi-VL-Plus模型在一些中文图表理解场景,比GPT-4V准确率更高。
在公布全新API的同时,零一万物也带来了一系列场景演示以及与GPT-4V的体验对比。
Yi-34B-Chat-200K 对经典文学作品《呼啸山庄》进行复杂角色和角色关系的归纳总结。该小说篇幅庞大(中文字数约 30 万字),且人物关系错综复杂,但它仍能精准地梳理和总结出人物之间的关系,展示了它在处理超长上下文时出色的复杂内容理解和分析能力。
此前,Yi大模型API在小范围开放内测中获得了开发者的认可,并在性能方面展现出了较强优势,如Yi-VL-Plus多模态模型中文效果超过 GPT-4V。现在,零一万物正式发布Yi大模型API开放平台,助力开发者,并表示近期还将为开发者提供更多更强模型和AI开发框架,值得期待。
据悉,目前Yi大模型API名额限量开放中,新用户赠送60元。
最新资讯
热门视频
新品评测