查看原文
其他

SiliconCloud上线DeepSeek-V2.5:融合通用与代码能力的全新模型

SiliconCloud 硅基流动
2024-09-30


(由SiliconCloud平台的文生图模型Flux.1生成)

今天,硅基流动正式上线深度求索发布的DeepSeek-V2.5。该模型合并了DeepSeek-V2-Chat与DeepSeek-Coder-V2,但能力更强大。

同时
,SiliconCloud依然保留原来的DeepSeek-Coder-V2-Instruct模型,并且刚刚已升级至最新版本DeepSeek-Coder-V2-Instruct-0724。
先来直观感受一下DeepSeek-V2.5在SiliconCloud上进行推理加速后的效果。
Playground传送门:
https://cloud.siliconflow.cn/playground/chat/17885302570

API文档:
https://docs.siliconflow.cn/reference/chat-completions-3
与其他各类开源大模型一样,开发者在本地运行DeepSeek-V2.5模型有较高部署门槛与成本。现在,SiliconCloud上线DeepSeek-V2.5后,免去了开发部署的门槛,开发者可以轻松调用相应的API服务到实际应用中。
更重要的是,SiliconCloud平台上的DeepSeek-V2.5输出速度极快,能为你的生成式AI应用带来更高效的用户体验。SiliconCloud平台的模型价格极其亲民,DeepSeek-V2.5同样只需¥1.33/1M token。此外,平台还支持开发者自由对比体验各类大模型,最终为自己的生成式AI应用选择最佳实践。

DeepSeek-V2.5模型评测表现及亮点



合并后的DeepSeek-V2.5,不仅保留了原有Chat模型的通用对话能力和Coder模型的强大代码处理能力,还更好地对齐了人类偏好,此外,DeepSeek-V2.5在写作任务、指令跟随等多个方面也实现了大幅提升。总之,它为用户带来了更简洁、智能、高效的使用体验。
具体而言,在通用能力测评方面,DeepSeek团队使用业界通用的测试集对 DeepSeek-V2.5的能力进行测评,在中文和英文四个测试集上,DeepSeek-V2.5均优于之前的DeepSeek-V2-0628以及DeepSeek-Coder-V2-0724。
在他们内部的中文评测中,相较于DeepSeek-V2-0628,新版本DeepSeek-V2.5比GPT-4o mini、ChatGPT-4o-latest的对战胜率(裁判为GPT-4o) 均有明显提升。此测评中涵盖创作、问答等通用能力,用户使用体验将得到提升。
在安全能力测评方面,他们在迭代开发中一直重点关注Safety和Helpful之间的权衡。在DeepSeek-V2.5版本中,他们对模型安全问题的边界做了更加清晰划分,在强化模型对各种越狱攻击的安全性的同时,减少了安全策略过度泛化到正常问题中去的倾向。
*基于内部测试集合的得分,分数越高代表模型的整体安全性越高
**基于内部测试集合的得分,比例越低代表模型的安全策略对于正常问题的影响越小
在代码能力上,DeepSeek-V2.5保留了DeepSeek-Coder-V2-0724强大的代码能力。在HumanEval Python和LiveCodeBench(2024 年1月 - 2024年9月)测试中,DeepSeek-V2.5显示出较为显著的改进。在HumanEval Multilingual和Aider测试中,DeepSeek-Coder-V2-0724略胜一筹。在SWE-verified测试中,两个版本的性能表现仍需进一步优化。另外,在FIM补全任务上,DeepSeek内部评测集DS-FIM-Eval的评分提升了5.1%,可以带来更好的插件补全体验。另外,DeepSeek-V2.5对代码常见场景进行了优化,以提升实际使用的表现。在内部的主观评测DS-Arena-Code中,DeepSeek-V2.5对战竞品的胜率(GPT-4o为裁判)取得了显著提升。
DeepSeek团队还温馨提示:由于本次模型版本变动较大,如出现某些场景效果变差,可重新调整System Prompt和Temperature,以获得最佳性能。

Token工厂SiliconCloud

Llama3.1(8B)、Qwen2(7B)等免费用



除了DeepSeek-V2.5,SiliconCloud已上架包括Qwen2InternLM2.5-20B-ChatBCE、BGESenseVoice-SmallLlama-3.1FLUX.1DeepSeek-Coder-V2SD3 MediumGLM-4-9B-Chat、InstantID在内的多种开源大语言模型、图片生成模型、代码生成模型、向量与重排序模型以及多模态大模型。
其中,Llama3.1(8B)、Qwen2(7B、1.5B)等多个大模型API免费使用,让开发者与产品经理无需担心研发阶段和大规模推广所带来的算力成本,实现“Token 自由”。
作为集合顶尖大模型的一站式云服务平台,SiliconCloud致力于为开发者提供更快、更便宜、更全面、体验更丝滑的模型API。

近期更新

 硅基流动成立这一年
• SiliconCloud上线Llama-3.1-405B
• SiliconCloud产品体验魔法师奖公布
• 你与AI应用开发之间,只隔着一个API密钥
• 手把手教你配OneAPI、LobeChat、MindSearch
• SiliconCloud API支持JSON模式,强化结构化输出

让超级产品开发者实现“Token自由”

邀请好友体验SiliconCloud
狂送2000万Token/人

邀请越多,Token奖励越多
siliconflow.cn/zh-cn/siliconcloud

扫码加入用户交流群
继续滑动看下一个
硅基流动
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存