DeepSeek-V3.1

模型描述

新增 DeepSeek 最新开源模型 DeepSeek-V3.1,同时支持思考和非思考模式,具有更大的上下文窗口和输出长度。

型号版本:

deepseek-v3-1-nothinking

上下文长度:128K

DEFAULT: 4K
MAXIMUM: 8K

Json Output

Function Calling

聊天前缀续写(Beta)

FIM Completion(Beta)

deepseek-v3-1-thinking

上下文长度:128K

DEFAULT: 32K
MAXIMUM: 64K

Json Output

聊天前缀续写(Beta)

🔔如何使用

graph LR A("Purchase Now") --> B["Start Chat on Homepage"] A --> D["Read API Documentation"] B --> C["Register / Login"] C --> E["Enter Key"] D --> F["Enter Endpoint & Key"] E --> G("Start Using") F --> G style A fill:#f9f9f9,stroke:#333,stroke-width:1px style B fill:#f9f9f9,stroke:#333,stroke-width:1px style C fill:#f9f9f9,stroke:#333,stroke-width:1px style D fill:#f9f9f9,stroke:#333,stroke-width:1px style E fill:#f9f9f9,stroke:#333,stroke-width:1px style F fill:#f9f9f9,stroke:#333,stroke-width:1px style G fill:#f9f9f9,stroke:#333,stroke-width:1px

点击购买

点击首页立即对话

注册 / 登录

输入key

阅读API文档

输入端点和API Key

开始使用

全文结束

推荐模型

gemini-2.5-flash-lite-preview-06-17

一个针对成本效益和低延迟进行了优化的 Gemini 2.5 Flash 模型。

claude-opus-4-20250514

全面介绍 Anthropic 新发布的 Claude 4 模型——Opus 4 和 Sonnet 4,重点突出其功能、性能基准、应用场景、定价及可用性。本报告总结了各模型之间的主要差异,并讨论了它们与 GitHub Copilot 等主流平台的集成,强调了其在编程、高级推理和伦理 AI 响应方面的优势。

o4-mini

我们更快、成本效益高的推理模型在数学、编码和视觉方面表现出色。