claude-3-7-sonnet-20250219-thinking

模型描述

Claude 3.7 Sonnet 代表了人工智能能力的重大飞跃,是市场上首个混合推理模型,能够无缝集成快速响应与有条理的逐步问题解决。与传统模型将快速推理和深度推理分开的方式不同,它将两种方法统一在一个系统中,允许用户在标准(即时)和扩展思考模式之间切换——后者能够在处理如编程、物理或指令执行等复杂任务时,明显优化答案。API 用户可以精细控制思考时长(最多支持 128K 输出 token),实现成本、速度和质量的权衡。该模型针对实际应用进行了优化,在真实世界基准测试中表现出色(例如在 SWE-bench Verified with scaffolding 上达到 70.3%),并在编程、全栈更新和智能体工作流等方面超越了前代产品,已被 Vercel 和 Replit 等合作伙伴验证。安全性方面的改进包括错误拒绝减少 45%,并对提示注入攻击有更强的防御能力。

🔔如何使用

graph LR A("Purchase Now") --> B["Start Chat on Homepage"] A --> D["Read API Documentation"] B --> C["Register / Login"] C --> E["Enter Key"] D --> F["Enter Endpoint & Key"] E --> G("Start Using") F --> G style A fill:#f9f9f9,stroke:#333,stroke-width:1px style B fill:#f9f9f9,stroke:#333,stroke-width:1px style C fill:#f9f9f9,stroke:#333,stroke-width:1px style D fill:#f9f9f9,stroke:#333,stroke-width:1px style E fill:#f9f9f9,stroke:#333,stroke-width:1px style F fill:#f9f9f9,stroke:#333,stroke-width:1px style G fill:#f9f9f9,stroke:#333,stroke-width:1px

点击购买

点击首页立即对话

注册 / 登录

输入key

阅读API文档

输入端点和API Key

开始使用

全文结束

推荐模型

o3-pro

o 系列模型通过强化学习进行训练,使其在回答问题前进行思考并执行复杂的推理。o3-pro 模型使用更多计算资源进行更深入的思考,并提供始终如一的更优答案。o3-pro 仅在 Responses API 中可用,以便在响应 API 请求之前支持多轮模型交互,以及未来其他高级 API 功能。由于 o3-pro 旨在解决难题,某些请求可能需要几分钟才能完成。为避免超时,请尝试使用后台模式。

QwQ-32B

QwQ-32B 是 Qwen 系列中的一个 32.5B 参数推理模型,具有先进的架构和 131K 令牌上下文长度,旨在在复杂任务中超越像 DeepSeek-R1 这样的最先进模型。

claude-3-5-sonnet-20241022-rev

使用逆向工程在官方应用程序中调用模型并将其转换为 API。