正在加载帖子内容...
非常详细的对比!我最近也在做类似的测试,发现 Claude 在理解复杂 System Prompt 方面确实更稳定。特别是当 prompt 中包含多层嵌套的指令时,Claude 的遵循度更高。
想问一下楼主,在 API 调用延迟方面有对比吗?我在生产环境中发现 Claude 的首 token 响应时间有时候会比较长。
@API调试员 延迟方面我没有做详细测试,但体感上 GPT-4 Turbo 的流式响应确实更快。这个可能和 Anthropic 的服务器部署有关,后续我会专门做一个延迟测试。
感谢分享!LRU Cache 的例子很有代表性。我补充一点:在处理 TypeScript 类型推导方面,Claude 3.5 的表现让我印象深刻,它能生成更准确的泛型类型。
比如这样的复杂类型:
type DeepPartial<T> = T extends object ? { [P in keyof T]?: DeepPartial<T[P]> } : T;
查看用户主页需要登录账号