加载中...

加载中... 加载中...
… 浏览 … 回复 … 赞

正在加载帖子内容...

回复 128

U
发表你的看法...
回复
P
PromptEngineer 1小时前
#1

非常详细的对比!我最近也在做类似的测试,发现 Claude 在理解复杂 System Prompt 方面确实更稳定。特别是当 prompt 中包含多层嵌套的指令时,Claude 的遵循度更高。

A
API调试员 2小时前
#2

想问一下楼主,在 API 调用延迟方面有对比吗?我在生产环境中发现 Claude 的首 token 响应时间有时候会比较长。

L
LangChain大师 楼主 1小时前

@API调试员 延迟方面我没有做详细测试,但体感上 GPT-4 Turbo 的流式响应确实更快。这个可能和 Anthropic 的服务器部署有关,后续我会专门做一个延迟测试。

D
DeepLearner 3小时前
#3

感谢分享!LRU Cache 的例子很有代表性。我补充一点:在处理 TypeScript 类型推导方面,Claude 3.5 的表现让我印象深刻,它能生成更准确的泛型类型。

比如这样的复杂类型:

type DeepPartial<T> = T extends object ? { [P in keyof T]?: DeepPartial<T[P]> } : T;