用的 any 的 opus 4.7,感觉一股 gpt 味,项目研究也不如 5.3-codex 1 个帖子 - 1 位参与者 阅读完整话题
4 个帖子 - 3 位参与者 阅读完整话题
自从any大善人的cc不稳定之后,我立刻转向了codex的怀抱,前两天any大善人更新了4.7之后,我赶紧在晚上体验了下,但是体验之后我只有两个感受,一个是any好久没有这么快了,另一个就是我发现这个快好像是建立在没有explore和委托subagent的前提下的。我是在我的实验项目文件夹下启动cc的,我自认为我的项目是足够复杂的,毕竟我做这个实验做了三个多月,vibe的内容多到爆炸,然后那天晚上我让cc去帮我分析实现下一步如何进一步提升结果,cc思考了一下就直接输出了。虽然很久没有使用cc了,但是我印象中cc在处理大型项目之前不是惯例会使用explore的嘛?是只有我有这个问题还是cc真的降低工具调用频率了? 5 个帖子 - 4 位参与者 阅读完整话题
API Error: 400 {“error”:“claude-opus-4-6 已下线,请切换到 claude-opus-4-7 模型”,“type”:“error”} no,我不要伪人 4.7 啊,我要 4.6 这是opus4.7调用超时的报错,是官转吗 API Error: 503 {“error”:{“message”:“ServiceUnavailable”,“type”:“error”},“type”:“error”} · check status.claude.com 3 个帖子 - 3 位参与者 阅读完整话题
21 个帖子 - 16 位参与者 阅读完整话题
理论上来说奥特曼应该会在A发完力后马上狙击啊,搞个什么gpt-5.5给我们尝尝鲜,结果这回没吱声?之前营销号不是还大肆宣扬gpt将在14号发布新模型?结果A先发了 10 个帖子 - 6 位参与者 阅读完整话题
项目 这是一个 Unity C# 项目,我进行测试的是一份皮肤系统需求案,我已经做了好预制体,而模型需要编写代码。 本轮与上两轮评测的项目和环境都完全一致: 第一轮 … 第九轮 模型来源 Claude Opus 4.7: 宣称官方 Claude Code 的中转站。 速度 排名 模型 时间(分钟) 备注 1 Grok 4.20 0309 Reasoning 3 2 Minimax M2.1 5 3 Minimax M2.5 6 4 Step-3.5-Flash 6 5 Mimo V2 Omni 7 6 Doubao-Seed-2.0-Lite 7 7 GPT-5.4(low) 8 8 Doubao-Seed-2.0-Pro 9 9 Doubao-Seed-2.0-Code 9 10 Qwen3-Coder-Next 9 11 Claude Sonnet 4.6(high) 9 12 Qwen3.5-Plus 9 13 GLM-5 Turbo 10 14 Minimax M2.7 10 Highspeed 版本 15 Qwen3.5-Flash 10 16 GPT-5.3-Codex(medium) 10 17 Gemini 3 Pro 11 18 Kimi K2.5 11 19 GLM 4.7 12 20 GPT-5.4(high) 14 21 Mimo V2 Pro 15 22 Claude Opus 4.5 15 23 Claude Sonnet 4.5 16 24 GPT-5.3-Codex(high) 16 触发了一次上下文压缩 25 GPT-5.3-Codex(xhigh) 16 26 GPT-5.4(medium) 17 27 GPT-5.4(xhigh) 18 28 Claude-Opus-4.7(Max) 20 29 GLM-5 20 30 DeppSeek V3.2 22 31 Gemini 3 Flash 22 32 KAT-Coder-Pro V2 24 33 GPT 5.2(xhigh) 25 34 Claude-Opus-4.6(Max) 26 35 Gemini 3.1 Pro(high) 29 受 429 请求频率限制影响 36 Qwen3.5 9B GGUF Q4_K_XL 35 MBP M4 Pro 48GB 本地部署 37 Qwen3.5 35B A3B GGUF Q4_K_XL 36 MBP M4 Pro 48GB 本地部署 令牌数 Claude Opus 4.7: 4.89M 代码行数 Claude Opus 4.7: +1473, -8 完成度 Claude Opus 4.7 审查结论: 已经存在必然编译失败,且核心入口链路未打通。 详细 (点击了解更多详细信息) 代码质量 经典 Claude 风格,无需多言。 最终总结 排名 模型/层级 说明 Tier 0 该等级的模型实现与线上基线高度一致。 1 GPT 5.4(xhigh) 2 GPT 5.2(xhigh) 3 GPT-5.3-Codex(xhigh) Tier 1 该等级的模型的代码正确完整且可编译,仅少量边界问题或轻微不一致。 4 GPT 5.4(high) 5 GPT 5.4(medium) 6 GPT-5.3-Codex(high) 7 GPT-5.3-Codex(medium) 8 Claude Opus 4.6(Max) 9 GPT 5.2(medium) 10 GPT 5.4(low) 11 GPT 5.2 Codex(xhigh) 12 Claude Opus 4.5 13 Claude Sonnet 4.5 Tier 2 该等级的模型的代码至少可编译或仅极少量的语法错误,但是存在明显功能错误、遗漏或与需求/线上不一致。 14 GLM 5.1 15 GLM 5 16 Kimi K2.5 17 Claude Sonnet 4.6(high) 18 Qwen3.5-Plus 19 KAT-Coder-Pro V2 Tier 3 该等级的模型的问题很多且无法编译,或者存在不少幻觉。 20 Claude Opus 4.7(Max) 21 GLM 5 Turbo 22 GLM 4.7 23 Gemini 3.1 Pro(high) 24 Mimo V2 Pro 25 Mimo V2 Omni 26 Minimax M2.7 27 Minimax M2.5 28 Step-3.5-Flash 29 Qwen3-Coder-Next 30 Gemini 3 Pro 31 Gemini 3 Flash 32 Doubao-Seed-2.0-Code 33 Doubao-Seed-2.0-Pro 34 Doubao-Seed-2.0-Lite 35 Qwen3.5-Flash 36 Qwen3.5 35B A3B GGUF Q4_K_XL 37 Qwen3.5 9B GGUF Q4_K_XL 38 Grok 4.20 0309 Reasoning 39 DeepSeek V3.2 40 Minimax M2.1 41 GPT 5.1 Codex mini(medium) 使用中文对 Opus 4.7 提问,在完成的过程中是全英文的,但是最后的总结输出是中文。 速度相对上一代快了 6 分钟(23%)。 出现两个致命的编译错误,看来注意力低不假。 之前模型犯的错误,这次也同样犯了。 太抽象了,我甚至给了 3 次机会,怕我误会了它,但是结果依然没有改变,现在 T3 排行由 Opus 4.7 重磅领衔,后续的 T3 级别选手恐怕短时间难以超越。 本次继续使用自己开发的开源 VS Code 插件 Unify Chat Provider 以实现在 Copilot 中使用以上模型。 17 个帖子 - 12 位参与者 阅读完整话题
好多佬友都反馈感觉opus4-7越更新越差劲呢,现在各位佬都一般用xhigh还是max effort的opus4-7呢?我感觉用xhigh快是快了,但是质量不太行呀 7 个帖子 - 5 位参与者 阅读完整话题
最有道德的模型,最不会拒绝任务的模型,最不浪费token的模型,最不会蒸馏的模型 我的天啊opus4.7大人 2 个帖子 - 2 位参与者 阅读完整话题
1 个帖子 - 1 位参与者 阅读完整话题
坏消息:两个工具同时故障: 后台 Agent:连续 500 panic(服务端问题) WebSearch:返回"1m 上下文已经全量可用,请启用 1m 上下文后重试"——需要你在界面里启用 1M context 才能走通 是否有佬遇到过类似问题,恳请交流分享 4 个帖子 - 3 位参与者 阅读完整话题
买的谷歌号 想拿来放cpa里反代点claude-opus-4-6用 结果弹了这个验证 各位佬友有遇到过的吗 接完码会不会以后再弹二次手机号验证 9 个帖子 - 8 位参与者 阅读完整话题
昨天正搁这猛蹬,开两个窗口,左边claude右边codex,突然这俩最后都来了一句,如果你需要,我可以…,我记得这不是gpt经典结尾吗,咋claude也这样了,何意味啊a\,不会是猛猛蒸馏gpt了吧 5 个帖子 - 5 位参与者 阅读完整话题
IT之家 4 月 18 日消息,科技媒体 NeoWin 昨日(4 月 17 日)发布博文,报道称在 Anthropic 发布 Claude Opus 4.7 模型后,微软打破与 OpenAI 的排他性合作惯例, 在其 GitHub Copilot 等 9 大开发环境中首日集成支持。 IT之家注:Claude Opus 4.7 是 Opus 系列最强版本,大幅增强在复杂软件工程任务处理能力,能够更稳定地执行长时间运行任务,同时在视觉能力方面实现重大突破。 有别于以往,微软不再局限于 OpenAI 的 GPT 系列模型,于去年底开始在 Microsoft Foundry 中提供 Claude 模型支持,并逐步扩展至旗下多款产品。 GitHub Copilot 率先集成 Claude Opus 4.7,覆盖 Visual Studio Code、Visual Studio、Copilot CLI 等 9 大开发环境。GitHub 团队宣布,未来几周内 Opus 4.7 将取代 Opus 4.5 和 4.6,成为 Copilot Pro+ 用户的模型选择器默认选项。 Microsoft 365 Copilot 用户现已可在 Copilot Cowork 前沿计划、Copilot Studio 早期发布环境及 Excel 中调用 Claude Opus 4.7。 相关阅读: 《 高阶编程能力提升,Anthropic 发布 Claude Opus 4.7 模型 》
前情提要,已手动补全1M请求头,思考参数请求体,所以可以排除这两个的问题。 如题如图,只能用opus,子代理也工作正常,但子代理也只能用opus,一用haiku连请求都打不出去 cch里都收不到客户端的请求。。。 这。。这是何意为啊 2 个帖子 - 1 位参与者 阅读完整话题
前两天公司发了不限量key,但是只能用sonnet,想问问有没有跟opus一样降智,降得厉害我就用自己的codex去 1 个帖子 - 1 位参与者 阅读完整话题
看起来官网Sonnet 4.6也喜欢补刀…… 2 个帖子 - 2 位参与者 阅读完整话题
一直在用gpt5.4,天天看佬友说opus4.6降智,4.7下坡路 所以降智后的4.6还打得过gpt5.4吗,综合看了一下貌似本身gpt5.4和opus4.6就不分上下,如果降智了话现在gpt更强且性价比更高吧 3 个帖子 - 3 位参与者 阅读完整话题
在这个时间点,在看这个质量,成本……就像是为了向某些人证明一些什么 也许是我多心了吧 2 个帖子 - 2 位参与者 阅读完整话题
https://linux.do/t/topic/1981613/ 接上贴,已经改到140个版本了,今天凌晨逛l站遇到一位佬分享了反重力的ultra账号,用opus4.6写了几轮也不行,真难受啊 15 个帖子 - 7 位参与者 阅读完整话题