(话题已被作者删除) 1 个帖子 - 1 位参与者 阅读完整话题
各位实际coding的时候3.6plus的效果和5.1对比怎么样? 1 个帖子 - 1 位参与者 阅读完整话题
百炼Qwen3.6-Plus用了下,改代码越改越乱,不知道是不是错觉。glm5指令遵循有点差,经常不按在CLAUDE.md或ANGENTS.md中写的测试方法来执行,各位有遇到过吗。kimi2.5用着还行,但百炼上非常不稳定,经常报错,不知道是不是接的claude code的原因。有用百炼coding plan的吗,佬们觉得哪个好用 8 个帖子 - 5 位参与者 阅读完整话题
发现有什么不同没? s没了 换成codex的s没了… 3 个帖子 - 2 位参与者 阅读完整话题
我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧: 智谱AI开放平台 7 个帖子 - 5 位参与者 阅读完整话题
如题 我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧: 智谱AI开放平台 3 个帖子 - 2 位参与者 阅读完整话题
因为我的是老 Lite 套餐,额度在下午的时候容易超出, 让 GLM 自己写了个,还不错。 1 个帖子 - 1 位参与者 阅读完整话题
抽奖主题: GLM Coding Plan体验卡 奖品详情: [奖品]:GLM Coding Plan体验卡 * 2 活动时间: 开始时间:[此帖发出开始] 截止时间: Sat, Apr 18, 2026 10:00 PM CST 参与方式: 在本帖下回复任意内容 抽奖规则: 每位用户仅允许参与一次。 将使用 LINUX DO 抽奖工具 在所有回复中随机抽取中奖者。 注意事项: 本活动将在活动截止时间后关闭回帖,以确保公正性。 中奖者将在活动结束后在本帖公布,并通过论坛站内信由发起人通知领奖方式。 所有规则及抽奖结果由 @feilong 及论坛 管理团队 最终解释。 发起人承诺: 作为本次抽奖的发起人 @feilong ,我承诺本话题的抽奖活动严格遵守 LINUX DO 社区抽奖规则 。因违反上述规定引发的公平性争议或其他问题,均由我独立承担相应的道德与法律责任。 期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系 @feilong 或论坛 管理团队 。 20 个帖子 - 19 位参与者 阅读完整话题
如题, 我是wsl+ollama, 试了一个qwen3.5 2b 4b 9b, 都贼拉难用, 我就问他 1+1=? , 一直搁那吐字, 思考, 我记得以前2023年的ChatGLM没这么难用的啊, glm问他是谁他都正常吐字就完事了, qwen一直搁那思考自己是阿里巴巴开发的, 中文思考完了换英文, 半天不吐字, 介绍完自己, 又介绍阿里巴巴, 难用得要命了 13 个帖子 - 10 位参与者 阅读完整话题
(话题已被作者删除) 1 个帖子 - 1 位参与者 阅读完整话题
闲来无事整理一下newapi,发现老黄上5.1了 速度还不慢,快蹬!! 12 个帖子 - 8 位参与者 阅读完整话题
如题,感觉 Claude Code + GLM5.1 也不错 3 个帖子 - 3 位参与者 阅读完整话题
用佬友的脚本1次就抢到了GLM的订阅,来回馈佬友们~ 用着感觉还不错,配合claude code 我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧: 智谱AI开放平台 7 个帖子 - 5 位参与者 阅读完整话题
本来想买国内GLM的coding plan的 但完全抢不到,还好公司报销,买了Z.AI的 不用抢,虽然贵点,但可以报销,话说 佬友们,如果买来自己用的话某鱼的拼车靠谱吗 8 个帖子 - 5 位参与者 阅读完整话题
我现在都是用gpt或者Gemini,但是听大家说国产有个glm挺厉害的,我平时没用过,想请问一下有没有使用过的佬,能说一下它个gpt5.4或者Gemini pro比咋样吗?(各个方面都可以,项目代码或者debug测试啥的这些方面,到底那个强呀) 7 个帖子 - 7 位参与者 阅读完整话题
Coding Plan还没有支持GLM5.1的计划,看来Coding Plan应该是被放弃了, 引用 cloud.tencent.com 大模型服务平台 TokenHub Token Plan 套餐概览 腾讯云大模型TokenPlan是面向龙虾和编程场景设计的专属订阅套餐,覆盖腾讯混元、MiniMax、GLM、Kimi等国产主流模型,兼容热门龙虾工具和主流编程工 3 个帖子 - 3 位参与者 阅读完整话题
用了两天,感觉体验已经很不错了,为什么渠道还是少 5 个帖子 - 5 位参与者 阅读完整话题
由于GLM的官方活人实在难以联系到,而且封号也是他嘴巴子一张说封就封,说啥就是啥。所以对于使用场景的合规性有以下几点疑问(都基于我在ClaudeCode中使用的前提): 我拿来写latex(调格式+润色论文),算不算coding? 在静态博客项目中,让GLM进行一些操作(比如写博客),算不算coding? 在Linux服务器上通过GLM进行一些运维操作(执行指令+问答学习),算不算coding? 上述三点和"账号使用规范"中的第二个Tip似乎有些 违背 ,但是又 符合 "账号使用规范"中第一点的"公平使用条款"中的"使用场景限制",那到底算合规还是不合规?因为"上述工具以外的"从字面上理解,可以同时修饰"API"和"其他场景",那是不是只要在cc里运行就都可以 GLM在文档上左右脑互搏这一块,一如既往的令人窒息 6 个帖子 - 4 位参与者 阅读完整话题
佬友们,这个要不要续呢? 一直用他挂在龙虾和 hermes 上干杂活 现在有 codex 订阅了,在纠结要不要续 7 个帖子 - 6 位参与者 阅读完整话题
一开始发现一个现象,如果是edit模式,慢慢读文件编辑文件是没问题的。 但是一旦开启计划模式,cc尝试拉起子代理时,因为当前any的haiku似乎不可用,于是cc会自动用opus作为替代向any发起大量请求,大量的opus请求,导致any的后端直接报错,如下: Provider any returned 500: new_api_panic: Panic detected, error: runtime error: invalid memory address or nil pointer dereference. 我不是技术党,咱也不知道啥意思,总之一旦后端返回这个就会给我掐了,所以从行为上我猜大概率是请求速率撞了后端的限制? 于是我灵机一动,既然如此,高频简单的工作让glm干不就好了?果然再没有遇到任何错误开始爽蹬any 17 个帖子 - 10 位参与者 阅读完整话题