claude code中使用LongCat的模型,视乎不会扣除token

claude code中使用LongCat的模型,视乎不会扣除token
claude code中使用LongCat的模型,视乎不会扣除token

之前使用沉浸式翻译用了LongCat的LongCat-Flash模型,翻译都是有扣除token的。
然后我这两天想在claude code中使用玩一玩,发现我在里面的提问居然一点token都没有扣除。
不知道是bug还是啥。

image

2 个帖子 - 2 位参与者

阅读完整话题

来源: linux.do查看原文