旧闻了 iPhone 用户现在也可以在手机上运行 Google 新发布的 Gemma 4 模型了——是真的在手机上运行,断网也能用的那种。 App Store 直接搜 “Google AI Edge Gallery”。打开 APP 后可以选择下载 E2B 或者 E4B。官方显然推荐大家用 E2B 这个更小也更快的版本。 除了文本对话,还有图片识别、语音对话等,甚至还支持 Skills。但是实测知识是 2025 年 1 月以前的。 推理框架用了 iPhone 的 GPU,运行还是相当流畅的。 大家可以试试,日常处理文本翻译之类的应该绰绰有余。 8 个帖子 - 5 位参与者 阅读完整话题
IT之家 4 月 18 日消息, 在 Valve 推出 Proton 11.0-Beta1 兼容层后 ,网友 @ aagaming.me 在 Bluesky 平台发布动态,称成功在任天堂 Switch 游戏掌机上运行 Steam, 证明 Arm64 Linux 与 Proton 兼容层的技术可行性。 IT之家昨日报道,最新兼容层添加支持 NTSync 内核驱动外,还技术布局准备支持 Valve 的 Steam Frame 游戏头显,重点集成 FEX 2604 翻译层,动态将 x86 Windows 游戏指令转换为 ARM Linux 兼容指令。 根据网友演示,在任天堂初代 Switch 游戏掌机上,通过 Proton 预览版成功运行 Steam。不过由于初代 Switch 搭载 Tegra X1,该芯片发布于 2015 年,距今已超过 10 年,无法流畅运行游戏,消息源指出理论上其它 ARM 设备也能通过这种方式原生支持 Steam。
使用cc的时候,有时候需要运行某个耗时较长的任务,这个时候cc会起一个task,然后挂起等待task的结果。但是使用codex的时候似乎没有这个机制?想问一下各位佬友codex是真的没有这个机制吗?如果是的话,有没有什么skill或者插件能够弥补这个,让codex能够等待长时间任务结束后继续执行? 5 个帖子 - 3 位参与者 阅读完整话题
今天用 ccs 配置了geminicli,但是运行的时候发现一个问题,一旦根目录有.env这种环境变量的文件,他就跟卡死了一样,半天不回答。但是把.env文件删掉就可以正常使用,这个要怎么弄呢,捣鼓了半天,一直以为是我的配置问题,geminicli来回卸载安装,搞了半天 2 个帖子 - 2 位参与者 阅读完整话题
安装完之后运行显示这个,有什么解决方法吗? 我的电脑是拯救者r7000p2022款win11 13 个帖子 - 10 位参与者 阅读完整话题
IT之家 4 月 18 日消息,4 月 15 日,中国科学院微小卫星创新研究院自主研制的 轻舟试验飞船 (白象号)正式发布首批科学与工程试验成果。本次试飞围绕关键技术验证、低成本设计与探索和拓展任务三个方面展开,圆满完成既定目标,为后续轻舟货运飞船正样研制奠定坚实基础。 ▲ 图源中国科学院微小卫星创新研究院 据介绍,轻舟试验飞船于 2026 年 3 月 30 日搭载力箭二号遥一运载火箭成功发射入轨,整船重量 4.2 吨,搭载了 1 吨科学试验载荷,具备 3 年在轨飞行能力。目前,飞船已顺利完成飞控测试,成功主动抬轨至 600km 轨道, 正式转入长期运行段 ,有序开展飞行平台关键技术验证、稳定性与拓展试验任务测试。 轻舟试验飞船实现多项平台关键技术突破。飞船采用新技术新工艺设计的密封段、推进系统、激光 IMU、热控环控系统与产品,开展大惯量航天器 自主抵近与安全撤离、长期驻留能力 、分布式综合船务、可扩展容量的能源系统等核心设计,在保障系统可靠性的同时降低研发成本,为轻舟货运飞船正式飞行提供技术、研制及发射流程验证支撑,助力技术快速迭代升级。 低成本设计与探索成效显著,开辟航天降本增效新路径。能源方面,可折叠超薄柔性单晶硅太阳电池在轨表现稳定,成本仅为传统电池的十分之一;通信领域,新体制空空通信模块性能优异, 可实现 450 公里以上数据传输 ;3D 打印技术及新材料等应用,有效降低成本、缩短制造周期,充分验证了低成本组件的在轨适用性与可靠性。 多星释放与在轨服务等拓展任务圆满完成。4 月 2 日、3 日,轻舟试验飞船先后成功释放两颗搭载小卫星,并与新征程 01 星开展了远距离抵近与安全撤离试验,验证了多体变构姿轨耦合控制技术的实用性。其通用化搭载平台实现载荷“即插即用”, 目前已完成 6 项新技术载荷试验 , 主动隔振 、金属在轨制造等多项试验取得良好成果,填补多项相关技术空白。 IT之家查询获悉,轻舟试验飞船自 2024 年 10 月同步论证设计,2025 年 1 月确定方案,经过 11 个月的研制,2026 年 3 月 30 日成功发射入轨。
安装后运行claude提示这个了。 该版本的 D:\tools\nodejs\node-v24.11.1-win-x64\node_modules@anthropic-ai\claude-code\bin\claude.exe 与你运行的 Windows 版本不兼容。请查看计算机的系统信息,然后联系软件发布者。 安装回旧版本 2.1.112就正常了。 npm install -g @anthropic-ai/[email protected] 15 个帖子 - 8 位参与者 阅读完整话题
突然就不能用Claude启动了,上一秒还在用,关闭powershell后重新开就这样了。 程序"claude.exe"无法运行: 指定的可执行文件不是此操作系统平台的有效应用程序。 16 个帖子 - 7 位参与者 阅读完整话题
佬们今天使用ClaudeCode出现图片所示情况,之前没有遇到过。有没有佬知道这种问题该如何解决 2 个帖子 - 2 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出 基于 Go 1.26 + Vue 3 + TypeScript 构建的 Docker 运行时管理平台,提供直观的 Web 界面来管理 Docker 容器、Compose 项目、镜像、Swarm 集群、存储卷和网络等资源。 github.com GitHub - sunhao-java/docker-manager-ui: 基于 Go 1.26 + Vue 3 + TypeScript 构建的 Docker... 基于 Go 1.26 + Vue 3 + TypeScript 构建的 Docker 运行时管理平台,提供直观的 Web 界面来管理 Docker 容器、Compose 项目、镜像、Swarm 集群、存储卷和网络等资源。 功能列表 点击查看 (点击了解更多详细信息) 系统截图 5 个帖子 - 4 位参与者 阅读完整话题
new api 都是运行在哪里的,也想研究个试试,但是不知该如何建立呢? 佬 们,请指定下,给个方向 6 个帖子 - 4 位参与者 阅读完整话题
笔记本配置 32GB 内存加 8GB 5060,就是生成速度会有点慢(24token/s) 但这个天气卡片真不想像是本地模型能跑出来的。 如果想试试接入 coding agent,推荐 PI,对模型负担很轻,作为一个小电脑助手又快又好 同类推荐: 5060 笔记本成功部署 Gemma 4,30t/s,效果很好 这个速度会快一些,硬件需求类似,也可以试试。 5 个帖子 - 5 位参与者 阅读完整话题
IT之家 4 月 17 日消息,鹰角《明日方舟:终末地》全新版本「春晓时」今日正式上线,部分 iOS 设备新增【总桩办公室】场景的光线追踪支持,部分安卓设备新增帧生成功能。 苹果官方确认,《明日方舟:终末地》的移动端硬件级光线追踪功能正式首发登陆 iPhone 17 Pro 系列及 iPad Pro 系列机型。 IT之家注:此次支持光追的具体设备包括 iPhone 17 Pro、iPhone 17 Pro Max,以及搭载 M4/M5 芯片的 iPad Pro 和搭载 M4 芯片的 iPad Air。 苹果官方表示,玩家在这些设备上运行最新版游戏,即可体验硬件加速的光线追踪效果。值得注意的是,虽然其他设备也能运行该游戏,但仅有上述机型支持硬件级别的光追技术,而非软件兼容模式。 据苹果介绍,即便在开启光追并将画质调至最高时,游戏依然能够保持满帧运行,实现“电影级的视觉表现”。这主要得益于 iPhone 17 Pro 系列搭载的全新 A19 Pro 芯片。 该芯片采用台积电 3nm 工艺,首次集成了硬件级光线追踪单元,能够实时呈现金属反光、玻璃折射等逼真光影效果。苹果宣称,其 CPU 与 GPU 的持续性能相比 A18 Pro 最高提升了 40%,GPU 峰值性能也提升了最高 30%。 此外,为了在高负载游戏场景下保障性能的稳定释放,iPhone 17 Pro 系列在散热设计上进行了重要改进,首次引入了 VC 均热板散热系统,并配合铝金属一体化机身设计,可将性能释放率提升至约 92%。 《明日方舟:终末地》由鹰角网络旗下工作室开发,是一款 3D 即时策略 RPG,也是《明日方舟》系列的衍生作品。 游戏背景设定于数百年后名为“塔卫二”的开荒星球,玩家将扮演“终末地工业”的管理员,在异星探索中结合小队战斗与工业建设玩法,逐步揭开星球的秘密。该游戏于 2026 年 1 月 22 日开启全球公测,并已登陆 PC、PlayStation 5、iOS 及 Android 等多平台。
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出 上次发帖忘记加模板被始皇狠狠指点了,虽然是系列之三但这次还是加上模板。 月经贴又来力 已测试的模型: google\gemma-4-E4B-it Intel\Qwen3.5-2B-int4-AutoRound Intel\Qwen3.5-35B-A3B-int4-AutoRound Jackrong\Qwen3.5-9B-Claude-4.6-Opus-Reasoning-Distilled-v2 Qwen\Qwen3-TTS-12Hz-1.7B-Base 这个月着重于解决MoE模型的运行乱码问题、Turboquant适配。 1、 具备生产能力的 Qwen-3.5-35B-A3B 模型太大,不能全丢进显存里面。必须做 CPU-XPU 混合推理,也就是专家层放在内存里,需要时再调到 XPU,这个机制其实很多推理引擎已经有对应的"cpu-offload"实现了。 2、 MoE 的性能卡点主要出现在 decode 阶段。对 MoE 实施混合推理推理设计,decode 每走一步都可能要重新选专家,所以特别容易被CPU-XPU之间的数据搬运环节拖慢,由于开发环境在平时打游戏的PC上,内存频率受限3200Mhz,所以现在运行 35B-A3B 的输出速度只有 1 tokens/s 。 3、 所有的模型权重都转换成项目内部兼容 XPU 的 int4 布局,节省资源。 项目内自定义算子的设计(如何自己写算子): 1、 gated_delta_fused_op.sycl 里通过 TORCH_LIBRARY 注册算子名字和参数形式,让项目能在Pytorch上运行。 2、 同时提供 Meta 和 XPU 两套。Meta 实现不真正计算,只负责告诉 PyTorch“输出长什么样”;XPU 实现才是真正在 Intel XPU 上跑的 kernel。 3、 Python 侧只负责“接线”,因为性能表现 太垃圾 。 fused_ops.py 负责加载 .pyd 动态库、暴露 run_xxx_fused() 这类包装函数。ops.py 再把这些 fused op 接到模型真实的 forward 调用链上。 4、 构建链路依赖 oneAPI + PyTorch XPU( 最终还是脱离不了Intel官方提供的技术栈,因为这一部分实现比较完整,自己弄CPP太耗时间了,一个人做不了 ) build_gated_delta_fused_op.py 会调用 dpcpp 编译出 .pyd,再动态加载到 torch.ops.anna 命名空间。 5、 所有算子都要非常严格地检查输入的维度信息、dtype、device、是否 contiguous 以及 shape 是否匹配。自定义算子一旦吃到错误输入,往往不是普通报错中断,而是直接结果错乱,包括输出乱码、思维链循环、甚至直接不输出任何内容。 6、 项目里很多输入虽然是 bf16/fp16,但中间经常要用 float32。避免模型出现乱码、异常重复、输出不稳定的清空。 7、 对 MoE 来说,路由、dispatch、scatter、专家缓存、专家搬运,常常比矩阵乘本身更影响速度。所以项目里不仅做了 GEMM 算子,还做了 router、dispatch、scatter 这些算子。 8、 测试选用的 AutoRound 量化模型导出的 int4 权重格式,不等于项目内部适合 XPU 直接算的 int4 格式。因此还有一层转换来做兼容化。 结构是: gated_delta_fused_op.sycl - 真正写 XPU 核心计算逻辑的地方 。 fused_ops.py - Python 到自定义算子的桥接层 。 ops.py - 模型真正调用这些算子的地方 。 build_gated_delta_fused_op.py - 负责编译和注册自定义算子 。 用 NotebookLM 内的 Nanobanana 2 帮忙画的简图 1 个帖子 - 1 位参与者 阅读完整话题
如题,在最近几次更新后。如果在cc里运行程序,就会稳定出现渲染问题:字体错位,消息全部重合在一起。有没有佬友遇到过相似的问题 2 个帖子 - 2 位参与者 阅读完整话题
Bonsai 1.7B 可以直接在浏览器里通过WebGPU直接运行 Bonsai 1-bit WebGPU - a Hugging Face Space by webml-community 4 个帖子 - 3 位参与者 阅读完整话题
Daily included routine runs 每天限制15个实例数? 2 个帖子 - 2 位参与者 阅读完整话题
IT之家 4 月 17 日消息,Perplexity 今天(4 月 17 日)推出 Personal Computer,定位为 Mac 版 AI 助手, 可直接访问 Mac 文件系统和原生应用,支持文本和语音两种交互方式。 Personal Computer 功能于 3 月通过候补申请方式推出,经过一段时间打磨后,Perplexity 今天正式向 Max 订阅用户推送,并升级定位为深度集成 Mac 本地生态的 AI 助手。 Personal Computer 可直接访问 Mac 文件系统和原生应用,用户同时按下键盘左侧和右侧的 Command 键即可唤醒,支持文本和语音两种交互方式。 与仅运行于云端的 AI 助手不同,Personal Computer 能“看见”用户当前活跃的应用,并自动显示快捷操作建议。 该助手可以切换任意 Mac 应用执行任务,比如逐一完成待办清单中的事项、整理杂乱的下载文件夹、将本地文件与网络信息进行对比分析等。为了处理复杂任务,Personal Computer 可调用超过 20 种前沿模型组建智能体团队协同工作。 Perplexity 表示,Personal Computer 支持 macOS 14 Sonoma 及更高版本,但推荐使用 Mac mini 作为运行设备。 Mac mini 可实现 7×24 小时持续运行,适合需要稳定本地访问文件和原生应用的工作场景,用户还能通过 iPhone 远程发起和管理任务。 安全方面,Personal Computer 的所有操作对用户可见,用户可随时介入干预。文件在隔离的安全沙盒中创建,所有操作可审计、可撤销,并配备紧急停止开关。 Personal Computer 现已向 Perplexity Max 订阅用户推送,候补名单用户优先。Max 订阅月费为 200 美元(IT之家注:现汇率约合 1367 元人民币),月费 20 美元的 Pro 订阅用户暂时无法使用该功能。
为什么我的CC一做复杂的任务就显示在Sock-hopping(在CLI运行),半天才有一个新的进展反馈? 大家有遇到和我一样的情况吗?这个状态是正常的吗,有没有佬知道,Sock-hopping这个状态是啥意思? 2 个帖子 - 1 位参与者 阅读完整话题
我自己让codex跑点项目 我也看不懂他写的什么 想让他自己跑 一直卡权限 这种怎么才能自动运行 4 个帖子 - 4 位参与者 阅读完整话题