感觉自己太久没有自己写过前端UI了,最近想干什么全交给AI了,最近想想要不像自己几年前以前那样写个网页小工具,然后就有了这个玩意 一个随便产生的想法,本来打算直接AI掉的,结果还是自己写了 我的想法是抄一下终末地官网先做个加载界面,再搞几个游戏内的UI组件上去 加载画面的话我没有完全照搬,而是搞了循环动画,反正我自己挺满意的,组件的话抄起来太麻烦了,还得给按钮搞背景图片,我直接偷懒搞纯色,感觉还是不太对味,算了就这样吧 然后数据分析和导出docx是AI写的,说白了还是懒~ 今天一天之内干的,不知道佬友觉得这个玩意如何 链接在这里 (其实还有好几个域名) : t.ftz.is-a.dev 《明日方舟:终末地》集成工业助手提示词生成器 终末地真好玩 1 个帖子 - 1 位参与者 阅读完整话题
IT之家 4 月 18 日消息,科技媒体 NeoWin 昨日(4 月 17 日)发布博文,报道称在 Anthropic 发布 Claude Opus 4.7 模型后,微软打破与 OpenAI 的排他性合作惯例, 在其 GitHub Copilot 等 9 大开发环境中首日集成支持。 IT之家注:Claude Opus 4.7 是 Opus 系列最强版本,大幅增强在复杂软件工程任务处理能力,能够更稳定地执行长时间运行任务,同时在视觉能力方面实现重大突破。 有别于以往,微软不再局限于 OpenAI 的 GPT 系列模型,于去年底开始在 Microsoft Foundry 中提供 Claude 模型支持,并逐步扩展至旗下多款产品。 GitHub Copilot 率先集成 Claude Opus 4.7,覆盖 Visual Studio Code、Visual Studio、Copilot CLI 等 9 大开发环境。GitHub 团队宣布,未来几周内 Opus 4.7 将取代 Opus 4.5 和 4.6,成为 Copilot Pro+ 用户的模型选择器默认选项。 Microsoft 365 Copilot 用户现已可在 Copilot Cowork 前沿计划、Copilot Studio 早期发布环境及 Excel 中调用 Claude Opus 4.7。 相关阅读: 《 高阶编程能力提升,Anthropic 发布 Claude Opus 4.7 模型 》
先说本人情况: 根据模拟考,预估成绩650-675之间(希望别考崩了哈哈),在河北对应中档-中档偏上的985,如同济-电子科技大-华科-西交-天大-北航-哈工大这一列 现在5月前要决定强基计划。 强基计划:985大学,只能报一个专业,100%保研,不准转专业(这是最大的问题)。 目前感兴趣的是自动化(但是强基作为国家培养理科基础人才的东西,没有直接的自动化),但是有可能毕业之后比较挤;另外现在是具身智能比较挤的时候,有可能我毕业之后卷到头了变成红海,有很多被卷翻了的人等着社招,对刚毕业的不利;再就是自动化不是一个越老越吃香的学科,可能被优化; 之后看航空航天,这方面肯定是接下来国家投入的重点,包括民营航天、低空经济之类的应该会在我毕业(8年左右)开始大规模井喷(像现在宇树这样),但是肯定会经历一波九死一生的大逃杀,到时候我在毒圈里还是毒圈外就不知道了; 再考虑微电子(应用物理学强基计划),这肯定需要硕士学历,所以强基的保研给了很大的福利。目前据我查资料有设计公司(海思)和fab厂两大方向,虽然累但是工资比较高,而且芯片设计应该挺吃资历的吧,优化风险小一点? 以及军工,也就是北理、西交、西北工大、哈工大,也有一定潜力 请问各位佬友,如果您是这几个方向的话: 您的大致学历、就业方向? 您认为这个学科的读研、读博是否面临巨大困难? 您认为这个专业对老资历(35岁以上)是否友好? 其他想补充的? 下面是我目前比较感兴趣的部分学校的招生数量 招生计划.pdf (392.0 KB) 7 个帖子 - 3 位参与者 阅读完整话题
这和网页对话有区别吗?IDE也没集成。用习惯了反重力这个完全不知道咋用。代码只能打开看。运行调试咋整 命令行运行? 7 个帖子 - 6 位参与者 阅读完整话题
这是干啥呢?准备集成claude吗? 还有这个,操控电脑?Play Game? 1 个帖子 - 1 位参与者 阅读完整话题
IT之家 4 月 16 日消息,据“中国应急管理”公众号今日分享,云深处科技与浙江省应急管理厅联手推出的具身智能装备 ——“AI 防汛勇士”正式发布,并在杭州市余杭区径山镇水车坞开展地质灾害隐患排查直播演练。 据介绍, “AI 防汛勇士”是全国首个防汛防台具身智能机器人 ,是面向基层防汛巡查的第一代实战化具身智能应用,以云深处科技山猫 M20 轮足机器人为移动平台。 IT之家从“中国应急管理”获悉,这款机器人集成了大模型、车载平台,搭载双光谱吊舱、5G 模块、边缘算力盒等装备,可替代人力完成隐患巡查、险情侦察、人员搜救等核心防汛任务。 值得一提的是,“AI 防汛勇士”机器狗凭借轮足复合运动设计,兼具高效机动性与强悍越障能力,可在复杂地形中稳定行进,完成 45° 斜坡攀爬, 并支持 40cm 深度涉水 ,从容穿梭于泥泞路段、碎石堆、积水区及滑坡体等恶劣路况。
波士顿动力将 Google DeepMind 的高级具身推理模型 Gemini Robotics-ER 1.6 集成到其机器狗 Spot 中,使 Spot 在工业检测如发现泄漏和读取仪表数据上拥有更强的自主推理能力,机器狗还能认识到何时调用其他 AI 工具。波士顿动力与 Google DeepMind 合作的重点集中在工业检测相关领域,即机器狗在工业设施内巡逻过程中是否能识别潜在爆炸风险。在集成 Gemini Robotics 之后,Spot 能自主寻找危险碎片或泄漏物,读取复杂仪表和视镜,在需要帮助理解周围环境时调用视觉-语言-动作模型等工具。波士顿动力在 YouTube 上发布了一则视频演示了 Spot 的新能力。
佬们,因为claude账号总是被封禁,已经放弃挣扎了,有没有网页版集成可用claude的AI,没有用过claude code 之前一直在用网页版 1 个帖子 - 1 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出 为你的 Agent 集成 Skill 系统 佬友们晚上好,之前自己对于Skill理解上面比较片面,然后决定认真的学习和梳理一下这个东西,发现它的实现挺有意思的(渐进式加载的设计思路),尤其是它的生态的作用非常的大, 这个“渐进式加载”的思路可以使用到很多地方 Bash命令工具有时候会输出很多内容,这个时候可以做一个限制,超过多少就输出到一个文件里面去,在工具结果中将这个文件路径返回 上下文触发压缩之后,可以将原文件(没有压缩的历史会话)的路径放入到上下文中去,这样模型或许在发现上下文压缩效果不佳的时候,可以主动去寻找原文件 Skill的实现方式有很多种,方便快速一点的就是直接使用框架,一些Agent的SDK和框架,这个在文章最后有整理,慢一点的那么自主控制强一点,就是自己从零开始实现,渐进式加载的思想还有相应的配套工具,主动梳理一遍之后,还是收获满满的哈哈哈哈,接下来进入技术正文吧 为自己开发的Agent添加Skill支持时,开发的核心步骤: 发现、解析、使用、管理 发现:你的Skill存储在哪里,本地还是云端,项目级和用户级的优先级是什么,如何确定该文件夹是一个Skill 解析:将SKILL.md的元信息解析出来 使用:Agent如何使用解析出来的元信息,是系统提示词还是工具描述,后续的渐进式披露策略的执行,是使用读取工具还是使用内部的激活工具 管理:如何维持加载进入上下文的Skill的有效性,上下文压缩的时候Skill的内容是否需要保护 开发的核心原则也是Skill的核心特点:渐进式披露 第一层披露:在会话启动的时候,将 元信息(名称+描述)加载到上下文中 第二层披露:在Skill激活的时候,也就是Agent根据用户输入和元信息匹配到相应的Skill,将 完整的SKILL.md内容 加载到上下文中 第三层披露:当SKILL.md的正文内容加载到上下文之后,Agent根据任务的复杂情况来选择加载更详细的指导说明,也就是 脚本、参考资料、静态资源 这三种可按需加载的资源 一、发现 Agent是需要从相应的文件目录中发现运行环境有哪些Skill,大部分Agent是运行在本地环境的,所以我们重点说一下本地环境的Skill发现 对于Skill的文件目录的范围是分为两种的: 用户全局范围和项目局部范围 项目局部范围:只对当前项目生效的SKill,例如:前端设计Skill、React最佳实践SKill等 用户全局范围:对用户所有的项目生效的Skill,例如:find-skills(发现Skill)、pptx(生成ppt的Skill) 具体的Skill的目录模块是这样的: <project>/.<agent-client>/skills/ :项目范围的可用Skill <project>/.agents/skills/ ~/.<agent-client>/skills/ :全局范围的可用Skill ~/.agents/skills/ 从上面的路径中可以发现存在 /.agents/ 的文件路径,这是因为该路径已经成为跨各种不同的客户端技能共享的广泛采用的约定,例如: 别人可能开发了a-agent-client,它的Skill的目录是 ~/.a-agent-client/skills/ ,你这个时候开发的b-agent-client想要使用a的Skill目录,你就要做兼容,读取目录的时候特定读取 ~/.a-agent-client ,一个当然不要紧,那假如有很多个呢?并且路径都不一样,那岂不是每次都要更新这个东西, 所以大家就采用一种约定俗成的规范,无论什么客户端,都可以给安装的Skill提供 ~/.agents/skills/ 这个目录,那么后续开发的时候就都可以默认读取一下这个目录, 达到兼容各种客户端统一规范的目的 所以读取/.agents/的文件路径意味着其他符合规范的客户端安装的Skill会自动对你的客户端可见,相反别人也可以自动可见你的 有时候会在用户全局范围和项目局部范围出现相同的Skill ,这个时候优先级判断是: 项目级优先级大于用户级 相同范围内,按照发现顺序排优先级 设计信任检查的考虑是因为,有一些项目拉取下来会存在一些skill,可能这些skill是恶意不安全的,可能会泄漏你的密钥等隐私性的东西。 所以在Agent的配置文件中可以考虑设计一层skill信任检查,在项目范围内,只有受信任的Skill才可以加载使用,这个是在业务逻辑层面进行判断的 一点开发技巧的小补充: 在读取skills文件夹的时候,要 查找包含名为SKILL.md的子目录 这个才是有效的Skill,是符合Skill规范的,一些开发读取Skill路径技巧: 要跳过不包含skills的目录,例如:node_modules/这种依赖项文件 可以考虑遵守项目的.gitgnore文件,避免扫描一些构建产物,类似于dist/文件夹 不要一直嵌套循环的深度搜索,要设置最大搜索层数(5-6层),同时设置最大文件数量 二、解析 在Agent会话开始的阶段,是需要将Skill的元信息加载到上下文中的,所以我们在获取到Skill的文件路径之后,下一步就是需要解析SKILL.md的元信息啦 SKILL.md的文件包含两部分: 以 --- 分隔符分开的YAML前置元数据 以结束分隔符分开的MD格式的内容 这些元信息的字段和约束如下: name(必需):表示技能的名称,最多64字符,仅允许小写字母、数字、连字符。不得以连字符开头或结尾 description(必需):对于该技能的描述,最多1024字符,不能为空 license(可选):对于许可证名称或者许可证文件的引用 compatibility(可选):表示环境的要求(目标产品、系统包、网络访问) metadata(可选):附加元数据 allowed-tools(可选):技能允许执行的工具列表 那么详细的开发步骤为: 找到SKILL.md文件分隔符的开始和结尾部分 解析中间的YAML代码块,提取出来name和description字段,还有其他的可选字段 而结尾分隔符后面的MD语法格式的内容就是SKILL.md的正文内容 在对于YAML解析的时候,错误处理不要太严格,小的错误不能影响Skill的解析,可以将错误信息返回给用户,以此进行警告提示 那么解析之后的SKILL.md的元信息,是需要加载进入Agent的上下文中的,如何存储是一个值得考虑的问题 我们可以使用Map这种键值对的格式, 将这些元信息存储在内存中 ,name作为key,vlaue值至少需要下面三个字段: name:名称 description:描述 location:SKILL.md文件的绝对路径 关于是否需要将md格式的正文内容也加载进来,有两种考虑,如果直接加载进来的话,内容存储会变大一些,但是在渐进式披露第二层的时候,读取速度会很快,如果不加载进来,那内存会小一些,等进入第二层上下文加载的时候,就要再读取这个SKILL.md文件,IO读取会影响整个Agent的响应时间,这里需要自己根据实际业务进行权衡 三、使用 3.1、将元信息放入到系统提示词中 在Agent会话初始的时候,将元信息放入系统提示词中, 放入的时候要提供一个简短的Skill使用说明,告诉模型如何使用以及什么时候使用 ,这个是第一层披露 当用户输入或任务触发了相应的Skill的时候,这个时候Agent会调用读取工具读取完整的SKILL.md,这个是第二层披露 完整的SKILL.md加载进入Agent上下文中之后,遇到任务复杂度很高,Agent需要得到更加详细的“说明文档”,这个时候会继续调用读取工具,从SKILL.md获取的引用路径读取相应的references、assets、scripts 如果读取到scripts的时候,有需要执行脚本的需求,那么Agent就会调用Bash工具执行脚本文件 在将元信息放入到系统提示词中的时候,采用一些特定的格式,XML、JSON等,后续在上下文管理的时候会非常有效 <available_skills> <skill> <name>code-review</name> <description>Review code for bugs, style issues, and best practices. Use when the user wants feedback on their code.</description> <location>/home/user/.agents/skills/code-review/SKILL.md</location> </skill> <skill> <name>git-commit</name> <description>Generate clear and conventional git commit messages from diffs or change descriptions.</description> <location>/home/user/project/.agents/skills/git-commit/SKILL.md</location> </skill> </available_skills> location字段表示的是SKILL.md的完整绝对路径,它的用途有两个: 给读取工具提供正确的路径参数 为模型提供一个基本的路径参考,用于正确读取SKILL.md内容中的引用资源(reference、assent、scripts/xxx.js) 一点开发小建议:可以再提供一个文件列出的工具(listFiles),这样在第三层披露的时候,模型有工具可以“自修复”路径导致的读取错误 3.2、将元信息放入到专有的工具中 在会话开始的时候,Skill的元信息会以工具的描述的格式提供给Agent,这个是第一层渐进式披露 当Agent需要更完整的SKILL.md内容的说明,传入给工具的参数是name,工具返回的是SKILL.md的内容,重点是对于引用资源的路径展示更为准确和具体了,这个是第二层渐进式披露 在第三层披露中,Agent可以使用读取工具去获取完整的引用资源的内容,当然这里你也可以单独在创建一个工具获取引用资源的内容,也不一定仅依靠读取工具 Bash工具依旧有效,可以执行skill中的scripts脚本文件 使用专用工具和系统提示词这两种方式都是有效的,但是专用工具比系统提示词在 开发控制 上面更具有优势: 控制返回的内容 - 只返回SKILL.md中的正文内容,而不是重复返回元信息 在上下文管理过程中,工具的返回结果可以单独做一些特殊的标记,在上下文压缩的时候是可以跳过筛选出来 引用资源是以结构化的列表形式展现,在模型理解上更加友好 可以做一些独特的控制流,工具是否执行等操作 可以做一些统计分析的功能 <skill_content name="code-review"> # Code Review ## 何时使用 当用户需要对代码进行审查时使用此技能,包括 Bug 排查、 代码风格检查、最佳实践建议等。 ## 审查步骤 1. 阅读代码,理解其意图 2. 对照 references/style-guide.md 检查风格问题 3. 运行 scripts/lint-check.sh 进行静态分析 4. 输出结构化的审查报告 Skill directory: /home/user/.agents/skills/code-review 此技能中的相对路径均相对于上述目录。 <skill_resources> <file>scripts/lint-check.sh</file> <file>references/style-guide.md</file> <file>references/common-bugs.md</file> </skill_resources> </skill_content> 关于 skill_resources 的内容,之前是需要依靠SKILL.md中书写相应的引用介绍,但是如果是工具结果返回,我们可以单独将相应的skill下面的reference、scripts、assent文件夹都读一遍,然后将文件路径放入到 skill_resources 标签中, 要注意限制文件列表大小,不要过大了,同时要向模式释放信号“当前的列表可能不完整,具体情况具体分析”,这样不会让模型在自主运行的过程中被工具返回内容限制 四、管理 渐进式加载的意义是 避免预加载所有Skill ,因为有些Skill刚开始可能不会使用到,加载进去是上下文的浪费 但是已经加载进来的Skill内容,是值得在会话中持续保留的 ,因为skill已经成为了当前会话中Agent的一种任务行为指导,如果盲目的压缩,是会降低Agent的性能,保留skill的内容有两种方式 系统提示词的使用:在读取工具的结果中,识别相应的结构化标签,来保留skill的内容 专用工具的使用:将技能激活工具的输出标记为保护状态,在压缩的时候进行标记判断 但是这也要根据实际情况来看,如果我们的对话很长,skill数量很多,上下文窗口小,不压缩的话,根本没有新的上下文空间给剩下的任务执行链,那么这个时候压缩是更优解 但是压缩之后,要显示的提示模型“skill也被压缩了,如有需要请重新加载相应的skill” 不然模型会陷入压缩幻觉,“觉得自己里面已经有了相应的skill,不用在加载了” 还有一种更高级的用法: 使用subAgent(子智能体)运行Skill 子智能体的整个执行过程(技能指令+引用文件+中间推理)都发生在它的上下文窗口中,主智能体的上下文完全不受污染,只看最终结果 在开发的时候,我们可以将“执行Skill”这个行为创建一个子智能体,将用户输入+Skill元信息注入给子智能体,最终子智能体返回结果给主智能体消费 具体是否使用子智能体来执行Skill,要交给主智能体自己来判断,例如:任务超过阈值的时候就自动委托 五、快速构建 上面提到的方式,是你从头给Agent构建一个支持Skill的功能模块,里面涉及到的元信息加载,正文内容读取,资源文件读取的功能,由你来创建一套读取工具或者读取Skill内容的工具 目前的生态比较成熟,很多Agent SDK是开箱即用这个Skills功能模块的,只要引入SDK下的Agent方法,那么Agent就自带skills加载的功能,接下来我给大家使用Claude Agent SDK构建一下看看,开发起来非常方便快速 1、Agent运行文件 """简化版,主要展示核心流程的步骤,尤其是调用和输出结果解析""" async def _run_repl_async() -> None: config = load_runtime_config() apply_runtime_env(config) client = build_client(config) # 输入 try: user_input = input("\n> ").strip() except (EOFError, KeyboardInterrupt): return print("\n再见!") # 请求 + 接收 try: print("[发送请求...]") await client.query(user_input) print("[接收响应...]") events = [e async for e in _iter_events(client)] except Exception as exc: print(f"[错误] {exc}") 2、Claude Agent SDK核心运行配置文件 """SDK 封装 - 简化版""" from __future__ import annotations from pathlib import Path from app.config import RuntimeConfig # 允许 Agent 使用的工具列表 ALLOWED_TOOLS = ["Skill", "Read", "Write", "Edit", "Bash", "Grep", "Glob"] def build_client(config: RuntimeConfig): """创建 Claude SDK 客户端""" try: from claude_agent_sdk import ClaudeSDKClient, ClaudeAgentOptions except ImportError: raise RuntimeError( "请先安装 Claude Agent SDK: pip install claude-agent-sdk" ) options = ClaudeAgentOptions( #设置project会默认加载项目内的./claude/skills下的skill setting_sources=["project", "user"], allowed_tools=ALLOWED_TOOLS, model="deepseek-chat", env={ "ANTHROPIC_AUTH_TOKEN": config.api_key, "ANTHROPIC_BASE_URL": config.base_url, }, # 单独指定skills文件加载的位置,配合user值使用 add_dirs=["/xxx/xxxx/.agents/skills"] ) return ClaudeSDKClient(options=options) 核心就是这两个文件,运行Agent之后,就会自动加载skill文件,同时也会自动使用渐进式披露的策略来进一步加载正文内容和资源文件 关于Claude Agent SDK模型最好是使用Claude的,但是因为一些因素无法使用的话,也可以考虑支持ClaudeCode和Anthropic API格式的模型供应商 类似的SDK还有: pi-mono中的pi-coding-agent核心包 kimi Agent SDK 如果追求快速构建是完全可以使用这些成熟的Agent SDK构建Skill支持功能的,相应的你的Agent的整体构建设计思路也要去贴合这些Agent SDK,我觉得是有利有弊的,需要开发者们按照场景去选择自己从头构建还是借助SDK集成, 自己构建自由度更高,可操作性更强, 使用SDK构建,速度更快,迭代方便,开发难度较小 最后 本文节选自「大模型应用开发 - 上下文工程与运行空间实践指南」 该项目在上2周被我重新整理过,根据之前的帖子佬友们的讨论,收获很多,于是重新梳理了一下目录和大纲,后期重点准备在工程实践经验的整理和技术实现的细节上面,整体的路线会变得更加的完善,改变的几个点就是:增加Harness的定义与说明,并且调整了上下文工程的定位,并且补充上下文工程与Harness的关系在大模型应用开发中 方向:上下文工程是设计原则,Agent Harness 是构建目标。完整内容已发布在 GitHub,欢迎查看 GitHub - WakeUp-Jin/Practical-Guide-to-Context-Engineering: 大模型应用开发的方向,上下文工程是设计原则,Agent Harness 是构建目标,本项目的目标,是为开发者和研究者提供一份大模型应用开发的骨架思路 · GitHub 2 个帖子 - 2 位参与者 阅读完整话题
无意中发现了这个升级 今天像往常一样打开习惯发性先打开,clarity 网站监控,发现新多了一个问问GEMINI 一开始,我还以为是clarity新增加的功能。,就尝试性的问了问。让他给我总结了一下。 结果发现。真他妈的好用啊。但是,很神奇。。。。。 我在问我网站相关的时候 。他一直以我谷歌帐号的那个身份在和我聊天。 具体如下: 我就好奇。我说必应这省钱么,开通了AI的功能。居然让我自己用自己的额度。并发表了下面的提问。 后来。我就打开了谷歌。我想搜索一下是什么情况。结果我在其它页面。也看到了这个功能。我才明白。谷歌浏览器升级了。!!! 于是。我赶紧尝试性问他一些问题。比如。对于我网站SEO的优化方面的建议,果然!!! 以后是不是SEO更好做了? 至少。有点类似于咱们站的那个AI总结。但是。也许会更强! 3 个帖子 - 3 位参与者 阅读完整话题
IT之家 4 月 15 日消息,阿里云今日宣布推出阿里 ATH 事业群首款 AI 开发工具“妙悟 Meoo”。该工具集成了千问、Kimi、GLM、MiniMax 四大模型,并内置阿里云数据库、存储等核心产品服务。 用户无需具备任何编程基础,仅使用自然语言描述自身需求,Meoo 即可在最快 1 分钟内自动生成前端与后端完整的网站或 H5 页面,并支持在阿里云上一键部署上线。 据官方介绍,Meoo 内置了阿里云数据库、存储服务、域名服务、FC 沙盒服务、NAS 文件系统、百炼模型 API 等核心产品,无需用户额外配置,即可直接完成前端界面、后端逻辑和数据库搭建等任务,生成的应用具备完整功能。 在模型层,Meoo 集成了 Qwen3.6-Plus、Kimi K2.5、GLM-5、MiniMax-M2.5 四个大模型,能够基于简单指令快速生成匹配用户需求的代码。 在 Agent 框架层,Meoo 支持蜂群 Agent 模式,允许多个 Agent 并行处理任务,简单应用的生成时间可低至 1 分钟。 对于复杂任务,用户可选择 Agent 模式,Meoo 能够自主规划并拆解任务,在遇到问题时进行自我检测和修复。 在实际应用场景中,销售人员准备在节假日进行促销活动,只需在 Meoo 上输入活动规则,几分钟内即可生成一个 H5 活动页面,并能展示转化数据。创作者可将个人作品集或一段文字描述发送给 Meoo,生成可交互的个人作品集网站。 IT之家附官网地址: https://meoo.com/
有没有深度使用过的佬现身说法一下,最近公益站gpt几乎绝迹,但是GLM看起来很充足,习惯了顶级模型,对GLM这种国模,说实话还是存在怀疑,不太敢用,是用还是开启付费模式 1 个帖子 - 1 位参与者 阅读完整话题
如图,其似乎自动将canvas的功能集成到普通对话中,打开后如下图 拿来学习的时候突然有个交互动画其实还是挺直观的,不过大多数情况下还是多此一举(感觉降智后canvas和引导式学习都变蠢蠢的),期待谷歌的算力回归到gemini app的一天。 2 个帖子 - 1 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出 在两三年以前,那个时候的我可能想不到,几年后,写代码这件事原来也可以并行的。 虽然现在开七八个终端可以同时 Vibe Coding 好几个项目,但是当我真的开始这么做的时候我发现我的脑子转不过来了,每个终端都在写代码,有时候还需要点 Yes, 而且还要在不同的 IDE, 编辑器,终端中来回切换, 不仅仅是上了一天代码虽然代码都是 AI 写的但是人却是累到了, 虽然 AI 的精力是无限的,但是人的上下文和注意力是有限的。 为了解决我不能在多个项目同时愉快 VibeCoding 的烦恼,于是我做了哪吒这款轻量级 AI VibeCoding 编程工具,并把它开源了出来。 哪吒的思路很简单, 那就是化繁为简, 做一款 Agent 优先的编程工具,需求以任务的方式下发给 AI Agent 去编写,人类程序员只需要管理进度,下发任务,Review 代码,管理 Git 就可以了, 同时针对不同的需求可以使用不同的 Agent, 并且可以在一个软件内在多个项目下快速切换,当有 Agent 需要人确认的时候,对应的项目会有通知,这样一来,就可以在一个软件内同时管理多个项目的开发进度,降低在各个软件切来切去的负担,提升编程的效率。 新的版本还在任务界面实时展示 Usage 信息,这样在 VibeCoding 的时候就能随时考虑省着点用还是站起来蹬了,目前内置了两套主题,分为白天和黑夜模式,UI 目前打磨的我还算满意一些。 L 站用 Claude Code 和 Codex 的朋友很多,希望哪吒也能帮助到大家。哪吒是完全开源的, 从 Github CI 构建,所有代码都公开欢迎审查。 开源地址如下: github.com GitHub - hanshuaikang/nezha: Run multiple AI coding agents across projects... Run multiple AI coding agents across projects (Claude Code and Codex) 5 个帖子 - 2 位参与者 阅读完整话题
IT之家 4 月 12 日消息,据长光卫星官方消息, “吉林一号”高分 03D55 星今日出征 ,长光卫星技术股份有限公司还在吉林省航天信息产业园举行了该星的出征仪式。 据介绍,“吉林一号”高分 03D55 星是长光卫星自研的高分辨率光学遥感卫星, 该星集成了轻量化结构设计、高度集成电子学系统、高分辨率超轻量化相机等创新技术 ,具有低成本、低功耗、低重量、高指标的特点。 高分 03 系列卫星作为长光卫星成熟的批产型号之一,目前已累计发射 64 颗,在轨运行状态稳定,支撑了“吉林一号”卫星工程的组网建设,为高清遥感数据获取及优质信息服务保障奠定基础。 IT之家注意到,此次出征的“吉林一号”高分 03D55 星将于近期在中国酒泉卫星发射中心择期发射。
36氪获悉,亚翔集成公告,预计2026年第一季度实现归属于上市公司股东的净利润为2.30亿元-2.65亿元,同比增长180.52%-223.21%。
近日,星元晶算正式发布面向2030年的先进异构集成高能效算力1nm芯片技术路线图,远期目标锁定在2030年前后实现年产10太瓦(TW)级等效太空算力,通过二维材料本征的高能效比与先进封装结合,旨在以更小的物理规模实现等效10太瓦级的算力输出,在能量产出比上实现对传统硅基工厂的代际超越。其中规划将大部分算力部署于太空算力节点,通过天地协同链路为全球设备提供实时支持。