智能助手网
标签聚合 顶级

/tag/顶级

linux.do · 2026-04-17 17:38:30+08:00 · tech

你是一位就职于苹果公司的顶级前端工程师。请创建一个包含CSS和JavaScript的HTML文件,用于生成动画天气卡片。卡片需要以不同动画效果直观展示以下天气状况: 风力(如:飘动的云朵、摇曳的树木或风线) 降雨(如:下落的雨滴、形成的水洼) 晴天(如:闪耀的光线、明亮的背景) 下雪(如:飘落的雪花、积雪效果) 所有天气卡片需要并排显示,背景采用深色设计。所有HTML、CSS和JavaScript代码都需包含在这个单一文件中。JavaScript部分需包含切换不同天气状态的功能(例如通过函数或按钮组),以演示每种天气的动画效果。 将前端显示效果优化得更精致流畅,打造出价值20元/月的精品天气应用既视感。 需要把上下文开大一点,写完大约10K+。一次写完的结果,没修改。 5060+DDR4,大概跑起来18tokens/s。 qwen3-6-35b-a3b-q4-k-m-v1.html.zip (8.7 KB) 5 个帖子 - 4 位参与者 阅读完整话题

linux.do · 2026-04-16 15:49:43+08:00 · tech

苏超联赛从去年开始到今年第二届,从各个层面看来,这都非常像一个顶级好学生的样子。 他第一去年说自己是 文旅项目 ,降低外界的期待。 主要观众参与弄得非常好,让老百姓喜欢看,(非常重要的一步)而不是搞一堆伪球迷,而是真正的本地人(可能连球迷都算不上) 组织上不用说了,好几个队伍并不在意职业选手,排上了一些业余的爱好者,体育老师。 避免了造假+花钱买顶级球员(在我看来基本也属于成绩造假) 总之,这个联赛我如果不细细去研究,本身给我的感觉就是一个非常老实、低调的好学生的样子,看上去有非常好的未来。任何事情只要这样做,基本都不会得到很差的结果。 1 个帖子 - 1 位参与者 阅读完整话题

www.ithome.com · 2026-04-15 10:24:14+08:00 · tech

IT之家 4 月 15 日消息,百度文心大模型团队今日宣布正式开源文生图模型 ERNIE-Image。据该团队介绍,该模型参数量仅 8B,24GB 显存的消费级显卡即可生成媲美顶级商业模型的超真实、复杂图像。 当前,ERNIE-Image 的模型权重、推理代码已在 Hugging Face 全部开源,遵循 Apache2.0 协议,已经支持并上线 ComfyUI Workflow,同时联合 Unsloth 推出 GGUF 量化方案。 IT之家附官方详细介绍如下: ERNIE-Image 是由百度文心大模型团队开发的一款开源文生图模型。它基于单流 Diffusion Transformer(DiT)架构,并配有一个轻量级 Prompt Enhancer,用于将简短输入扩展为更丰富、更结构化的描述。在仅有 8B DiT 参数规模的前提下,达到了开源文生图模型中的领先水平。 整体来看,它在复杂指令跟随、文字渲染和结构化图像生成方面表现突出,适合海报、漫画、多面板布局等需要较强控制能力的内容生产场景。同时,模型也覆盖了从写实摄影、设计感图像到风格化表达在内的多种视觉风格。 经过电影网、凤凰网、蜻蜓 FM、瑛麒动漫、蜂鸟 AI 等 30 多个知名企业、社区和创作平台,20 位艺术创作设计师为期两周的内测与反馈,今天,我们正式开源 ERNIE-Image 模型,参数量仅 8B,24GB 显存的消费级显卡即可生成媲美顶级商业模型的超真实、复杂图像。 01.重新定义消费级开源文生图边界 在指令遵循、文字渲染能力上,ERNIE-Image 从容驾驭复杂细节约束、多主体关系和知识密集型描述;更在中英日韩多语言生成中实现了字形清晰与笔画精准,无论是海报排版、学术图表的严谨逻辑,还是漫画分镜的叙事张力,皆能保持完美的布局组织与画面秩序,这两项能力在开源模型中均排名第一。 以小搏大,消费级可跑的架构设计,仅 8B 参数在多项 benchmark 上全面超越同类开源模型,媲美商用模型诸如 NanoBanana 系列。极致的参数效率优化,将高精度生成的门槛降至 24GB VRAM 的消费级 GPU 即可流畅运行,显著降低研究与部署门槛,打造每一位创作者触手可及的开源工具。 在风格表现上,ERNIE-Image 风格覆盖广,创意边界宽,支持写实摄影与风格化视觉表达,包括动漫、二次元、电影感胶片、分镜截图、老照片等多元风格,尤其在角色一致性和情绪表达上表现突出。 当前,ERNIE-Image 的模型权重、推理代码已在 Hugging Face 全部开源,遵循 Apache2.0 协议,已经支持并上线 ComfyUI Workflow,同时联合 Unsloth 推出 GGUF 量化方案,欢迎大家使用体验,尽情创作! 02.国际基准通杀,开源全面 SOTA 我们在多个公开的国际基准上对 ERNIE-Image 进行了全面评估,包括用于通用图像生成的 GenEval、OneIG(中英文),以及用于复杂指令与文字渲染的 LongText-Bench。 评估结果表明,在所有开源模型中,ERNIE-Image 的综合表现处于领先位置,展现出其在通用图像生成、双语理解、复杂指令执行等各类任务中的强大能力。尤为突出的是,在文字渲染能力上,ERNIE-Image 取得了开源模型的 SOTA 效果,与 NanoBanana 等商业闭源模型同处第一梯队。 03.用文字创造画面 Showtime

linux.do · 2026-04-14 18:44:38+08:00 · tech

因为自己贫瘠的表达能力,上个帖子因为措辞不太准确导致带有一定的倾向性被删除了,认真回复的佬们实在对不起了。 重新组织了下语言,想把这个观点说清楚。 国产开源模型发布时,习惯性拿顶级(或者次顶级,比如qwen 3.6 plus对标的是Opus 4.5而不是4.6)商业闭源模型来做对比,这本身其实并不奇怪,因为顶级模型本来就是它们追赶的目标,发布时拿最强的对手来展示进步幅度,也是一种很常见的表达方式。 问题不在于“和顶级比”,而在于很多人会把 某些benchmark接近 直接理解成 整体能力已经追平 ,这里面其实有很大的偏差。 (注意我不在这里讨论关于benchmark过拟合等问题,这个不是我要讨论的范围。) benchmark接近,通常只能说明模型在特定方向上已经缩小了差距,但这并不意味着在真实使用里,特别是大任务,复杂任务,需要长时间运行的agent等更加极致的场景也已经和顶级闭源模型处在同一水平。 局部接近,不等于整体追平;单项的进步,也不等于真实体验没有差距。 当然,这里也不能否认有些厂商在宣传上会用一些比较擦边的方式,让人产生“已经差不多了”甚至“超越”的联想。再加上一些自媒体的放大,最后很容易把大家的预期拉得过高。等真正上手做复杂任务时,发现效果并没有想象中那么接近,就又会从一个极端滑到另一个极端。 我想说明的点(上一篇其实也是,但是因为表达能力不够太绕了)其实就这几点: 国产开源模型和顶级闭源商业模型存在差距,这个差距是客观存在的; 拿顶级模型做对标没有问题,因为顶级就是目标; 但不能因为几个榜单看起来接近,就默认已经追平,更不能进一步幻想 一个新开源模型出来就立刻能和当前最强闭源打平甚至反超 。 正视差距的同时,也对国产模型更加的包容,期待他们的不断进步; 更适合的态度是什么呢,我这里引用一些之前帖子佬的评论: “承认它们这几年进步很快,也承认它们和顶级闭源之间仍然有现实差距。不要因为不靠谱的宣传口径就过度乐观,也不会因为还有差距就直接全盘否定。讨论回到真实场景、真实任务和真实体验,结论通常会更靠谱一些。” “不是所有场景都需要顶级模型,一些场景用国产模型更经济” 总之,就是不要指望一口气登天,但是希望不断缩小差距。 10 个帖子 - 9 位参与者 阅读完整话题