Claude Cowork 上线 Live Artifacts — 你的 Dashboard 活了
发布动态
1Claude Cowork 上线 Live Artifacts — 你的 Dashboard 活了。
Anthropic 在 Cowork 中推出 Live Artifacts:Claude 创建的仪表盘、追踪器可以直接连接你的应用和文件,打开就是最新数据,不用每次重新问。这不是一次性的图表截图 — 而是持久化、自动刷新的数据面板。Claude 正在从"聊完就忘"的助手变成你桌面上常驻的生产力工具层。现在就去 Cowork 里试试你的第一个 Live Artifact。(7,389 likes | 457 RTs) 详情 →
2Kimi K2.6:万亿参数开源模型,声称编码能力比肩 Opus 4.6。
Moonshot AI 放出了 Kimi K2.6 — 1 万亿参数的开源 MoE 模型,宣称编码性能达到 Opus 4.6 水平,成本却低 76%。如果跑分经得起验证,这将是今年最强的开源模型。万亿参数听着吓人,但 MoE 架构意味着每次推理只激活一部分参数,所以不等于万亿级成本。开源社区终于有了一个真正能跟闭源前沿模型掰手腕的选手。(368 likes | 423 downloads) 详情 →
阿里 Qwen3.6-Max-Preview 加入闭源模型混战。 上周刚开源了 Qwen3.6-35B,这周 阿里 又掏出了闭源旗舰 Qwen3.6-Max-Preview — 开源闭源两手抓,两手都要硬。国产大模型的前沿竞争力在持续提升,值得跑一轮你自己的 benchmark 看看。(509 likes | 259 RTs) 详情 →
Google AI Studio 向付费用户全面开放模型阵容。 Google 让 AI Pro 和 Ultra 订阅用户无需 API Key 就能在 AI Studio 里直接使用完整模型列表,包括 Nano Banana Pro 和 Gemini Pro。门槛从"申请 API 权限"降到了"登录即用"。(515 likes | 56 RTs) 详情 →
开发者工具
Ollama 云端上线 Kimi K2.6 — 不用下载 1TB 权重了。 Ollama 当天就做了云端集成,想试万亿参数开源模型?不用折腾本地存储,直接在 Ollama 云上跑。搭配 Claude Code 或其他 Agent 框架即可开箱即用。(227 likes | 31 RTs) 详情 →
HuggingFace 把 100 万个 Spaces 变成了 Agent 可调用的工具。 HuggingFace 开放了 100 万个 Spaces 作为 AI Agent 的可调用函数 — 这是基础设施级别的变化。Agent 现在可以像调 API 一样调用任何 Space,HF 正在变成自主系统最大的工具注册中心。(866 likes | 109 RTs) 详情 →
Claude Code v2.1.116:大会话恢复速度快了 67%。 MCP 启动改为并行加载,VS Code 终端滚动更流畅。都是日常使用的体感优化 — 如果你每天用 Claude Code,现在就更新。(延伸阅读:Claude Code 子智能体实战指南) 详情 →
Live Artifacts 技术解析:Connectors 是怎么让 Dashboard 活起来的。 Felix Rieseberg 的开发者视角拆解了 Live Artifacts 背后的 Connectors 机制 — 哪些场景能用、怎么连接数据源、当前的能力边界。如果你想动手搭一个实时仪表盘,先看这篇。(447 likes | 14 RTs) 详情 →
技术实战
3Opus 4.7 悄悄贵了 — 同样内容多吃 1.46 倍 Token。
Simon Willison 用 Token 计数器测出了 Opus 4.7 的隐藏成本:文本消耗 Token 比 4.6 多 46%,图片最多多 3 倍。每 Token 单价没变,但总账单会涨。如果你正准备从 4.6 迁移到 4.7,先审计一下 Token 用量再决定。预算敏感的工作流可能暂时留在 4.6 更划算。(1,510 likes | 132 RTs) 详情 →
OpenAI 官方 Codex 入门指南 — 把它当平台来用。 OpenAI 官方转发的这份 Codex 完整教程信号很明确:Codex 不只是个 CLI 工具,而是一个平台。从安装到提示词到 Agent 配置,从零开始讲。还没试过 Codex 的,跟着这份指南走一遍。(2,272 likes | 257 RTs) 详情 →
GGUF、Unsloth、Q_4_M、IQ_4XL — 量化格式大全解析。 在 HuggingFace 上浏览模型时被各种量化格式搞晕?HuggingFace 出了一份清晰的科普,从格式类型到质量/速度权衡讲得明明白白。跑本地模型的必读参考。(1,322 likes | 146 RTs) 详情 →
研究前沿
一个跑分数字骗不了你 — 开源 vs 闭源的差距比你想的复杂。 Interconnects 深度拆解了为什么单一 benchmark 分数在比较开源和闭源模型时具有误导性 — 差距高度依赖任务类型、量化方式和评估方法。在你拿 Kimi K2.6 的跑分下结论之前,先读这篇。 详情 →
Noetik 用 Transformer 攻克癌症临床试验 95% 的失败率。 Noetik 的 Ron Alfa 和 Daniel Bear 把自回归 Transformer 用在了临床试验匹配上 — 把 95% 的失败率重新定义为一个 AI 可解的匹配问题。Latent Space 的深度访谈展示了 Transformer 在文本之外的硬核应用。 详情 →
行业洞察
4Anthropic 锁定亚马逊 5GW 算力 — 这是在备战什么级别的模型?
Anthropic 宣布与亚马逊扩大合作,确保最高 5 吉瓦的计算能力用于训练和部署 Claude。本季度末预计先到位近 1GW。5GW 是什么概念?大约能供 350 万户家庭用电。这种规模的算力储备远超当前模型需求,Anthropic 显然在为下一代模型做准备。(6,472 likes | 470 RTs) 详情 →
LeCun 再放狠话:生成式 AI 就是条死路。 Yann LeCun 又一次公开抨击自回归生成模型 — 他认为这个方向从根本上需要不同的架构。不管你同不同意,他的论证是当前 scaling 共识最有力的反面论述。而讽刺的是,今天发布的万亿参数模型恰恰是双方都会拿来证明自己正确的证据。(3,793 likes | 651 RTs) 详情 →
Anthropic 启动 STEM Fellows 计划,招募领域科学家。 Anthropic 正在招募科学和工程领域的专家与研究团队并肩工作。信号很清楚:下一代 Claude 的提升将由领域专业知识驱动,而不仅仅靠堆参数。(1,273 likes | 126 RTs) 详情 →
Atlassian 悄悄开启默认数据收集用于 AI 训练。 Atlassian 默默把 AI 训练数据收集设为了默认开启 — 你的每张 Jira 卡片、每页 Confluence 文档现在都是训练数据,除非你主动关闭。用 Atlassian 的企业团队,现在就去检查你的数据共享设置。(476 likes | 111 RTs) 详情 →
中国科技公司让员工训练自己的 AI 替身 — 员工开始反抗了。 中国企业要求员工创建自己的 AI 数字分身,GitHub 上的"Colleague Skill"项目引发了广泛讨论。工人们的抵制是全球劳动力自动化紧张关系的预演 — 你的行业迟早也会面对。 详情 →
值得一试
Claude Code 黑客马拉松获奖项目 — Agent 原生开发长什么样。 Anthropic 公布了 "Built with Opus 4.6" Claude Code 黑客马拉松获奖名单。这些不是 demo 级别的玩具 — 是顶尖开发者用 Agent 工作流解决真实问题的实战案例。想了解 Agent 原生开发模式怎么落地的,研究这些项目比看文档有用。 详情 →
Qwopus-GLM-18B:社区跨架构模型合并实验。 社区把 Qwen 和 GLM 架构合并成了一个 18B 的 GGUF 模型,在 HuggingFace 上已有近 3K 下载。开源社区正在快速探索跨架构模型合并的可能性 — 这种玩法在几个月前还不可想象。(124 likes | 3.0K downloads) 详情 →
模型小课堂
混合专家模型(Mixture of Experts, MoE):Kimi K2.6 塞了 1 万亿个参数,但跑起来并不比小得多的模型贵多少 — 秘密就在 MoE 架构。想象一家有 100 个专家的咨询公司,每个项目只派 8 个最相关的专家去干活,其余的人不参与也不收费。MoE 就是这个原理 — 模型虽然总参数巨大,但每次推理只激活其中一小部分(比如 10-20%)。所以"1 万亿参数"不等于"1 万亿级成本",理解这一点才能正确评估 Kimi K2.6 这类模型的性价比。
快讯
- HuggingFace 东京办公室开张:认真押注日本开源 AI 社区。(2,100 likes | 301 RTs) 链接
- Deezer:每日上传歌曲的 44% 已是 AI 生成:第一个主流平台给出了 AI 内容泛滥的硬数据。(271 likes | 260 RTs) 链接
- GitHub 假 Star 经济曝光:用 Star 数量选开源工具的要小心了。(729 likes | 354 RTs) 链接
- Recursive Superintelligence 成立 4 个月融资 $5 亿,估值 $40 亿:GV 领投,没有产品,纯靠团队和方向论文。AI 融资的疯狂程度又刷新了。(41 likes) 链接
今日精选
LeCun 的"死胡同"论 — 为什么这次值得认真听:LeCun 反复强调自回归生成是条死路,这不是学术圈的抬杠 — 这是当前 scaling 共识最有体系的反面论述。他的核心观点是:堆参数和训练数据的路线会撞墙,AI 需要从根本上学会理解世界模型,而不是预测下一个 token。有意思的是,今天 Kimi K2.6 用万亿参数证明开源也能逼近闭源前沿,这恰恰是双方都会拿来说事的证据 — 支持者说"看,scaling 还在涨",LeCun 则会说"看,你堆了万亿参数也还是在做 token 预测"。不管你站哪边,在所有人都在谈论更大的模型时,保留一个"这条路可能根本就走错了"的思考框架,是开发者和投资者都需要的独立判断力。(3,793 likes | 651 RTs) 详情 →
下期见 ✌️
|