ShortNews.dev 2025-12-23
给软件开发者准备的优质简报,每日阅读 10分钟。
Hacker News
Fabrice Bellard Releases MicroQuickJS
🔼 427 | 💬 138
MicroQuickJS:专为嵌入式系统设计的轻量级JavaScript引擎
- 专为嵌入式系统优化,最低仅需10KB RAM即可运行JavaScript程序,整个引擎占用约100KB ROM(ARM Thumb-2代码),性能与QuickJS相当
- 严格遵循ES5兼容的子集,默认启用严格模式,禁用
with语句、数组空位、直接eval等易错或低效语法 - 采用追踪垃圾回收机制,虚拟机不依赖CPU栈,字符串内部以UTF-8存储,显著减少内存占用
- 提供完整的REPL工具
mqjs,支持交互式执行、字节码编译输出、内存限制调试及跨平台(32/64位)字节码生成 - 标准库通过定制工具编译为ROM存储的C结构,几乎不占用RAM且实例化极快,支持数学库和软浮点模拟
Instant database clones with PostgreSQL 18
🔼 321 | 💬 131
PostgreSQL 18 即时数据库克隆:原理与实战
- PostgreSQL 18 引入
file_copy_method = clone配置,结合支持写时复制的现代文件系统(如 XFS、ZFS、APFS),可在数毫秒内完成数据库克隆,且不占用额外磁盘空间。 - 克隆策略包括
WAL_LOG(默认,通过 WAL 逐块复制避免 I/O 峰值但速度慢)和FILE_COPY(文件级操作,结合clone方法实现高速克隆)。 - 实测克隆 6GB 数据库时,
WAL_LOG耗时 67 秒,而FILE_COPY+clone仅需 212 毫秒,效率提升超 300 倍。 - 克隆后数据库与源库共享物理数据块,写入时会触发写时复制(如 UPDATE 操作会复制相关页),导致部分数据块分离,但未修改部分仍共享存储。
- 主要限制包括:克隆期间源数据库必须无活跃连接、仅支持同一文件系统内操作,且云托管服务(如 AWS RDS)通常无法配置此功能。
We replaced H.264 streaming with JPEG screenshots (and it worked better)
🔼 163 | 💬 112
大规模部署15年前的屏幕共享技术,效果反而更好
- 企业网络严格限制传输协议,仅允许HTTPS/443端口,导致基于UDP的WebRTC及自定义端口的方案无法部署
- 自研的60fps H.264硬件加速视频流在网络延迟超过200ms时出现严重缓冲累积,用户画面延迟高达45秒
- 仅发送关键帧的优化尝试因底层Moonlight协议依赖完整帧序列而失败,最终仅能传输单帧后中断
- 通过HTTP轮询JPEG截屏的方案在弱网下表现优异:每帧独立完整、无解码状态依赖,且单帧尺寸(100-150KB)小于H.264关键帧
- 实现自适应切换机制:低延迟时启用H.264视频流,高延迟时自动降级为JPEG轮询,并通过WebSocket保持输入事件实时传输
- 为兼容Ubuntu系统,自行编译支持JPEG输出的
grim截图工具,确保跨环境部署能力
Adobe Photoshop 1.0 Source Code (1990)
🔼 376 | 💬 109
Adobe Photoshop 源代码的历史、发布与架构解析
- Photoshop 最初由 Thomas Knoll 于 1987 年开发为个人图像处理工具“Display”,后与兄弟 John Knoll 合作完善,1988 年更名为“Photoshop”并寻求商业化
- Adobe 在艺术总监 Russell Brown 的建议下于 1989 年 4 月授权发行增强版,1990 年正式推出 Photoshop 1.0,十年内销量超过 300 万份
- 首版 Photoshop 主要采用 Pascal 编写,关键性能部分使用 Motorola 68000 汇编语言,开发团队规模极小(版本 1.0 仅一名工程师)
- 计算机历史博物馆经 Adobe 授权公开 1990 年 Photoshop 1.0.1 源代码,共 179 个文件、约 12.8 万行代码,75% 为 Pascal,15% 为汇编语言,其余为数据
- 代码架构设计清晰,接口与抽象分离一致,命名规范、可读性极高,虽缺乏注释但易于理解,并保留了对早期扫描仪和图形格式的支持痕迹
- 源代码仅允许非商业使用,禁止网络二次分发,同时提供 1990 年版用户指南和教程的访问链接
Test, don't just verify
🔼 156 | 💬 106
测试,而非(仅)验证:形式化验证与测试的协同作用
- AI正在推动形式化验证走向主流,AI辅助的机械证明公司获得高额估值,研究人员对AI辅助证明充满希望,但多数软件缺乏形式化规约,使验证难以进行。
- 形式化验证能证明无缺陷,如CompCert C编译器在测试中发现GCC和Clang的数百个错误,但自身仅有个别未验证部分的错误,突显其价值。
- 自动形式化(Autoformalization)是验证过程中的薄弱环节,属于可信计算基(TCB),可能引入规约与形式化模型之间的不一致性,如声音性或完备性问题。
- 证明助手(如Lean)使用低效的数据编码(如Peano数),导致运行缓慢,需通过提取(extraction)到高效语言(如OCaml)或扩大TCB来优化,但这可能牺牲部分正确性保证。
- 随机测试与形式化验证互补:测试能快速证伪错误定理(如通过QuickChick),而验证则证明正确性;验证引导开发(VGD)结合两者,用慢速验证实现参考模型,再通过测试确保生产系统符合,实现既正确又高效的解决方案。
Local AI is driving the biggest change in laptops in decades
🔼 124 | 💬 96
本地运行AI模型:笔记本电脑的新时代开启
- 当前多数笔记本电脑硬件无法本地运行大型AI模型,老旧设备缺乏NPU或专用GPU,内存不足;即使新款高端设备也难以处理万亿参数模型,仍需依赖数据中心。
- NPU专为AI矩阵运算设计,比GPU更节能,支持低精度算术,适合移动设备。高通、AMD、英特尔展开算力竞争,NPU性能从10 TOPS跃升至350 TOPS,提升显著。
- 传统PC分离式内存架构(系统内存与显存独立)阻碍AI模型加载,统一内存架构(如AMD Ryzen AI Max)实现CPU、GPU、NPU共享内存,提升效率与功耗管理。
- 芯片设计需平衡CPU、GPU、NPU的协作与功耗,兼顾传统任务性能与AI算力,尤其注重笔记本电脑的散热、续航与低功耗需求。
- 微软通过Copilot+ PC和Windows AI Foundry Local优化本地AI硬件资源分配,集成数千种开源模型,支持知识检索、语义搜索等高级定制功能。
- 硬件演进与软件优化正缩小本地与云端AI性能差距,推动PC架构革新,目标是在消费级设备上实现AGI(人工通用智能)。
The Illustrated Transformer
🔼 467 | 💬 85
Transformer模型图解:架构与核心机制
- Transformer通过注意力机制提升训练效率,其并行化设计在特定机器翻译任务上优于谷歌神经机器翻译模型,且被推荐用于Cloud TPU
- 模型由编码器和解码器堆栈构成,每个编码器含自注意力层和前馈神经网络,前馈层可并行处理各位置输入
- 自注意力机制通过查询、键、值向量计算评分,使编码当前词汇时能整合序列中相关词汇的语义信息(如“it”关联“animal”)
- 多头注意力使用多组独立初始化的查询/键/值矩阵,扩展模型聚焦不同位置的能力并形成多重表征子空间
- 位置编码通过正弦/余弦函数生成向量并叠加到词嵌入中,为模型提供词汇顺序信息且支持处理超长序列
Font with Built-In Syntax Highlighting (2024)
🔼 129 | 💬 27
内建语法高亮字体的创新实现
- 通过修改开源字体 Monaspace Krypton,利用 OpenType 的 COLR 表实现多色字符,并借助上下文替代功能自动识别和替换代码语法结构
- 字体包含 8 种预设颜色,为字母、数字及符号创建了多个彩色变体,通过链式替换规则匹配 JavaScript 关键字和 CSS/HTML 语法模式
- 完全无需 JavaScript 或外部库,代码仅需使用标准
<pre>和<code>标签即可获得高亮效果,保持 HTML 源码整洁 - 在支持 OpenType 的环境中均可使用(包括主流浏览器和 InDesign),突破性地实现了
<textarea>和<input>元素的实时语法高亮 - 可通过 CSS 的
override-colors属性自定义颜色主题,但添加新语言支持或修改规则需要直接编辑字体文件,需字体设计专业知识
GLM-4.7: Advancing the Coding Capability
🔼 406 | 💬 221
GLM-4.7:全面提升编程能力
- 核心编程能力显著增强,在SWE-bench(73.8%,+5.8%)、SWE-bench多语言版(66.7%,+12.9%)和Terminal Bench 2.0(41%,+16.5%)等基准测试中表现突出,支持主流智能体框架的复杂任务
- 界面生成质量大幅提升,能够生成更简洁现代的网页和布局更精准、视觉效果更佳的幻灯片
- 工具使用能力获得重大改进,在τ²-Bench和BrowseComp等网络浏览基准测试中表现明显优于前代
- 复杂推理能力实现质的飞跃,在HLE(人类终极考试)基准测试中达到42.8%(提升12.4%),数学和推理能力显著增强
- 引入三种思考模式:交错思考(每次响应前思考)、保留思考(跨对话复用推理)和回合级思考(按需启用思考),提升复杂任务的稳定性和可控性
It's Always TCP_NODELAY
🔼 438 | 💬 159
排查分布式系统延迟问题:首选启用TCP_NODELAY
- 作者在调试分布式系统延迟问题时,首先检查是否启用了TCP_NODELAY选项,禁用Nagle算法,这通常能快速解决延迟问题。
- Nagle算法于1984年提出,旨在通过合并小数据包来减少TCP头部的开销,避免发送大量单字节数据包导致的4000%额外开销。
- Nagle算法与延迟确认(Delayed ACK)机制相互作用会导致性能问题:Nagle阻止发送数据直到收到ACK,而延迟ACK则推迟发送ACK直到有数据回复,增加了延迟。
- 现代分布式系统很少发送单字节数据包,且应用层已有效处理消息合并,因此Nagle算法在当今数据中心环境中可能不再必要。
- 作者建议在构建延迟敏感的分布式系统时,默认启用TCP_NODELAY,并认为这应是现代系统的标准配置,无需担心性能损失。
Meta is using the Linux scheduler designed for Valve's Steam Deck on its servers
🔼 318 | 💬 151
Meta将Valve Steam Deck的Linux调度器用于其服务器
- Meta正在其服务器上部署SCX-LAVD调度器,该调度器最初由Igalia公司为Valve的Steam Deck手持设备开发
- SCX-LAVD在Steam Deck上表现出色,性能与EEVDF调度器相当或更优,并被CachyOS等Linux游戏系统采用
- Meta发现这一调度器能良好适配其超大规模服务器,有效处理不同CPU和内存配置下的负载均衡
- Meta工程师在2025年Linux Plumbers会议上以“如何让Steam Deck调度器在大型服务器上工作”为题展示此应用
- Meta计划将SCX-LAVD作为其服务器集群的默认调度器,适用于无需专用调度器的通用硬件和用例场景
GitHub Trending
makeplane / plane
⭐ 41004 | 🔀 3030 | TypeScript 74.5%, Python 21.4%, HTML 2.9%
Plane:面向所有团队的现代化开源项目管理工具
- Plane 是一款开源项目管理工具,专注于跟踪问题、运行周期(cycles)和管理产品路线图,同时避免了工具自身的管理复杂性
- 提供 Plane Cloud 云服务快速注册和自托管两种部署方式,支持 Docker 和 Kubernetes 安装,管理员可通过 God 模式配置实例设置
- 核心功能包括工作项管理(支持富文本编辑和文件上传)、周期进度跟踪、模块化项目管理、自定义视图筛选、AI 增强的页面文档和实时分析功能
- 基于 React Router、Django 和 Node.js 技术栈构建,拥有活跃的社区支持,包括 GitHub Discussions 和 Discord 交流渠道
- 采用 AGPLv3 许可证,鼓励用户通过提交问题报告、改进文档、分享用例和参与功能讨论等方式贡献项目
xerrors / Yuxi-Know
⭐ 2822 | 🔀 359 | Python 47.4%, Vue 40.9%, JavaScript 9.1%
语析 - 大模型驱动的知识库与知识图谱智能体开发平台
- 基于 LangGraph v1 + Vue.js + FastAPI + LightRAG 架构构建,融合 RAG 知识库与知识图谱技术
- 提供全套智能体开发套件,采用 MIT 开源协议,技术栈友好,适合基于此项目二次开发
- 最新 v0.4.0-beta 版本新增多模态图片支持、文件上传中间件和知识库评估功能
- 新增从知识库文件生成思维导图和示例问题的功能,并引入 DeepAgents 智能体进行深度分析
- 优化图谱可视化方式,统一基于 G6 的可视化,并支持上传带属性的图谱文件
vllm-project / vllm-omni
⭐ 1381 | 🔀 186 | Python 98.5%, Shell 1.4%
vLLM-Omni:为全模态模型提供便捷、快速且经济的推理服务
- vLLM-Omni 是 vLLM 框架的扩展,旨在支持全模态模型(包括文本、图像、视频和音频)的推理和服务
- 框架支持非自回归架构,如扩散变换器(DiT),并具备异构输出能力,可处理多模态生成任务
- 通过高效的 KV 缓存管理、流水线阶段执行重叠和动态资源分配,实现高吞吐量和低延迟性能
- 提供灵活的异构流水线抽象、与 Hugging Face 模型的集成支持,以及分布式推理和流式输出功能
- 支持多种热门开源模型(如 Qwen-Omni 和 Qwen-Image),并提供 OpenAI 兼容的 API 服务接口
yichuan-w / LEANN
⭐ 5389 | 🔀 542 | Python 99.1%
LEANN:世界上最小的向量索引,用97%的存储实现高效RAG
- LEANN是一款创新的向量数据库,通过基于图的选择性重计算技术,在保持相同搜索精度的前提下,比传统向量数据库节省97%的存储空间
- 支持多种数据源的语义搜索,包括个人文档(PDF/TXT/MD)、邮件、浏览器历史、微信/iMessage聊天记录、ChatGPT/Claude对话记录,以及通过MCP协议的实时数据(Slack/Twitter)
- 提供完整的隐私保护方案,所有数据处理均在本地完成,无需云端传输,支持多种LLM后端(HuggingFace、Ollama、Anthropic、OpenAI兼容API)
- 具备灵活的配置选项,支持元数据过滤、精确文本搜索(grep模式)、AST感知的代码分块等高级功能,且提供详细的配置指南和故障排除方案
- 采用模块化架构,支持HNSW和DiskANN两种后端,配备命令行工具和MCP服务器集成,可轻松实现代码库语义搜索和开发工作流优化
safety-research / bloom
⭐ 514 | 🔀 77 | Python 100.0%
🌱🌸 Bloom:自动化评估大语言模型行为的开源工具
- Bloom 是一个基于配置文件的评估系统,用户通过定义“种子”配置(包括目标行为、示例对话和交互类型)来生成定制化的测试场景,以探测模型在特定行为(如阿谀奉承、政治偏见或自我维护)上的表现
- 评估流程分为四个核心阶段:理解阶段分析行为机制和示例,构思阶段生成基础场景及其变体,执行阶段与目标模型进行对话或工具调用交互,评判阶段对行为进行打分并执行跨场景元分析
- 通过 LiteLLM 支持多模型服务商(包括 OpenAI、Anthropic、OpenRouter 和 Amazon Bedrock),用户可配置 API 密钥并自定义模型,实现统一的调用接口
- 提供灵活的运行方式:支持本地完整流程调试、分阶段执行、使用 Weights & Biases 进行大规模实验,以及通过断点续跑功能从指定阶段恢复任务
- 集成交互式查看器,可本地启动 Web 服务浏览生成的对话记录、查看格式化对话流与评分依据,并支持搜索和过滤功能
stan-smith / FossFLOW
⭐ 14467 | 🔀 935 | TypeScript 88.6%, Shell 4.1%, JavaScript 2.4%, Python 2.1%, MDX 1.3%, ...
FossFLOW - 开源等距绘图工具
- 基于React和Isoflow库(已分叉并发布至NPM为fossflow)构建的开源渐进式网页应用,支持完全在浏览器中离线运行
- 提供完整的8语言界面支持(英语、简体中文、西班牙语、葡萄牙语、法语、印地语、孟加拉语、俄语),包含自动语言检测和记忆功能
- 支持点击和拖拽两种连接器创建模式,可导入自定义图标(PNG/JPG/SVG格式)并自动缩放,可选择3D等距或2D平面显示
- 默认启用服务器存储功能(Docker部署时),支持图表持久化保存和多设备访问,同时提供本地会话存储和JSON文件导入导出
- 包含自动保存(每5秒)、可配置快捷键、多种平移控制方式以及连接箭头显示切换等交互增强特性
vendure-ecommerce / vendure
⭐ 7053 | 🔀 1247 | TypeScript 94.8%, HTML 3.4%, SCSS 1.1%
Vendure:开源无头商务平台
- 基于 TypeScript 和 Node.js 构建,专为企业级数字商务应用提供高可扩展性和可维护性基础
- 具备高度可定制的插件架构,允许灵活调整商务解决方案的每个方面
- 采用现代技术栈(NestJS、GraphQL),支持 API 优先的无头架构,实现跨前端无缝多渠道商务
- 提供丰富的开箱即用功能,包括可定制的管理面板和商务框架,适用于 B2B、多供应商市场及 D2C 等多种场景
- 遵循 GPLv3 开源协议,同时提供商业许可(VCL)选项,全球数千团队信赖使用
open-webui / open-webui
⭐ 118627 | 🔀 16713 | Svelte 31.2%, Python 30.8%, JavaScript 30.0%, TypeScript 4.9%, CSS 2.8%
Open WebUI:功能全面的自托管AI平台
- 支持完全离线运行,可扩展且用户友好,兼容Ollama及OpenAI类API,内置RAG推理引擎
- 提供多种部署方式,包括Docker、Kubernetes及Python pip安装,支持GPU加速和离线环境配置
- 具备丰富的功能模块,包括多模型对话、本地RAG集成、图像生成编辑、语音视频通话及Markdown/LaTeX支持
- 支持企业级认证与权限管理,含LDAP/AD集成、SCIM 2.0自动配置及多语言界面
- 提供高级存储选项,支持SQLite、PostgreSQL及云存储后端,并具备生产级可观测性和水平扩展能力
davila7 / claude-code-templates
⭐ 13293 | 🔀 1167 | Python 53.0%, JavaScript 24.8%, HTML 9.6%, TeX 8.3%, CSS 2.1%, ...
Claude Code Templates:Anthropic Claude Code 的增强配置与工具集
- 提供超过 100 个即用型配置组件,包括 AI 代理、自定义命令、设置、钩子及外部集成(MCP),用于优化 Claude Code 的开发流程
- 包含多种实用工具,如实时会话监控、性能分析、健康检查及插件管理仪表板,支持本地和远程安全访问
- 支持通过 npm 快速安装,可通过交互式界面或命令行参数灵活安装特定组件或完整开发环境
- 项目由 Z.AI 赞助并提供 GLM CODING PLAN 订阅服务,月费 3 美元起,无缝集成 Claude Code 及其他 10 余种 AI 编程工具
- 整合多个社区及官方资源,保留所有组件的原始许可证与作者归属,涵盖科学、企业及通用开发等多个领域
Indie Hacker
Distribution ideas?
博物馆导览应用”Museums Made Easy”的用户获取建议
- 应用”Museums Made Easy”旨在提供简单有趣、面向大众的博物馆语音导览,打破仅面向艺术专家的传统
- 创作者在独立开发者社区公开征求用户获取渠道的具体建议
- 评论建议利用Reddit的r/travel和r/solotravel板块,因用户常在此寻求避免”博物馆疲劳”的方法
- 可分享特定博物馆的”必看Top 5”列表作为软启动策略,吸引目标用户
- 应用核心优势是让博物馆体验更轻松愉快,解决普通游客的常见痛点
How I Finally Made Reddit Work for My SaaS (After 2 Months of Failure)
如何让Reddit为我的SaaS带来稳定成效(历经两个月失败后的经验)
- 初期失败源于三个关键错误:在评论数超100的热门帖子中回复易被淹没、手动筛选帖子耗时低效、评论语气过于营销化导致用户反感
- 核心策略转变是专注评论数为0-5的新帖,这类帖子竞争少、回复可见度高,且若后续热度上升,早期评论能获得持续曝光
- 使用自研工具批量抓取并筛选多个子版块的帖子,将每日研究时间从40分钟压缩至5分钟,极大提升效率
- 彻底改变评论风格,采用自然口语化表达(短句、幽默、承认知识盲区),以真实经历分享替代营销话术,显著提升用户互动
- 第三个月Reddit贡献23%的注册量,虽非最大渠道但用户粘性最高,每日仅需投入30分钟即可获得稳定回报
Zero to One (hundred dollars): How a private utility reached a $134 total revenue
从零到一百美元:个人工具如何实现134美元总收入
- 项目最初是开发者自用的内部链接管理工具,并非作为SaaS产品设计,初期增长停滞
- 关键转折来自卸载调查反馈:用户需要的是公开短链接服务,注重品牌化链接和分享功能,而非私人工具
- 通过非规模化手动服务实现突破:亲自帮助用户配置品牌域名和DNS,建立信任并转化前5名付费客户
- 核心价值调整为品牌权威(定制域名格式)和 actionable 数据分析(地理与设备数据),而非单纯缩短链接
- 当前总营收134美元,月经常性收入约35美元,主要增长渠道为自然注册和主动跟进,下一步将自动化域名设置流程
Tech and Trends: AI in DevOps Transformation: Trends and Predictions for 2026
2026年DevOps中人工智能应用的核心趋势与预测
- 人工智能驱动的自动化将成为DevOps实践的基础,企业将利用AI实现流程自动化、预测分析和智能监控,而不再仅作为附加功能
- 预测性DevOps将成为主流,通过机器学习模型预测管道中断、部署风险、基础设施峰值和安全异常,将平均修复时间(MTTR)降低40%
- 智能自动化将取代基于脚本的管道,实现自愈CI/CD流程、AI辅助代码审查、自主基础设施配置和政策驱动的合规自动化
- AI驱动的安全将重新定义DevSecOps,通过实时漏洞扫描、智能密钥管理、代码提交风险评分和自动化合规映射,使安全防护更具预测性
- 基础设施管理将实现”零接触”操作,通过自主资源配置、实时优化、自动纠正错误配置和智能成本管理,大幅降低运营开销
- 开发人员将高度依赖AI助手,实现AI驱动的测试用例生成、自动化文档、实时调试建议和部署策略推荐,提升开发效率和质量
Launching Cartesiano.ai
Cartesiano.ai:追踪与优化品牌在大型语言模型中的呈现
- Cartesiano.ai 旨在帮助品牌追踪和优化其在各类大型语言模型(如 ChatGPT、Gemini 等)中的可见度,专注于为个人和小团队提供简单易用且功能强大的工具
- 创始人 Henrique 受到 Tally 成功案例的启发,认为市场竞争并非障碍,而是验证需求存在的信号,关键在于执行力和用户体验
- 该服务通过模拟用户可能的提问(提示词),分析品牌在 LLM 回答中的提及频率、排名、情感倾向,并自动识别潜在竞争对手
- 技术栈采用 Ruby on Rails 8 构建用户界面,Python + FastAPI + LiteLLM 处理 LLM 交互,PostgreSQL 存储数据,并由 Hetzner 提供服务器托管
- 目前产品处于早期阶段,月收入为 0 美元,但已确认市场需求存在,并致力于通过有机增长和社区建设实现发展
Don't miss what's next. Subscribe to shortnews.dev: