Payload CMS:使用 OpenAPI 构建高效的带 where 子句查询

在现代Web应用程序的开发中,数据的高效管理和检索是构建强大功能的核心。Payload CMS以其卓越的灵活性和开发者友好的特性,成为了许多项目的理想选择。然而,当我们需要对API查询进行精细控制,例如根据特定条件过滤数据时,where子句的重要性便凸显出来。本文将引导您深入了解如何在Payload CMS中,巧妙地结合payload-oapi插件与where子句,构建出既强大又灵活的OpenAPI查询,从而精确地定位和检索您所需的数据。 解锁API潜力:安装 OpenAPI 插件 想象一下,您正在构建一个复杂的应用程序,需要清晰的API文档来指导前端开发者或外部服务如何与您的系统交互,同时还需要强大的数据过滤能力来满足各种业务逻辑。第一步,就像为您的Payload CMS项目安装一个全新的、功能强大的工具一样,我们需要引入payload-oapi插件。 这个插件的神奇之处在于,它能够自动为您的Payload CMS集合(Collections)、全局数据(Globals)、自定义端点(Custom Endpoints)以及身份验证(Authentication)生成符合OpenAPI 3.0规范的文档。这意味着您无需手动编写繁琐的API文档,插件会自动替您完成,大大提高了开发效率。 要安装这个强大的工具,您只需在项目终端中运行以下命令: pnpm add payload-oapi 当然,如果您更偏爱其他包管理器,如npm或yarn,也可以使用相应的命令进行安装。 配置插件:让 OpenAPI 融入您的 Payload CMS 安装好工具后,下一步就是将其正确地整合到您的Payload CMS配置中。这就像告诉您的Payload CMS项目:“嘿,我希望你现在能够使用这个新的OpenAPI功能!”您需要在项目的payload.config.ts文件中注册并配置这个插件。 在配置过程中,您还可以选择添加一个文档UI,比如Swagger UI。这个UI能为您提供一个直观的浏览器界面,让您能够以可视化的方式查看和测试生成的API文档,这对于开发和调试来说无疑是一个巨大的便利。 以下是配置示例: import { buildConfig } from 'payload/config'; import { openapi } from 'payload-oapi'; import { swaggerUI } from 'payload-oapi/swagger'; export default buildConfig({ // ... 其他配置 plugins: [ // 核心 OpenAPI 插件配置 openapi({ openapiVersion: '3.0', // 指定 OpenAPI 规范版本 metadata: { title: '您的 API', // API 的标题 version: '1.0.0', // API 的版本 }, }), // 可选:添加 Swagger UI,提供可视化文档界面 swaggerUI(), ], }); 配置完成后,您的OpenAPI文档将自动生成并可以通过/api/openapi.json路径访问,而那个美观的Swagger UI则会在/api/docs路径下等待您的探索。 探索 API 文档:您的数据地图 插件成功配置并启动Payload CMS后,一个全新的世界就此打开。现在,您拥有了一份详尽的API地图——OpenAPI文档。这份文档将清晰地揭示您的Payload CMS集合如何通过外部API进行访问,以及更重要的是,它将详细指导您如何对这些数据进行精确的查询。 ...

September 16, 2025

MCP Registry:模型上下文协议服务器的社区驱动枢纽

想象一个未来,在人工智能的广阔天地中,你能够轻松地发现、管理和发布各种模型上下文协议(MCP)服务器。这并非遥不可及的梦想,而是GitHub上modelcontextprotocol/registry项目所致力于实现的愿景。它不仅仅是一个代码仓库,更是一个由社区驱动的注册服务,旨在为MCP服务器构建一个集中、可发现的枢纽,就像一个专为AI模型服务打造的“应用商店”。 MCP Registry的愿景:构建AI模型的互联生态 在人工智能模型日益复杂、应用场景不断扩展的今天,如何有效地管理和发现这些模型所依赖的上下文协议服务器,成为了开发者面临的一大挑战。MCP Registry应运而生,其核心目标正是解决这一痛点。它为MCP客户端提供了一个全面的服务器列表,让查找和集成变得前所未有的简单。这项服务的诞生,体现了通过社区力量,共同构建一个开放、透明且易于访问的模型服务生态系统的坚定信念。 发展中的旅程:预览版发布与社区展望 2025年9月8日,MCP Registry迎来了一个重要的里程碑:预览版正式发布!这标志着项目从设想阶段迈向了实际应用。虽然目前仍处于预览阶段,系统稳定性已大幅提升,但开发者团队也坦诚,为了后续的通用版本(GA)发布,未来可能会出现一些破坏性变更或数据重置。项目团队热切期待社区的反馈,无论是在GitHub Discussions中提出新颖的构想,还是在Discord的#registry-dev频道进行实时技术交流,每一份声音都弥足珍贵。目前,Adam Jones (Anthropic)、Tadas Antanavicius (PulseMCP) 和 Toby Padilla (GitHub) 等核心维护者正引导着项目稳步前行。 拥抱协作:如何为MCP Registry贡献力量 MCP Registry的成功离不开每一位社区成员的贡献。如果你渴望参与到这个激动人心的开源项目中,有多种途径可以加入。你可以通过Discord频道参与实时的社区讨论,在GitHub Discussions中提出并探讨产品或技术需求,通过Issues追踪具体的、已明确范围的技术任务,直至通过Pull Requests贡献你的代码和智慧。这种多渠道的协作模式确保了项目能够广泛听取意见,集思广益,共同推动项目向前发展。 快速入门:运行与发布你的MCP服务器 想要亲身体验MCP Registry的强大功能吗?入门过程设计得非常简洁。 先决条件 在开始之前,你需要准备好以下工具: Docker Go 1.24.x golangci-lint v2.4.0 运行服务器 通过简单的make dev-compose命令,你就可以启动一个完整的开发环境,它会包含PostgreSQL数据库和预置数据。服务默认会在localhost:8080上运行。如果你偏好在没有Docker的环境下运行,只需确保本地已安装PostgreSQL和Go 1.24.x,然后使用make build和make dev-local即可启动服务,默认也在localhost:8080运行。更详细的配置可以通过.env.example文件进行参考。 对于希望快速部署的用户,预构建的Docker镜像已自动发布到GitHub Container Registry。你可以选择运行最新的稳定版(ghcr.io/modelcontextprotocol/registry:latest)、主分支的最新构建(ghcr.io/modelcontextprotocol/registry:main),甚至特定版本(如ghcr.io/modelcontextprotocol/registry:v1.0.0)或开发构建(如ghcr.io/modelcontextprotocol/registry:main-20250906-abc123d)。 发布你的服务器 为了方便发布服务器,项目提供了一个简单易用的命令行工具:mcp-publisher。你可以通过make publisher命令构建它,然后使用./bin/mcp-publisher --help查看其功能。更详细的发布指南可以在项目的文档中找到,它将指导你完成服务器的发布流程。 其他实用命令 除了上述功能,项目还提供了一些其他的开发辅助命令。运行make help可以查看所有可用命令,或者直接查阅项目的Makefile文件。例如,你可以使用make check来运行代码检查、单元测试和集成测试。 架构透视:精巧的设计与安全的基石 探究其内部,MCP Registry的架构设计深思熟虑,旨在提供一个健壮、可扩展且安全的平台。项目结构清晰,主要包括以下几个模块:应用程序入口点(cmd/)、用于存放种子数据的data/目录、负责部署配置的deploy/、详细的项目文档(docs/)、包含核心业务逻辑和私有代码的internal/目录、定义公共API类型和数据模型的pkg/、各种开发和测试脚本(scripts/)、全面的集成测试(tests/)以及辅助CLI工具(tools/)。 尤其值得一提的是其多样的认证机制,它确保了发布过程的安全性与灵活性: GitHub OAuth/OIDC:开发者可以方便地通过GitHub账户登录进行发布,或是在GitHub Actions工作流中通过OIDC进行自动化发布。 DNS验证:通过DNS记录验证域名所有权,这对于发布特定域名下的服务器尤为关键,确保了只有真正的所有者才能发布。 HTTP验证:通过在网站上放置特定文件进行HTTP验证,同样用于证明域名所有权。 这些认证方式共同构筑了一个信任链,例如,如果你想发布名为io.github.domdomegg/my-cool-mcp的服务器,你就必须作为domdomegg登录GitHub,或在domdomegg的仓库中进行GitHub Action;而要发布me.adamjones/my-cool-mcp,则需通过DNS或HTTP挑战来证明你对adamjones.me域名的所有权。 开源之心:MIT许可证与社区精神 MCP Registry以其开放和协作的精神而自豪,项目采用友好的MIT许可证,明确了其开源性质,鼓励广泛的使用、修改和分发。这一点从项目高达4.2k的星标数和318个fork中可见一斑,充分彰显了社区对它的认可和积极参与。 结语 MCP Registry正致力于构建一个去中心化但又高度可发现的MCP服务器生态系统。它不仅是一个技术解决方案,更是一次全球开发者共同塑造模型上下文协议未来的社区协作实践。无论你是希望发布自己的MCP服务器,成为AI模型服务生态的贡献者,还是仅仅想为这个充满活力的项目贡献一份力量,MCP Registry都为你敞开了大门,期待你的加入,共同书写AI模型服务的新篇章。 查看更多详情 ...

September 15, 2025

揭秘X推荐算法:开源背后的智慧与协作

想象一下,你打开一个社交媒体应用,屏幕上立刻呈现出你可能感兴趣的内容:来自你关注的人的动态,你可能喜欢的话题,甚至是与你观点相近的新朋友。这一切的背后,都离不开一套复杂而精密的推荐算法。如今,X(原Twitter)已将其核心推荐算法公之于众,让我们有机会一窥这套系统如何运转,以及它是如何通过智慧与协作来塑造我们的在线体验的。 X推荐算法是一系列服务和任务的集合,它们协同工作,负责在X的所有产品界面(例如“为你”时间线、搜索、发现、通知)上提供帖子和其他内容。它的开源,不仅是技术透明度的体现,也象征着与全球社区共同进步的愿景。这套算法基于AGPL-3.0许可证发布,鼓励社区对其进行审查、贡献和改进。 核心架构概览 X的推荐算法并非一个单一的巨大程序,而是一个由共享数据、模型和软件框架组成的模块化系统。这种分层架构使其能够高效地处理海量信息,并根据用户的实时行为和偏好进行个性化推荐。这种设计理念确保了系统的可扩展性、可维护性和适应性,以应对不断变化的用户需求和内容趋势。 数据层:基石所在 一切智能系统的基础都是数据,X的推荐算法也不例外。数据层是整个系统的基石,它收集、存储并处理着用户在平台上的每一个足迹。 Tweetypie:这是处理帖子数据读写的核心服务。每一条你看到的或发布的推文,都由它负责管理,确保数据的完整性和可访问性。 Unified-User-Actions:这是一个实时流,记录了用户在X上的所有行为,无论是点赞、转发、评论,还是点击、浏览。这些细微的动作共同构成了理解用户兴趣的关键线索。 User-Signal-Service:作为一个集中的平台,它负责检索显式(如点赞、回复)和隐式(如个人资料访问、推文点击)的用户信号。这些信号是构建用户画像、预测用户偏好的重要依据。 模型层:智能大脑 在丰富的数据之上,模型层是算法的智能大脑,它利用机器学习技术从数据中学习模式,并做出预测和推荐。 SimClusters:这项技术用于社区检测,并将内容和用户嵌入到这些社区的稀疏表示中,从而识别出具有相似兴趣的用户群体和内容主题。 TwHIN (Twitter Heterogeneous Information Network):为用户和帖子生成密集的知识图谱嵌入,帮助算法理解不同实体之间的复杂关系。 Trust-and-Safety-Models:这些模型专注于检测不安全或滥用内容,确保平台环境的健康与安全,保护用户免受有害信息的侵害。 Real-Graph:这个模型预测X用户之间互动的可能性,帮助算法发现潜在的社交连接,促进有意义的互动。 Tweepcred:一个基于PageRank算法的模型,用于计算X用户的声誉,评估其在社区中的影响力和可信度。 Recos-Injector:作为一个流式事件处理器,它为基于GraphJet的服务构建输入流,为后续的推荐过程提供预处理数据。 Graph-Feature-Service:提供用户对之间的图特征(例如,用户A关注的人中有多少人喜欢了用户B的帖子),这些特征对于理解用户互动模式至关重要。 Topic-Social-Proof:识别与特定帖子相关的热门话题,帮助算法更好地理解内容的语义和上下文。 Representation-Scorer:利用嵌入相似度计算实体对(如用户、帖子)之间的得分,是衡量内容与用户匹配度的重要工具。 软件框架:高效引擎 为了将数据和模型协同起来,提供实用的产品功能,X推荐算法依赖一系列高效的软件框架。 Navi:一个用Rust编写的高性能机器学习模型服务框架,确保了模型推理的低延迟和高吞吐量。 Product-Mixer:构建内容信息流的软件框架,负责将各种推荐源和内容类型整合起来,形成最终呈现在用户面前的信息流。 Timelines-Aggregation-Framework:一个配置驱动的框架,用于批量或实时生成聚合特征,为机器学习模型提供丰富的输入。 Representation-Manager:一个服务,用于检索各种嵌入(如SimClusters和TwHIN),确保模型能够快速访问所需的表示。 TWML:一个基于TensorFlow v1的传统机器学习框架,虽然是历史遗留,但仍在某些部分发挥作用,见证了X推荐系统演进的足迹。 应用场景:为你推荐与通知 这套复杂的算法体系最终服务于X的两个核心产品功能:“为你”时间线和推荐通知。 为你推荐时间线 (For You Timeline) “为你”时间线是用户在X上最主要的体验之一,它精心策划和呈现个性化的内容流。 候选来源: Search-Index:负责查找并排名网络内的帖子,约50%的帖子来自此源,确保你看到关注者的相关内容。 Tweet-Mixer:一个协调层,从底层计算服务获取网络外(你未关注但可能感兴趣)的推文候选。 UTEG (User-Tweet-Entity-Graph):维护一个内存中的用户-帖子互动图,并基于图的遍历寻找候选帖子,它构建在GraphJet框架之上。 FRS (Follow-Recommendation-Service):为用户提供账户关注建议,并推荐这些账户的帖子,帮助用户扩大社交圈。 排名: Light-Ranker:由搜索索引(Earlybird)使用的轻量级排名模型,用于对帖子进行初步筛选。 Heavy-Ranker:一个神经网络模型,用于对候选帖子进行深度排名,它是选择时间线帖子的主要信号之一。 帖子混合与过滤: Home-Mixer:构建和提供主时间线的主要服务,它建立在Product-Mixer框架之上,负责最终的内容整合。 Visibility-Filters:负责过滤X内容,以支持法律合规、提高产品质量、增强用户信任,并通过硬过滤、可见产品处理和粗粒度降权来保护收入。 Timelineranker:一个传统服务,提供来自Earlybird搜索索引和UTEG服务的相关性评分帖子。 推荐通知 (Recommended Notifications) 除了时间线,X还通过推荐通知将重要的内容推送给用户。 Pushservice:X上的主要推荐服务,用于通过通知向用户提供推荐。 Pushservice-Light-Ranker:由Pushservice使用的轻量级排名模型,用于对帖子进行初步筛选,它在候选生成和深度排名之间架起桥梁,从巨大的初始候选池中预选出高度相关的候选。 Pushservice-Heavy-Ranker:一个多任务学习模型,预测目标用户打开并参与所发送通知的概率,确保通知的有效性。 社区与未来 X推荐算法的开源不仅是代码的公开,更是对社区力量的信任。X邀请全球的开发者和研究者通过GitHub提交问题和拉取请求,共同改进推荐算法。任何安全漏洞或问题都应通过其官方漏洞奖励计划提交。这种开放的态度,旨在汇集全球社区的集体智慧和专业知识,共同识别问题并提出改进建议,最终打造一个更好的X平台。 X相信,通过透明度和社区协作,能够不断提升推荐系统的质量,为全球用户提供更优质、更个性化的体验。这是一个持续进化的过程,而每一次社区的贡献,都将成为其进步的动力。 总结 X推荐算法的开源,为我们提供了一个难得的机会,去理解一个全球性社交媒体平台如何利用尖端技术来塑造信息流。从数据收集到复杂的模型训练,再到最终的用户界面呈现,每一个环节都凝聚着工程师和研究人员的智慧。而通过开放源代码,X正引领着一个更加透明、更具协作精神的数字未来,让每个人都能参与到构建更公平、更智能的在线世界中来。 查看更多详情

September 15, 2025

谷歌Material Design图标:设计语言的视觉基石

在数字世界的广阔画布上,图标扮演着至关重要的角色,它们是用户界面的无声语言,指引着用户、传达着信息,并塑造着整体的视觉体验。而由谷歌推出的 Material Design 图标,无疑是这一领域内的重要里程碑,它不仅提供了一套美观、一致的视觉符号,更代表着一套严谨而富有表现力的设计哲学。本文将带您深入了解谷歌 Material Design 图标的演进与核心,特别是其两大支柱——经典的 Material Icons 和革新的 Material Symbols。 Material Design:统一视觉语言的追求 Material Design 是谷歌于2014年推出的一套设计系统,旨在为所有数字平台提供统一的用户体验。它的核心理念在于模拟现实世界的物理材质,通过光影、运动和触感等元素,创造直观且富有层次感的界面。Material Design 图标正是这一理念的视觉延伸,它们的设计遵循严格的网格系统和几何原则,确保无论在何种尺寸或背景下,都能保持清晰度和辨识度。 两大基石:Material Symbols 与 Material Icons 随着设计趋势和技术能力的不断发展,Material Design 图标也在持续演进。目前,该项目主要包含两个主要的图标系列: Material Symbols 和 Material Icons。 Material Symbols:活力的可变字体图标 Material Symbols 是谷歌图标家族中的新一代成员,于2022年4月正式推出。它代表着图标技术的一次重大飞跃,将可变字体(Variable Font)技术应用于图标设计中,极大地增强了图标的灵活性和可定制性。 核心特点与无限可能: 可变字体技术:与传统的静态图标不同,Material Symbols 并非一系列预设的图片文件。它以可变字体文件的形式存在,这意味着开发者和设计师可以通过调整一系列“设计轴”,实现图标外观的动态变化。 多重样式:Material Symbols 提供三种主要的视觉样式: Outlined (轮廓):简洁的线条勾勒出图标的形态。 Rounded (圆角):柔和的圆角处理,赋予图标亲切感。 Sharp (锐利):边缘分明,带来更清晰、现代的视觉效果。 可定制的设计轴:Material Symbols 的强大之处在于其四个可调节的设计轴,让您可以精细地控制图标的视觉表现: Optical Size (光学尺寸):从 20 到 48 像素,可根据图标的实际显示尺寸进行调整,确保在不同大小下都有最佳的视觉平衡。默认值为 24。 Weight (字重):从 100(纤细)到 700(粗体),允许您调整图标线条的粗细。常规字重为 400。 Grade (等级):从 -50 到 200,用于微调图标的视觉重量和对比度。默认值为 0,-50 适用于反转对比度(例如,深色背景上的白色图标)。 Fill (填充):从 0 到 100,控制图标的填充程度。默认值为 0,通过调整此值可以实现图标的填充或轮廓切换,甚至创造平滑的填充动画效果,以响应用户交互或表示选中状态。 浏览与集成: 您可以在 Google Fonts 网站 (https://fonts.google.com/icons) 上方便地浏览 Material Symbols。该网站默认展示 Material Symbols,并通过下拉菜单轻松切换不同系列。在项目中集成时,可以引用 Google Fonts 提供的 CSS 链接,例如: ...

September 15, 2025

Payload CMS 多图上传:两种优雅实现方式

在现代内容管理系统中,处理多张图片上传是一个极其普遍且重要的需求。无论是电商网站的产品图集、博客文章的插图,还是用户作品展示的相册,高效且灵活地实现多图上传功能都是构建出色用户体验的关键。Payload CMS作为一个强大的无头CMS框架,为开发者提供了多种优雅的方式来满足这一需求。本文将深入探讨在Payload CMS中实现多图上传的两种主要方法,帮助你根据具体的项目场景和内容结构,选择最合适、最有效的方式。 方法一:利用数组字段实现精细控制 第一种实现多图上传的方法是创建一个数组(array)字段,并在该数组的每个元素中嵌套一个上传(upload)字段。这种方式的最大优势在于其提供的极高灵活性,特别适用于你需要为每张图片添加额外信息(如图片说明、alt文本、排序值等)的复杂场景。 想象一下,你正在为一款高端产品构建一个详细的图库。每张图片不仅需要上传,可能还需要一个独特的标题、一段描述,甚至是与产品其他特性的关联。通过数组字段,你可以轻松地将这些自定义信息与每张图片绑定,从而构建一个功能强大且数据结构清晰的内容模型。 以下是这种方法的配置示例: fields: [ // all of your other fields // add the array field below { name: 'gallery', type: 'array', fields: [ { name: 'image', type: 'upload', relationTo: 'media', required: 'true', }, // 你可以在这里为每张图片添加更多字段,例如: // { // name: 'caption', // type: 'text', // label: '图片说明' // }, // { // name: 'order', // type: 'number', // label: '显示顺序' // }, ], }, ], 在这个配置中,gallery 是一个 array 类型的字段,它代表一个图片集合。数组的每个项又包含一个 image 字段,这个 image 字段的类型是 upload,并且通过 relationTo: 'media' 关联到你的 media collection。当你在Payload CMS后台管理界面使用这个字段时,你可以点击“添加项”来不断增加新的图片条目,并且每个图片条目都可以独立上传图片并填写其他自定义信息。这种方法将图片视为一个独立的实体,允许你对每张图片进行丰富的数据绑定,从而构建出强大而灵活的内容管理方案。 ...

September 15, 2025

夜莺监控:云原生时代的告警专家

开源监控新选择 在数字化转型的浪潮中,系统监控如同黑夜中的灯塔,而告警机制则是灯塔上最敏锐的哨兵。夜莺监控(Nightingale)正是这样一位专注告警领域的云原生哨兵,它由滴滴公司孵化,后捐赠给中国计算机学会开源发展委员会,如今已成为中国企业贡献的明星级开源项目。 与Grafana专注于可视化不同,夜莺监控将核心能力聚焦在告警引擎的设计上。当Grafana为用户描绘系统运行状态的美丽图表时,夜莺监控正默默编织着一张严密的告警网络,确保任何异常都逃不过运维人员的眼睛。 架构设计的智慧 夜莺监控采用模块化架构设计,其核心思想是"不重复造轮子"。它支持与VictoriaMetrics、ElasticSearch等主流存储系统对接,用户只需在夜莺中配置告警规则和通知规则,就能将现有监控数据转化为有效的告警信息。 对于数据采集,开发团队推荐使用同门兄弟Categraf。这个采用Go语言编写的高性能采集器,能够覆盖操作系统、网络设备、中间件和数据库等常见监控对象,通过Prometheus Remote Write协议将数据推送给夜莺。这种分工明确的架构,让每个组件都能专注做好自己最擅长的事。 边缘计算的优雅解决方案 在分布式系统时代,网络连通性问题常常困扰着监控系统。夜莺创新性地提出了边缘部署模式——在网络条件欠佳的数据中心部署轻量级的n9e-edge组件作为本地告警引擎。即使与中心节点断连,边缘节点仍能独立完成告警判断,确保关键业务不因网络波动而失去监控保护。 这种设计既保持了集中管理的便利性,又兼顾了边缘场景的特殊需求,体现了中国开发者对实际运维痛点的深刻理解。 告警治理的艺术 传统监控系统常因告警风暴而饱受诟病。夜莺通过四大规则体系构建了完整的告警治理方案: 告警规则:支持基于PromQL的复杂条件判断 屏蔽规则:避免维护窗口等预期中断触发无效告警 订阅规则:实现告警信息的精准路由 通知规则:内置20种通知方式,从传统邮件短信到企业微信、钉钉等中国特色工具 特别值得一提的是事件流水线功能,允许企业对告警进行二次加工。比如为特定告警附加CMDB中的资产信息,或根据业务优先级进行重标记,这些特性都大大提升了告警信息的可操作性。 开箱即用的中国方案 夜莺监控最贴心的设计之一,是内置了大量符合中国企业技术栈的监控模板。从Linux主机到MySQL数据库,从Nginx到Redis,开发团队不仅提供了现成的仪表盘,还准备了经过实战检验的告警规则阈值。这些本土化知识沉淀,让中国用户无需再从零开始摸索监控策略。 项目文档全面中文化,社区支持响应迅速,GitHub上的中文issue处理效率令人印象深刻。这种以中文用户为中心的设计理念,正是许多国际开源工具所欠缺的。 企业级功能进阶 随着应用深入,夜莺展示了更多企业级特性: 业务组概念:将资源按业务线划分,实现监控权限的细粒度控制 告警自愈:支持在触发告警时自动执行预定义脚本 历史告警分析:提供多维统计功能,帮助发现高频告警点 系统集成:开放的API设计便于与现有运维平台对接 对于需要值班管理的企业,开发团队建议搭配FlashDuty等专业值班系统使用,这种层次分明的工具链组合,反映了中国SRE实践正在形成的特色路径。 社区共建的典范 夜莺监控的成功很大程度上归功于其开放的社区治理模式。项目明确制定了社区公约,鼓励用户不仅提出问题,更能参与解决方案的讨论和实施。这种共建文化孕育了活跃的贡献者群体,也使项目能持续吸收来自各行业的实战经验。 从GitHub的star增长曲线可以看出,这个项目正获得越来越多国内外企业的关注。包括多家知名互联网公司和金融机构在内的用户墙,印证了夜莺监控在不同规模场景下的适应能力。 未来可期 作为中国原创的云原生监控解决方案,夜莺监控正在证明:在可观测性领域,中国开发者不仅能做好"使用者",更能成为"创造者"。随着5.0版本在性能和安全方面的重大改进,这个项目有望成为全球监控工具链中不可或缺的一环。 对于正在构建监控体系的企业,尤其是面临混合云、分布式架构挑战的团队,夜莺监控值得列入评估清单。它可能不是最华丽的那个,但很可能是最懂中国运维工程师痛点的那个。 查看更多详情

September 15, 2025

GHunt:一款强大的谷歌开源情报框架

引言 在数字时代,开源情报(OSINT)已成为安全研究、调查和数据分析的重要工具。GHunt 是一款专为谷歌服务设计的开源情报框架,它不仅功能强大,而且易于使用,成为众多安全研究人员和开发者的首选工具。 GHunt 是什么? GHunt 是一个专注于谷歌服务的开源情报框架,当前版本为 v2。它的设计目标是高效演化,支持多种用途,尤其是 OSINT 相关任务。GHunt 提供了多种功能模块,包括命令行工具和 Python 库,使其在灵活性和扩展性上表现出色。 主要特性 命令行与模块化设计:用户可以通过命令行直接调用 GHunt 的各种功能模块,如邮件查询、Drive 文件分析等。 Python 库支持:开发者可以将 GHunt 集成到自己的项目中,利用其强大的功能进行二次开发。 全异步支持:GHunt 采用异步设计,提高了任务执行效率。 JSON 导出:支持将查询结果导出为 JSON 格式,便于进一步分析。 浏览器扩展:通过 GHunt Companion 扩展,用户可以轻松完成登录操作,提升使用体验。 安装与配置 GHunt 的安装过程非常简单,只需几步即可完成: 确保系统已安装 Python 3.10 或更高版本。 使用以下命令安装 GHunt: $ pip3 install pipx $ pipx ensurepath $ pipx install ghunt GHunt 会自动使用虚拟环境(venv)来避免与其他项目的依赖冲突。 使用指南 登录与认证 首次使用 GHunt 时,需要通过以下步骤完成登录: 运行命令 ghunt login,选择登录方式: 通过 GHunt Companion 监听模式(推荐)。 手动粘贴 base64 编码的 cookies。 手动输入所有 cookies。 安装 GHunt Companion 浏览器扩展(支持 Firefox 和 Chrome),完成登录流程。 ...

September 15, 2025

Agno:高性能多智能体系统运行时

什么是Agno? Agno是一个专为多智能体系统设计的高性能运行时环境。它允许开发者在云端构建、运行和管理安全的智能体集群。作为开源项目,Agno采用Apache-2.0许可证,目前已在GitHub上获得33.4k星标和4.2k分支。 核心特性 极速响应:智能体实例化仅需约3微秒,内存占用约6.5Kib(基于Apple M4芯片测试) 完整解决方案:包含预构建的FastAPI应用框架和可视化控制平面 数据主权:所有数据保留在用户自有云环境中,杜绝隐私泄露风险 多模式支持:支持会话管理、记忆系统、知识库和人机交互等智能体核心功能 技术架构 Agno的独特之处在于其双层架构设计: AgentOS运行时:部署在用户私有云中的核心引擎,负责智能体的实际执行 控制平面:通过浏览器直接连接运行时,提供测试、监控和管理界面 from agno.agent import Agent from agno.models.anthropic import Claude from agno.tools.hackernews import HackerNewsTools agent = Agent( model=Claude(id="claude-sonnet-4-0"), tools=[HackerNewsTools()], markdown=True, ) agent.print_response("总结HackerNews前5条热门新闻", stream=True) 性能优势 在与其他框架(如LangGraph)的对比测试中,Agno展现出显著优势: 实例化速度:完成1000次带工具的智能体创建时,Agno比LangGraph快2倍以上 内存效率:采用tracemalloc测量的内存增量控制在极低水平 并行处理:优化后的工具调用机制支持高并发场景 测试环境:Apple M4 MacBook Pro,所有基准测试代码可在项目仓库的evals/performance目录复现 开发者生态 学习资源 官方文档:包含快速入门指南和API参考 示例库:涵盖从基础到高级的20+应用场景 社区支持:Discord频道和论坛互动 IDE集成 主流开发工具可通过添加llms-full.txt配置文件实现智能提示: 在Cursor/VSCode设置中找到"Indexing & Docs"选项 添加https://docs.agno.com/llms-full.txt文档源 保存后即可获得上下文感知的代码补全 企业级功能 安全审计:所有组件支持白盒安全审查 遥测控制:通过AGNO_TELEMETRY=false禁用使用统计 CI/CD集成:提供标准化测试脚本和部署模板 贡献指南 项目欢迎开发者通过以下方式参与: 提交Issue报告问题或功能建议 参与Discussions技术讨论 按照贡献规范提交Pull Request 当前已有289位贡献者参与开发,包括来自全球的AI研究员和系统架构师。 应用前景 Agno特别适合以下场景: 构建自动化客户服务团队 开发复杂决策支持系统 创建自适应业务流程引擎 搭建科研协作智能体网络 随着v2.0版本的发布,Agno正成为企业级智能体应用的首选框架。其性能优势在规模化部署时尤为明显,单个服务器节点可支持数万个并发智能体运行。 查看更多详情

September 14, 2025

Ripple:优雅的TypeScript UI框架探索

初识Ripple:一周诞生的前端实验 在Inferno、React和Svelte等框架的演进历程中,开发者@trueadm积累了丰富的经验。这些思考最终凝结成了一个独特的作品——Ripple。这个用TypeScript编写的UI框架,仅用一周时间就完成了核心开发,它融合了React、Solid和Svelte的精华,却有着自己独特的表达方式。 目前该项目仍处于早期开发阶段,不建议用于生产环境。 与传统框架不同,Ripple采用了JS/TS优先的设计理念。它引入了一个全新的.ripple文件扩展名,允许开发者在一个模块中自由组合TypeScript和增强版JSX语法。这种设计不仅提升了开发体验,还意外地让大型语言模型(LLM)能更好地理解代码结构。 核心特性解析 响应式状态管理 Ripple的响应式系统采用$前缀标识: let $count = 0; // 自动触发重新渲染 counter.$current++; // 对象属性同样适用 衍生值处理尤为优雅: let $count = 0; let $quadruple = $count * 4; // 自动追踪依赖 组件架构创新 组件定义采用类似函数声明的方式: component Button(props: { text: string }) { <button>{props.text}</button> } 特别的是,JSX可以直接作为语句使用,无需return操作。 类型系统与工具链 完整的TypeScript类型检查 VSCode插件提供语法高亮和实时诊断 Prettier支持.ripple文件格式化 与众不同的设计哲学 控制流革命 Ripple彻底重新设计了模板中的控制流: <div> if (x) { <span>条件渲染</span> } for (const item of list) { <li>{item}</li> } try { <ErrorComponent /> } catch { <FallbackUI /> } </div> 这种设计让逻辑与模板的结合更加自然。 响应式集合 框架提供了特殊的集合类型: import { RippleArray } from 'ripple'; const list = new RippleArray(1, 2, 3); // 完全响应式 装饰器系统 元素引用捕获变得异常简单: <div {@use (node) => console.log(node)}> 点击检查控制台 </div> 当前局限与未来展望 虽然创意十足,但Ripple目前还存在明显短板: 缺少服务端渲染(SSR)支持 类型系统尚未完善 文档和示例相对匮乏 不过,这些限制反而让Ripple成为了一个绝佳的技术实验场。许多创新概念,如响应式属性传播、装饰器系统等,都可能为其他成熟框架提供灵感。 快速体验指南 通过StackBlitz可以立即尝试: npx degit trueadm/ripple/templates/basic my-app cd my-app && npm install npm run dev 或者直接访问在线示例。 ...

September 14, 2025

BillionMail:开启您的开源邮件营销新时代

想象一下,一个完全由您掌控的邮件系统,它不仅功能强大、灵活自由,更重要的是,它彻底告别了那些令人头疼的月费和繁琐的限制。这并非遥不可及的梦想,而是BillionMail所描绘的现实。BillionMail,一个旨在革新邮件营销领域的开源项目,正等待着您的探索。 什么是BillionMail? BillionMail不仅仅是一个简单的邮件服务器,它是一个集邮件服务器、新闻通讯和邮件营销于一体的综合性解决方案。它生来开放,为开发者友好设计,承诺让您完全掌控自己的邮件发送策略,摆脱高昂的月费束缚。对于那些寻求自托管、对数据隐私高度重视、并渴望无限制发送能力的个人和企业来说,BillionMail无疑是理想之选。 无论是发送精美的新闻简报,还是策划大规模的营销活动,亦或是处理重要的事务性邮件,BillionMail都为您提供了所需的一切工具。凭借其先进的数据分析功能和便捷的客户管理系统,您可以像专业人士一样轻松创建、发送和追踪每一封邮件的效果。它赋能您精确洞察邮件送达率、开启率和点击率,确保您的营销活动事半功倍。 为什么选择BillionMail? 在当今数字时代,许多邮件营销平台都面临着高成本、闭源或功能缺失的困境。它们可能限制您的发送数量,捆绑您的数据,或者让您陷入无休止的订阅费用。BillionMail的诞生,正是为了打破这些壁垒,提供一个清新而强大的替代方案。 完全开源:BillionMail的核心精神是开放。这意味着没有隐藏费用,没有供应商锁定,代码透明可见,让您拥有前所未有的自由度与掌控力。 高级分析:深入了解您的邮件表现。追踪送达、开启和点击数据,优化您的策略,做出数据驱动的决策。 无限发送:告别邮件数量的限制。无论是数十封还是数亿封,您都可以自由发送,无需担忧额外的费用。 可定制模板:利用专业设计的营销模板,或根据您的品牌需求进行定制,轻松打造引人注目的邮件内容。 隐私优先:您的数据,由您做主。BillionMail坚守隐私承诺,您的敏感信息将完全托管在您的服务器上,远离第三方追踪。 自托管:将BillionMail部署在您自己的服务器上,实现对邮件基础设施的完全控制,确保最高级别的安全性和灵活性。 轻松三步,开启您的亿级邮件之旅! BillionMail将复杂的邮件营销流程化繁为简,让您能在短短几分钟内,轻松发送海量邮件。 第一步:安装BillionMail 从安装到成功发送第一封邮件,整个过程只需要短短8分钟! cd /opt && git clone https://github.com/aaPanel/BillionMail && cd BillionMail && bash install.sh 第二步:连接您的域名 简单几步,将您的域名与BillionMail连接,自动启用免费SSL,确保邮件安全送达。 添加发送域名 验证DNS记录 自动启用免费SSL 第三步:构建您的营销活动 无论是撰写邮件内容,还是选择收件人列表,亦或是设定发送时间,BillionMail都提供了直观的界面,让您的营销活动触手可及。 撰写或粘贴您的邮件内容 选择收件人列表和标签 设定发送时间或立即发送 其他安装与管理方式 BillionMail的灵活性不仅体现在功能上,更体现在其多样的安装和管理选项上。 宝塔面板一键安装:对于宝塔面板用户,只需登录面板,通过Docker模块即可轻松一键安装。 Docker安装:如果您熟悉Docker环境,也可以通过Docker Compose进行部署。 cd /opt && git clone https://github.com/aaPanel/BillionMail && cd BillionMail && cp env_init .env && docker compose up -d || docker-compose up -d 管理脚本:BillionMail提供了一系列便捷的管理脚本命令,帮助您轻松管理系统,例如查看登录信息、显示DNS记录或更新BillionMail。 亲身体验与便捷WebMail 想要亲身感受BillionMail的强大功能?您可以访问我们的在线演示,使用预设的用户名和密码登录,提前体验邮件营销的魅力。此外,BillionMail还集成了RoundCube,通过访问/roundcube/路径,您可以轻松使用功能丰富的WebMail服务。 如何贡献您的力量 🌟 BillionMail是一个由社区驱动的项目,您的支持是我们前进的最大动力。 为项目点星:在GitHub上为BillionMail点赞,表达您的兴趣与支持。 分享传播:将BillionMail分享给您的开发者朋友、营销同行和开源爱好者,让更多人了解它的价值。 提供反馈:通过提交Issue或参与讨论,告诉我们您希望在BillionMail中看到哪些新功能,您的声音至关重要。 积极贡献:随着项目的发展,我们欢迎来自社区的每一份贡献。无论是代码优化、文档完善还是功能开发,都期待您的加入! 授权许可 BillionMail采用AGPLv3许可证。这意味着您可以: 免费使用BillionMail软件。 自由修改和分发代码。 在私人环境中使用它,不受任何限制。 更多详细信息,请参阅项目中的LICENSE文件。 ...

September 14, 2025

Motia:统一后端开发的革命性框架

在当今快速迭代的软件开发世界中,后端系统正变得日益复杂。API接口、后台任务、工作流编排以及新兴的AI代理,往往分散在不同的框架和工具之中,形成了一个个孤立的运行时环境。这种碎片化的现状,不仅加剧了开发难度,也使得团队在维护和扩展系统时面临巨大挑战。然而,一个名为Motia的现代化后端框架正悄然兴起,旨在彻底解决这一痛点,将所有这些后端元素整合到一个统一的核心原语中,并内置可观测性和状态管理功能,为开发者带来前所未有的流畅体验。 后端开发的痛点:碎片化之困 长久以来,后端开发工程师们不得不像指挥一支由不同语言和工具组成的乐队。当需要构建一个功能丰富的应用时,他们可能要用Node.js搭建API服务,用Celery处理Python后台任务,用Kafka或RabbitMQ管理消息队列,再用一套独立系统来编排复杂的工作流,而最近火热的AI代理又会引入全新的运行时和工具栈。这种各自为政的架构,导致了以下问题: 开发效率低下:开发者需要在不同技术栈之间频繁切换上下文,学习和掌握多套工具的配置与使用方法。 维护成本高昂:每个独立系统都有其生命周期、依赖和潜在的故障点,排查问题和升级维护变得异常复杂。 可观测性缺失:由于缺乏统一的视角,很难全面追踪请求从API到后台任务,再到AI代理的整个生命周期,导致问题定位困难。 技术债务累积:为了弥合不同系统之间的鸿沟,往往需要编写大量胶水代码,增加了项目的复杂性和未来的技术债务。 创新受限:碎片化的环境阻碍了不同组件之间的无缝协作,使得集成新功能,尤其是AI能力,变得异常艰难。 这种“运行时碎片化”的局面,无疑是现代软件工程的一大挑战,急需一个创新的解决方案来打破僵局。 Motia:统一后端开发的革命性框架 Motia正是为解决这一核心问题而生。它不是简单地将现有工具堆砌在一起,而是从根本上重新思考后端系统的构建方式。Motia的愿景是创建一个“统一的、内聚的系统”,将API、后台任务、工作流和AI代理等所有后端服务,都封装成一种名为“Step”的核心原语。这种理念类似于前端开发中React组件的概念,一切皆是组件,一切皆可复用和组合。在Motia的世界里,“一切皆为Step”,这极大地简化了后端开发的复杂性。 更令人振奋的是,Motia打破了语言的壁垒。它支持在同一个工作流中混合使用JavaScript、TypeScript、Python,甚至在不久的将来支持Ruby和Go等多种编程语言。这意味着开发者可以根据业务需求和团队专长,灵活选择最合适的语言来编写特定的“Step”,而无需担心不同语言间的集成问题。过去可能需要五种不同框架才能实现的功能,现在只需Motia一个系统即可轻松搞定。这种前所未有的统一性,极大地提升了开发效率和系统的可维护性。 核心理念:一切皆为“Step” 在Motia框架中,所有后端逻辑都被抽象为“Step”。每个Step都有明确的触发机制和执行逻辑,它们协同工作,共同完成复杂的业务流程。Motia定义了四种基本的Step类型,以满足不同场景的需求: API Step (类型:api):当系统接收到HTTP请求时被触发,主要用于构建传统的RESTful API接口。通过API Step,开发者可以轻松定义请求的输入、输出和验证规则,快速响应客户端请求。 Event Step (类型:event):通过订阅特定主题或事件而被触发,适用于需要进行异步处理和解耦的场景。例如,当用户注册成功后,可以触发一个Event Step来发送欢迎邮件,或者处理复杂的后台数据分析任务。 Cron Step (类型:cron):按照预设的时间表周期性地被触发,非常适合执行定时任务。无论是每日的数据同步、每周的报表生成,还是每月的数据清理,Cron Step都能确保任务按时执行。 Noop Step (类型:noop):一种手动触发的Step,不与特定的外部事件或调度器绑定。它通常用于表示外部进程或需要手动启动的流程,为更灵活的工作流编排提供了可能。 通过这四种Step类型,Motia提供了一套强大而灵活的构建块,让开发者能够以统一的方式处理各种后端逻辑,无论是实时响应还是离线处理。 快速上手:体验Motia的强大 Motia的易用性是其另一大亮点。开发者可以在不到60秒的时间内,快速启动一个Motia项目并运行其开发工作台。 首先,只需在终端中运行一条简单的命令来引导新项目: npx motia@latest create 这条命令会启动一个交互式终端,引导你选择项目模板、命名项目并选择首选编程语言。整个过程直观而迅速。 接下来,进入新创建的项目文件夹,并启动开发服务器: npx motia dev # ➜ http://localhost:3000 至此,一个功能完备的Motia项目便已成功运行!你将立即获得: 开箱即用的REST API,并内置强大的验证机制。 一个直观的可视化调试器和追踪系统,帮助你轻松定位和分析问题。 强大的多语言支持,让不同语言的Step在同一系统中共存。 一个基于事件驱动的架构,确保系统的高效与弹性。 以及最重要的零配置体验,让开发者能够专注于业务逻辑而非繁琐的设置。 Motia的开发工作台(Workbench)提供了一个现代化的图形界面,让你能够清晰地看到整个系统的运行状态、Step之间的调用关系以及请求的追踪信息,极大地提升了开发体验。 实战案例:用Motia构建复杂应用 Motia的强大并非停留在理论层面,它已被用于构建高度复杂且功能丰富的生产级应用。ChessArena.ai就是一个杰出的范例,这是一个完整的国际象棋平台,专门用于基准测试大型语言模型(LLM)的性能,并提供实时评估。 ChessArena.ai凭借Motia框架的强大能力,实现了诸多高级功能: 安全的认证与用户管理:确保平台的用户数据安全和访问控制。 多代理LLM评估:集成了OpenAI、Claude、Gemini、Grok等多种AI模型,实现对棋手表现的实时、智能评估。 Python引擎集成:利用Python编写的Stockfish国际象棋评估引擎,为LLM提供专业的棋局分析能力。 实时流式传输:提供实时的对弈过程、走法更新和得分展示,为用户带来沉浸式体验。 事件驱动工作流:将TypeScript编写的API与Python处理程序无缝连接,构建了高效且响应迅速的后端逻辑。 实时排行榜:根据走棋质量进行动态评分,实时更新全球玩家排行榜。 生产部署:整个应用都部署在Motia云平台上,展现了框架在生产环境下的稳定性和扩展性。 除了ChessArena.ai,Motia还提供了20多个示例项目,涵盖了AI研究代理、实时流式聊天机器人、Gmail自动化工作流、GitHub PR管理器以及金融代理等各种场景。这些例子充分展示了Motia在多语言工作流、实时数据流、AI集成以及生产部署方面的卓越能力。 语言支持与未来展望 Motia致力于成为一个多语言的通用后端框架。目前,它对JavaScript、TypeScript和Python提供了稳定(✅ Stable)的支持。Ruby正在Beta测试中(🚧 Beta),而对Go语言的支持也已在计划之中(🔄 Soon)。这种对多语言的包容性,使得Motia能够吸引更广泛的开发者社区。 Motia拥有清晰且公开的开发路线图。团队正积极规划和开发一系列新功能,以进一步增强框架的能力,包括: ...

September 14, 2025

HeroUI:美观、快速、现代的 React UI 组件库(原 NextUI)

引言 在日新月异的前端开发领域,选择一个高效、美观且功能丰富的用户界面(UI)组件库对于项目的成功至关重要。HeroUI,一个崭露头角的 React UI 组件库,承载着原 NextUI 的优秀基因,以其美观的设计、卓越的性能和现代化的开发体验,正迅速吸引 React 社区的关注。本文将深入探讨 HeroUI 的核心特性、技术优势及其在构建高性能 Web 应用程序中的价值。 HeroUI 的诞生与演进 HeroUI 项目由 heroui-inc 组织在 GitHub 上维护,其前身是广受欢迎的 NextUI。这一品牌重塑并非简单的名称变更,而是一次全面的技术与设计升级。从仓库提交历史中可以看到,大量的文件和目录都进行了 nextui 到 heroui 的重命名,这标志着项目在一个新的阶段继续发展,致力于提供更先进、更符合未来 Web 开发趋势的 UI 解决方案。 核心设计与技术亮点 HeroUI 在设计理念和技术实现上展现了多项突出优势,旨在为开发者提供一流的工具集: 1. 美观与现代化设计 HeroUI 秉承了 NextUI 在视觉美学上的高标准,提供了一系列精心设计、富有现代感的 UI 组件。这些组件不仅外观精致,还支持深度定制。通过内置的“主题生成器(theme generator)”,开发者可以根据自己的品牌风格轻松调整颜色、圆角、间距等,实现高度个性化的界面设计。 2. 卓越的性能表现 “快速”是 HeroUI 的核心承诺之一。项目团队通过持续的代码重构和优化,确保组件在各种场景下都能高效运行。例如,为了减小包体积并提升运行时效率,HeroUI 积极移除不必要的 React Aria 依赖(如 @react-aria/utils 和 @react-aria/overlays),并将通用逻辑迁移到内部共享工具库中。此外,对 framer-motion 等动画库的精细优化也确保了所有交互都能带来流畅、无卡顿的用户体验。 3. 灵活的样式与 Tailwind CSS 深度集成 HeroUI 与流行的实用工具优先(utility-first)CSS 框架 Tailwind CSS 实现了紧密集成。它不仅支持最新的 Tailwind CSS v4 版本,还提供了定制化的 Tailwind 插件,允许开发者通过编写简洁直观的 CSS 类名来快速构建和定制组件样式。这种集成极大地提高了开发效率和样式维护的便捷性,让样式控制更加精细和灵活。 ...

September 14, 2025

Google AI Edge Gallery:在设备上探索生成式AI的未来

引言 随着人工智能技术的飞速发展,生成式AI(Generative AI)已成为当前最受关注的领域之一。Google AI Edge Gallery 正是谷歌在该领域的一次创新尝试,它以一款实验性应用的形式,旨在将尖端的生成式AI模型直接带到用户的移动设备上。这款应用目前已在 Android 平台推出,并计划很快支持 iOS,让用户无需互联网连接,即可在本地设备上体验、探索并评估AI模型的能力。 Google AI Edge Gallery 的核心理念是让AI触手可及。它打破了传统云计算AI服务的局限,允许用户在自己的设备上运行复杂的生成式AI模型。这意味着更快的响应速度、更强的数据隐私保护,以及即使在离线状态下也能持续享受AI服务的便利。通过这款应用,用户可以深入了解各种创新和实用的AI用例,从而更好地理解设备端机器学习(On-device Machine Learning)的巨大潜力。 核心功能一览 Google AI Edge Gallery 提供了一系列引人入胜的功能,旨在为用户提供全面且直观的生成式AI体验: 本地运行,完全离线 这是该应用最显著的特点之一。一旦模型加载完成,所有的AI处理都将在设备本地进行,无需依赖互联网连接。这不仅提供了极高的便利性,确保了数据安全和隐私,也让用户能够随时随地探索AI的无限可能。 模型选择与比较 用户可以轻松切换并比较来自 Hugging Face 等平台的不同AI模型。这一功能允许用户亲身感受不同模型在性能、输出质量和处理速度上的差异,为开发者和研究人员提供了一个评估和测试模型效果的理想环境。 图像问答 通过“询问图像”功能,用户可以上传图片并就图片内容提出问题。AI模型能够识别图片中的对象、描述场景、解决与图片相关的特定问题,甚至进行图像内容的深度分析。无论是想了解一张旅行照片的背景故事,还是需要识别某个物品,这项功能都能提供智能的解答。 音频转录与翻译 “音频记录”功能支持用户上传或录制音频片段,并将其转录为文本。更进一步,它还能将音频内容翻译成其他语言,极大地便利了跨语言交流和信息整理。无论是会议记录、语音备忘录还是学习外语,这项功能都展现出强大的实用性。 提示词实验室 在“提示词实验室”中,用户可以自由探索各种大型语言模型(LLM)的单轮用例。这包括但不限于文本摘要、内容重写、代码生成,以及各种自由形式的提示词实验。它为用户提供了一个创意空间,激发他们发现AI在文本处理方面的多样化应用。 AI 对话 “AI 聊天”功能支持多轮对话,让用户能够与AI进行更自然、更深入的交流。通过持续的互动,AI能够更好地理解用户意图,提供更连贯、更相关的回答,模拟真实的人际对话体验。 性能洞察 对于对技术细节感兴趣的用户,“性能洞察”提供了模型的实时基准测试数据,包括首次生成时间(TTFT)、解码速度(decode speed)和延迟(latency)。这些数据有助于用户了解模型在设备上的运行效率,为进一步优化和开发提供参考。 自带模型支持 开发者和高级用户可以利用“自带模型”功能,测试自己的 LiteRT .litermlm 模型。这一开放性使得应用不仅仅是消费者的工具,更是开发者验证和迭代设备端AI模型的平台。 开发者资源 应用内提供了模型卡片和源代码的快速链接,方便开发者获取详细信息和进行深入研究。这体现了谷歌鼓励社区参与和开放创新的精神。 技术亮点解析 Google AI Edge Gallery 背后凝聚了多项前沿技术,共同实现了其强大的设备端AI能力: Google AI Edge 作为核心平台,Google AI Edge 提供了一整套用于设备端机器学习的API和工具。它为Gallery应用提供了基础架构支持,确保AI模型能够在各种移动设备上高效稳定运行。 LiteRT LiteRT 是一种轻量级运行时环境,专为优化模型执行而设计。它能够最大程度地减少资源消耗,提升AI模型在移动设备上的运行效率和速度,是实现设备端AI的关键技术之一。 LLM Inference API 大型语言模型推理API是驱动设备端大型语言模型功能的核心。它使得复杂的LLM能够在资源受限的移动设备上进行高效推理,从而实现丰富的文本生成和理解能力。 ...

September 13, 2025

Supabase:现代化应用开发的Postgres平台

Supabase是一个革命性的Postgres开发平台,致力于利用企业级开源工具,为开发者提供一套功能丰富且易于使用的后端服务。它的目标是提供类似于Firebase的开发体验,但全部基于开放源代码技术栈,从而赋予开发者更大的灵活性、控制力与透明度。无论是构建Web、移动还是AI应用程序,Supabase都提供了一整套强大的工具来加速开发过程。 Supabase核心功能概览 Supabase将一系列关键的后端服务整合到一个统一的平台中,极大地简化了应用开发的复杂性。其主要功能包括: 托管的Postgres数据库: 作为整个平台的核心,Supabase提供稳定、可靠且高度可扩展的Postgres数据库服务。开发者可以享受到Postgres久经考验的强大功能、数据完整性和灵活性,无需担心数据库的运维管理。 用户认证与授权: Supabase内置了强大的身份认证和授权系统。它支持多种认证方式(如电子邮件/密码、OAuth等),并能轻松管理用户、会话和访问控制,确保应用程序的安全性。 自动生成API: REST API: Supabase能够从您的Postgres数据库自动生成功能完备的RESTful API,允许开发者通过HTTP请求与数据库进行交互,省去了手动编写API接口的繁琐工作。 GraphQL API: 通过内置的pg_graphql扩展,Supabase还支持GraphQL API,为数据查询和操作提供了更灵活、高效的方案,允许客户端精确请求所需数据。 实时订阅: 利用WebSocket技术,Supabase的实时功能允许应用程序监听数据库的插入、更新和删除事件,并即时接收变更通知,这对于构建实时聊天、通知系统或协同编辑应用至关重要。 函数服务: 数据库函数 (Postgres Functions): 开发者可以直接在Postgres数据库中编写和执行存储过程和函数,用于处理复杂的业务逻辑或数据转换,将计算能力下推到数据层。 边缘函数 (Edge Functions): Supabase还提供了基于Deno的边缘函数服务。这些函数部署在全球各地的边缘节点,可以实现低延迟的代码执行,非常适合处理API路由、数据转换或身份验证逻辑。 文件存储: 提供安全高效的对象存储服务,兼容S3。开发者可以轻松地存储和管理用户上传的图片、视频、文档等文件,并通过Postgres强大的权限管理系统来精确控制访问权限。 AI与向量/嵌入工具包: 随着AI技术的发展,Supabase集成了对AI应用的支持,包括向量存储和嵌入工具。这使得开发者可以方便地构建语义搜索、推荐系统等智能应用。 直观的仪表盘: Supabase提供了一个美观且功能丰富的Web仪表盘,让开发者能够直观地管理数据库、用户、存储桶、API密钥等所有项目资源,极大地提升了开发效率和管理便利性。 Supabase的架构哲学与组件 Supabase的核心理念是“用开源替代开源”。这意味着如果存在符合MIT、Apache 2或同等开放许可的优秀开源工具,Supabase就会采纳并支持它。如果某个功能没有合适的开源工具,Supabase就会自行构建并将其开源。这种哲学构建了一个透明、可信赖且社区驱动的生态系统。 Supabase的平台是由以下关键开源组件共同构建而成: Postgres: 作为后端服务的基石,提供了强大的关系型数据库功能。 Realtime: 一个基于Elixir的服务器,通过WebSocket将PostgreSQL数据库的变更实时广播给授权客户端。 PostgREST: 一个Web服务器,能够将PostgreSQL数据库直接转换为一个即时可用的RESTful API。 GoTrue: 一个基于JWT(JSON Web Token)的认证API,负责处理用户注册、登录和会话管理。 Storage: 一个RESTful API,用于管理S3兼容的文件存储,并由Postgres处理权限。 pg_graphql: 一个PostgreSQL扩展,用于直接从数据库暴露一个GraphQL API。 postgres-meta: 一个RESTful API,用于管理Postgres数据库本身,例如获取表信息、添加角色和运行查询等。 Kong: 一个云原生的API网关,负责API流量的路由、管理和安全。 这些组件的协同工作使得Supabase既能提供高性能的服务,又保持了高度的灵活性和可定制性。此外,Supabase不仅提供方便的托管服务,还支持开发者进行自托管和本地开发,满足不同场景的需求。 多语言客户端库支持 为了方便广大开发者,Supabase采取了模块化的客户端库设计。每个子库都为特定的外部系统提供独立的实现,这使得开发者可以根据自己的技术栈选择最合适的工具。 Supabase提供了以下官方客户端库: JavaScript (TypeScript): supabase-js Flutter: supabase-flutter Swift: supabase-swift Python: supabase-py 除了官方库,Supabase社区也贡献了大量优秀的客户端库,支持C#、Go、Java、Kotlin、Ruby、Rust、Godot Engine (GDScript)等多种编程语言和平台,进一步扩大了Supabase的生态覆盖。 ...

September 13, 2025

Azure Python SDK:高效开发与文档指南

Azure SDK for Python 是一个专为 Python 开发者设计,用于与 Azure 服务进行交互的软件开发工具包。它支持开发者在 Python 环境中构建、部署和管理 Azure 上的各类资源。本文旨在为希望深入了解或使用 Azure SDK for Python 的开发者提供全面的信息和指导。 简介 Azure SDK for Python 的 GitHub 仓库 (Azure/azure-sdk-for-python) 是其活跃开发的主阵地。对于希望使用此 SDK 的开发者,官方建议访问公开的开发者文档或带版本号的开发者文档。这些文档提供了详细的入门指南、API 参考和使用示例,帮助开发者快速上手。 开始使用 Azure SDK for Python 采用模块化设计,每个 Azure 服务都有独立的库。这意味着开发者可以根据实际需求选择性地引入所需的库,而非一个庞大的整体包。要开始使用特定的库,开发者可以查阅位于 /sdk 目录下的相应库项目文件夹中的 README.md 或 README.rst 文件。 先决条件 Azure 客户端库目前支持 Python 3.9 或更高版本。有关详细的版本支持策略,请参阅 Azure SDK for Python 的版本支持政策页面。 软件包分类 Azure SDK for Python 提供的软件包主要分为以下几类,以满足不同场景和需求的开发者: 客户端库:最新发布 这部分是 Azure SDK 的新一代发布,包括已通用可用(GA)和处于预览阶段的库。这些库主要用于与现有 Azure 资源进行交互和数据操作,例如上传 Blob 文件。它们共享一系列核心功能,如重试机制、日志记录、传输协议和身份验证协议等,这些功能统一由 azure-core 库提供。这些新库严格遵循 Azure SDK Python 设计指南,确保了一致的开发体验。 ...

September 12, 2025

n8n工作流:专业集合与高效文档系统

这是一个经过专业整理的n8n工作流集合,包含2053个工作流,并配备了一套闪电般快速的文档系统。该系统提供即时搜索、分析和浏览功能,极大地提升了工作流的管理与发现体验。 ⚠️ 重要通知 (2025年8月14日): 由于DMCA合规要求,此仓库的历史记录已被重写。如果您有此仓库的分支或本地克隆副本,请参阅问题页面获取同步副本的说明。 支持项目 如果您希望对我的工作表示感谢,可以考虑请我喝杯咖啡。您的支持将帮助我持续改进这个项目! 全新:高性能文档系统 体验比传统文档系统快100倍的性能提升! 快速上手:高速文档系统 要启动高速文档系统,请遵循以下步骤: pip install -r requirements.txt python run.py http://localhost:8000 主要功能: ⚡ 亚100毫秒响应时间: 利用SQLite FTS5实现快速搜索。 🔍 即时全文搜索: 支持高级筛选功能。 📱 响应式设计: 在移动设备上也能完美运行。 🌙 深色/浅色主题: 根据系统偏好自动检测。 📊 实时统计: 包含365个独特集成,共计29,445个节点。 🎯 智能分类: 根据触发器类型和复杂度进行分类。 🎯 用例分类: 根据服务名称映射到不同类别。 📄 按需JSON查看与下载: 方便地查看和获取工作流JSON文件。 🔗 Mermaid图表生成: 用于工作流可视化。 🔄 实时工作流命名: 采用智能格式化。 性能对比 以下是新旧系统之间的性能对比: 指标 旧系统 新系统 文件大小 71MB HTML <100KB 加载时间 10+ 秒 <1 秒 搜索 仅客户端搜索 FTS5全文搜索 内存使用 约2GB RAM <50MB RAM 移动支持 差 优秀 仓库组织结构 工作流集合 2,053个工作流: 具有有意义、可搜索的名称。 365个独特集成: 涵盖各种流行平台。 29,445个总节点: 经过专业分类。 质量保证: 所有工作流均经过分析和分类。 高级命名系统 ✨ 我们的智能命名系统能将技术性的文件名转换为易于阅读的标题: ...

September 12, 2025

Hyperswitch:基于Rust的模块化开源支付交换平台

Hyperswitch:基于Rust的模块化开源支付交换平台 在当今瞬息万变的数字商务环境中,企业对支付基础设施的需求日益增长,不仅要求处理速度快、可靠性高,更要具备成本效益和高度灵活性。由Juspay推出的开源支付交换平台Hyperswitch,正是为满足这些核心需求而生。它以Rust语言编写,旨在为全球企业提供一个可组合、可控且高性能的支付解决方案,赋能企业自主管理和优化其支付流程。 Hyperswitch 的核心价值与能力 Hyperswitch 的设计理念是提供一个模块化的支付基础设施,允许企业根据自身需求灵活选择并集成所需的功能模块,从而避免不必要的复杂性或供应商锁定。其核心优势在于能够集成到现有支付栈之上,或者作为一套完整的支付解决方案使用。 主要功能模块包括: 1. 成本可见性 (Cost Observability) Hyperswitch 提供先进的监控工具,帮助企业审计、跟踪和优化支付成本。通过自助式仪表盘和可操作的洞察,用户可以轻松检测隐藏费用、降级罚款以及其他不必要的开支,从而实现透明化管理和成本优化。 2. 收入恢复 (Revenue Recovery) 针对被动流失问题,Hyperswitch 引入了智能重试策略。这些策略可根据卡BIN、地区、支付方式等多种维度进行调整,为企业提供精细化的控制,以最大限度地提高交易成功率,挽回潜在收入。 3. 支付金库 (Vault) 为了确保支付数据的安全性和合规性,Hyperswitch 提供了一项符合PCI标准的金库服务。它能够安全存储银行卡、令牌、电子钱包和银行凭证等信息,为客户关联的支付方式提供一个统一、安全且可复用的存储库。 4. 智能路由 (Intelligent Routing) 此模块是 Hyperswitch 的一大亮点,它能够将每笔交易智能路由到预测授权率最高的支付服务提供商 (PSP)。这有助于减少重试次数,避免系统停机,最小化延迟,并最大限度地提高首次尝试的成功率,确保支付流程的顺畅。 5. 对账 (Reconciliation) Hyperswitch 自动化了双向和三向对账流程,支持回溯功能,可错开安排,并提供可定制的输出报告。这显著减少了人工操作工作量,并大大增强了审计的信心和准确性。 6. 替代支付方式 (Alternate Payment Methods) 为了最大化转化率,Hyperswitch 提供了即插即用的组件,支持集成PayPal、Apple Pay、Google Pay、Samsung Pay、银行转账以及Klarna等先买后付(BNPL)服务。这些无缝的一键结账体验有助于提升用户满意度和交易效率。 为何选择 Hyperswitch? Hyperswitch 不仅仅是一个支付平台,它更是一种理念的体现——即“支付领域的Linux”。它的目标是让企业能够真正拥有和控制自己的支付栈。 极致的性能与可靠性:采用Rust语言构建,Hyperswitch天生具备高性能和高并发处理能力,确保支付系统的稳定运行。 高度模块化的架构:其设计让企业可以按需选择所需的模块,实现灵活的集成和扩展,避免了传统一体化解决方案带来的笨重和冗余。 消除供应商锁定:开放的架构和开源的本质,使企业不再受制于单一支付服务商,可以自由切换和组合,以获得最佳的支付体验和费率。 开发者友好的生态:Hyperswitch 注重开发者体验,提供清晰的文档和友好的开发环境,让开发者能够快速上手和集成。 社区驱动与企业级验证:作为一个开源项目,Hyperswitch 的发展路线图由社区反馈和实际使用案例共同塑造。同时,它由为全球400多家领先企业提供支付基础设施的Juspay团队维护,这为项目的稳定性和可靠性提供了企业级的保障。 Hyperswitch 坚信: 拥抱支付多样性:创新源于对支付方式、处理器和流程选择的赋能。 默认开源:透明度是建立信任和更好的可复用软件的基础。 社区驱动开发:其路线图由真实世界的使用案例和贡献者塑造。 系统级工程:对可靠性、安全性与性能有高标准要求。 最大化价值创造:为开发者、客户和合作伙伴带来最大价值。 快速上手与部署 Hyperswitch 提供了多种便捷的部署和体验方式,以适应不同用户的需求: 1. 本地Docker部署 通过简单的脚本,用户可以一键在本地设置 Hyperswitch。该脚本支持Docker/Podman,并提供多种部署配置文件,包括标准、完整或最小化配置,让开发者可以快速搭建本地开发环境进行测试和集成。 ...

September 12, 2025

Daft:面向任意模态和规模的分布式查询引擎

Daft 是一个由 Eventual-Inc 开发的分布式查询引擎,旨在为任何模态和规模的数据提供简单可靠的处理方案。它支持用户通过 Python 或 SQL 进行大规模数据处理,其核心实现基于 Rust 语言。Daft 致力于在数据分析、工程以及机器学习/人工智能领域提供统一且高效的解决方案。 Daft 的核心特性 Daft 引擎融合了多项强大功能,使其在数据处理领域脱颖而出: 熟悉的交互式 API:Daft 提供了一套用户友好的 API,包括用于快速交互式迭代的延迟执行 Python Dataframe,以及用于分析查询的 SQL 接口。这使得不同背景的用户都能轻松上手。 关注“做什么”:Daft 内置了强大的查询优化器,能够自动重写查询,使其执行效率达到最高。用户只需定义他们想要实现的目标,Daft 就会负责优化执行路径。 数据目录集成:它与 Apache Iceberg 等主流数据目录实现了全面集成,方便用户管理和查询其数据资产。 丰富的多模态类型系统:Daft 不仅仅处理传统的字符串、数字和日期等数据类型。其基于 Apache Arrow 的内存表示能够高效支持图像、URL、张量等复杂或嵌套的多模态数据类型。这使得多模态数据的摄取和基本转换变得极其简单且高性能。 无缝数据交换:Daft 构建在 Apache Arrow 内存格式之上,确保了与其他数据处理工具之间的高效数据交换和互操作性。 为云而生:Daft 针对云环境进行了优化,与 S3 等云存储服务集成时,展现出卓越的 I/O 性能。 Daft 的设计理念 Daft 在设计时,遵循了以下三大核心原则: 1. 任意数据 (Any Data) Daft 超越了传统数据处理引擎的限制,不仅能够处理常见的结构化数据,还能高效地处理各种复杂和非结构化数据。无论是图像、嵌入向量,还是定制的 Python 对象,Daft 的基于 Arrow 的内存表示都能以高性能的方式进行存储和操作。这极大地简化了多模态数据的摄取和转换过程,为机器学习和人工智能应用提供了坚实的基础。 2. 交互式计算 (Interactive Computing) 为了提供卓越的开发者体验,Daft 专注于交互式计算场景,如 Jupyter Notebooks 或 REPLs。通过智能缓存和查询优化,Daft 显著加快了实验和数据探索的速度,让开发者能够更快速地迭代和验证想法。 ...

September 11, 2025

Immich:高性能自托管照片和视频管理方案

引言:拥抱您的个人媒体图书馆 在数字化时代,照片和视频已成为我们生活不可或缺的一部分,记录着珍贵的回忆。然而,随着媒体文件数量的激增,如何高效、安全地管理这些宝贵的数字资产成为了一个普遍的挑战。Immich 正是为了解决这一痛点而生:它是一个高性能的自托管照片和视频管理解决方案,旨在为用户提供完全的数据控制权,同时兼具现代云服务的功能性。 与许多依赖第三方云存储的解决方案不同,Immich 赋予用户将所有媒体文件存储在自己服务器上的能力。这意味着您的数据始终在您的掌控之中,极大地提升了隐私和安全性。作为一个活跃的开源项目,Immich 不仅提供了丰富的功能集,还拥有一个充满活力的社区,持续推动其发展和完善。 自托管的优势:掌控您的数字回忆 选择 Immich 这样的自托管解决方案,其核心优势在于对数据的主权和隐私保护。在当今数据泄露和隐私侵犯日益增多的环境下,将个人照片和视频托管在自己的服务器上,避免了将敏感信息托付给大型科技公司的风险。 此外,自托管还带来了更大的灵活性和可定制性。用户可以根据自己的硬件条件和网络环境,优化存储结构和访问速度。无论是家庭用户搭建私人媒体库,还是小型团队共享工作素材,Immich 都能提供一个高效且可控的平台。 核心功能:Immich 的强大之处 Immich 的设计目标是提供与主流照片管理服务相媲美的用户体验,同时融入自托管的优势。其功能涵盖了从基本的上传浏览到高级的智能管理。以下是一些 Immich 的主要亮点: 全面的媒体支持:Immich 支持照片和视频的上传与浏览,用户可以在移动应用和网页界面上无缝访问。 智能自动备份:移动应用程序具备在开启时自动备份功能,确保您的新媒体内容能够及时同步到服务器,有效防止数据丢失。 重复资产检测:系统能够智能识别并防止重复上传,帮助用户保持媒体库的整洁和高效。 精细化备份控制:用户可以选择性地备份特定相册,而非一股脑地同步所有内容,提供了更高的灵活性。 本地下载功能:无论身处何地,用户都可以方便地将照片和视频下载到本地设备,实现离线访问或本地编辑。 多用户支持:Immich 支持多用户账户,每个用户拥有独立的媒体库,但也可通过共享相册进行协作。 直观的交互体验:提供可拖动的滚动条,便于用户快速浏览大量媒体文件。 RAW 格式兼容:对于摄影爱好者而言,Immich 对 RAW 格式的支持意味着可以更好地管理和查看高质量的原始图像文件。 丰富的元数据视图:能够显示照片的 EXIF 信息和地理位置(地图),帮助用户了解媒体的详细信息和拍摄地点。 高级搜索功能:强大的搜索功能允许用户通过元数据、识别出的物体、人脸以及 CLIP(对比语言-图像预训练)模型进行搜索,快速定位所需内容。 管理功能:网页界面提供用户管理等行政功能,方便管理员对整个系统进行配置和维护。 后台备份(移动端):移动应用支持后台备份,即使应用未处于前台,也能持续同步您的媒体文件。 虚拟滚动:无论是移动端还是网页端,Immich 都采用了虚拟滚动技术,确保在加载大量媒体时依然保持流畅的性能。 OAuth 认证支持:支持 OAuth 认证,提升了用户登录的便捷性和安全性。 API 密钥管理(网页端):网页界面允许生成和管理 API 密钥,方便与其他服务或自动化脚本集成。 LivePhoto/MotionPhoto 兼容:支持备份和播放 LivePhoto 和 MotionPhoto,保留动态照片的完整体验。 360 度图像显示(网页端):网页界面能够正确显示 360 度全景图像。 用户自定义存储结构:用户可以根据自己的偏好定义媒体文件的存储路径和组织方式。 公共分享功能:支持创建公共分享链接,方便与家人朋友分享照片和视频。 归档与收藏:提供归档和收藏功能,帮助用户管理不常查看但希望保留的媒体,或快速访问最喜爱的照片。 全球地图视图:集成全球地图功能,直观展示照片的地理分布。 伙伴分享:支持与特定伙伴分享媒体库,实现更紧密的协作。 面部识别与聚类:利用先进的机器学习技术进行面部识别和聚类,自动整理照片中的人物。 “X 年前的今天”回忆功能:自动生成“X 年前的今天”的回忆,重温往日时光。 离线支持(移动端):移动应用提供有限的离线支持,允许在无网络连接时查看部分已缓存的媒体。 只读画廊:可以创建只读画廊,安全分享媒体而无需担心被修改。 堆叠照片:支持将相似或连续拍摄的照片堆叠在一起,优化视图空间。 标签管理(网页端):通过网页界面为媒体添加标签,进一步增强搜索和分类能力。 文件夹视图:支持传统的文件夹视图,满足习惯文件系统管理的用户需求。 重要提示与备份策略 Immich 作为一个正在非常活跃开发中的项目,用户应预期存在错误和潜在的重大变更。项目团队也明确指出:**请勿将 Immich 作为存储照片和视频的唯一方式。**对于您珍贵的数字回忆,务必遵循 3-2-1 备份策略: ...

September 11, 2025

AutoAgent:基于自然语言的全自动化零代码LLM智能体框架

AutoAgent:赋能自然语言驱动的LLM智能体开发 在快速发展的人工智能时代,大型语言模型(LLM)智能体正成为自动化复杂任务的关键力量。AutoAgent 是一个开创性的框架,旨在提供一个全自动化、零代码的LLM智能体开发环境,其核心特色在于其强大的自然语言定制能力。与传统智能体框架不同,AutoAgent 允许用户仅凭自然语言即可创建工具、智能体乃至复杂的智能体工作流。 核心功能概览 AutoAgent 提供两种主要模式,使用户能够通过对话式交互来构建智能体: 智能体编辑器(Agent Editor) 这是 AutoAgent 最具特色的功能之一。通过 agent editor 模式,用户无需编写任何代码,只需使用自然语言描述其需求,即可创建自定义的智能体。这种直观的交互方式大大降低了智能体开发的门槛,使得非技术用户也能轻松设计和部署智能体。 工作流编辑器(Workflow Editor) 除了创建单个智能体,AutoAgent 还支持通过 workflow editor 模式来构建智能体工作流。用户同样可以通过自然语言描述,将多个智能体或工具串联起来,形成一个解决复杂任务的自动化流程。需要注意的是,目前该模式暂时不支持工具的创建功能。 快速上手指南 要开始使用 AutoAgent,请遵循以下详细步骤: 安装 AutoAgent 首先,你需要克隆 AutoAgent 仓库并安装其依赖: git clone https://github.com/HKUDS/AutoAgent.git cd AutoAgent pip install -e . 安装 Docker AutoAgent 利用 Docker 来容器化智能体交互环境,因此请确保你已安装 Docker。你无需手动拉取预构建镜像,Auto-Deep-Research 会根据你的机器架构自动完成此操作。 API 密钥设置 创建一个 .env 文件(可参考 .env.template),并配置你希望使用的LLM提供商的API密钥。并非所有密钥都是必需的,只需设置你需要的服务即可。 GITHUB_AI_TOKEN= OPENAI_API_KEY= DEEPSEEK_API_KEY= ANTHROPIC_API_KEY= GEMINI_API_KEY= HUGGINGFACE_API_KEY= GROQ_API_KEY= XAI_API_KEY= MISTRAL_API_KEY= OPENROUTER_API_KEY= 通过 CLI 模式启动 AutoAgent 提供了易于使用的命令行界面(CLI)来启动。 你可以运行 auto main 来启动 AutoAgent 的完整功能,包括用户模式、智能体编辑器和工作流编辑器。此外,你也可以运行 auto deep-research 来启动更轻量级的用户模式,类似于 Auto-Deep-Research 项目。 ...

September 10, 2025