建立 AI 原生工程团队

编码 Agent 如何加速软件开发生命周期

简介

AI 模型正在迅速扩展其能够执行的任务范围,这对工程领域有着深远的影响。前沿系统现在可以维持数小时的推理:截至 2025 年 8 月,METR 发现领先的模型可以连续工作 2 小时 17 分钟,并以大约 50% 的置信度生成正确答案。

这种能力正在快速提升,任务长度大约每七个月翻一番。仅在几年前,模型只能处理约 30 秒的推理——仅足以提供简短的代码建议。今天,随着模型能够维持更长的推理链,整个软件开发生命周期都在 AI 协助的范围内,使得编码 Agent(Coding Agents)能够有效地为规划、设计、开发、测试、代码审查和部署做出贡献。

AI 原生工程团队示意图

在本指南中,我们将分享真实的案例,概述 AI Agent 如何为软件开发生命周期做出贡献,并为工程领导者提供切实可行的指导,说明今天该如何开始建立 AI 原生团队和流程。

AI 编程:从自动补全到 Agent

AI 编程工具已经远远超出了其作为自动补全助手的起源。早期的工具主要处理快速任务,例如建议下一行代码或填充函数模板。随着模型获得更强的推理能力,开发人员开始在 IDE 中通过聊天界面与 Agent 互动,进行结对编程和代码探索。

今天的编码 Agent 可以生成整个文件,搭建新项目,并将设计转化为代码。它们可以推理多步骤的问题,如调试或重构,Agent 的执行也从单个开发人员的机器转移到了基于云的多 Agent 环境。这正在改变开发人员的工作方式,使他们花在 IDE 内部生成代码的时间变少,而花在委派整个工作流上的时间变多。

能力 带来的作用
跨系统的统一上下文 单个模型可以读取代码、配置和遥测数据,提供跨层级的连贯推理,而以前这需要分离的工具。
结构化工具执行 模型现在可以直接调用编译器、测试运行器和扫描器,生成可验证的结果,而不是静态建议。
持久的项目记忆 长上下文窗口和压缩(compaction)技术允许模型从提案到部署全程跟踪一个功能,记住以前的设计选择和约束。
评估循环 模型输出可以根据基准(单元测试、延迟目标或风格指南)自动测试,确保持续改进基于可衡量的质量。

在 OpenAI,我们亲眼目睹了这一点。开发周期已经缩短,以前需要数周的工作现在几天就能交付。团队在不同领域间移动更加轻松,能够更快地熟悉不熟悉的项目,并在整个组织中以更高的敏捷性和自主性运作。许多常规且耗时的任务,从为新代码编写文档、查找相关测试、维护依赖关系到清理功能标志(feature flags),现在完全委托给了 Codex。

然而,工程学的某些方面保持不变。代码的真正所有权——尤其是对于新颖或模糊的问题——仍然属于工程师,某些挑战超出了当前模型的能力。但是,有了像 Codex 这样的编码 Agent,工程师现在可以将更多时间花在复杂和新颖的挑战上,专注于设计、架构和系统级推理,而不是调试或机械式的实现。

在接下来的部分中,我们将分解 SDLC(软件开发生命周期)的每个阶段随编码 Agent 发生的变化,并概述您的团队可以采取的具体步骤,以开始像 AI 原生工程组织一样运作。

1. 规划 (Plan)

整个组织的团队通常依赖工程师来确定功能是否可行、构建需要多长时间以及涉及哪些系统或团队。虽然任何人都可以起草规范,但形成准确的计划通常需要对代码库有深刻的了解,并与工程部门进行多轮迭代,以发现需求、澄清边缘情况并就技术现实达成一致。

编码 Agent 如何提供帮助

AI 编码 Agent 在规划和定界过程中为团队提供即时的、感知代码的洞察。例如,团队可以构建工作流,将编码 Agent 连接到其问题跟踪系统,以读取功能规范,将其与代码库进行交叉引用,然后标记模糊之处,将工作分解为子组件,或估算难度。

编码 Agent 还可以即时追踪代码路径,显示某个功能涉及哪些服务——这项工作以前需要数小时或数天的人工挖掘。

工程师转而做什么

团队可以将更多时间花在核心功能工作上,因为 Agent 提供了以前需要开会进行产品对齐和定界所需的上下文。关键的实现细节、依赖关系和边缘情况在前期就被识别出来,从而以更少的会议实现更快的决策。

委派 (Delegate) 审查 (Review) 拥有 (Own)
AI Agent 可以进行第一轮可行性和架构分析。它们读取规范,将其映射到代码库,识别依赖关系,并提出需要澄清的模糊点或边缘情况。 团队审查 Agent 的发现,以验证准确性,评估完整性,并确保估算反映了真实的技术限制。故事点分配、工作量大小评估和识别非显而易见的风险仍然需要人类判断。 战略决策——例如优先级排序、长期方向、排序和权衡——仍然由人类主导。团队可能会向 Agent 询问选项或后续步骤,但规划和产品方向的最终责任在于组织。

入门清单

2. 设计 (Design)

设计阶段通常因基础设置工作而放缓。团队花费大量时间编写样板代码、集成设计系统以及完善 UI 组件或流程。模型图与实现之间的错位会造成返工和漫长的反馈周期,而探索替代方案或适应不断变化的需求的带宽有限,推迟了设计验证。

编码 Agent 如何提供帮助

AI 编程工具通过搭建样板代码、构建项目结构以及即时实施设计令牌(design tokens)或风格指南,极大地加速了原型设计。工程师可以用自然语言描述所需的功能或 UI 布局,并获得符合团队惯例的原型代码或组件桩(stubs)。

它们可以直接将设计转换为代码,建议可访问性改进,甚至分析代码库中的用户流程或边缘情况。这使得在数小时而不是数天内迭代多个原型成为可能,并且可以在流程早期进行高保真原型设计,为决策提供更清晰的基础,并更早地进行客户测试。

工程师转而做什么

随着常规设置和转换任务由 Agent 处理,团队可以将注意力转移到高杠杆工作上。工程师专注于完善核心逻辑,建立可扩展的架构模式,并确保组件符合质量和可靠性标准。设计师可以花更多时间评估用户流程和探索替代概念。协作的重心从实施开销转移到改进底层产品体验上。

委派 (Delegate) 审查 (Review) 拥有 (Own)
Agent 处理初始实现工作,包括搭建项目脚手架、生成样板代码、将模型图转换为组件以及应用设计令牌或风格指南。 团队审查 Agent 的输出,确保组件遵循设计惯例,符合质量和可访问性标准,并与现有系统正确集成。 团队拥有总体设计系统、UX 模式、架构决策以及用户体验的最终方向。

入门清单

3. 构建 (Build)

构建阶段是团队感到摩擦最大的地方,也是编码 Agent 影响最明显的地方。工程师花费大量时间将规范转换为代码结构,连接服务,在代码库中复制模式,并填充样板代码,即使是小功能也需要数小时的忙碌工作。

随着系统的增长,这种摩擦会加剧。大型单体仓库积累了模式、惯例和历史遗留问题,拖慢了贡献者的速度。工程师花费在重新发现“正确做法”上的时间可能与实现功能本身的时间一样多。在规范、代码搜索、构建错误、测试失败和依赖项管理之间不断的上下文切换增加了认知负荷——长时间运行任务中的打断进一步破坏了心流并延迟了交付。

编码 Agent 如何提供帮助

在 IDE 和 CLI(命令行界面)中运行的编码 Agent 通过处理更大的、多步骤的实施任务来加速构建阶段。它们不仅是生成下一个函数或文件,而是在一次协调运行中生成完整的端到端功能——数据模型、API、UI 组件、测试和文档。凭借对整个代码库的持续推理,它们处理以前需要工程师手动追踪代码路径的决策。

对于长时间运行的任务,Agent 可以:

在实践中,这将许多机械的“构建工作”从工程师转移到了 Agent 身上。Agent 成为第一轮实施者;工程师成为审查者、编辑和方向的来源。

工程师转而做什么

当 Agent 能够可靠地执行多步骤构建任务时,工程师会将注意力转移到更高阶的工作上:

工程师不再是将功能规范“翻译”成代码,而是专注于正确性、连贯性、可维护性和长期质量,这些是人类背景知识仍然最重要的地方。

委派 (Delegate) 审查 (Review) 拥有 (Own)
Agent 为明确指定的功能起草第一版实现——脚手架、CRUD 逻辑、连接、重构和测试。随着长时间推理能力的提高,这越来越多地涵盖完整的端到端构建,而不仅是孤立的片段。 工程师评估设计选择、性能、安全性、迁移风险和领域一致性,同时纠正 Agent 可能错过的细微问题。他们塑造和完善 AI 生成的代码,而不是执行机械工作。 工程师保留对需要深刻系统直觉的工作的所有权:新的抽象、跨领域的架构变更、模糊的产品需求和长期的可维护性权衡。随着 Agent 承担更长的任务,工程工作从逐行实施转变为迭代监督。

案例:
Cloudwalk 的工程师、产品经理、设计师和运营人员每天都在使用 Codex 将规范转化为可工作的代码,无论是需要一个脚本、一个新的欺诈规则,还是几分钟内交付的完整微服务。它消除了构建阶段的繁忙工作,赋予每位员工以惊人速度实现想法的能力。

入门清单

4. 测试 (Test)

开发人员经常难以确保足够的测试覆盖率,因为编写和维护全面的测试需要时间,需要切换上下文,并且需要深入了解边缘情况。团队经常面临在快速行动和编写彻底测试之间的权衡。当截止日期临近时,测试覆盖率往往首先受到影响。

即使编写了测试,随着代码的演变保持其更新也会带来持续的摩擦。测试可能变得脆弱,因不明原因失败,并且可能需要随着底层产品的变化进行重大的重构。高质量的测试能让团队更有信心地更快发布。

编码 Agent 如何提供帮助

AI 编程工具可以通过几种强大的方式帮助开发人员编写更好的测试。首先,它们可以根据阅读需求文档和功能代码逻辑建议测试用例。模型在建议开发人员可能容易忽视的边缘情况和故障模式方面出奇地好,尤其是当开发人员一直专注于功能本身而需要第二种意见时。

此外,模型可以帮助随着代码演变保持测试更新,减少重构的摩擦,避免陈旧的测试变得不稳定。通过处理测试编写的基本实现细节并发现边缘情况,编码 Agent 加速了开发测试的过程。

工程师转而做什么

使用 AI 工具编写测试并不能免除开发人员思考测试的需要。事实上,随着 Agent 消除了生成代码的障碍,测试作为应用程序功能真理来源的作用变得越来越重要。由于 Agent 可以运行测试套件并根据输出进行迭代,定义高质量的测试通常是允许 Agent 构建功能的第一步。

相反,开发人员更多地关注测试覆盖率的高级模式,在模型识别的测试用例基础上进行构建和挑战。让测试编写更快,允许开发人员更快地发布功能,也能承担更雄心勃勃的功能开发。

委派 (Delegate) 审查 (Review) 拥有 (Own)
工程师将根据功能规范生成测试用例的初稿委托给 Agent。他们还会使用模型进行第一轮测试生成。让模型在与功能实现分开的会话中生成测试通常很有帮助。 工程师必须彻底审查模型生成的测试,以确保模型没有走捷径或实施桩(stubbed)测试。工程师还需确保测试可以由 Agent 运行;确保 Agent 具有适当的运行权限,并且 Agent 具有对其可以运行的不同测试套件的上下文感知。 工程师拥有将测试覆盖率与功能规范和用户体验期望对齐的责任。对抗性思维、映射边缘情况的创造力以及对测试意图的关注仍然是关键技能。

入门清单

5. 审查 (Review)

平均而言,开发人员每周花费 2-5 小时进行代码审查。团队经常面临选择:是投入大量时间进行深度审查,还是对看似微小的更改进行快速的“差不多就行”的通过。当这种优先级排序出现偏差时,错误就会溜进生产环境,给用户带来问题并造成大量返工。

编码 Agent 如何提供帮助

编码 Agent 允许代码审查流程扩展,使每个 PR 都能获得一致的基础关注。与传统的静态分析工具(依赖于模式匹配和基于规则的检查)不同,AI 审查者实际上可以执行部分代码,解释运行时行为,并跨文件和服务追踪逻辑。然而,为了有效,模型必须经过专门训练以识别 P0 和 P1 级别的错误,并调整为提供简洁、高信号的反馈;过于冗长的回复就像嘈杂的 lint 警告一样容易被忽略。

工程师转而做什么

在 OpenAI,我们发现 AI 代码审查让工程师更有信心,相信他们不会将重大错误发布到生产环境。通常,代码审查会捕捉到贡献者可以在引入其他工程师之前纠正的问题。代码审查不一定能让拉取请求过程更快,尤其是当它发现有意义的错误时——但它确实能预防缺陷和中断。

委派 vs 审查 vs 拥有

即使有 AI 代码审查,工程师仍负责确保代码准备好发布。实际上,这意味着阅读并理解变更的含义。工程师将初始代码审查委托给 Agent,但拥有最终审查和合并流程。

委派 (Delegate) 审查 (Review) 拥有 (Own)
工程师将初始编码审查委托给 Agent。在队友标记 PR 为准备好审查之前,这种情况可能会发生多次。 工程师仍然审查拉取请求,但更侧重于架构对齐;是否实施了可组合的模式,是否使用了正确的惯例,功能是否符合需求。 工程师最终拥有部署到生产环境的代码;他们必须确保其运行可靠并满足预期要求。

案例:
Sansan 使用 Codex 审查竞争条件(race conditions)和数据库关系,这些通常是人类容易忽视的问题。Codex 还能捕捉到不当的硬编码,甚至预见到未来的可扩展性问题。

入门清单

6. 文档 (Document)

大多数工程团队都知道他们的文档滞后,但发现追赶成本很高。关键知识通常由个人掌握,而不是记录在可搜索的知识库中,现有的文档很快就会过时,因为更新文档会分散工程师的产品工作。即使团队进行文档冲刺,结果通常也是一次性的努力,一旦系统演变就会失效。

编码 Agent 如何提供帮助

编码 Agent 非常擅长基于阅读代码库来总结功能。它们不仅可以撰写关于代码库部分如何工作的文章,还可以生成诸如 mermaid 语法的系统图表。随着开发人员使用 Agent 构建功能,他们也可以通过简单地提示模型来更新文档。通过 AGENTS.md,可以自动在每个提示中包含按需更新文档的指令,以保持一致性。

由于编码 Agent 可以通过 SDK 以编程方式运行,它们也可以整合到发布工作流中。例如,我们可以要求编码 Agent 审查包含在发布中的提交并总结关键变更。结果是,文档成为交付管道的一个内置部分:生成更快,更容易保持最新,不再依赖于某人“找时间”来做。

工程师转而做什么

工程师从手动编写每份文档转变为塑造和监督系统。他们决定文档如何组织,添加决策背后的重要“原因”,设定 Agent 遵循的清晰标准和模板,并审查关键或面向客户的部分。他们的工作变成了确保文档结构化、准确并融入交付过程,而不是自己完成所有的打字工作。

委派 (Delegate) 审查 (Review) 拥有 (Own)
将低风险、重复性的工作完全移交给 Codex,如文件和模块的初稿摘要、输入输出的基本描述、依赖列表和拉取请求变更的简短摘要。 在发布任何内容之前,工程师审查和编辑由 Codex 起草的重要文档,如核心服务概述、公共 API 和 SDK 文档、运行手册(runbooks)和架构页面。 工程师仍负责整体文档策略和结构、Agent 遵循的标准和模板,以及所有涉及法律、监管或品牌风险的面向外部或安全关键的文档。

入门清单

7. 部署和维护 (Deploy and Maintain)

理解应用日志对软件可靠性至关重要。在事件(Incident)期间,软件工程师会参考日志工具、代码部署和基础设施变更来确定根本原因。这个过程通常令人惊讶地手动化,需要开发人员在不同系统之间来回切换,在事件等高压情况下浪费了关键的几分钟。

编码 Agent 如何提供帮助

有了 AI 编程工具,除了代码库的上下文之外,您还可以通过 MCP 服务器提供对日志工具的访问。这允许开发人员拥有单一的工作流,他们可以提示模型查看特定端点的错误,然后模型可以使用该上下文遍历代码库并找到相关的错误或性能问题。由于编码 Agent 还可以使用命令行工具,它们可以查看 git 历史记录,以识别可能导致日志跟踪中捕获的问题的具体更改。

工程师转而做什么

通过自动化日志分析和事件分类中繁琐的部分,AI 使工程师能够专注于更高级别的故障排除和系统改进。与其手动关联日志、提交和基础设施变更,工程师可以专注于验证 AI 生成的根本原因,设计弹性的修复方案,并开发预防措施。这种转变减少了花在被动“救火”上的时间,使团队能够将更多精力投入到主动的可靠性工程和架构改进中。

委派 (Delegate) 审查 (Review) 拥有 (Own)
许多运营任务可以委托给 Agent——解析日志、发现异常指标、识别可疑代码更改,甚至提出热修复建议。 工程师审查并完善 AI 生成的诊断,确认准确性,并批准补救步骤。他们确保修复符合可靠性、安全性和合规性标准。 关键决策权在于工程师,尤其是对于新颖的事件、敏感的生产变更或模型置信度较低的情况。人类仍然负责判断和最终签署。

案例:
Virgin Atlantic(维珍大西洋航空)使用 Codex 加强团队部署和维护系统的方式。Codex VS Code 扩展为工程师提供了一个单一的地方来调查日志,跨代码和数据追踪问题,并通过 Azure DevOps MCP 和 Databricks Managed MCP 审查变更。通过在 IDE 内统一这种操作上下文,Codex 加速了根本原因的发现,减少了手动分类,并帮助团队专注于验证修复和提高系统可靠性。

入门清单

结论

编码 Agent 正在通过承担传统上拖慢工程团队速度的机械性、多步骤工作,以此变革软件开发生命周期。凭借持续的推理、统一的代码库上下文以及执行真实工具的能力,这些 Agent 现在处理从定界和原型设计到实施、测试、审查甚至运营分类的任务。工程师牢牢控制着架构、产品意图和质量——但编码 Agent 正日益成为 SDLC 每个阶段的第一轮实施者和持续合作者。

这种转变不需要彻底的推翻重来;随着编码 Agent 变得更加能干和可靠,小的、有针对性的工作流会迅速复利。从范围明确的任务开始,投资于护栏,并迭代扩展 Agent 责任的团队,将在速度、一致性和开发人员专注度方面看到显著收益。

如果您正在探索编码 Agent 如何加速您的组织,或正在准备您的首次部署,请联系 OpenAI。我们要帮助您将编码 Agent 转化为真正的杠杆——在规划、设计、构建、测试、审查和运营中设计端到端的工作流,并帮助您的团队采用生产就绪的模式,使 AI 原生工程成为现实。

原文

源链接