传统的工程管理追求效率优化和人力充足,但在 AI 时代,Boris 提出了一套完全相反的逻辑。
传统观点:项目重要就多加人。
AI 时代观点:故意保持团队规模过小(Under-staffing)。
当只有一名工程师却要完成五人的工作时,他们被迫将一切自动化(Claude-ify)。这不仅提高了效率,更诞生了原本不敢想象的全新工作流。资源充足反而会让人退回到手动模式。
不要为了当下的模型去过度优化 Prompt 或搭建复杂的工程脚手架(Scaffolding)。
工程优化的收益(10-20%)通常会被下一代通用模型的规模效应直接抹平。正确的做法是:即使现在的产品体验很差(Product-Market Fit 不足),也要按照"未来模型能力"去设计,等模型追上来时,产品将直接起飞。
尽量使用最聪明、最昂贵的模型(如 Opus 4.6)。
虽然单次调用昂贵,但智能模型能一次做对(One-shot)。使用"便宜"模型导致需要反复纠错、人工介入,最终不仅消耗更多 Token,还浪费了昂贵的工程师时间。在这个时代,算力成本远低于因愚蠢导致的隐性成本。
Anthropic 的爆款产品并非源自精心策划,而是源自观察用户如何“滥用”工具。
用户开始用代码终端工具(Claude Code)做奇怪的事:修图、分析核磁共振图、订披萨。
当用户忍受着极高的摩擦力(在命令行里操作非技术任务)去使用你的工具时,说明这里存在巨大的潜在需求。Anthropic 据此开发了面向普通人的桌面代理工具 Co-Work,仅用 10 天就完成了构建。
早期 AI 产品试图用复杂的流程图限制 AI。现在的逻辑是:给 AI 工具和目标,让它自己规划路径。
产品即模型本身(The product is the model)。不要试图预设工作流,而是通过 "Plan Mode"(计划模式)让 AI 先思考再执行。这也是 "Agentic"(代理化)的核心定义:AI 不仅对话,还能行动。
如何确保 AI 不失控?以及在极速变化的时代,个人如何自处?
不仅仅看输出结果(Evals),而是直接观测模型内部神经元的激活状态。
就像神经科学研究人脑一样。如果能定位到代表"欺骗"的神经元,就能在模型撒谎之前通过监控内部状态来发现风险。这是比传统测试更底层的安全屏障。
Boris 曾在日本乡下生活,学习制作味增(Miso),这需要数年发酵。
AI 的迭代以周为单位,但真正的智慧需要像味增一样发酵。在 AGI 到来后,或许我们会回归到这种长周期的、与物质世界连接的生活方式。这种"慢"与技术的"快"构成了必要的心理平衡。