可观测性 3.0:当你的系统里跑着 AI Agent,你还看得懂它在做什么吗?
Metrics、Logs、Traces——这套经典三支柱撑起了过去十年的可观测性体系。但当系统里的”执行者”从确定性代码变成了 AI Agent,传统的观测手段开始出现盲区。今天我想聊聊可观测性在 AI 时代面临的新挑战,以及工程师该怎么应对。
Metrics、Logs、Traces——这套经典三支柱撑起了过去十年的可观测性体系。但当系统里的”执行者”从确定性代码变成了 AI Agent,传统的观测手段开始出现盲区。今天我想聊聊可观测性在 AI 时代面临的新挑战,以及工程师该怎么应对。
上周,Anthropic 发布了他们的 《2026 Agentic Coding Trends Report》,同一时间,Claude Code 的创造者 Boris Cherny 在媒体上大胆预测:“Software Engineer” 这个职位名称,可能在今年年底前开始消失。
去年一个秋天的深夜,我当时出于好奇的想法,尝试用GPT去理解一道hard的 LeetCode 题,结果 GPT 在不到 20 秒内就给出了完整解法——包括边界条件处理和时间复杂度分析。我看了一眼代码,逻辑清晰,甚至比我自己写的还要优雅。 感觉在 AI 看来,它们跟 Hello World 没什么区别。
一个让我警觉的瞬间前几周,我在做一个相对普通的系统设计决策——选择用哪种缓存失效策略。这类问题我过去闭着眼睛都能推导出来,有时候在洗澡的时候就想清楚了。 但那天,我下意识地打开了Claude,把问题贴了进去。 等AI回答的那十几秒里,我突然意识到:我没有先想。我甚至没有给自己的大脑留出思考的空间,就直接去问AI了。 这让我感到一种隐隐的不安。
一年半的时间,AI 编程从”猜你想写什么”进化到”告诉我你要什么”。作为一线开发者,我经历了这场变革的每一步——也在思考,下一步该怎么走。