AI常见问题

最终形态

智能体将代替90%的操作员,例如:部署、运维等这类工作将会消失; agent 会操作各种类专业的基础设施软件进行更高效的工作,剩余 10% 的人用于搭建和调度 Agent 智能体;而 docker、nginx 等这些专业软件将长期存在,并逐渐 API 化,以便 agent 更方便的进行部署和配置。


AI幻觉

AI模型本质上根据概率预测下一个字符,因此其出现幻觉的原因如下:

  • 训练数据污染: 训练数据中包含错误的教程或过时的语法。
  • 状态脱节: 模型在回复时,无法实时感知服务器当前的真实反馈(例如磁盘满了、端口被占),它会“脑补”一个成功的操作结果。
  • 无法彻底解决: 这是一个概率问题,无法 100% 消除。但可以通过 RAG(检索增强生成) 喂入最新的官方文档,或使用 受限语法(Constrained Output) 强迫它输出正确的 JSON/Shell 格式来大幅降低概率。


上下文管理

Agent 通常需要做很多事情,而 Agent 的上下文管理直接决定了 AI 是“智障”还是“智障”;以下是目前的最佳实践:

a> OpenClaw 在执行操作时,并不是把屏幕的每一帧像素都传给 AI;它通常只会解析当前界面,并尽量忽略界面中无关的元素;当操作界面发生变化时,就会更新上下文,而不是继续向上下文中堆积更多信息。


b> 使用 RAG ,在使用某个专业工具或做会某些复杂工作时,应该联网搜索相关资料或通过RAG来辅助 Agent 工作,而不是将相关资料直接塞到上下文中。


c> 对于生成600页Word文件中这种“大型”操作,人类调试者应该提前做好安排和处理,确保 openClaw 只是调用执行。


如果 Token 用尽, OpenClaw 的 Agent 可能会陷入“报错 -> 重试 -> 报错”的死循环,上下文会迅速堆积垃圾信息,导致 AI 变得更加混乱。


执行者和审核者

AI 虽然写得快,但经常会在以下问题:

- 逻辑漏洞与边界问题: 漏掉空值检查、处理复杂的并发死锁,或在边缘输入下崩溃。

- 安全隐患: 习惯性地使用不安全的模式,如注入漏洞、硬编码密码或错误的权限控制。

- 资源浪费(性能差): 生成能跑但低效的代码,例如在循环中进行大量的 I/O 操作或内存泄漏。

- 知识陈旧: 使用了过时的 API 或已被弃用的库。

- 不遵守规范: 代码风格不统一、命名随意,导致后期维护困难。 


审核 Agent 的“能力”主要来自以下三个维度:

- 多维度的判定标准: 审核 Agent 的 Prompt(提示词)通常被注入了极其严格的规则库,如 OWASP 安全标准、Google Python 风格指南 等,使其天然具备比普通生成更强的“批判性”。

- 外挂“工具箱”: 审核 Agent 集成了静态代码分析工具(如 ESLint、SonarQube)和自动测试环境。它不只是“看”,还会尝试运行代码或分析抽象语法树 (AST)。

- 更广的上下文视角: 审核 Agent 被赋予访问整个项目工程、历史提交(Git Context)和业务需求文档的权限,从而判断代码是否符合架构设计。 


综上,执行者 + 审核者 的模式,可以解决以下问题:

克服“当局者迷”: 生成代码的 Agent 容易陷入自己的逻辑惯性(即“幻觉”),认为自己生成的代码是正确的。引入独立的审核 Agent 可以从第三方视角进行客观评估。

专业化分工: “写”侧重于功能实现和创造,而“审”侧重于边界情况、安全性及规范性检查。

形成闭环迭代: 两个 Agent 之间的“生成-反馈-修改”循环,能显著提高最终产出代码的质量和成功率,减少人类介入的频率。







举报

© 著作权归作者所有


0