注册并分享邀请链接,可获得视频播放与邀请奖励。

Barret李靖 (@Barret_China) “为了让交付更快、更稳,我通常会先和 AI 一起把需求的整体设计讨论清楚,包括前端交互” — TopicDigg

Barret李靖 的个人资料封面
Barret李靖 的头像
Barret李靖
@Barret_China
AI Engineer | Lifelong Learner | Dad of 2 | Cloud Native | Sharing insights and experiences | 小胡子哥,一个有趣的灵魂
加入 March 2011
399 正在关注    81.2K 粉丝
为了让交付更快、更稳,我通常会先和 AI 一起把需求的整体设计讨论清楚,包括前端交互设计、后端 MVC 结构、代码逻辑抽象、组件复用、开放模块设计、稳定性设计,以及架构和工程层面的优化。 一轮讨论结束之后,AI 通常会生成 3~5 个文件,对应不同维度的项目变更设计文档。 接下来,就会让 AI 根据项目复杂度选择合适的模型配置,同时开启多个进程跑 CLI,或者拉起多个子 Agent 一起干活。 这个模式的效率确实很高,不过带来的最大问题只有一个:钱不够烧。 我在 Codex 上买了两个账号轮着用,Github Copilot 也买了两个账号。用了一段时间之后发现,Codex 的 token 限额算是最亲民的,5 小时窗口 + 周限额窗口。周限额有时候看起来还挺随机,昨天还显示要等一周才能恢复,结果第二天一看,额度已经恢复到 100%。 Github Copilot 刚开始没有太注意,它其实是按照 Request 来限流的。有一次为了调一个细节,一晚上来回聊了很多次,直接把月额度干没了。后来慢慢摸索出一个用法:专门让 Copilot 处理大的需求,一个 Request 里塞进去好几个复杂任务,反而会觉得“真香”。 Google One 的 Family 方案其实也很香,用 Antigravity Tools 做反代就能跑。不过最近封号有点猛,现在基本不太敢用了。 当所有账号都被干到限流之后,也试过用国内的一些模型,比如 Kimi-k2.5、GLM-5。做一些常规的小需求其实问题不大,一旦遇到复杂问题,就很容易陷入无限递归循环: 排查 → 修复 → 没改好 → 继续排查。 这个时候就会特别怀念 Codex-5.3-xhigh 和 Claude-Opus-4.6。 另外,这几天刚出来的 Codex 5.4 表现更明显,之前需要排查好几轮才能解决的问题,它经常一把就能过。
显示更多
0
5
99
14
转发到社区