
如果你布置重的任务,我建议也是给他完全权限。因为有可能中断了,可能一个小时、两个小时,那都得盯着。在完全开启的情况下,它是可以直接不经过你的授权修改删除任何的文件。
大家用 Codex 的时候,是不是觉得又慢又傻?
今天分享几个小技巧,让你的 Codex 变得又快又聪明。
首先在选择模型上:
其实我平时用的比较多的可能是 GPT 5.4,但 GPT 5.3 Codex 在部分场景下它的性能其实会优于 GPT 5.4。
因为 GPT 5.4 它有这个工具搜索的能力,它是会去适配你的需求,然后去搜索想要调用的工具。
这样就导致一个问题,就是它在一些场景下,其实我不想让它调用工具,它非要去调用工具,因为它为了省 TOKEN 嘛。
比如它会调用一个工具去写一个Python,写完 Python 之后用这个 Python 脚本去改代码。
就是这样一套流程操作完之后,我觉得它的效率和精准度其实是不如 GPT 5.3 Codex 的。
所以我建议让它直接改,它哪怕多费点TOKEN。
但是大部分场景下其实 5.4 还是不错的。
其次就是思考深度:
它有低、中、高和超级高。
至于选择哪种,大部分情况下就是匹配你自己的需求。
如果你的这个问题是比较大的、比较重的一个任务,比如你从零开始构建一个非常大的项目,或者说你把别人项目你想要完全的重构,那这样一个比较大的工程的话,那必须要去选择超级高。
当然他花的时间会非常长,但是他的模型的智商也是会非常的在线,基本上一遍或者两遍就能改好。
那还有一种情况下也可以选择超级高。
就是比如说你布置了一个任务之后,不管这任务大小,你布置了一个任务之后,你就不管他了,有可能去吃饭或者出门了,那就选择超级高,因为你就让他慢慢做,就不差这个时间。
实际上他这四种模式其实关键的差距就在于时间,当然 TOKEN 也有差距。
平时你比如说一些小的改动,就涉及几行代码,或者说就涉及一个文件的时候,那你就选择中等吧,这个低是不建议去选了。
还有就是如何提高速度?
第一个是这个 Fast 模式。
我们一定要开启,它可以提升你这个模型 TOKEN 的输出速度,当然它会两倍计费啊。
还有一个就是这个权限的问题。
如果你布置重的任务,我建议也是给他完全权限。
因为有可能中断了,可能一个小时、两个小时,那都得盯着。
在完全开启的情况下,它是可以直接不经过你的授权修改删除任何的文件。
我们在开启这个模式之后,一定要去做好备份,或者是用 GIT 去做好这个仓库的管理。
不然的话有可能你的代码会完全丢失,你如果仓库管理做好,他误删了你什么文件,你直接回退一个版本就好了。
还有就是如果是一些老版本你们不愿意更新的话,那就在这个选项里面它是一个实验性的功能:叫 Multi Agent,也就是多代理的功能。
新版已经默认开启了这个功能。
这个功能就是比如说你读取文件,现在有三个文件,我现在要让他读取这个项目,理解这个项目。
如果你开启 Multi Agent 的话,他会同时多线程的去读取,三个并行去读取,那他的速度就会快非常多。
最后读取完之后再统一导入到主代理上,让主代理去理解,所以说这个速度上会非常快。





