AI,一把锋利的双刃剑
最近使用 Cursor + Claude Sonnet 4 开发了一段时间,依然符合我之前对 AI 的基本认知:每过半年 AI 的能力会上升一个台阶。 使用 AI 完成简单的前端需求,我在半天内完成了一周的工作量。对需求描述要求不高,较少的实现和设计细节,Claude 4 基本可以一次完成,而且写的相当好。 完成一些比较复杂但是常见、且涉及面单一的场景时,Claude 4 表现的比人类开发更强(说的就是我自己),比如实现一个发布订阅类。会节省我非常多的时间。 实现一个比较复杂、不常见、细节比较多且不太好描述的功能时,需要考验人类的表达能力,一般会有一些出入,对于本来就精通的人来说有能力逐步完善,直到实现。 比较让我惊讶的是实现某一个我不了解的能力的功能时,它可以按照这个场景比较常见的实现帮我完成。当然这本来就是 AI 应该提供的能力,但是在真的解决实际问题之后还是很震撼。 我的仓库有一些默认的全局导入模块,但是每次 AI 都会“好心”的帮我再显式的导入一次,这可能是我的问题,Cursor 应该有配置 Prompt 的地方。不过我的根目录也有 Claude.json 显然它应该默认使用里面的规范去完成功能。
我认为,能否用好 AI 的前提是,你是否拥有实现目标所需的最小认知。你把 AI 当做效率工具还是完全依赖它做决策的认知工具? 假设在实现的过程中,你完全不知道它具体实现的过程,仅仅只是面向结果,它很可能会出现一些符合问题但不是最佳实践的幻觉。ai 本质上还是在模仿,就像刚开始 AI 生成的图片一样,人会出现 4 或 6 根手指,如果完全由现有的素材训练,它无法知道唯一且正确的事物客观规律,哪怕人类一只手有五根手指的规律包含在素材中。 “给我设计一个圆形的可以飞行的实心石头。”,它从现象里能推断出这是不会出现的吗?又或者加上一个动漫或者其他不需要满足现实规律的前提。你如何判断 AI 为了回答你的要求所实现的符合它训练特征的结果的真伪。它的回复一定符合它所训练的特征,但不一定符合你的预期,有时候你也是带着未知去向它提问。如果你的认知过低,你连对 AI 提出的问题都是违背客观规律的。
对于一个对目标没有认知的人,他无法判断 ai 的结果是否符合预期,但是会让你产生不必学习就已经学会的错觉。以后这条规则应该会更弱,但现在来看把 AI 当做效率工具应该是更安全的,当然其中也包含了在学习过程中的效率工具。
这些大概率在将来也会被解决,相比大多数的行业技能,人的思维、创造力会更加重要。