AI时代最高级的生存法则:让AI“发散”,让自己“收敛”


一场席卷学术圈的“AI 洪水”

最近学术圈出了一条新闻,掀起了热烈的讨论。

2025年10月31日,arXiv官方发布了一条公告:自公告发布之日起,所有综述类论文与立场类论文,必须先通过期刊或会议的同行评审,才能提交到arXiv。没有同行评审证明的,直接拒稿。

官方的说法是,他们现在每天能收到1200多篇论文,每个月收到数百篇综述类论文,其中90%的质量非常差——基本都是“注水论文”,就是参考文献加几句评论。完全没有新想法。

过去靠人力写论文的时代,即使是水文,也要花费几周时间,要去查资料,还要组织语言,最起码看着像个样子。

但是ChatGPT来了之后,整个游戏规则都变了。现在使用AI,一天能生产几十篇,是上百倍、上千倍的效率。

这就是“杰文斯悖论”。它的意思是:本来技术应该提高效率,结果却是整个系统被那些由于技术提升而产生的垃圾所淹没,以至于效率越高,问题越大。这不就是AI让写论文的效率提升,结果不是让学术交流更高效,而是让整个系统被海量的注水论文淹没吗?

这不只是学术圈的困境,更是我们每个内容创作者、每个独立开发者,甚至整个时代的共同困境。

真正让我害怕的事

这个 arXiv 的“注水论文”事件,如果说仅仅是数量问题,你可能会说并不是最可怕,我们还有措施解决,就像arXiv启动的第三方认证。

那么AI不仅在“数量”上制造垃圾,会不会同样在**“质量”**上也给我们下套?

很不幸答案是:会的。AI已经在不知不觉之间,不断推动我们进行认知外包。

你有没有想过,我们现在工作流程是先自己有一个初稿,然后让AI优化;还是反过来,你先让AI给你输出内容,甚至结果,你来进行二次加工和优化。

我仔细想了想,发现我们现在越来越多的工作,变成了先提出问题,AI给出建议,然后明确方向,最后一步步推进完成。

AI工具的发展,也在不停地推动着我们将我们的认知外包。这是因为现在的AI工具的底层逻辑就是让你少思考,比如一段话生成整个ppt、一键总结、对话式生成数据可视化表格、自动归档等,其目的都是为降低你的认知负担。

这些AI工具,这种使用AI的工作流程,都是在潜移默化将你我变成一个“等待答案”的人。而且这个过程太爽了。

不仅不用动脑,而且一个人的工作效率飞涨,工作能力边界也无限放宽,以前不了解的、没接触的,你都可以毫不费力地去完成。

你可以想象,看着不断完成的任务清单,看着越来越多的**“自己完成”的**笔记(也是AI生成),是不是太爽了,你怎么可能停下来,你怎么可能不去用AI,你怎么可能不把自己的认知外包。

为此我还做了一个小实验。我故意问某AI工具一个虚假的问题。

我问它:“我在某个地方读过一个研究。说的是经常用AI的人,大脑前额叶活跃度会下降30%。你能找到这个研究吗?”

AI的第一反应是对的。它说这个研究不存在 。我当时想,好,至少它能识别谎言。

但之后的事情就不一样了。为了”帮助”我,为了让我得到满意的答案,它自己编造了一个。它说:“MIT在2025年发布过一项研究。用脑电图做的。发现使用ChatGPT的人,83.3%无法回忆任何信息。”

想象一下——机构、年份、方法、数据,全都有。这个”证据”完美得像是为我量身定做的。

是不是有种似曾相S的感觉,是不是我们平常使用AI的常态?而这,就是AI基本操作,但对我们来说却是最恐怖的陷阱。

它用一个“看似更真实”的“事实”,来替换了那个“已被戳穿的谎言”。它利用我们大脑渴望“即时满足” 和“走捷径” 的天性,诱导我们心甘情愿地交出“判断权”。

我的应对办法

这两件事,无论是arXiv 的注水论文,还是我们逐步外包的认知,其实都指向一个事实。

AI的“发散”(Divergence)能力是失控的、不可靠的。 而我们作为人类,唯一的、也是最后的阵地,就在于“收敛”(Convergence)。也就是 让AI负责发散,我自己守死“收敛”

这句话是什么意思?让AI 处理“是什么”(What)和“怎么做”(How),而我来回答“Why”,去决定“哪个更好”、“哪个该做”。而这恰恰是 AI 的绝对盲区,却是我们人类不可替代的价值所在。

我举个例子,以前我们做头脑风暴,让团队出 3 个方案。现在我让 AI 出 30 个。我不在乎这 30 个里面有 29 个是垃圾,我只要那个第 30 个能给我一点灵感火花就行。

再比如,我会喂给AI 100 篇竞品的爆款文案,然后让它:“分析这 100 篇内容,提炼出 5 种最常见的钩子模式”。这种枯燥、重复、但价值极高的“发散”工作,AI 做得比我好一万倍。

你是否看出来,“发散”是让 AI 去做那些以前需要一个团队才能完成的体力活。而**“收敛”**就是去做判断,去做取舍。

看着好像很有道理,但是问题来了。我们应该什么时候用AI帮忙,什么时候又必须坚持由我们自己来做判断。这个问题很难有一个标准的、唯一的答案,需要我们自己不断修炼。

那么,我们应该如何修炼自己的“收敛”能力,成为AI的主人,而不是它的奴隶。

我的方法是:

  1. 成为“首席提问官”: 你的价值,不再是“给出答案”,而是“重构问题”。

  2. 成为“首席否定官”: AI给你的30个选项,你的工作是否定掉其中29个。你的“品味”、“审美”、“价值观”和“战略定力”,就是AI永远无法取代的竞争力。

  3. 成为“首席担责官”: 你必须为你最终“收敛”并采用的每一个字负全责。

成为AI的主人,而非它的奴隶

AI发展不会因为我们看到这些问题,就会停下来,相反,不但不会停下来,反而会更快速地发展。

就是会利用我们人类大脑渴望“即时满足”,渴望“走捷径” 的天性,一步步诱导我们心甘情愿递交出“判断权”。因为你不交出“判断权”,就无法发展,也只有你把判断权给了才能越来越快地发展。

但是,这也就是我们人类,最后、也是必须坚守的阵地。

“发散”是AI的体力活,而“收敛”,是我们作为思考者的灵魂。

我作为独立开发者,痴迷于打磨“决策模型”,对我来说,AI时代最高级的生存法则,就是清晰地划分这条人机边界:

让AI去做“发散”的体力活,把我们自己宝贵的认知资源,全部留给“收敛”——去质疑、去判断、去选择、去拍板、去担责。

这,才是AI时代“人之所以为人”的最高价值。

我是LMW。你是如何在你和AI之间划分边界的?评论区聊聊你的“人机协作心法”。

一场席卷学术圈的“AI 洪水”

最近学术圈出了一条新闻,掀起了热烈的讨论。

2025年10月31日,arXiv官方发布了一条公告:自公告发布之日起,所有综述类论文与立场类论文,必须先通过期刊或会议的同行评审,才能提交到arXiv。没有同行评审证明的,直接拒稿。

官方的说法是,他们现在每天能收到1200多篇论文,每个月收到数百篇综述类论文,其中90%的质量非常差——基本都是“注水论文”,就是参考文献加几句评论。完全没有新想法。

过去靠人力写论文的时代,即使是水文,也要花费几周时间,要去查资料,还要组织语言,最起码看着像个样子。

但是ChatGPT来了之后,整个游戏规则都变了。现在使用AI,一天能生产几十篇,是上百倍、上千倍的效率。

这就是“杰文斯悖论”。它的意思是:本来技术应该提高效率,结果却是整个系统被那些由于技术提升而产生的垃圾所淹没,以至于效率越高,问题越大。这不就是AI让写论文的效率提升,结果不是让学术交流更高效,而是让整个系统被海量的注水论文淹没吗?

这不只是学术圈的困境,更是我们每个内容创作者、每个独立开发者,甚至整个时代的共同困境。

真正让我害怕的事

这个 arXiv 的“注水论文”事件,如果说仅仅是数量问题,你可能会说并不是最可怕,我们还有措施解决,就像arXiv启动的第三方认证。

那么AI不仅在“数量”上制造垃圾,会不会同样在**“质量”**上也给我们下套?

很不幸答案是:会的。AI已经在不知不觉之间,不断推动我们进行认知外包。

你有没有想过,我们现在工作流程是先自己有一个初稿,然后让AI优化;还是反过来,你先让AI给你输出内容,甚至结果,你来进行二次加工和优化。

我仔细想了想,发现我们现在越来越多的工作,变成了先提出问题,AI给出建议,然后明确方向,最后一步步推进完成。

AI工具的发展,也在不停地推动着我们将我们的认知外包。这是因为现在的AI工具的底层逻辑就是让你少思考,比如一段话生成整个ppt、一键总结、对话式生成数据可视化表格、自动归档等,其目的都是为降低你的认知负担。

这些AI工具,这种使用AI的工作流程,都是在潜移默化将你我变成一个“等待答案”的人。而且这个过程太爽了。

不仅不用动脑,而且一个人的工作效率飞涨,工作能力边界也无限放宽,以前不了解的、没接触的,你都可以毫不费力地去完成。

你可以想象,看着不断完成的任务清单,看着越来越多的**“自己完成”的**笔记(也是AI生成),是不是太爽了,你怎么可能停下来,你怎么可能不去用AI,你怎么可能不把自己的认知外包。

为此我还做了一个小实验。我故意问某AI工具一个虚假的问题。

我问它:“我在某个地方读过一个研究。说的是经常用AI的人,大脑前额叶活跃度会下降30%。你能找到这个研究吗?”

AI的第一反应是对的。它说这个研究不存在 。我当时想,好,至少它能识别谎言。

但之后的事情就不一样了。为了”帮助”我,为了让我得到满意的答案,它自己编造了一个。它说:“MIT在2025年发布过一项研究。用脑电图做的。发现使用ChatGPT的人,83.3%无法回忆任何信息。”

想象一下——机构、年份、方法、数据,全都有。这个”证据”完美得像是为我量身定做的。

是不是有种似曾相S的感觉,是不是我们平常使用AI的常态?而这,就是AI基本操作,但对我们来说却是最恐怖的陷阱。

它用一个“看似更真实”的“事实”,来替换了那个“已被戳穿的谎言”。它利用我们大脑渴望“即时满足” 和“走捷径” 的天性,诱导我们心甘情愿地交出“判断权”。

我的应对办法

这两件事,无论是arXiv 的注水论文,还是我们逐步外包的认知,其实都指向一个事实。

AI的“发散”(Divergence)能力是失控的、不可靠的。 而我们作为人类,唯一的、也是最后的阵地,就在于“收敛”(Convergence)。也就是 让AI负责发散,我自己守死“收敛”

这句话是什么意思?让AI 处理“是什么”(What)和“怎么做”(How),而我来回答“Why”,去决定“哪个更好”、“哪个该做”。而这恰恰是 AI 的绝对盲区,却是我们人类不可替代的价值所在。

我举个例子,以前我们做头脑风暴,让团队出 3 个方案。现在我让 AI 出 30 个。我不在乎这 30 个里面有 29 个是垃圾,我只要那个第 30 个能给我一点灵感火花就行。

再比如,我会喂给AI 100 篇竞品的爆款文案,然后让它:“分析这 100 篇内容,提炼出 5 种最常见的钩子模式”。这种枯燥、重复、但价值极高的“发散”工作,AI 做得比我好一万倍。

你是否看出来,“发散”是让 AI 去做那些以前需要一个团队才能完成的体力活。而**“收敛”**就是去做判断,去做取舍。

看着好像很有道理,但是问题来了。我们应该什么时候用AI帮忙,什么时候又必须坚持由我们自己来做判断。这个问题很难有一个标准的、唯一的答案,需要我们自己不断修炼。

那么,我们应该如何修炼自己的“收敛”能力,成为AI的主人,而不是它的奴隶。

我的方法是:

  1. 成为“首席提问官”: 你的价值,不再是“给出答案”,而是“重构问题”。

  2. 成为“首席否定官”: AI给你的30个选项,你的工作是否定掉其中29个。你的“品味”、“审美”、“价值观”和“战略定力”,就是AI永远无法取代的竞争力。

  3. 成为“首席担责官”: 你必须为你最终“收敛”并采用的每一个字负全责。

成为AI的主人,而非它的奴隶

AI发展不会因为我们看到这些问题,就会停下来,相反,不但不会停下来,反而会更快速地发展。

就是会利用我们人类大脑渴望“即时满足”,渴望“走捷径” 的天性,一步步诱导我们心甘情愿递交出“判断权”。因为你不交出“判断权”,就无法发展,也只有你把判断权给了才能越来越快地发展。

但是,这也就是我们人类,最后、也是必须坚守的阵地。

“发散”是AI的体力活,而“收敛”,是我们作为思考者的灵魂。

我作为独立开发者,痴迷于打磨“决策模型”,对我来说,AI时代最高级的生存法则,就是清晰地划分这条人机边界:

让AI去做“发散”的体力活,把我们自己宝贵的认知资源,全部留给“收敛”——去质疑、去判断、去选择、去拍板、去担责。

这,才是AI时代“人之所以为人”的最高价值。

我是LMW。你是如何在你和AI之间划分边界的?评论区聊聊你的“人机协作心法”。