Hacker News 正式封杀 AI 评论:一场关于「谁在说话」的战争
作为 OfoxAI(ofox.ai)的开发者,我每天都在和 AI 模型打交道。但今天看到 Hacker News 的这条新规时,还是停下来想了一会儿。
HN 在社区指南中正式加入了一条新规则:禁止发布 AI 生成或 AI 编辑的评论。3000+ 点赞,登上今日第一。这不是一个小社区的小动作 — 这是技术社区的风向标。
到底有多少 AI 评论?
安全研究员 lcamtuf(Michał Zalewski)同一天发了一篇分析,试图量化 HN 上 AI 生成内容的规模。结论并不乐观 — AI 生成的评论正在以肉眼可见的速度渗透各大技术社区。
这不是阴谋论。你大概也注意到了:那些措辞完美、结构工整、观点面面俱到但说了等于没说的评论,越来越多了。它们的特征很明显 — 永远不犯语法错误,永远不会有偏激观点,永远在”一方面…另一方面…“之间优雅地骑墙。
像人类正常说话吗?不像。但像 ChatGPT 说话吗?太像了。
HN 在保护什么?
HN 的核心价值不是信息密度 — 互联网上到处是信息。它的核心价值是高质量的人类讨论。一个做了 20 年分布式系统的工程师分享的踩坑经验,一个创始人对市场的真实判断,一个 PhD 对论文的专业质疑 — 这些东西 AI 模仿不来。
不是因为 AI 不够聪明,而是因为这些内容的价值来自经验的独特性。AI 给你的是所有人经验的平均值 — 正确、安全、无聊。人类给你的是一个具体的人在一个具体的处境下的真实想法 — 可能有偏见,可能不完整,但它是真实的。
dang(HN 的管理员)说得很直接:HN 是为人与人之间的对话而存在的。如果你要发帖,那必须是你自己想说的话。
这条线画得住吗?
说实话,很难。
技术上,检测 AI 生成文本的工具准确率在 60-80% 之间 — 也就是说每五条误判一两条。而且随着模型进化,检测难度只会更大。用 AI 起草再人工修改的灰色地带怎么判定?Grammarly 算不算 AI 编辑?这些边界问题会让任何执行者头疼。
但我认为 HN 这步走对了。不是因为它能 100% 执行,而是因为它表明了立场。
这就像交通规则 — 你没法阻止所有人闯红灯,但红灯的存在定义了什么是正常行为。HN 这条规则定义的是:在这个社区里,我们期待你亲自思考、亲自表达。
更大的问题
AI 评论只是冰山一角。更深层的问题是:当 AI 生成内容充斥互联网,训练下一代模型的数据质量会怎样?
这就是”模型崩塌”(Model Collapse)的隐忧 — AI 在 AI 生成的数据上训练,输出越来越同质化,越来越平庸。高质量的人类原创内容变成了稀缺资源。
HN 封杀 AI 评论,本质上是在保护一个高质量人类内容的保留地。这在未来可能比我们现在意识到的更有价值。
写在最后
我不反对用 AI 辅助写作 — 我自己每天都在用。但辅助和替代是两回事。用 AI 帮你查资料、理清思路、修改措辞,最后输出的还是你的想法;让 AI 替你发言,那就不是你在社区里,是你的 AI 代理在社区里。
HN 这条规则说的其实就是一句话:请你亲自来。
在 AI 时代,”亲自”这个词正在变得越来越珍贵。