qu-ai-wei
Health Warn
- License — License: MIT
- Description — Repository has a description
- Active repo — Last push 0 days ago
- Low visibility — Only 7 GitHub stars
Code Fail
- rm -rf — Recursive force deletion command in scripts/install-skill.sh
Permissions Pass
- Permissions — No dangerous permissions requested
No AI report is available for this listing yet.
去 AI 味:去除简体中文 AI 写作痕迹 / Chinese humanizer skill
去 AI 味(qu-ai-wei)
⚠️ 0.x 开发版(当前 v0.6.6): qu-ai-wei 仍在迭代,规则、分类、API 都可能变动。欢迎提 issue / discussion / PR 反馈。
只支持简体中文。 繁體有自己的 AI 腔特征、用字偏好、排版规范,规则需要单独维护,留给后续版本。
扫掉简体中文里 AI 写作的痕迹,让稿子读着像人写的。当前原生支持 8 个 agent:Cursor、Claude Code、OpenAI Codex CLI、OpenCode、Kiro、Factory Droid、Slate、Hermes。
⚠️ 此 skill 能做什么,不能做什么
这是扫地机 + 打磨工,仍然不是雕刻刀。
v0.6.0 起,这个 skill 同时扮演两个角色:
- ① 扫地机 —— 清除显眼 AI 污染(赋能 / 助力 / 让我们一起 / 璀璨画卷 / 🚀 emoji 列点 /
**重点**机械加粗 / 希望对您有帮助),让稿子从「一眼像 AI」变成「不像 AI 了」。 - ② 打磨工(v0.6.0 新增) —— 在不虚构的前提下主动打磨:动词强化(
进行讨论→讨论)、节奏重塑(打断机关枪节奏)、filler 切除(一些 / 实际上 / 在一定程度上)、抽象换具体(仅限原文已有细节)、语序归位、语体匹配。合格线从"不像 AI 了"抬到"干净且精准"。
但仍然不是雕刻刀。 雕刻需要观点、场景、声音。这三样在原文里没有,打磨工补不出来 —— 因为 v0.5.5 立的「事实发明禁令」硬约束优先级高于 v0.6.0 的打磨抬升,不允许虚构(v0.7.0 起统一归口冲突仲裁顺序 §1)。所以:
- 原文观点平庸 + 打磨 → 干净的平庸(比原文好,仍然不 amazing)
- 原文观点清晰 + 打磨 → 一份像样的稿子(v0.6.0 的正常期待)
- 原文观点独到 + 细节具体 + 打磨 → 接近可读的水位
把一份普通稿子改成真正锋利有声口的好稿子 —— 不在能力范围。
让一份没观点的稿子去掉 AI 腔、再跑完打磨,得到的是一份干净但仍然没观点的稿子。观点要你自己出。
这个 skill适合
- ✅ 想把 AI 生成的初稿(ChatGPT / DeepSeek / Claude / Qwen 出的第一版)改得不那么像 AI 的写作者
- ✅ 写工作邮件、PRD、汇报、技术博客、产品文案、公众号推送的日常场景
- ✅ 需要批量清理稿件里明显 AI 腔的编辑和运营
- ✅ 学生、产品经理、运营、程序员、创业者 —— 想让自己的日常写作别那么 AI 化
- ✅ 中文教学、AI 写作识别研究、文本对比分析等场景
这个 skill不适合
- ❌ 想用工具替代思考的人 —— 如果你的稿子问题是「没有独到观察 / 观点平庸 / 细节塑料」,qu-ai-wei 救不了
- ❌ 严肃深度写作(《三联生活周刊》/《人物》/《GQ 报道》等特稿级别)—— 这个 skill 能帮到底层文字清洁,但真正的写作水位靠人的观察、采访、思考,不是靠扫地机
- ❌ 学术论文写作 —— 本 skill 会误判「进行 + V」「然而 / 此外」「性 / 化 后缀」等学术刚需表达(虽然有语体识别保护,但风险仍在)
- ❌ 法律文书、公文 —— 公文腔是合规要求,不是 AI 腔,这个 skill 对这类文本应几乎不动
- ❌ 需要保留叙事铺垫、控制篇章节奏的写作 —— 这个 skill 容易误判"铺垫"(环境描写、人物声口前的停顿、离题式背景段落)为"冗余"删掉;也管不了篇章整体的势与气(虎头蛇尾、关键处泄气、论证徘徊不前)。这类写作,qu-ai-wei 最多跑一遍做底层清洁,结构和节奏必须作者自己守住
- ❌ 用来「把 AI 生成的内容洗白到不被检测出来」—— 请别拿这个 skill 绕过学校 / 期刊 / 公司的 AI 检测政策。qu-ai-wei 不是作弊工具,是让你自己的真实写作更清爽的工具
一句话定位(v0.6.0 更新)
给一份写过东西的毛坯,出来是一份干净且锋利的终稿。不是伪装你没写过的稿子,也不是把任何稿子改成名家水准的好文章。
本 skill 受 humanizer 启发(作者 Siqi Chen,MIT 协议,2025)。humanizer 官方定位是语言无关的工具,但那 29 条规则主要针对英文 —— Title Case、em dash、hyphenated pairs 都是英文特有现象。
中文版向 humanizer 学了骨架:三遍工作流、语音校准思路、"个性与灵魂"这一章的写法,以及大约一半的 AI 腔模式(humanizer 同类规则的中文改写)。另一半是中文语境下重新整理的:语体识别前置步骤、汉语语法依据、标点全角、语序去欧化、避免过度修正的五问。#39-#42 四条模式另有出处,来自 yage.ai 的原创文章。
安装
支持的 agents(同一种安装方式)
| Agent | 参数 | 默认安装目录 |
|---|---|---|
| Cursor | --platform cursor |
~/.cursor/skills/qu-ai-wei |
| Claude Code | --platform claude |
~/.claude/skills/qu-ai-wei |
| OpenAI Codex CLI | --platform codex |
~/.codex/skills/qu-ai-wei |
| OpenCode | --platform opencode |
~/.config/opencode/skills/qu-ai-wei |
| Kiro | --platform kiro |
~/.kiro/skills/qu-ai-wei |
| Factory Droid | --platform factory |
~/.factory/skills/qu-ai-wei |
| Slate | --platform slate |
~/.slate/skills/qu-ai-wei |
| Hermes | --platform hermes |
~/.hermes/skills/qu-ai-wei |
以上 8 个 agent 安装方式完全一致,统一用一个脚本。
一键安装(推荐)
git clone https://github.com/hzblacksmith/qu-ai-wei.git ~/qu-ai-wei
cd ~/qu-ai-wei
# 按平台安装(可重复执行)
bash scripts/install-skill.sh --platform cursor
bash scripts/install-skill.sh --platform claude
bash scripts/install-skill.sh --platform codex
bash scripts/install-skill.sh --platform opencode
bash scripts/install-skill.sh --platform kiro
bash scripts/install-skill.sh --platform factory
bash scripts/install-skill.sh --platform slate
bash scripts/install-skill.sh --platform hermes
# 一次装全
bash scripts/install-skill.sh --platform all
可选参数:
--name <dir>:自定义安装目录名(默认qu-ai-wei)--mode copy:复制而非软链接(默认symlink)--to <skills-root>:安装到任意自定义技能目录(可重复)--host:--platform的别名(兼容旧习惯)
例如:
# 自定义目录名
bash scripts/install-skill.sh --platform codex --name qu-ai-wei-cn
# 自定义平台目录
bash scripts/install-skill.sh --to ~/.my-agent/skills --name qu-ai-wei
其他支持自定义指令的模型(ChatGPT / DeepSeek / Kimi / 通义 等)
把 SKILL.md 的正文直接粘到模型的自定义指令或系统提示里,跳过顶部 --- 包起来的 YAML frontmatter 那段。
升级
装好后想拿到最新规则:
# 更新 repo(推荐)
cd ~/qu-ai-wei && git pull
# 如果你用的是 symlink 模式(默认),到这里就完成了
# 如果你用的是 copy 模式,重新安装一次覆盖
bash scripts/install-skill.sh --platform all --mode copy --force
也可以在任一已安装目录直接跑(示例):
bash ~/.claude/skills/qu-ai-wei/update.sh
# 或
bash ~/.codex/skills/qu-ai-wei/update.sh
update.sh 会打印 旧版本 → 新版本 和本版发布页链接,没有新版就提示「已是最新」。每版具体变化见 Releases。
用法
自然语言触发(推荐)
直接用人话让模型处理,qu-ai-wei 会自动触发:
帮我去 AI 味:[粘贴中文]
改得说人话:[粘贴中文]
这段中文太 AI 了,润色一下:[粘贴中文]
让它更像人写的:[粘贴中文]
humanize 这段中文:[粘贴中文]
显式调用(slash 命令)
/qu-ai-wei
[粘贴你要改写的中文]
字形范围
只处理简体中文。 繁體输入会提示"当前版本只支持简体中文,建议用 OpenCC 等工具先转简体再回来",不做自动转换。
| 调用 | 行为 |
|---|---|
/qu-ai-wei <text>(简体) |
按 51 条规则 + 语体识别 + 过度消毒反制约束改写 |
/qu-ai-wei <text>(繁體) |
提示用户转简体 |
/qu-ai-wei(无参) |
询问用户粘贴文本;可选做轻量级语音校准 |
语音校准(可选)
想让改写贴近你自己的写作风格,可以粘一段你自己写的中文做参考:
/qu-ai-wei
以下是我自己的写作样本,用来做风格参考:
[粘贴 2–3 段你的文字]
现在请改写这段:
[粘贴 AI 写的中文]
这个 skill 会先从样本里提取一份5 项轻量清单(高频词、平均句长、段首词、标点偏好、整体语域),你确认之后再改写。比起完整的风格分析,这种做法更诚实:2–3 段中文能给的信号本来就有限。
设计思路
与 humanizer 的关系
骨架和方法学借自 humanizer:三遍工作流、语音校准、"个性与灵魂"章节、大约一半的模式概念。剩下的在中文语境里重新整理了一遍。
| 方面 | 英文 humanizer | qu-ai-wei(0.3) |
|---|---|---|
| 目标语言 | 定位语言无关,实际规则针对英文 | 简体中文 |
| 规则数量 | 29 类(参考 Wikipedia "Signs of AI writing") | 51 类 + 顶层冲突仲裁顺序六级(不发明事实 → 真人停手门检 → 语体降级保护 → 过度消毒反制 → 51 条减法 → 6 条打磨抬升,v0.7.0 统一);约一半是 humanizer 同类规则的中文改写,其余为中文原创(含中文维基《AI生成文的特徵》启发的 4 条,2024-2025 AI 腔新形态 3 条) |
| 规则关系 | 针对英文语法、英文 AI 腔 | 针对中文语法(吕叔湘、朱德熙、汉语语法维基等)、中文 AI 腔 |
| 语体区分 | 不区分 | 9 种语体前置识别(社交 / 自媒体 / 商务 / 书面 / 特稿 / 品牌广告 / 学术 / 公文 / 高考应试作文) |
| 方法学 | 模式识别 + 密度判定 | 同(借鉴自 humanizer) |
| 工作流 | 三遍改写 | 三遍改写 + 过度修正五问自查(反向翻译 / 频率 / 对标 / 话题指代 / 语体匹配) |
| 语音校准 | 完整风格分析 | 轻量化 5 项清单 |
核心能力:语体识别
如果把所有文本都往"日常白话"改,会把学术论文的"进行深入分析"改成"好好分析一下"、把公文"依法予以处理"改成"按法律办"。所以 qu-ai-wei 先做语体识别,再选规则:
| 语体 | 典型场景 | 去 AI 腔激进度 |
|---|---|---|
| 社交 / 口语 | 微信、朋友圈、豆瓣 | 最激进 |
| 内容 / 自媒体 | 公众号营销号、小红书、短视频 | 激进 |
| 商务 / 职场 | 邮件、汇报、PRD | 中等 |
| 书面 / 一般 | 博客、随笔、科普、时评 | 中等 |
| 叙事非虚构 / 特稿 | 《人物》《三联》《GQ 报道》等深度长读 | 中等偏保守(保留气氛铺垫、排比气势、慢节奏) |
| 品牌广告 / 文案 | Apple 官网、Nike campaign、发布会大字、户外大牌、TVC 旁白 | 特殊档(严查翻译腔和 AI 商务词,但保护短句、留白、排比、文言感、中英混排 —— 整套规则反着走) |
| 学术 / 科技 | 论文、白皮书 | 保守(保留 进行 + V、性 / 化 后缀等学术刚需表达) |
| 公文 / 法律 | 法规、合同 | 最保守(仅改客服腔) |
| 高考 / 应试作文 | 高考 / 中考 / 本科应试作文 | 最保守(仅改客服腔与格式幻觉;排比、引用、成语气势、进行 + V、性 / 化 后缀、逻辑连接词一律保留 —— 都是评分加分项) |
SKILL.md 里有完整的规则激活矩阵。判不清的时候 qu-ai-wei 会问:"这段文字发在朋友圈 / 公众号 / 工作邮件 / 特稿 / 品牌官网 / 学术报告 / 合同 / 高考作文里?"
核心检测原则:看密度,不看出现
对仗、排比、四字成语,写中文的人本来就在用,真人写作里到处是。光是用了这些不算 AI 腔;反复堆叠、跟前后内容没关系、换到别的话题上也成立,这才是。单次出现不算,短段(200 字以内)里反复出现才算。
避免"过度修正"
这 51 类模式是检测启发式,不是改写模板。去 AI 腔 ≠ 去一切规范化表达。真人常用、共识度高的中文写法(比如"支持 X 等平台""用于 X""基于 X")本身不是 AI 腔。改写前多问五步:
- 反向翻译验证:倒译回英文,是不是像
runs on或is compatible with的直译?是就改回原文。 - 频率验证:这个表达在真人中文写作里常见吗?不常见 + 我临时发明 → 危险。
- 对标验证:放进《三联生活周刊》或微信系统提示里,会不会扎眼?会就停下。
- 话题 / 指代验证:
这是一个 X中的这是经常承担话题引入功能,不是冗余系动词。只在X 是 X纯冗余结构才删。 - 语体匹配验证:改写后的句子跟原文语体级别是否一致?把学术严谨改成日常口语、把公文庄重改成朋友圈调侃,都是失败的改写。
关于正面参考
这个 skill 里列了《三联生活周刊》《读者》《中国国家地理》、微信 UX,还有汪曾祺、鲁迅、阿城这些人,作为"正面对照"。v0.4 新增 Apple 大中华区 / Nike 大中华区作为品牌广告语体的反向对照基准("这段文字放进 Apple 官网 hero copy / Nike 广告片里会刺眼吗?")。用法要注意:它们是诊断时的反面参照("这句话放进《三联生活周刊》会不会别扭?"),不是风格模仿目标("请按三联风格写" / "写个 Apple 风 slogan")。只给 LLM 一个名字让它学风格,出来基本都是刻板仿作。一键风格切换暂不做。
中英混排:只保留专有名词,不管空格
唯一的硬性规则: 英文专有名词、产品名、人名、缩写,改写时原样保留,不翻译、不意译、不替换。"Codex CLI" 不能改成"科德克斯命令行","Transformer" 不能改成"变换器"。这是"信息完整性"的延伸。
中英、中数之间的半角空格(俗称"盘古之白"),本 skill 不管。 这东西 AI 和人都在各自变,加或不加根本分不出来,不能作为去 AI 腔的信号。也不是国标 — GB/T 15834-2011 只管标点,W3C CLREQ 说"字距或空白"均可不强制 U+0020,sparanoid 盘古之白原作者自己都说它是 "informal typographic convention"。真要替用户加反而踩坑:人家原文本来不加空格(朋友圈、公众号、小红书都这样),qu-ai-wei 给加上,一股"技术圈腔"就冒出来了。
规则:原文有空格保留,没空格不加。 需要统一格式或追求中文排版美学,用 pangu.js 自动处理,或参考 sparanoid 的中文文案排版指北 —— 那是排版规范,跟本 skill 的"AI 痕迹检测"是不同目标(排版管美学、我们管机械感)。
标点符号:两层规范
第一层(全角半角):中文上下文里,标点符号一律用全角,不跟半角混用。英文训练数据里标点全是半角,模型输出中文时常常直接复用,读起来就有"翻译腔"的视觉信号。
第二层(功能分工):全角半角解决"用对字符",下一层是"每个标点干什么"。SKILL.md 覆盖顿号 / 分号 / 书名号 / 省略号 / 冒号 / 引号 / 括号的功能分工与 AI 常犯的错配(如:把引出信息的冒号误替换为破折号、用引号代替书名号、严肃正文里反常高频的分号和省略号)。分号在日常 / 商务语体里基线接近 0,但在社论 / 时评 / 长议论里是合法排比节奏工具,不触发 AI 腔判定。
对照表、例外清单、典型错误、严肃媒体标点频率基线都写在 SKILL.md 的「标点符号」两节。
语序:完全中文化,避免英文式倒装
LLM 常把英文句法直接套到中文上。单句读着像中文,一连读就发现别扭,多半是语序带了英式残留。中文的基本习惯:主语前置,定语要短,状语在动词前,条件和原因从句放主句之前。常见病(介词短语前置过长、"作为一个 X,..." 开头、定语堆叠、英文关系从句直译等)和自查四问写在 SKILL.md 的「语序」一节。
信息完整性
改写只改表达方式,不删信息。原文里每一条具体事实(数字、人名、时间、产品名、关键措辞),终稿里都要能对应上。觉得某处表达冗余,可以压缩;但不能悄悄丢事实。有疑问的时候,保留原信息比追求简洁更重要。
51 类模式一览(精简版)
完整规则、触发条件和“原文/改后”示例请看 SKILL.md。README 这里保留目录级速览,方便先判断是否覆盖你的场景。
| 类别 | 范围 | 关注点 |
|---|---|---|
| A. 内容模式 | #1-#6 | 空洞拔高、背景套话、模糊归因 |
| B. 语言模式 | #7-#20 | 高频词堆叠、名词化/后缀化、机械并列 |
| B+. 逻辑连接 | #34 | 连接词空转、逻辑关系虚化 |
| C. 修辞模式 | #21-#25 | 成语/排比模板化、装饰性格式滥用 |
| D. 交流模式 | #26-#29, #51 | 客服腔、谄媚腔、第二人称泛化 |
| E. 填充与模糊 | #30-#32 | 冗余短语、模糊限定、口号式号召 |
| F. 翻译腔 | #33, #39-#44 | 英文句骨残留、中英混杂、列表反射 |
| G. 篇章节奏 | #35-#36 | 句长均质化、指代不敢省 |
| H. 平台文体 | #37-#38, #49-#50 | 自媒体套路、故事 AI 味、B 站模板味 |
| I. 幻觉与格式 | #45-#48 | 表格滥用、Markdown 残留、伪引用 |
常见入口:
- 全规则与触发细节:
SKILL.md - 完整流程:
SKILL.md的处理流程 - 完整样例:
SKILL.md的完整示例
完整示例
原文(AI 腔偏重):
随着协同办公模式的不断发展,远程周报机制在团队管理中发挥着越来越重要的作用。通过标准化模板,我们能够从多维度、全方位地掌握项目进展,提升协作效率,赋能组织管理。
值得一提的是,一个高质量周报通常包括以下几个方面:
- 本周完成情况:系统梳理关键成果。
- 风险与挑战:识别潜在问题并提出解决思路。
- 下周计划:明确重点任务,确保高效推进。
总体来看,周报不仅是信息同步工具,更是推动团队持续成长的重要抓手。让我们共同打造更加透明、高效、可持续的协作机制。
示例输出(按当前 workflow):
【门检】判断:AI 生成文本 | 证据:[“随着…不断发展”, “值得一提的是”]
初稿
远程周报有用,但前提是别写成模板作文。
真正有价值的周报通常就三件事:这周做成了什么、卡在哪里、下周准备怎么推进。写清楚这三件,团队同步就够用了。
周报不是“看起来很完整”的文档,更像一个对齐工具:让大家知道项目现在到哪一步、问题在哪、谁在跟进。
自审
- AI 不敢写测试:有。
“周报有用,但前提是别写成模板作文。”这句带判断,不是客服腔。 - 整篇打磨自检五问:
- 用词精准:通过(删除“多维度、全方位、赋能、抓手”等空词)。
- 节奏变化:通过(长句拆短句,段落长度有变化)。
- 动词驱动:通过(
梳理/识别/提出收束为做成/卡住/推进)。 - 具体替抽象:通过(把“持续成长机制”落到“项目到哪一步、谁跟进”)。
- 声音一致:通过(统一为书面/一般,中性直述)。
- 残留痕迹:轻微口号感已基本清除。
终稿
远程周报有用,但前提是别写成模板作文。
一份能用的周报,核心就三件事:这周做成了什么、卡在哪里、下周怎么推进。把这三件写清楚,团队同步效率通常不会差。
周报本质上是对齐工具,不是展示文笔的材料。它要回答的是:项目到哪一步了,当前风险是什么,下一步由谁跟进。
打磨报告
- 动词强化:
“发挥…作用”→“有用”,“推动团队持续成长”→“回答…问题”。 - 节奏重塑:首段从一条长句改为两条短句,降低公关稿腔。
- filler 切除:删除
“不断发展 / 多维度 / 全方位 / 赋能 / 重要抓手 / 共同打造”。 - 抽象换具体(仅用原文信息):把“高质量周报包括三个方面”落成
“做成了什么、卡在哪里、下周怎么推进”。 - 语序归位:将“通过标准化模板,我们能够…”改为“核心就三件事…写清楚即可”。
- 语体匹配:保持“书面 / 一般”语域,不降格为聊天口吻。
改动摘要(可选)
- 主要命中:#1/#2(意义拔高与背景开场套话)、#7(高频商务词)、#30/#31(冗余与抽象空词)、#37(模板化结构)。
更多完整样例见 SKILL.md。
给贡献者 / 自己维护的几条提醒
- 改了 SKILL.md / references/ / README 后,把自己动过的散文段落喂给 qu-ai-wei 自检一遍。规则条目里那些结构化 metadata(问题 / 关键词 / 原文 / 改后 / 语体限定)是给模型读的骨架,别 humanize —— 去掉对称反而让模型看不清规则长什么样。只对解释性散文跑。
- 加新规则时检查会不会跟既有规则冲突 / 重叠。比如"抽象万能动词"跟 #7 AI 高频词、#30 冗余书面化都相邻,要说清楚各自管的是什么。新规则写进
references/patterns.md(不拆子文件,保留 A-I 跨规则 interlock),同时在 SKILL.md 末尾的「51 条 AI 腔模式 · 索引表」里补一行速查。 - 所有例子都要有"原文 / 改后"对。单给判断标准没有示范,模型抓不准。
- 版本号凡升,README 的版本记录、CHANGELOG.md 和 SKILL.md frontmatter 同改。改完顺手跑
bash tests/check-version-sync.sh,让 README / flat build / changelog 一次过。 - 改 SKILL.md 或 references/ 后,commit 前跑一遍
scripts/build-flat.sh,它会从 SKILL.md + references/ 自动拍平生成.cursorrules和WARP.md。Cursor / Windsurf / Warp 不支持 progressive disclosure,必须用单文件。三份文件漂移是最常见的 bug,脚本是单一事实来源(把这一行放在第 4 条之后,不是第 6 条之后,因为它比《咬文嚼字》刷新频次高)。 - 遇到真人经典文本(金庸 / 王朔 / 汪曾祺 / 真实采访实录等)不要改。这是 qu-ai-wei 最常见的灾难,在"🛑 第负一步"明确写了门检。
- 改完之后,用
tests/fixtures/的 5 条样本跑一遍回归。01-03是长期样本(AI 中文概述 / 公众号伪深度 / 小红书 Kimi 案例),04-05是 v0.6.4 加的定向样本(否定对举 / 真人停手)。前后对照和定向输出都放在tests/after/;01-03还能和tests/baseline/对照,看结构重构是否引入了行为漂移。任何大改(新规则、规则合并、语体矩阵调整)都建议先跑这 5 条。 - 每年 12 月《咬文嚼字》发布十大流行语、次年 1 月发布十大语文差错后,刷新规则 #49 的「鲜活词」/「已入土词」清单。新词加入「官方榜单」行;3 年以上未进榜、社群已不用的旧词下沉到「已入土」行。刷新改
references/patterns.md的 #49 节 +references/sources.md的「语言时效性锚点」小节,跑scripts/build-flat.sh同步到.cursorrules/WARP.md,README 的相应小节也一并改。不刷新的代价是清单每过一年老化一点,真人用的新词 AI 反而学得比我们快。
版本记录
完整历史版本请看 CHANGELOG.md。
最近更新:
- v0.7.0(2026-05-12):文档结构重整,行为不变。新增「冲突仲裁顺序」唯一优先级树,六级仲裁覆盖 §1 不发明事实 → §6 打磨抬升,各章节散落的"优先级更高"声明统一引用。拆出 3 个新参考文件:
references/whitelists.md(体育 / 通用技术缩写 / 人物昵称 / 护肤成分四类白名单)、references/punctuation.md(标点功能分工第二层)、references/syntax.md(10 类英式语序残留)。压缩避免过度修正反向验证(5 问 → 3 问)、过度消毒反制毛边类型(5 类 → 3 类)、frontmatter description。SKILL.md 从 1259 行降到 1012 行(-20%)。51 条 AI 腔模式、9 种语体识别、6 条打磨动作、自检与打磨报告格式全保留。 - v0.6.6(2026-04-25):基于 5 组当代小红书 AI 样本的诊断发现,修正 patterns.md 里"2021 年老 AI 自媒体腔基本绝迹"这条陈旧判据 —— 2025-2026 AI 小红书生成大量复用
🆘 / 家人们谁懂啊 / 姐妹们快冲 / 宝藏 / 神器 / 不好吃回来打我等老模板,新老套路并存。新增规则/白名单:#47b AI 模板占位符残留(XX 路 / X 号线 X 口单次出现即硬证据,规范为"保留 + 显式标注 + 不发明")、#37-B info-block emoji 微模板(✅ 必点 / 📍 地址 / ⏰ 营业时间 / 🌟 晨间护肤)、身份标签 + 反向 CTA 组合、hashtag 尾巴平台冗余清理、护肤 / 美妆成分白名单(神经酰胺 / B5 / 氨基酸 / 皮肤屏障按行业标准词保留)。新增 5 条回归样本13-xhs-classic-templates / 14-xhs-ootd / 15-xhs-office-tips / 16-xhs-skincare / 17-xhs-home,覆盖老模板复用、OOTD、技术信息保护、成分白名单、毒性正能量缝合五个场景。规则总数维持 51 条(#47b 是 #47 的结构性兄弟,不单独计数)。 - v0.6.5(2026-04-24):扩展回归覆盖,新增 7 条样本(
06-brand-voice/07-academic-tech/08-weishendu-consulting/09-xhs-healing/10-bilibili-script/11-negation-stacking/12-table-abuse),覆盖品牌广告、学术 / 科技、公众号伪深度、小红书伪疗愈、B 站科普、否定对举密度、表格滥用等此前缺失的语体与子语体;smoke check 加入KNOWN_GAPS机制与结构化断言(门检 / 语体 / 规则引用 / 终稿 token 保留)。本版无规则变更。 - v0.6.4(2026-04-23):精简运行时 qu-ai-wei 文本里的版本历史噪音,细化 #48 对「不是 X,也不是 Y」否定对举的判据;新增
04-negative-pairings.md/05-human-stop.md两条回归样本和tests/check-version-sync.sh自动同步检查。 - v0.6.3(2026-04-23):
SKILL.md一致性校准(规则计数统一、门检分支更清晰、全角标点对照修正),并同步拍平到.cursorrules/WARP.md。 - v0.6.2(2026-04-22):
SKILL.md重构为核心 + references/ 按需加载结构,并新增拍平脚本与回归样本。 - v0.6.1(2026-04-22):引入叶圣陶「写话」与《咬文嚼字》流行语刷新机制,强化 #49 的时效锚点。
参考来源
中文写作哲学根基
- 叶圣陶「写话」主张 — 出自叶圣陶《作文论》(1924 年,商务印书馆)与叶圣陶 · 夏丏尊《文心》(1934 年,开明书店)。核心两句:"写出来的话要跟嘴里说的一样"、"说自己的话"。反对八股作文腔、空话套话。本 skill 的"AI 味 = 不说人话"定位,本质上是叶圣陶"写话"主张的当代投射 —— 相差 70 多年,反对的是同一件事:模仿规范而生的空腔。叶给的是哲学根基,humanizer 给的是工作流骨架。
通用 AI 腔分类
- Wikipedia: Signs of AI writing — 通用 AI 写作痕迹分类的主要来源
- WikiProject AI Cleanup — 英文维基的维护组织
- 维基百科:AI生成文的特徵 — 中文维基社群的平行信息页(与英文版独立,不是翻译),列有中文具体实例,可作交叉参考
汉语语法与排版规范
- 中文维基百科 · 汉语语法 — 语序、话题优先、主语省略、助词分工等中文语法条目的权威参考,「语序」规则的理论依据
- sparanoid · 中文文案排版指北 — 中英文混排、全角标点、盘古之白等排版美学规范。本 skill 的目标是"AI 痕迹检测"(机械感 / 空洞感),跟它的目标(可读性 / 美观)正交,用途互补:想做版面优化用 sparanoid,想去 AI 味用本 skill
语言时效性锚点
- 《咬文嚼字》(上海文艺出版总社主办月刊,1995 年创刊)— 每年 12 月发布「十大流行语」、次年 1 月发布「十大语文差错」,是现代汉语流行语 / 语文错误的权威社会语言学观察。本 skill 规则 #49(网络流行语机械套用)的鲜活词清单每年按《咬文嚼字》榜单校准。
- 2024 十大流行语:数智化、智能向善、未来产业、city 不 city、硬控、水灵灵地 xx、班味、松弛感、银发力量、小孩哥 / 小孩姐
- 2025 十大流行语:韧性、具身智能、苏超、赛博对账、数字游民、谷子、预制 xx、活人感、xx 基础 / xx 不基础、从从容容游刃有余 / 匆忙忙连滚带爬
- 年度刷新机制见 SKILL.md「语言时效性锚点」小节。
去 AI 腔工具与中文 AI 腔观察
humanizer(作者 Siqi Chen,MIT 协议,2025)— 去 AI 腔工具,官方语言无关定位,29 条规则实际针对英文写作。本 skill 的结构、三遍工作流、语音校准、个性与灵魂章节、约 17 条模式概念的直接来源。- yage.ai《写作中的 AI 味是哪儿来的》 — 原创观察文章,主张"AI 味 = 翻译腔"。模式 #39-#42(思考动作动词 / X 很 Y 冒号 / 抽象名词主语 / 未译英文词)来自这篇文章。
致谢
感谢 Siqi Chen 和 humanizer 项目。没有 humanizer 的骨架、三遍工作流、Voice Calibration 思路和 Personality and Soul 章节,这份中文版不会是现在的样子。
关于中文特有模式: 中文维基上有一份平行的社群信息页 维基百科:AI生成文的特徵(与英文版独立,不是翻译),可作交叉参考。本 skill 里中文特有的痕迹(的的不休、性 / 化 后缀、进行 + V、长破折号解释句、赋能 / 助力 / 打造 词族、翻译腔残留等)主要是我看 LLM 中文输出慢慢整理出来的,欢迎补充、纠正、反馈。
许可证
MIT(见 LICENSE)
Reviews (0)
Sign in to leave a review.
Leave a reviewNo results found