qu-ai-wei

skill
Guvenlik Denetimi
Basarisiz
Health Uyari
  • License — License: MIT
  • Description — Repository has a description
  • Active repo — Last push 0 days ago
  • Low visibility — Only 7 GitHub stars
Code Basarisiz
  • rm -rf — Recursive force deletion command in scripts/install-skill.sh
Permissions Gecti
  • Permissions — No dangerous permissions requested

Bu listing icin henuz AI raporu yok.

SUMMARY

去 AI 味:去除简体中文 AI 写作痕迹 / Chinese humanizer skill

README.md

去 AI 味(qu-ai-wei)

Version
License: MIT
Language
GitHub stars

⚠️ 0.x 开发版(当前 v0.6.6): qu-ai-wei 仍在迭代,规则、分类、API 都可能变动。欢迎提 issue / discussion / PR 反馈。

只支持简体中文。 繁體有自己的 AI 腔特征、用字偏好、排版规范,规则需要单独维护,留给后续版本。

扫掉简体中文里 AI 写作的痕迹,让稿子读着像人写的。当前原生支持 8 个 agent:Cursor、Claude Code、OpenAI Codex CLI、OpenCode、Kiro、Factory Droid、Slate、Hermes。


⚠️ 此 skill 能做什么,不能做什么

这是扫地机 + 打磨工,仍然不是雕刻刀。

v0.6.0 起,这个 skill 同时扮演两个角色:

  • ① 扫地机 —— 清除显眼 AI 污染(赋能 / 助力 / 让我们一起 / 璀璨画卷 / 🚀 emoji 列点 / **重点** 机械加粗 / 希望对您有帮助),让稿子从「一眼像 AI」变成「不像 AI 了」。
  • ② 打磨工(v0.6.0 新增) —— 在不虚构的前提下主动打磨:动词强化进行讨论讨论)、节奏重塑(打断机关枪节奏)、filler 切除一些 / 实际上 / 在一定程度上)、抽象换具体(仅限原文已有细节)、语序归位语体匹配。合格线从"不像 AI 了"抬到"干净且精准"。

但仍然不是雕刻刀。 雕刻需要观点、场景、声音。这三样在原文里没有,打磨工补不出来 —— 因为 v0.5.5 立的「事实发明禁令」硬约束优先级高于 v0.6.0 的打磨抬升,不允许虚构(v0.7.0 起统一归口冲突仲裁顺序 §1)。所以:

  • 原文观点平庸 + 打磨 → 干净的平庸(比原文好,仍然不 amazing)
  • 原文观点清晰 + 打磨 → 一份像样的稿子(v0.6.0 的正常期待)
  • 原文观点独到 + 细节具体 + 打磨 → 接近可读的水位

把一份普通稿子改成真正锋利有声口的好稿子 —— 不在能力范围。

让一份没观点的稿子去掉 AI 腔、再跑完打磨,得到的是一份干净但仍然没观点的稿子。观点要你自己出。

这个 skill适合

  • ✅ 想把 AI 生成的初稿(ChatGPT / DeepSeek / Claude / Qwen 出的第一版)改得不那么像 AI 的写作者
  • ✅ 写工作邮件、PRD、汇报、技术博客、产品文案、公众号推送的日常场景
  • ✅ 需要批量清理稿件里明显 AI 腔的编辑和运营
  • ✅ 学生、产品经理、运营、程序员、创业者 —— 想让自己的日常写作别那么 AI 化
  • ✅ 中文教学、AI 写作识别研究、文本对比分析等场景

这个 skill不适合

  • ❌ 想用工具替代思考的人 —— 如果你的稿子问题是「没有独到观察 / 观点平庸 / 细节塑料」,qu-ai-wei 救不了
  • ❌ 严肃深度写作(《三联生活周刊》/《人物》/《GQ 报道》等特稿级别)—— 这个 skill 能帮到底层文字清洁,但真正的写作水位靠人的观察、采访、思考,不是靠扫地机
  • ❌ 学术论文写作 —— 本 skill 会误判「进行 + V」「然而 / 此外」「性 / 化 后缀」等学术刚需表达(虽然有语体识别保护,但风险仍在)
  • ❌ 法律文书、公文 —— 公文腔是合规要求,不是 AI 腔,这个 skill 对这类文本应几乎不动
  • ❌ 需要保留叙事铺垫、控制篇章节奏的写作 —— 这个 skill 容易误判"铺垫"(环境描写、人物声口前的停顿、离题式背景段落)为"冗余"删掉;也管不了篇章整体的势与气(虎头蛇尾、关键处泄气、论证徘徊不前)。这类写作,qu-ai-wei 最多跑一遍做底层清洁,结构和节奏必须作者自己守住
  • ❌ 用来「把 AI 生成的内容洗白到不被检测出来」—— 请别拿这个 skill 绕过学校 / 期刊 / 公司的 AI 检测政策。qu-ai-wei 不是作弊工具,是让你自己的真实写作更清爽的工具

一句话定位(v0.6.0 更新)

给一份写过东西的毛坯,出来是一份干净且锋利的终稿。不是伪装你没写过的稿子,也不是把任何稿子改成名家水准的好文章。


本 skill 受 humanizer 启发(作者 Siqi Chen,MIT 协议,2025)。humanizer 官方定位是语言无关的工具,但那 29 条规则主要针对英文 —— Title Case、em dash、hyphenated pairs 都是英文特有现象。

中文版向 humanizer 学了骨架:三遍工作流、语音校准思路、"个性与灵魂"这一章的写法,以及大约一半的 AI 腔模式(humanizer 同类规则的中文改写)。另一半是中文语境下重新整理的:语体识别前置步骤、汉语语法依据、标点全角、语序去欧化、避免过度修正的五问。#39-#42 四条模式另有出处,来自 yage.ai 的原创文章。

安装

支持的 agents(同一种安装方式)

Agent 参数 默认安装目录
Cursor --platform cursor ~/.cursor/skills/qu-ai-wei
Claude Code --platform claude ~/.claude/skills/qu-ai-wei
OpenAI Codex CLI --platform codex ~/.codex/skills/qu-ai-wei
OpenCode --platform opencode ~/.config/opencode/skills/qu-ai-wei
Kiro --platform kiro ~/.kiro/skills/qu-ai-wei
Factory Droid --platform factory ~/.factory/skills/qu-ai-wei
Slate --platform slate ~/.slate/skills/qu-ai-wei
Hermes --platform hermes ~/.hermes/skills/qu-ai-wei

以上 8 个 agent 安装方式完全一致,统一用一个脚本。

一键安装(推荐)

git clone https://github.com/hzblacksmith/qu-ai-wei.git ~/qu-ai-wei
cd ~/qu-ai-wei

# 按平台安装(可重复执行)
bash scripts/install-skill.sh --platform cursor
bash scripts/install-skill.sh --platform claude
bash scripts/install-skill.sh --platform codex
bash scripts/install-skill.sh --platform opencode
bash scripts/install-skill.sh --platform kiro
bash scripts/install-skill.sh --platform factory
bash scripts/install-skill.sh --platform slate
bash scripts/install-skill.sh --platform hermes

# 一次装全
bash scripts/install-skill.sh --platform all

可选参数:

  • --name <dir>:自定义安装目录名(默认 qu-ai-wei
  • --mode copy:复制而非软链接(默认 symlink
  • --to <skills-root>:安装到任意自定义技能目录(可重复)
  • --host--platform 的别名(兼容旧习惯)

例如:

# 自定义目录名
bash scripts/install-skill.sh --platform codex --name qu-ai-wei-cn

# 自定义平台目录
bash scripts/install-skill.sh --to ~/.my-agent/skills --name qu-ai-wei

其他支持自定义指令的模型(ChatGPT / DeepSeek / Kimi / 通义 等)

SKILL.md 的正文直接粘到模型的自定义指令或系统提示里,跳过顶部 --- 包起来的 YAML frontmatter 那段。

升级

装好后想拿到最新规则:

# 更新 repo(推荐)
cd ~/qu-ai-wei && git pull

# 如果你用的是 symlink 模式(默认),到这里就完成了
# 如果你用的是 copy 模式,重新安装一次覆盖
bash scripts/install-skill.sh --platform all --mode copy --force

也可以在任一已安装目录直接跑(示例):

bash ~/.claude/skills/qu-ai-wei/update.sh
# 或
bash ~/.codex/skills/qu-ai-wei/update.sh

update.sh 会打印 旧版本 → 新版本 和本版发布页链接,没有新版就提示「已是最新」。每版具体变化见 Releases

用法

自然语言触发(推荐)

直接用人话让模型处理,qu-ai-wei 会自动触发:

帮我去 AI 味:[粘贴中文]
改得说人话:[粘贴中文]
这段中文太 AI 了,润色一下:[粘贴中文]
让它更像人写的:[粘贴中文]
humanize 这段中文:[粘贴中文]

显式调用(slash 命令)

/qu-ai-wei

[粘贴你要改写的中文]

字形范围

只处理简体中文。 繁體输入会提示"当前版本只支持简体中文,建议用 OpenCC 等工具先转简体再回来",不做自动转换。

调用 行为
/qu-ai-wei <text>(简体) 按 51 条规则 + 语体识别 + 过度消毒反制约束改写
/qu-ai-wei <text>(繁體) 提示用户转简体
/qu-ai-wei(无参) 询问用户粘贴文本;可选做轻量级语音校准

语音校准(可选)

想让改写贴近你自己的写作风格,可以粘一段你自己写的中文做参考:

/qu-ai-wei

以下是我自己的写作样本,用来做风格参考:
[粘贴 2–3 段你的文字]

现在请改写这段:
[粘贴 AI 写的中文]

这个 skill 会先从样本里提取一份5 项轻量清单(高频词、平均句长、段首词、标点偏好、整体语域),你确认之后再改写。比起完整的风格分析,这种做法更诚实:2–3 段中文能给的信号本来就有限。


设计思路

与 humanizer 的关系

骨架和方法学借自 humanizer:三遍工作流、语音校准、"个性与灵魂"章节、大约一半的模式概念。剩下的在中文语境里重新整理了一遍。

方面 英文 humanizer qu-ai-wei(0.3)
目标语言 定位语言无关,实际规则针对英文 简体中文
规则数量 29 类(参考 Wikipedia "Signs of AI writing") 51 类 + 顶层冲突仲裁顺序六级(不发明事实 → 真人停手门检 → 语体降级保护 → 过度消毒反制 → 51 条减法 → 6 条打磨抬升,v0.7.0 统一);约一半是 humanizer 同类规则的中文改写,其余为中文原创(含中文维基《AI生成文的特徵》启发的 4 条,2024-2025 AI 腔新形态 3 条)
规则关系 针对英文语法、英文 AI 腔 针对中文语法(吕叔湘、朱德熙、汉语语法维基等)、中文 AI 腔
语体区分 不区分 9 种语体前置识别(社交 / 自媒体 / 商务 / 书面 / 特稿 / 品牌广告 / 学术 / 公文 / 高考应试作文)
方法学 模式识别 + 密度判定 同(借鉴自 humanizer)
工作流 三遍改写 三遍改写 + 过度修正五问自查(反向翻译 / 频率 / 对标 / 话题指代 / 语体匹配)
语音校准 完整风格分析 轻量化 5 项清单

核心能力:语体识别

如果把所有文本都往"日常白话"改,会把学术论文的"进行深入分析"改成"好好分析一下"、把公文"依法予以处理"改成"按法律办"。所以 qu-ai-wei 先做语体识别,再选规则:

语体 典型场景 去 AI 腔激进度
社交 / 口语 微信、朋友圈、豆瓣 最激进
内容 / 自媒体 公众号营销号、小红书、短视频 激进
商务 / 职场 邮件、汇报、PRD 中等
书面 / 一般 博客、随笔、科普、时评 中等
叙事非虚构 / 特稿 《人物》《三联》《GQ 报道》等深度长读 中等偏保守(保留气氛铺垫、排比气势、慢节奏)
品牌广告 / 文案 Apple 官网、Nike campaign、发布会大字、户外大牌、TVC 旁白 特殊档(严查翻译腔和 AI 商务词,但保护短句、留白、排比、文言感、中英混排 —— 整套规则反着走)
学术 / 科技 论文、白皮书 保守(保留 进行 + V性 / 化 后缀等学术刚需表达)
公文 / 法律 法规、合同 最保守(仅改客服腔)
高考 / 应试作文 高考 / 中考 / 本科应试作文 最保守(仅改客服腔与格式幻觉;排比、引用、成语气势、进行 + V性 / 化 后缀、逻辑连接词一律保留 —— 都是评分加分项)

SKILL.md 里有完整的规则激活矩阵。判不清的时候 qu-ai-wei 会问:"这段文字发在朋友圈 / 公众号 / 工作邮件 / 特稿 / 品牌官网 / 学术报告 / 合同 / 高考作文里?"

核心检测原则:看密度,不看出现

对仗、排比、四字成语,写中文的人本来就在用,真人写作里到处是。光是用了这些不算 AI 腔;反复堆叠、跟前后内容没关系、换到别的话题上也成立,这才是。单次出现不算,短段(200 字以内)里反复出现才算。

避免"过度修正"

这 51 类模式是检测启发式,不是改写模板。去 AI 腔 ≠ 去一切规范化表达。真人常用、共识度高的中文写法(比如"支持 X 等平台""用于 X""基于 X")本身不是 AI 腔。改写前多问五步:

  1. 反向翻译验证:倒译回英文,是不是像 runs onis compatible with 的直译?是就改回原文。
  2. 频率验证:这个表达在真人中文写作里常见吗?不常见 + 我临时发明 → 危险。
  3. 对标验证:放进《三联生活周刊》或微信系统提示里,会不会扎眼?会就停下。
  4. 话题 / 指代验证:这是一个 X 中的 这是 经常承担话题引入功能,不是冗余系动词。只在 X 是 X 纯冗余结构才删。
  5. 语体匹配验证:改写后的句子跟原文语体级别是否一致?把学术严谨改成日常口语、把公文庄重改成朋友圈调侃,都是失败的改写。

关于正面参考

这个 skill 里列了《三联生活周刊》《读者》《中国国家地理》、微信 UX,还有汪曾祺、鲁迅、阿城这些人,作为"正面对照"。v0.4 新增 Apple 大中华区 / Nike 大中华区作为品牌广告语体的反向对照基准("这段文字放进 Apple 官网 hero copy / Nike 广告片里会刺眼吗?")。用法要注意:它们是诊断时的反面参照("这句话放进《三联生活周刊》会不会别扭?"),不是风格模仿目标("请按三联风格写" / "写个 Apple 风 slogan")。只给 LLM 一个名字让它学风格,出来基本都是刻板仿作。一键风格切换暂不做。

中英混排:只保留专有名词,不管空格

唯一的硬性规则: 英文专有名词、产品名、人名、缩写,改写时原样保留,不翻译、不意译、不替换。"Codex CLI" 不能改成"科德克斯命令行","Transformer" 不能改成"变换器"。这是"信息完整性"的延伸。

中英、中数之间的半角空格(俗称"盘古之白"),本 skill 不管。 这东西 AI 和人都在各自变,加或不加根本分不出来,不能作为去 AI 腔的信号。也不是国标 — GB/T 15834-2011 只管标点,W3C CLREQ 说"字距或空白"均可不强制 U+0020,sparanoid 盘古之白原作者自己都说它是 "informal typographic convention"。真要替用户加反而踩坑:人家原文本来不加空格(朋友圈、公众号、小红书都这样),qu-ai-wei 给加上,一股"技术圈腔"就冒出来了。

规则:原文有空格保留,没空格不加。 需要统一格式或追求中文排版美学,用 pangu.js 自动处理,或参考 sparanoid 的中文文案排版指北 —— 那是排版规范,跟本 skill 的"AI 痕迹检测"是不同目标(排版管美学、我们管机械感)。

标点符号:两层规范

第一层(全角半角):中文上下文里,标点符号一律用全角,不跟半角混用。英文训练数据里标点全是半角,模型输出中文时常常直接复用,读起来就有"翻译腔"的视觉信号。

第二层(功能分工):全角半角解决"用对字符",下一层是"每个标点干什么"。SKILL.md 覆盖顿号 / 分号 / 书名号 / 省略号 / 冒号 / 引号 / 括号的功能分工与 AI 常犯的错配(如:把引出信息的冒号误替换为破折号、用引号代替书名号、严肃正文里反常高频的分号和省略号)。分号在日常 / 商务语体里基线接近 0,但在社论 / 时评 / 长议论里是合法排比节奏工具,不触发 AI 腔判定。

对照表、例外清单、典型错误、严肃媒体标点频率基线都写在 SKILL.md 的「标点符号」两节。

语序:完全中文化,避免英文式倒装

LLM 常把英文句法直接套到中文上。单句读着像中文,一连读就发现别扭,多半是语序带了英式残留。中文的基本习惯:主语前置,定语要短,状语在动词前,条件和原因从句放主句之前。常见病(介词短语前置过长、"作为一个 X,..." 开头、定语堆叠、英文关系从句直译等)和自查四问写在 SKILL.md 的「语序」一节。

信息完整性

改写只改表达方式,不删信息。原文里每一条具体事实(数字、人名、时间、产品名、关键措辞),终稿里都要能对应上。觉得某处表达冗余,可以压缩;但不能悄悄丢事实。有疑问的时候,保留原信息比追求简洁更重要。


51 类模式一览(精简版)

完整规则、触发条件和“原文/改后”示例请看 SKILL.md。README 这里保留目录级速览,方便先判断是否覆盖你的场景。

类别 范围 关注点
A. 内容模式 #1-#6 空洞拔高、背景套话、模糊归因
B. 语言模式 #7-#20 高频词堆叠、名词化/后缀化、机械并列
B+. 逻辑连接 #34 连接词空转、逻辑关系虚化
C. 修辞模式 #21-#25 成语/排比模板化、装饰性格式滥用
D. 交流模式 #26-#29, #51 客服腔、谄媚腔、第二人称泛化
E. 填充与模糊 #30-#32 冗余短语、模糊限定、口号式号召
F. 翻译腔 #33, #39-#44 英文句骨残留、中英混杂、列表反射
G. 篇章节奏 #35-#36 句长均质化、指代不敢省
H. 平台文体 #37-#38, #49-#50 自媒体套路、故事 AI 味、B 站模板味
I. 幻觉与格式 #45-#48 表格滥用、Markdown 残留、伪引用

常见入口:


完整示例

原文(AI 腔偏重):

随着协同办公模式的不断发展,远程周报机制在团队管理中发挥着越来越重要的作用。通过标准化模板,我们能够从多维度、全方位地掌握项目进展,提升协作效率,赋能组织管理。

值得一提的是,一个高质量周报通常包括以下几个方面:

  1. 本周完成情况:系统梳理关键成果。
  2. 风险与挑战:识别潜在问题并提出解决思路。
  3. 下周计划:明确重点任务,确保高效推进。

总体来看,周报不仅是信息同步工具,更是推动团队持续成长的重要抓手。让我们共同打造更加透明、高效、可持续的协作机制。

示例输出(按当前 workflow):

【门检】判断:AI 生成文本 | 证据:[“随着…不断发展”, “值得一提的是”]

初稿

远程周报有用,但前提是别写成模板作文。

真正有价值的周报通常就三件事:这周做成了什么、卡在哪里、下周准备怎么推进。写清楚这三件,团队同步就够用了。

周报不是“看起来很完整”的文档,更像一个对齐工具:让大家知道项目现在到哪一步、问题在哪、谁在跟进。

自审

  • AI 不敢写测试:有。“周报有用,但前提是别写成模板作文。” 这句带判断,不是客服腔。
  • 整篇打磨自检五问:
    • 用词精准:通过(删除“多维度、全方位、赋能、抓手”等空词)。
    • 节奏变化:通过(长句拆短句,段落长度有变化)。
    • 动词驱动:通过(梳理/识别/提出 收束为 做成/卡住/推进)。
    • 具体替抽象:通过(把“持续成长机制”落到“项目到哪一步、谁跟进”)。
    • 声音一致:通过(统一为书面/一般,中性直述)。
  • 残留痕迹:轻微口号感已基本清除。

终稿

远程周报有用,但前提是别写成模板作文。

一份能用的周报,核心就三件事:这周做成了什么、卡在哪里、下周怎么推进。把这三件写清楚,团队同步效率通常不会差。

周报本质上是对齐工具,不是展示文笔的材料。它要回答的是:项目到哪一步了,当前风险是什么,下一步由谁跟进。

打磨报告

  • 动词强化:“发挥…作用”“有用”“推动团队持续成长”“回答…问题”
  • 节奏重塑:首段从一条长句改为两条短句,降低公关稿腔。
  • filler 切除:删除 “不断发展 / 多维度 / 全方位 / 赋能 / 重要抓手 / 共同打造”
  • 抽象换具体(仅用原文信息):把“高质量周报包括三个方面”落成 “做成了什么、卡在哪里、下周怎么推进”
  • 语序归位:将“通过标准化模板,我们能够…”改为“核心就三件事…写清楚即可”。
  • 语体匹配:保持“书面 / 一般”语域,不降格为聊天口吻。

改动摘要(可选)

  • 主要命中:#1/#2(意义拔高与背景开场套话)、#7(高频商务词)、#30/#31(冗余与抽象空词)、#37(模板化结构)。

更多完整样例见 SKILL.md


给贡献者 / 自己维护的几条提醒

  1. 改了 SKILL.md / references/ / README 后,把自己动过的散文段落喂给 qu-ai-wei 自检一遍。规则条目里那些结构化 metadata(问题 / 关键词 / 原文 / 改后 / 语体限定)是给模型读的骨架,别 humanize —— 去掉对称反而让模型看不清规则长什么样。只对解释性散文跑。
  2. 加新规则时检查会不会跟既有规则冲突 / 重叠。比如"抽象万能动词"跟 #7 AI 高频词、#30 冗余书面化都相邻,要说清楚各自管的是什么。新规则写进 references/patterns.md(不拆子文件,保留 A-I 跨规则 interlock),同时在 SKILL.md 末尾的「51 条 AI 腔模式 · 索引表」里补一行速查。
  3. 所有例子都要有"原文 / 改后"对。单给判断标准没有示范,模型抓不准。
  4. 版本号凡升,README 的版本记录、CHANGELOG.md 和 SKILL.md frontmatter 同改。改完顺手跑 bash tests/check-version-sync.sh,让 README / flat build / changelog 一次过。
  5. 改 SKILL.md 或 references/ 后,commit 前跑一遍 scripts/build-flat.sh,它会从 SKILL.md + references/ 自动拍平生成 .cursorrulesWARP.md。Cursor / Windsurf / Warp 不支持 progressive disclosure,必须用单文件。三份文件漂移是最常见的 bug,脚本是单一事实来源(把这一行放在第 4 条之后,不是第 6 条之后,因为它比《咬文嚼字》刷新频次高)。
  6. 遇到真人经典文本(金庸 / 王朔 / 汪曾祺 / 真实采访实录等)不要改。这是 qu-ai-wei 最常见的灾难,在"🛑 第负一步"明确写了门检。
  7. 改完之后,用 tests/fixtures/ 的 5 条样本跑一遍回归01-03 是长期样本(AI 中文概述 / 公众号伪深度 / 小红书 Kimi 案例),04-05 是 v0.6.4 加的定向样本(否定对举 / 真人停手)。前后对照和定向输出都放在 tests/after/; 01-03 还能和 tests/baseline/ 对照,看结构重构是否引入了行为漂移。任何大改(新规则、规则合并、语体矩阵调整)都建议先跑这 5 条。
  8. 每年 12 月《咬文嚼字》发布十大流行语、次年 1 月发布十大语文差错后,刷新规则 #49 的「鲜活词」/「已入土词」清单。新词加入「官方榜单」行;3 年以上未进榜、社群已不用的旧词下沉到「已入土」行。刷新改 references/patterns.md 的 #49 节 + references/sources.md 的「语言时效性锚点」小节,跑 scripts/build-flat.sh 同步到 .cursorrules / WARP.md,README 的相应小节也一并改。不刷新的代价是清单每过一年老化一点,真人用的新词 AI 反而学得比我们快。

版本记录

完整历史版本请看 CHANGELOG.md

最近更新:

  • v0.7.0(2026-05-12)文档结构重整,行为不变。新增「冲突仲裁顺序」唯一优先级树,六级仲裁覆盖 §1 不发明事实 → §6 打磨抬升,各章节散落的"优先级更高"声明统一引用。拆出 3 个新参考文件:references/whitelists.md(体育 / 通用技术缩写 / 人物昵称 / 护肤成分四类白名单)、references/punctuation.md(标点功能分工第二层)、references/syntax.md(10 类英式语序残留)。压缩 避免过度修正 反向验证(5 问 → 3 问)、过度消毒反制 毛边类型(5 类 → 3 类)、frontmatter description。SKILL.md 从 1259 行降到 1012 行(-20%)。51 条 AI 腔模式、9 种语体识别、6 条打磨动作、自检与打磨报告格式全保留。
  • v0.6.6(2026-04-25):基于 5 组当代小红书 AI 样本的诊断发现,修正 patterns.md 里"2021 年老 AI 自媒体腔基本绝迹"这条陈旧判据 —— 2025-2026 AI 小红书生成大量复用 🆘 / 家人们谁懂啊 / 姐妹们快冲 / 宝藏 / 神器 / 不好吃回来打我 等老模板,新老套路并存。新增规则/白名单:#47b AI 模板占位符残留(XX 路 / X 号线 X 口 单次出现即硬证据,规范为"保留 + 显式标注 + 不发明")、#37-B info-block emoji 微模板(✅ 必点 / 📍 地址 / ⏰ 营业时间 / 🌟 晨间护肤)、身份标签 + 反向 CTA 组合hashtag 尾巴平台冗余清理护肤 / 美妆成分白名单(神经酰胺 / B5 / 氨基酸 / 皮肤屏障 按行业标准词保留)。新增 5 条回归样本 13-xhs-classic-templates / 14-xhs-ootd / 15-xhs-office-tips / 16-xhs-skincare / 17-xhs-home,覆盖老模板复用、OOTD、技术信息保护、成分白名单、毒性正能量缝合五个场景。规则总数维持 51 条(#47b 是 #47 的结构性兄弟,不单独计数)。
  • v0.6.5(2026-04-24):扩展回归覆盖,新增 7 条样本(06-brand-voice / 07-academic-tech / 08-weishendu-consulting / 09-xhs-healing / 10-bilibili-script / 11-negation-stacking / 12-table-abuse),覆盖品牌广告、学术 / 科技、公众号伪深度、小红书伪疗愈、B 站科普、否定对举密度、表格滥用等此前缺失的语体与子语体;smoke check 加入 KNOWN_GAPS 机制与结构化断言(门检 / 语体 / 规则引用 / 终稿 token 保留)。本版无规则变更。
  • v0.6.4(2026-04-23):精简运行时 qu-ai-wei 文本里的版本历史噪音,细化 #48 对「不是 X,也不是 Y」否定对举的判据;新增 04-negative-pairings.md / 05-human-stop.md 两条回归样本和 tests/check-version-sync.sh 自动同步检查。
  • v0.6.3(2026-04-23)SKILL.md 一致性校准(规则计数统一、门检分支更清晰、全角标点对照修正),并同步拍平到 .cursorrules / WARP.md
  • v0.6.2(2026-04-22)SKILL.md 重构为核心 + references/ 按需加载结构,并新增拍平脚本与回归样本。
  • v0.6.1(2026-04-22):引入叶圣陶「写话」与《咬文嚼字》流行语刷新机制,强化 #49 的时效锚点。

参考来源

中文写作哲学根基

  • 叶圣陶「写话」主张 — 出自叶圣陶《作文论》(1924 年,商务印书馆)与叶圣陶 · 夏丏尊《文心》(1934 年,开明书店)。核心两句:"写出来的话要跟嘴里说的一样"、"说自己的话"。反对八股作文腔、空话套话。本 skill 的"AI 味 = 不说人话"定位,本质上是叶圣陶"写话"主张的当代投射 —— 相差 70 多年,反对的是同一件事:模仿规范而生的空腔。叶给的是哲学根基,humanizer 给的是工作流骨架。

通用 AI 腔分类

汉语语法与排版规范

  • 中文维基百科 · 汉语语法 — 语序、话题优先、主语省略、助词分工等中文语法条目的权威参考,「语序」规则的理论依据
  • sparanoid · 中文文案排版指北 — 中英文混排、全角标点、盘古之白等排版美学规范。本 skill 的目标是"AI 痕迹检测"(机械感 / 空洞感),跟它的目标(可读性 / 美观)正交,用途互补:想做版面优化用 sparanoid,想去 AI 味用本 skill

语言时效性锚点

  • 《咬文嚼字》(上海文艺出版总社主办月刊,1995 年创刊)— 每年 12 月发布「十大流行语」、次年 1 月发布「十大语文差错」,是现代汉语流行语 / 语文错误的权威社会语言学观察。本 skill 规则 #49(网络流行语机械套用)的鲜活词清单每年按《咬文嚼字》榜单校准
    • 2024 十大流行语:数智化、智能向善、未来产业、city 不 city、硬控、水灵灵地 xx、班味、松弛感、银发力量、小孩哥 / 小孩姐
    • 2025 十大流行语:韧性、具身智能、苏超、赛博对账、数字游民、谷子、预制 xx、活人感、xx 基础 / xx 不基础、从从容容游刃有余 / 匆忙忙连滚带爬
    • 年度刷新机制见 SKILL.md「语言时效性锚点」小节。

去 AI 腔工具与中文 AI 腔观察

  • humanizer(作者 Siqi Chen,MIT 协议,2025)— 去 AI 腔工具,官方语言无关定位,29 条规则实际针对英文写作。本 skill 的结构、三遍工作流、语音校准、个性与灵魂章节、约 17 条模式概念的直接来源。
  • yage.ai《写作中的 AI 味是哪儿来的》 — 原创观察文章,主张"AI 味 = 翻译腔"。模式 #39-#42(思考动作动词 / X 很 Y 冒号 / 抽象名词主语 / 未译英文词)来自这篇文章。

致谢

感谢 Siqi Chenhumanizer 项目。没有 humanizer 的骨架、三遍工作流、Voice Calibration 思路和 Personality and Soul 章节,这份中文版不会是现在的样子。

关于中文特有模式: 中文维基上有一份平行的社群信息页 维基百科:AI生成文的特徵(与英文版独立,不是翻译),可作交叉参考。本 skill 里中文特有的痕迹(的的不休、性 / 化 后缀、进行 + V、长破折号解释句、赋能 / 助力 / 打造 词族、翻译腔残留等)主要是我看 LLM 中文输出慢慢整理出来的,欢迎补充、纠正、反馈


许可证

MIT(见 LICENSE

Yorumlar (0)

Sonuc bulunamadi