Skip to content

asgeirtj/system_prompts_leaks

⭐ 39,933  ·  #16  ·  N/A

Extracted system prompts from ChatGPT (GPT-5.5 Thinking), Claude (Opus 4.7, Opus 4.6, Sonnet 4.6, Claude Code), Gemini (3.1 Pro, 3 Flash, Gemini CLI), Grok (4.3 beta), Perplexity, and more. Updated regularly.

ai ai-transparency anthropic Skill

项目分析

🎯 定位Agent 能力增强
💡 核心价值为 AI 编码 Agent 提供标准化的 Skills 和 Prompt 模板,覆盖特定场景(代码审查、调试、架构设计等),让 Agent 在这些场景下输出质量更高
👥 适合谁使用 Claude Code/Cursor/Codex 等 Agent 工具的开发者,想提升 Agent 在特定任务上的表现

为什么值得关注

39,933 Stars,社区活跃度不错,说明解决了真实痛点。

AI 深度分析报告

一句话总结

系统性泄露主流AI模型底层指令的权威档案库。

核心功能

该项目并非一个可执行的软件工具,而是一个高质量的文本档案集合。其核心价值体现在以下三个方面:

  1. 广泛的模型覆盖度:项目收集了来自 OpenAI (ChatGPT, Codex)、Anthropic (Claude Opus, Sonnet, Code)、Google (Gemini)、xAI (Grok)、Perplexity 等几乎所有主流 AI 聊天和编码助手的系统提示词。从旗舰模型到特定场景的变体(如 Claude Design、Claude for Excel)均有收录。
  2. 版本追踪与更新:项目不仅收录了最新版本的提示词(如 GPT-5.5 Thinking、Claude Opus 4.7),还保留了旧版本(如 Opus 4.5),并明确标注了更新日期。这对于研究模型行为演变、理解厂商策略调整极具价值。
  3. 结构化与可读性:每个模型都有独立的 Markdown 文件,并按照厂商(Anthropic、OpenAI、Google 等)进行目录组织。对于 Claude 等复杂模型,还细分了“Human-readable”、“Injections”、“No-tools”等不同版本,方便对比研究。README 中清晰的热门更新表格和目录索引,极大地提升了信息检索效率。

技术架构

  • 技术栈:该项目本质上是一个纯文档仓库,技术栈为零。它仅依赖 Git 进行版本控制和 Markdown 作为内容格式。
  • 代码结构亮点:其结构设计是最大的亮点。通过清晰的目录层级(厂商/模型名.md)和规范的文件命名,实现了高度的可维护性和可扩展性。README 作为“索引页”,其结构和更新日志的设计,是典型的优秀开源文档实践,值得其他项目借鉴。

快速上手指南

  1. 访问仓库:直接访问 https://github.com/asgeirtj/system_prompts_leaks
  2. 浏览内容:查看 README.md 文件中的“Recently Updated”或按厂商分类的表格,点击对应模型的链接即可查看其系统提示词。
  3. 克隆仓库(可选):如果需要离线查阅或进行贡献,可以执行 git clone https://github.com/asgeirtj/system_prompts_leaks.git 将整个仓库克隆到本地。

优劣势与适用场景

优势:

  • 信息稀缺性与时效性:系统提示词是 AI 厂商的核心商业机密,极难获取。该项目提供了一个公开、集中且持续更新的“泄密”来源,信息价值极高。
  • 对比研究的绝佳素材:开发者可以横向对比不同厂商(如 OpenAI vs Anthropic)或同一厂商不同版本(如 Opus 4.6 vs 4.7)在安全策略、角色设定、输出规范上的差异。
  • 零门槛使用:无需安装任何环境,有浏览器即可阅读。

劣势:

  • 信息可靠性存疑:作为“泄露”内容,其来源无法被官方验证,存在被伪造或过时的风险。使用者需自行判断和交叉验证。
  • 被动消费型项目:项目本身不提供任何分析工具或可视化能力,用户需要自行阅读和理解长篇幅的文本。
  • 法律与伦理风险:项目名称和性质本身处于灰色地带,可能面临来自 AI 厂商的法律挑战或社区伦理争议。

适用场景:

  • AI 提示工程师/研究员:研究顶级模型如何被“调教”,学习其安全限制、角色设定和输出格式的写法。
  • AI 应用开发者:理解底层模型的“人格”和行为边界,从而更好地设计和调试上层应用,避免触发不必要的限制。
  • AI 安全与伦理研究者:分析厂商在内容审核、偏见规避、安全性方面的具体实现策略。
  • AI 爱好者/技术博主:获取一手素材进行深度分析、社区讨论或内容创作。

社区与热度

  • Stars:39,933,这是一个非常惊人的数字,表明项目获得了极高的社区关注度和认可。这在信息聚合类项目中属于金字塔尖的水平。
  • Topics:标签覆盖了所有主流 AI 模型和关键词(ai-transparency, prompt-engineering),SEO 优化做得很好,易于被搜索发现。
  • 近期更新:从 README 的“Recently Updated”表格可以看到,项目在 2026 年 4 月仍有高频更新,涵盖了 GPT-5.5、Claude Cowork、Grok 4.3 Beta 等最新模型,说明项目维护者非常活跃,生命力旺盛。
  • 许可:采用 MIT 许可证,对内容的使用和分发非常开放,有利于信息传播。

总结asgeirtj/system_prompts_leaks 是一个现象级的开源项目。它精准地抓住了 AI 社区对“黑盒”内部信息的好奇心和刚需,通过出色的内容组织和持续的高频更新,构建了一个高价值、高影响力的信息档案库。尽管存在来源可靠性和法律风险,但其在推动 AI 透明度和促进技术研究方面的贡献是巨大的。对于所有希望深入理解现代 AI 模型行为的人来说,这是一个不容错过的宝藏资源。

技术信息

  • 💻 语言: N/A
  • 📂 Topics: ai, ai-transparency, anthropic, chatgpt, claude
  • 🕐 更新: 2026-01-21
  • 🔗 访问 GitHub 仓库

数据更新于 2026-03-01 · Stars 数以 GitHub 实际数据为准

热点项目数据来自 GitHub API,实时更新