GitHub Explorer — 项目深度分析
Deep-dive analysis of GitHub projects covering architecture, community health, competitive landscape, and cross-platform knowledge sources
Free to install — no account needed
Copy the command below and paste into your agent.
Instant access • No coding needed • No account needed
What you get in 5 minutes
- Full skill code ready to install
- Works with 4 AI agents
- Lifetime updates included
Description
--- name: github-explorer description: > Deep-dive analysis of GitHub projects. Use when the user mentions a GitHub repo/project name and wants to understand it — triggered by phrases like "帮我看看这个项目", "了解一下 XXX", "这个项目怎么样", "分析一下 repo", or any request to explore/evaluate a GitHub project. Covers architecture, community health, competitive landscape, and cross-platform knowledge sources. --- # GitHub Explorer — 项目深度分析 > **Philosophy**: README 只是门面,真正的价值藏在 Issues、Commits 和社区讨论里。 ## Workflow ``` [项目名] → [1. 定位 Repo] → [2. 多源采集] → [3. 分析研判] → [4. 结构化输出] ``` ### Phase 1: 定位 Repo - 用 `web_search` 搜索 `site:github.com <project_name>` 确认完整 org/repo - 用 `search-layer`(Deep 模式 + 意图感知)补充获取社区链接和非 GitHub 资源: ```bash python3 skills/search-layer/scripts/search.py \ --queries "<project_name> review" "<project_name> 评测 使用体验" \ --mode deep --intent exploratory --num 5 ``` - 用 `web_fetch` 抓取 repo 主页获取基础信息(README、Stars、Forks、License、最近更新) ### Phase 2: 多源采集(并行) **⚠️ GitHub 页面抓取规则(强制)**:GitHub repo 页面是 SPA(客户端渲染),`web_fetch` 只能拿到导航栏壳子,**禁止用 web_fetch 抓 github.com 的 repo 页面**。一律使用 GitHub API: - README: `curl -s -H "Authorization: token {PAT}" -H "Accept: application/vnd.github.v3.raw" "https://api.github.com/repos/{owner}/{repo}/readme"` - Repo 元数据: `curl -s -H "Authorization: token {PAT}" "https://api.github.com/repos/{owner}/{repo}"` - Issues: `curl -s -H "Authorization: token {PAT}" "https://api.github.com/repos/{owner}/{repo}/issues?state=all&sort=comments&per_page=10"` - Commits: `curl -s -H "Authorization: token {PAT}" "https://api.github.com/repos/{owner}/{repo}/commits?per_page=10"` - File tree: `curl -s -H "Authorization: token {PAT}" "https://api.github.com/repos/{owner}/{repo}/git/trees/{branch}?recursive=1"` PAT 见 TOOLS.md。 以下来源**按需检查**,有则采集,无则跳过: | 来源 | URL 模式 | 采集内容 | 建议工具 | |---|---|---|---| | GitHub Repo | `github.com/{org}/{repo}` | README、About、Contributors | `web_fetch` | | GitHub Issues | `github.com/{org}/{repo}/issues?q=sort:comments` | Top 3-5 高质量 Issue | `browser` | | 中文社区 | 微信/知乎/小红书 | 深度评测、使用经验 | `content-extract` | | 技术博客 | Medium/Dev.to | 技术架构分析 | `web_fetch` / `content-extract` | | 讨论区 | V2EX/Reddit | 用户反馈、槽点 | `search-layer`(Deep 模式) | #### search-layer 调用规范 search-layer v2 支持意图感知评分。github-explorer 场景下的推荐用法: | 场景 | 命令 | 说明 | |------|------|------| | **项目调研(默认)** | `python3 skills/search-layer/scripts/search.py --queries "<project> review" "<project> 评测" --mode deep --intent exploratory --num 5` | 多查询并行,按权威性排序 | | **最新动态** | `python3 skills/search-layer/scripts/search.py "<project> latest release" --mode deep --intent status --freshness pw --num 5` | 优先新鲜度,过滤一周内 | | **竞品对比** | `python3 skills/search-layer/scripts/search.py --queries "<project> vs <competitor>" "<project> alternatives" --mode deep --intent comparison --num 5` | 对比意图,关键词+权威双权重 | | **快速查链接** | `python3 skills/search-layer/scripts/search.py "<project> official docs" --mode fast --intent resource --num 3` | 精确匹配,最快 | | **社区讨论** | `python3 skills/search-layer/scripts/search.py "<project> discussion experience" --mode deep --intent exploratory --domain-boost reddit.com,news.ycombinator.com --num 5` | 加权社区站点 | **意图类型速查**:`factual`(事实) / `status`(动态) / `comparison`(对比) / `tutorial`(教程) / `exploratory`(探索) / `news`(新闻) / `resource`(资源定位) > 不带 `--intent` 时行为与 v1 完全一致(无评分,按原始顺序输出)。 降级规则:Exa/Tavily 任一 429/5xx → 继续用剩余源;脚本整体失败 → 退回 `web_search` 单源。 --- ### 抓取降级与增强协议 (Extraction Upgrade) 当遇到以下情况时,**必须**从 `web_fetch` 升级为 `content-extract`: 1. **域名限制**: `mp.weixin.qq.com`, `zhihu.com`, `xiaohongshu.com`。 2. **结构复杂**: 页面包含大量公式 (LaTeX)、复杂表格、或 `web_fetch` 返回的 Markdown 极其凌乱。 3. **内容缺失**: `web_fetch` 因反爬返回空内容或 Challenge 页面。 调用方式: ```bash python3 skills/content-extract/scripts/content_extract.py --url <URL> ``` content-extract 内部会: - 先检查域名白名单(微信/知乎等),命中则直接走 MinerU - 否则先用 `web_fetch` 探针,失败再 fallback 到 MinerU-HTML - 返回统一 JSON 合同(含 `ok`, `markdown`, `sources` 等字段) ### Phase 3: 分析研判 基于采集数据进行判断: - **项目阶段**: 早期实验 / 快速成长 / 成熟稳定 / 维护模式 / 停滞(基于 commit 频率和内容) - **精选 Issue 标准**: 评论数多、maintainer 参与、暴露架构问题、或包含有价值的技术讨论 - **竞品识别**: 从 README 的 "Comparison"/"Alternatives" 章节、Issues 讨论、以及 web 搜索中提取 ### Phase 4: 结构化输出 严格按以下模板输出,**每个模块都必须有实质内容或明确标注"未找到"**。 #### 排版规则(强制) 1. **标题必须链接到 GitHub 仓库**(格式:`# [Project Name](https://github.com/org/repo)`,确保可点击跳转) 2. **标题前后都统一空行**(上一板块结尾 → 空行 → 标题 → 空行 → 内容,确保视觉分隔清晰) 3. **Telegram 空行修复(强制)**:Telegram 会吞掉列表项(`-` 开头)后面的空行。解决方案:在列表末尾与下一个标题之间,插入一行盲文空格 `⠀`(U+2800),格式如下: ``` - 列表最后一项 ⠀ **下一个标题** ``` 这确保在 Telegram 渲染时标题前的空行不被吞掉。 2. **所有标题加粗**(emoji + 粗体文字) 3. **竞品对比必须附链接**(GitHub / 官网 / 文档,至少一个) 4. **社区声量必须具体**:引用具体的帖子/推文/讨论内容摘要,附原始链接。不要写"评价很高"、"热度很高"这种概括性描述,要写"某某说了什么"或"某帖讨论了什么具体问题" 5. **信息溯源原则**:所有引用的外部信息都应附上原始链接,让读者能追溯到源头 ```markdown # [{Project Name}]({GitHub Repo URL}) **🎯 一句话定位** {是什么、解决什么问题} **⚙️ 核心机制** {技术原理/架构,用人话讲清楚,不是复制 README。包含关键技术栈。} **📊 项目健康度** - **Stars**: {数量} | **Forks**: {数量} | **License**: {类型} - **团队/作者**: {背景} - **Commit 趋势**: {最近活跃度 + 项目阶段判断} - **最近动态**: {最近几条重要 commit 概述} **🔥 精选 Issue** {Top 3-5 高质量 Issue,每条包含标题、链接、核心讨论点。如无高质量 Issue 则注明。} **✅ 适用场景** {什么时候该用,解决什么具体问题} **⚠️ 局限** {什么时候别碰,已知问题} **🆚 竞品对比** {同赛道项目对比,差异点。每个竞品必须附 GitHub 或官网链接,格式示例:} - **vs [GraphRAG](https://github.com/microsoft/graphrag)** — 差异描述 - **vs [RAGFlow](https://github.com/infiniflow/ragflow)** — 差异描述 **🌐 知识图谱** - **DeepWiki**: {链接或"未收录"} - **Zread.ai**: {链接或"未收录"} **🎬 Demo** {在线体验链接,或"无"} **📄 关联论文** {arXiv 链接,或"无"} **📰 社区声量** **X/Twitter** {具体引用推文内容摘要 + 链接,格式示例:} - [@某用户](链接): "具体说了什么..." - [某讨论串](链接): 讨论了什么具体问题... {如未找到则注明"未找到相关讨论"} **中文社区** {具体引用帖子标题/内容摘要 + 链接,格式示例:} - [知乎: 帖子标题](链接) — 讨论了什么 - [V2EX: 帖子标题](链接) — 讨论了什么 {如未找到则注明"未找到相关讨论"} **💬 我的判断** {主观评价:值不值得投入时间,适合什么水平的人,建议怎么用} ``` ## Execution Notes - 优先使用 `web_search` + `web_fetch`,browser 作为备选 - **搜索增强**:项目调研类任务默认使用 `search-layer` v2 Deep 模式 + `--intent exploratory`(Brave + Exa + Tavily 三源并行去重 + 意图感知评分),单源失败不阻塞主流程 - **抓取降级(强制)**:当 `web_fetch` 失败/403/反爬页/正文过短,或来源域名属于高风险站点(如微信/知乎/小红书)时:改用 `content-extract`(其内部会 fallback 到 MinerU-HTML),拿到更干净的 Markdown + 可追溯 sources - 并行采集不同来源以提高效率 - 所有链接必须真实可访问,不要编造 URL - 中文输出,技术术语保留英文 ## ⚠️ 输出自检清单(强制,每次输出前逐条核对) 输出报告前,**必须逐条检查以下项目**,全部通过才可发送: - [ ] **标题链接**:`# [Project Name](GitHub URL)` 格式,可点击跳转 - [ ] **标题空行**:每个粗体标题(`**🎯 ...**`)前后各有一个空行 - [ ] **Telegram 空行**:每个列表块末尾与下一个标题之间有盲文空格 `⠀` 行(防止 Telegram 吞空行) - [ ] **Issue 链接**:精选 Issue 每条都有完整 `[#号 标题](完整URL)` 格式 - [ ] **竞品链接**:每个竞品都附 `[名称](GitHub/官网链接)` - [ ] **社区声量链接**:每条引用都有 `[来源: 标题](URL)` 格式 - [ ] **无空泛描述**:社区声量部分没有"评价很高"、"热度很高"等概括性描述 - [ ] **信息溯源**:所有外部引用都附原始链接 ## Dependencies 本 Skill 依赖以下 OpenClaw 工具和 Skills: | 依赖 | 类型 | 用途 | |------|------|------| | `web_search` | 内置工具 | Brave Search 检索 | | `web_fetch` | 内置工具 | 网页内容抓取 | | `browser` | 内置工具 | 动态页面渲染(备选) | | `search-layer` | Skill | 多源搜索 + 意图感知评分(Brave + Exa + Tavily + Grok),v2.1 支持 `--intent` / `--queries` / `--freshness` | | `content-extract` | Skill | 高保真内容提取(反爬站点降级方案) |
Security Status
Scanned
Passed automated security checks
Related AI Tools
More Career Boost tools you might like
Task Observer - Continuous Skill Discovery & Improvement
FreeMonitors task execution to identify skill improvement opportunities and capture reusable workflow patterns during multi-step work sessions
ru-text — Russian Text Quality
FreeApplies professional Russian typography, grammar, and style rules to improve text quality across content types
/forge:工作流总入口
Free'Forge 工作流总入口。检查项目状态,推荐下一步该用哪个 skill。任何时候不知道下一步该干什么,就用 /forge。触发方式:用户说"forge"、"下一步"、"接下来做什么"、"继续"(在没有明确上下文时)。'
TypeScript React & Next.js Production Patterns
FreeProduction-grade TypeScript reference for React & Next.js covering type safety, component patterns, API validation, state management, and debugging
Charles Proxy Session Extractor
FreeExtracts HTTP/HTTPS request and response data from Charles Proxy session files (.chlsj format), including URLs, methods, status codes, headers, request bodies, and response bodies. Use when analyzing captured network traffic from Charles Proxy debug
Java Backend Interview Simulator
FreeSimulates realistic Java backend technical interviews with customizable interviewer styles and candidate levels for Chinese tech companies