Ask me what skills you need
What are you building?
Tell me what you're working on and I'll find the best agent skills for you.
深度解读学术论文,将论文 PDF(文件或 URL)转化为通俗易懂、图文并茂的 Markdown 解读文档,保存到项目的 markdown/ 目录。触发条件:用户上传或提供论文 PDF、提到"解读论文"/"读论文"/"分析这篇论文"/"帮我看这篇 paper",或任何需要深入理解一篇学术论文的场景。即使用户只说"帮我看这个 PDF"但内容是论文,也应使用本 skill。输出文件包含:论文定位、知识地图、5W1H精读、术语词典、批判性评估五大板块,并在关键位置插入 mermaid/svg/text 图表辅助理解。
将学术论文转化为通俗易懂、图文并茂的深度解读文档。
输入(PDF文件/URL) → 全文提取 → 5步解读 → 输出 Markdown 文件到 markdown/
读取路径 /mnt/user-data/uploads/ 下的 PDF 文件,用 bash_tool 提取文本:
pip install pdfminer.six --break-system-packages -q
python3 - <<'EOF'
from pdfminer.high_level import extract_text
text = extract_text("/mnt/user-data/uploads/论文文件名.pdf")
print(text[:50000]) # 先输出前50000字符
EOF
若论文有图表密集或文字提取不完整,追加用 pymupdf 逐页提取并描述图表内容:
pip install pymupdf --break-system-packages -q
python3 - <<'EOF'
import fitz
doc = fitz.open("/mnt/user-data/uploads/论文文件名.pdf")
for i, page in enumerate(doc):
print(f"\n=== Page {i+1} ===")
print(page.get_text())
# 列出图片
imgs = page.get_images()
if imgs:
print(f"[此页含 {len(imgs)} 张图片]")
EOF
使用 web_fetch 工具抓取 PDF,或者先用 web_search 找到 arXiv/DOI 页面,再抓取 HTML 摘要 + 全文。
web_fetch(url) → 提取文本内容
重要:提取完成后,记录以下信息备用:
mkdir -p markdown
# 文件名格式:论文标题关键词(英文)+ _解读.md
# 例:attention_is_all_you_need_解读.md
npx skills add digoal/blog --skill paper-interpreterHow clear and easy to understand the SKILL.md instructions are, rated from 1 to 5.
Very clear and well structured, with almost no room for misunderstanding.
How directly an agent can act on the SKILL.md instructions, rated from 1 to 5.
Highly actionable with clear, concrete steps that an agent can follow directly.