|

在 OpenClaw 中安装使用

通过以下方式,将 AI Search Skill 安装到 OpenClaw 平台,即可在对话中直接使用学术搜索能力。

GitHub 仓库: https://github.com/netease-youdao/scholarclaw

1

方式一:自然语言安装

在 OpenClaw 对话框中直接输入以下指令,Agent 会自动从 GitHub 仓库安装 Skill:

"帮我安装 https://github.com/netease-youdao/scholarclaw 这个 skill"
2

方式二:Git Clone 安装

手动克隆仓库到 OpenClaw 的 skills 目录:

# 克隆仓库 git clone https://github.com/netease-youdao/scholarclaw.git # 将 skill 目录拷贝到 OpenClaw 的 skills 路径 cp -r scholarclaw/skills/scholarclaw /path/to/openclaw/skills/ # 在 OpenClaw 配置中启用 (config.yaml) skills: - name: scholarclaw path: ./skills/scholarclaw enabled: true
3

配置 API Key(可选)

如需使用高级功能或更高调用频率,可配置 API Key。前往 用户中心 获取您的 API Key。

方式一:对话配置

在 OpenClaw 对话中直接告诉 Agent 您的 API Key:

"帮我把 scholarclaw 的 API Key 设置为 sk-xxx"

方式二:环境变量配置

在 OpenClaw 的 Skill 配置文件或环境变量中设置:

# 方式 A: 在 config.yaml 中配置 skills: - name: scholarclaw enabled: true config: apiKey: "your-api-key" serverUrl: "https://research.youdao.com" # 方式 B: 设置环境变量 AI_SEARCH_API_KEY="your-api-key" AI_SEARCH_SERVER_URL="https://research.youdao.com"
4

开始使用

安装完成后,在 OpenClaw 对话框中直接用自然语言提问即可。Agent 会自动识别意图并调用对应的 Skill 能力。

# 示例对话 "帮我搜索 transformer 相关的最新论文" "查一下图像分类任务的 SOTA 结果" "把这篇论文 2303.14535 生成一篇技术博客" "推荐一些大语言模型方向的热门论文"

API Key 获取

获取 API Key 以在您的应用中直接调用平台接口。

获取步骤

1. 登录账户,点击右上角用户头像
2. 进入「用户中心」页面
3. 找到「API Key 管理」区域
4. 点击「创建新 Key」,输入名称后确认
5. 请立即复制保存,Key 仅显示一次

安全提示

API Key 仅在创建时显示一次,请妥善保管。如有泄露风险,请立即删除并重新创建。不要在公开代码仓库中提交 API Key。

Blog 生成 Skill

基于论文自动生成高质量技术博客文章。

Blog 生成

AI 写作 · 自动生成

场景描述

当您需要基于某篇论文生成技术博客、内容解读或研究笔记时使用。适合学术写作、技术分享场景。

预期结果

Agent 会调用 Blog 生成 Skill,返回结构化的技术博客内容,包含论文摘要、核心方法解读、创新点总结、实验结果分析等。格式为 Markdown。

返回示例

👤
问题:把GLM-5的论文转为博客,然后发给我吧
🤖

📝 GLM-5 论文博客已生成!

博客标题:"GLM-5:从直觉编码到智能体工程的范式跃迁"

📄 博客核心内容

🎯 核心贡献
  1. 智能体工作流形式化:首次将 Agent 任务执行过程抽象为"感知-规划-行动-反思"四阶段循环
  2. 代码即动作范式:提出 AllToolsAPI 统一接口,用代码生成替代传统工具调用
  3. 上下文感知压缩:设计动态记忆管理机制,实现 97% 的历史压缩率
  4. 工程级 RLHF:构建了覆盖 10+ 场景的智能体评测基准,指导模型对齐
📊 基准测试表现
评测任务 GLM-5 GPT-4 Claude-3
WebShop 75.2% 71.4% 69.8%
WebArena 42.7% 38.5% 35.2%
OSWorld 38.9% 35.1% 32.6%
ToolBench 81.3% 78.6% 76.2%
🏗 架构创新
  1. 统一工具接口:AllToolsAPI 将搜索、数据库、文件操作统一为 Python 代码
  2. 反思机制:引入 Self-Reflection 模块,支持错误回滚和重试
  3. 多轮记忆压缩:基于重要性的滑动窗口,保持关键信息不丢失
🚀 工程实践亮点
  • 支持 pip install zhipuai 快速接入
  • 提供完整的事件回调机制,便于监控和调试
  • 内置安全沙箱,限制危险操作

💡 关键结论

GLM-5 通过"代码即动作"的范式创新,在多个智能体评测中超越了 GPT-4 和 Claude-3,证明了将 LLM 与代码执行深度结合的有效性。其工程实践(如记忆压缩、安全沙箱)也为构建可靠的 AI Agent 提供了参考。

提示

Blog 生成需要 30-60 秒,请耐心等待。生成的内容包含论文图片、表格和公式,格式为 Markdown,可直接发布。

SOTA 查询 Skill

追踪各领域最新 State-of-the-Art 结果,了解技术发展前沿。

SOTA 查询

技术发展追踪 · 性能对比

场景描述

当您需要了解某个任务或领域的最新技术进展、对比不同方法的性能、或寻找最佳实践时使用。

预期结果

Agent 会调用 SOTA 查询 Skill,返回指定任务或领域的性能排行榜,包含最佳方法、性能指标、相关论文和代码链接。

返回示例

👤
问题:最近有哪些关于DeepResearch相关的benchmark?
🤖

📊 DeepResearch 相关 Benchmark 最新进展

1️⃣ DeepResearch Bench (2025年6月)
  • arXiv: 2506.11763 | 引用: 48次
  • 规模: 100个PhD级别研究任务,覆盖22个领域
  • 特点: 评估端到端研究能力,包含问题 formulation、文献综述、实验设计
  • 代码: GitHub
2️⃣ SearchBench (2025年6月)
  • arXiv: 2506.09883 | 引用: 23次
  • 规模: 200个多步骤搜索任务
  • 特点: 评估信息检索和整合能力,支持动态网页交互
  • 代码: GitHub
3️⃣ BrowseComp (2025年4月)
  • arXiv: 2504.12516
  • 规模: 1266个浏览任务
  • 特点: 评估网页浏览和信息提取能力
4️⃣ WebWalker (2025年1月)
  • arXiv: 2501.07573 | 引用: 31次
  • 规模: 680个多跳网页导航任务
  • 特点: 评估跨页面信息整合能力
5️⃣ InfoBench (2024年12月)
  • arXiv: 2412.16118 | 引用: 18次
  • 规模: 500个信息密集型问答任务
  • 特点: 评估深度信息检索和推理能力

📈 趋势总结

Benchmark 核心能力 任务类型 规模
DeepResearch Bench 端到端研究 多阶段研究 100
SearchBench 信息检索 多步搜索 200
BrowseComp 网页浏览 信息提取 1266
WebWalker 跨页导航 多跳问答 680
InfoBench 深度推理 信息整合 500

🎯 核心发现

  1. OpenAI Deep ResearchGemini Deep Research 在多个基准上领先
  2. 开源模型如 DeepSeek-R1 在部分任务上接近闭源水平
  3. 长上下文处理和多步推理是当前主要挑战
  4. 评估标准正从单一任务向端到端研究流程演进

论文推荐 Skill

基于研究兴趣,个性化推荐相关论文。

论文推荐

个性化推荐 · 内容发现

场景描述

当您想要发现新的研究方向、追踪热门论文、或寻找与您研究兴趣相关的论文时使用。

预期结果

Agent 会调用论文推荐 Skill,返回与您兴趣相关的论文推荐列表,包含论文基本信息、推荐理由和相关度评分。

返回示例

👤
问题:推荐一下今天的热门论文
🤖

🔥 今日热门论文 Top 10

获取自 HuggingFace Papers,按热度排序:


1️⃣ MetaClaw: Just Talk — An Agent That Meta-Learns and Evolves in the Wild

📅 2026-03-19 | 👍 90 | ⭐ 2,155

核心贡献: 持续元学习框架,让 LLM 智能体能够在运行中不断进化和学习新技能,最小化停机时间。


2️⃣ Video-CoE: Reinforcing Video Event Prediction via Chain of Events

📅 2026-03-19 | 👍 83

核心贡献: 提出事件链(Chain of Events)新范式,通过结构化事件链增强多模态语言模型的视频事件预测能力。


3️⃣ MosaicMem: Hybrid Spatial Memory for Controllable Video World Models

📅 2026-03-19 | 👍 69 | ⭐ 2,841

核心贡献: 混合空间记忆系统,将图像块提升到 3D 空间进行可靠定位,同时保持模型的原生条件生成能力。


4️⃣ Alignment Makes Language Models Normative, Not Descriptive

📅 2026-03-19 | 👍 34

核心贡献: 对比 120 个基础-对齐模型对,发现对齐后的模型在预测人类行为时表现更差(10:1),但在简单规则场景中表现更好。


5️⃣ Complementary Reinforcement Learning

📅 2026-03-19 | 👍 28

核心贡献: 通过双重目标同步经验提取与策略优化,解决 RL 训练 LLM 智能体时的样本效率问题。


6️⃣ When AI Navigates the Fog of War

📅 2026-03-19 | 👍 21 | ⭐ 2,787

核心贡献: 以 2026 年中东冲突为案例,研究 AI 在信息不完整的地缘政治环境中的推理能力。


7️⃣ Look Before Acting: Enhancing Vision Foundation Representations for VLA Models

📅 2026-03-17 | 👍 19 | ⭐ 211

核心贡献: 提出 DeepVision-VLA,基于视觉-语言混合 Transformer 框架,增强视觉-语言-动作模型的视觉表示能力。


8️⃣ GigaWorld-Policy: An Efficient Action-Centered World-Action Model

📅 2026-03-19 | 👍 18 | ⭐ 223

核心贡献: 以动作为中心的世界-动作模型,通过解耦视觉和运动表示,实现更快的推理和更好的任务性能。


9️⃣ Temporal Gains, Spatial Costs: Revisiting Video Fine-Tuning in MLLMs

📅 2026-03-19 | 👍 16 | ⭐ 2,832

核心贡献: 系统研究视频监督微调(Video-SFT)对多模态大模型视觉能力的影响,发现时间理解提升但空间理解下降的权衡。


🔟 BenchPreS: A Benchmark for Context-Aware Personalized Preference Selectivity

📅 2026-03-19 | 👍 15

核心贡献: 评估记忆型 LLM 在不同沟通场景中是否正确应用或抑制用户偏好的基准测试。


需要我深入解读某篇论文或生成博客文章吗?📝

论文学术影响分析 Skill

深入分析论文的学术影响力,包括引用网络、技术演进路线和产业影响。

论文学术影响分析

引用网络 · 技术演进 · 产业影响

场景描述

当您需要了解某篇论文的学术影响力、追踪其引用网络、分析技术演进路线时使用。适合文献综述、研究趋势分析和论文写作场景。

预期结果

Agent 会分析论文的引用数据,返回论文基本信息、核心贡献、高引用论文排行榜、技术演进路线图、影响力维度分析等。

返回示例

👤
问题:请分析"Vision Transformer"论文的学术影响
🤖

📊 Vision Transformer 论文学术影响分析

论文基本信息

项目详情
标题An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale
作者Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov 等
机构Google Research, Brain Team
发表ICLR 2021 Oral
arXiv2010.11929
发布日期2020年10月

核心贡献

贡献说明
范式突破首次证明纯Transformer可以不依赖CNN,在图像分类上达到SOTA
Patch Embedding将图像分割成16×16的patch,线性投影后作为Transformer输入
规模化验证证明ViT在大规模数据预训练后性能超越ResNet
统一架构为视觉任务引入与NLP统一的Transformer架构

高引用论文排行榜(引用ViT的研究)

排名论文引用数方向
1Swin Transformer11,789层次化视觉Transformer
2CLIP8,396视觉-语言预训练
3DINO6,075自监督视觉Transformer
4MAE4,848掩码自编码器预训练
5DeiT3,824数据高效的ViT训练
6Segment Anything3,309通用分割模型
7ConvNeXt2,653CNN向ViT学习
8Qwen2-VL2,509多模态视觉语言模型
9BLIP2,451视觉-语言预训练
10Taming Transformers2,194图像生成

技术演进路线图

Vision Transformer (2020.10)
    │
    ├─► 架构改进
    │   ├─ DeiT (2020.12) - 数据高效训练
    │   ├─ Swin Transformer (2021.03) - 层次化+滑动窗口
    │   ├─ PVT (2021.02) - 金字塔结构
    │   └─ ConvNeXt (2022.01) - CNN向ViT学习
    │
    ├─► 自监督学习
    │   ├─ DINO (2021.04) - 自蒸馏
    │   ├─ MAE (2021.11) - 掩码自编码
    │   ├─ BEiT (2021.06) - BERT式预训练
    │   └─ DINOv2 (2023.04) - 改进版
    │
    ├─► 多模态融合
    │   ├─ CLIP (2021.02) - 图文对齐
    │   ├─ BLIP (2022.01) - 视觉语言预训练
    │   └─ Qwen2-VL, InternVL等 - 大规模多模态
    │
    ├─► 下游任务
    │   ├─ 检测:ViTDet, DINO
    │   ├─ 分割:Mask2Former, SAM
    │   └─ 生成:DiT, SD3, Flux
    │
    └─► 基础设施
        ├─ FlashAttention - 加速
        └─ S4/Mamba - 长序列替代

影响力维度

维度数据/说明
总引用数100,000+(估计)
顶会收录ICLR 2021 Oral
视觉主干网络ViT/Swin成为检测、分割等任务的标准backbone
多模态学习CLIP、BLIP等视觉语言模型基于ViT架构
产业影响OpenAI (GPT-4V), Google (ViT-22B), Meta (SAM), Stability AI (SD3)

💡 总结

Vision Transformer是计算机视觉领域里程碑式的工作,它不仅开创了视觉Transformer的研究方向,还推动了多模态学习、自监督学习、图像生成等多个领域的快速发展。其学术影响力体现在被引用次数超10万次,催生了Swin、CLIP、MAE、SAM等多个高影响力工作。

提示

学术影响分析结合了论文搜索、引用分析和SOTA查询能力,可以全面评估论文的学术价值。您可以继续追问某个高引用论文的详情,或要求生成博客文章。

高级用法 — 制定自己专属的科研 Skill

基于 ScholarClaw 的各项能力,在 OpenClaw 上构建更高级的自动化科研追踪与信息处理系统。

定制科研 Skill

自动化追踪 · 智能推送 · 个性化配置

场景描述

当您需要构建一套自动化的科研追踪系统,持续监控特定机构、研究领域或 Benchmark 的最新进展,并自动生成报告和推送通知时使用。

预期结果

Agent 会基于您的需求,自动构建一套完整的自动化科研追踪系统,包括机构监控、领域追踪、Benchmark 预警和每日摘要等功能。

返回示例

👤
问题:基于 ScholarClaw 的各项能力,我希望在 OpenClaw 上构建一套更高级的自动化科研追踪与信息处理系统,具体需求如下:

机构级论文追踪 - 持续监控 DeepSeek 发布的最新论文。一旦检测到新论文,自动完成解析与理解,并转化为博客形式推送给我。

研究领域监控 - 针对 GRPO 相关方向,实时跟踪新发表论文。一旦有更新,立即整理关键信息并推送通知。

Benchmark 预警机制 - 持续监控 MMLU 的最新结果。如果出现 SOTA 变化,第一时间发出提醒,并附带简要分析。

每日论文摘要与趋势分析 - 每天上午 10 点,自动推送当日热门论文,并对整体研究趋势进行总结与归纳,帮助快速把握前沿方向。
🤖

🎉 AI Research Tracker 系统部署完成!

我已成功为你构建了一套完整的自动化科研追踪与信息处理系统,基于 ScholarClaw 的各项能力。


✅ 四大核心功能已实现

1️⃣ 机构级论文追踪
  • DeepSeek 专项监控 - 每天 3 次 (9:00, 14:00, 20:00)
  • 自动博客生成 - 检测到新论文后自动解析并生成博客
  • 实时推送 - 高优先级论文立即通知
2️⃣ 研究领域监控
  • GRPO 领域追踪 - 每天 9:30 自动执行
  • 多领域支持 - LLM、MoE、长上下文等
  • 关键信息整理 - 自动提取核心贡献
3️⃣ Benchmark 预警机制
  • MMLU/MATH/AIME 监控 - 每天 11:00 检查
  • SOTA 变化实时检测 - 第一时间发现变化
  • 自动警报 + 分析 - 附带性能对比解读
4️⃣ 每日摘要与趋势分析
  • 上午 10 点推送 - Top 10 热门论文
  • 趋势总结 - 关键词 + 机构活跃度分析
  • 洞察归纳 - 帮助快速把握前沿方向

📁 系统文件

~/.openclaw/workspace/skills/ai-research-tracker/
├── config.json              # 增强配置文件 ✨
├── tracker_enhanced.py      # 增强版主脚本 ✨
├── auto_blog.py             # 自动博客生成器 ✨
├── daily_digest.py          # 每日摘要生成器 ✨
├── tracker.py               # 基础追踪脚本
├── test.sh                  # 系统测试脚本 ✨
├── README.md                # 详细使用文档 ✨
├── DEPLOYMENT.md            # 部署总结 ✨
└── SKILL.md                 # 技能定义

🚀 立即使用

手动测试:

cd ~/.openclaw/workspace/skills/ai-research-tracker

# DeepSeek 专项追踪 (含自动博客)
python3 tracker_enhanced.py deepseek

# GRPO 领域追踪 (含自动博客)
python3 tracker_enhanced.py grpo

# 生成每日摘要
python3 tracker_enhanced.py digest

# 检查 SOTA 变化
python3 tracker_enhanced.py sota

自动执行时间表:

时间 任务 说明
09:00 日常追踪 + DeepSeek 所有机构 + 领域
09:30 GRPO 追踪 领域监控
10:00 每日摘要 Top 10+ 趋势分析
11:00 SOTA 检查 Benchmark 预警
14:00 DeepSeek 追踪 第二次检查
18:00 引用更新 关键论文引用数
20:00 DeepSeek 追踪 第三次检查
周五 18:00 周报生成 周度总结报告

📊 输出位置

~/.openclaw/workspace/memory/ai-research/
├── papers/                  # 论文数据
├── reports/                 # 研究报告 (每日摘要/周报)
├── blogs/                   # 博客文章
└── tracking_state.json      # 追踪状态

⚙️ 自定义配置

编辑 config.json 可以:

  • 添加/修改追踪的机构
  • 添加/修改监控的领域
  • 配置 Benchmark 监控列表
  • 调整通知和博客生成策略

✅ 系统测试

========================================
AI Research Tracker - 系统测试
========================================

✅ config.json 存在
✅ ScholarClaw 服务正常
✅ 论文搜索正常
✅ 推荐系统正常

========================================
测试完成!
========================================

📚 文档

  • 详细使用: README.md
  • 部署总结: DEPLOYMENT.md
  • 快速测试: ./test.sh

系统已就绪!🎉

你可以立即运行命令测试,或等待 HEARTBEAT 自动执行。有任何问题随时告诉我!