b3cb108ca7
- knowledge/SKILL.md v2.2.0: Família A passa a 4 fontes (Supabase, CC memory, Hub, Desk CRM) - hub-search/SKILL.md v1.1.0: RAG Trinity actualizada (2 layers) - research-pipeline/SKILL.md v1.1.0: Layer 3 LightRAG removida - deep-research/SKILL.md v1.1.0: Layer 3 passa a Web apenas Co-Authored-By: Claude Sonnet 4.6 <noreply@anthropic.com>
136 lines
3.2 KiB
Markdown
136 lines
3.2 KiB
Markdown
---
|
|
name: research-pipeline
|
|
description: >
|
|
Pipeline de pesquisa em 2 camadas: Layer 1 (Obsidian CLI Hub), Layer 2 (NotebookLM).
|
|
Orquestra as camadas em sequência para pesquisas profundas. Usar quando /hub-search
|
|
ou /knowledge isolados não são suficientes, quando o tema cruza conteúdo
|
|
interno+externo, ou para research antes de executar tarefas complexas.
|
|
---
|
|
|
|
# /research-pipeline — Pipeline de Pesquisa em 2 Camadas
|
|
|
|
Orquestra as camadas RAG em sequência para obter contexto completo antes de executar tarefas.
|
|
|
|
```
|
|
Layer 1: Obsidian CLI → conteúdo Hub (notas, PROCs, docs internas)
|
|
Layer 2: NotebookLM → análise profunda (65 notebooks temáticos)
|
|
```
|
|
|
|
---
|
|
|
|
## Uso
|
|
|
|
```
|
|
/research-pipeline "tema ou pergunta"
|
|
/research-pipeline "PROC-MCP" --quick (só Layer 1)
|
|
/research-pipeline "n8n webhook setup" --deep (L1 + L2)
|
|
```
|
|
|
|
---
|
|
|
|
## Workflow
|
|
|
|
### Passo 1 — Layer 1: Hub via Obsidian CLI
|
|
|
|
```bash
|
|
obsidian search "TERMO" --include-backlinks --format json
|
|
```
|
|
|
|
**Se CLI offline:** fallback para Grep no Hub.
|
|
|
|
Registar: `L1_results`, `L1_score` (0-100, baseado em nº resultados).
|
|
|
|
### Passo 2 — Avaliar se Layer 2 é necessária
|
|
|
|
```
|
|
SE L1_score >= 80 E query é operacional (PROC, QR, path):
|
|
→ PARAR — resultado suficiente, retornar L1
|
|
SE L1_score < 80 OU query é conceptual/analítica:
|
|
→ Avançar para Layer 2
|
|
```
|
|
|
|
### Passo 3 — Layer 2: NotebookLM (análise profunda)
|
|
|
|
Usar routing da skill `/knowledge` para seleccionar notebooks relevantes.
|
|
|
|
```javascript
|
|
// Max 2 notebooks para performance
|
|
mcp__notebooklm__notebook_query({ notebook_id, query })
|
|
```
|
|
|
|
Registar: `L2_results`, `L2_confidence`.
|
|
|
|
### Passo 4 — Avaliar se Layer 2 é suficiente
|
|
|
|
```
|
|
SE L2_confidence >= 70:
|
|
→ PARAR — retornar L1+L2 combinados
|
|
SE L2_confidence < 70:
|
|
→ Reportar lacuna e sugerir pesquisa Web manual
|
|
```
|
|
|
|
### Passo 5 — Síntese e output
|
|
|
|
```markdown
|
|
## Research: "[termo]"
|
|
|
|
### Hub (Layer 1) — [N notas encontradas]
|
|
[Resultados mais relevantes com paths]
|
|
|
|
### NotebookLM (Layer 2) — [notebook usado]
|
|
[Insights e contexto analítico]
|
|
|
|
### Síntese
|
|
[Resposta integrada das 2 camadas]
|
|
|
|
### Qualidade
|
|
- L1: [N resultados]
|
|
- L2: [confidence%] via [notebook]
|
|
- Tempo: ~[X]s
|
|
```
|
|
|
|
---
|
|
|
|
## Modos rápidos
|
|
|
|
| Flag | Layers activas | Uso |
|
|
|------|---------------|-----|
|
|
| `--quick` | L1 apenas | PROCs, paths, comandos |
|
|
| (default) | L1 + L2 | Maioria das queries |
|
|
| `--deep` | L1 + L2 (exaustivo) | Investigação completa |
|
|
|
|
---
|
|
|
|
## Integração com outras skills
|
|
|
|
```
|
|
Antes de /wp-dev → /research-pipeline --quick "PROC-WordPress"
|
|
Antes de /cwp-* → /research-pipeline --quick "PROC-CWP"
|
|
Antes de design → /research-pipeline "design guidelines descomplicar"
|
|
Para /deep-research → /research-pipeline --deep (base de contexto)
|
|
```
|
|
|
|
---
|
|
|
|
## Regras
|
|
|
|
1. **Layer 1 sempre primeiro** — mais rápido e frequentemente suficiente
|
|
2. **Max 2 notebooks NotebookLM** por query (performance)
|
|
3. **Citar fonte** de cada resultado no output
|
|
|
|
---
|
|
|
|
*Skill v1.1.0 | 13-04-2026 | Descomplicar® — LightRAG removido (0 docs, serviço desactivado)*
|
|
|
|
---
|
|
|
|
## Healing Log
|
|
|
|
Registo de erros conhecidos e como evitá-los. Lido automaticamente antes de executar.
|
|
|
|
```jsonl
|
|
{"date":"","issue":"","fix":"","source":"user|auto"}
|
|
```
|
|
|
|
*Adicionar nova linha após cada erro corrigido.*
|