feat(gestao): remover LightRAG das skills de knowledge — Fase 1 RAG-System
- knowledge/SKILL.md v2.2.0: Família A passa a 4 fontes (Supabase, CC memory, Hub, Desk CRM) - hub-search/SKILL.md v1.1.0: RAG Trinity actualizada (2 layers) - research-pipeline/SKILL.md v1.1.0: Layer 3 LightRAG removida - deep-research/SKILL.md v1.1.0: Layer 3 passa a Web apenas Co-Authored-By: Claude Sonnet 4.6 <noreply@anthropic.com>
This commit is contained in:
@@ -1,21 +1,19 @@
|
||||
---
|
||||
name: research-pipeline
|
||||
description: >
|
||||
Pipeline de pesquisa RAG trinity: Layer 1 (Obsidian CLI Hub), Layer 2 (NotebookLM),
|
||||
Layer 3 (LightRAG externo). Orquestra as 3 camadas em sequência para pesquisas
|
||||
profundas. Usar quando /hub-search ou /knowledge isolados não são suficientes,
|
||||
quando o tema cruza conteúdo interno+externo, ou para research antes de executar
|
||||
tarefas complexas (Eixo 7B, Stack Q2 2026).
|
||||
Pipeline de pesquisa em 2 camadas: Layer 1 (Obsidian CLI Hub), Layer 2 (NotebookLM).
|
||||
Orquestra as camadas em sequência para pesquisas profundas. Usar quando /hub-search
|
||||
ou /knowledge isolados não são suficientes, quando o tema cruza conteúdo
|
||||
interno+externo, ou para research antes de executar tarefas complexas.
|
||||
---
|
||||
|
||||
# /research-pipeline — Pipeline Trinity de Pesquisa
|
||||
# /research-pipeline — Pipeline de Pesquisa em 2 Camadas
|
||||
|
||||
Orquestra as 3 camadas RAG em sequência para obter contexto completo antes de executar tarefas.
|
||||
Orquestra as camadas RAG em sequência para obter contexto completo antes de executar tarefas.
|
||||
|
||||
```
|
||||
Layer 1: Obsidian CLI → conteúdo Hub (notas, PROCs, docs internas)
|
||||
Layer 2: NotebookLM → análise profunda (58 notebooks temáticos)
|
||||
Layer 3: LightRAG → conteúdo externo (1612 docs, PDFs, transcripts)
|
||||
Layer 2: NotebookLM → análise profunda (65 notebooks temáticos)
|
||||
```
|
||||
|
||||
---
|
||||
@@ -24,9 +22,8 @@ Layer 3: LightRAG → conteúdo externo (1612 docs, PDFs, transcripts)
|
||||
|
||||
```
|
||||
/research-pipeline "tema ou pergunta"
|
||||
/research-pipeline "LightRAG configuração" --layers 1,2
|
||||
/research-pipeline "PROC-MCP" --quick (só Layer 1)
|
||||
/research-pipeline "n8n webhook setup" --deep (todas as layers)
|
||||
/research-pipeline "n8n webhook setup" --deep (L1 + L2)
|
||||
```
|
||||
|
||||
---
|
||||
@@ -63,25 +60,16 @@ mcp__notebooklm__notebook_query({ notebook_id, query })
|
||||
|
||||
Registar: `L2_results`, `L2_confidence`.
|
||||
|
||||
### Passo 4 — Avaliar se Layer 3 é necessária
|
||||
### Passo 4 — Avaliar se Layer 2 é suficiente
|
||||
|
||||
```
|
||||
SE query menciona PDFs, vídeos, transcripts, conteúdo externo:
|
||||
→ Avançar para Layer 3
|
||||
SE L2_confidence >= 70:
|
||||
→ PARAR — retornar L1+L2 combinados
|
||||
SE L2_confidence < 70:
|
||||
→ Reportar lacuna e sugerir pesquisa Web manual
|
||||
```
|
||||
|
||||
### Passo 5 — Layer 3: LightRAG (conteúdo externo)
|
||||
|
||||
```javascript
|
||||
mcp__lightrag__lightrag_query({
|
||||
query: "TERMO",
|
||||
mode: "hybrid" // combina vector + graph
|
||||
})
|
||||
```
|
||||
|
||||
### Passo 6 — Síntese e output
|
||||
### Passo 5 — Síntese e output
|
||||
|
||||
```markdown
|
||||
## Research: "[termo]"
|
||||
@@ -92,16 +80,12 @@ mcp__lightrag__lightrag_query({
|
||||
### NotebookLM (Layer 2) — [notebook usado]
|
||||
[Insights e contexto analítico]
|
||||
|
||||
### Externo (Layer 3) — [N docs]
|
||||
[Conteúdo complementar de fontes externas]
|
||||
|
||||
### Síntese
|
||||
[Resposta integrada das 3 camadas]
|
||||
[Resposta integrada das 2 camadas]
|
||||
|
||||
### Qualidade
|
||||
- L1: [N resultados]
|
||||
- L2: [confidence%] via [notebook]
|
||||
- L3: [N docs]
|
||||
- Tempo: ~[X]s
|
||||
```
|
||||
|
||||
@@ -113,7 +97,7 @@ mcp__lightrag__lightrag_query({
|
||||
|------|---------------|-----|
|
||||
| `--quick` | L1 apenas | PROCs, paths, comandos |
|
||||
| (default) | L1 + L2 | Maioria das queries |
|
||||
| `--deep` | L1 + L2 + L3 | Investigação completa |
|
||||
| `--deep` | L1 + L2 (exaustivo) | Investigação completa |
|
||||
|
||||
---
|
||||
|
||||
@@ -132,13 +116,11 @@ Para /deep-research → /research-pipeline --deep (base de contexto)
|
||||
|
||||
1. **Layer 1 sempre primeiro** — mais rápido e frequentemente suficiente
|
||||
2. **Max 2 notebooks NotebookLM** por query (performance)
|
||||
3. **L3 só para conteúdo externo** — não duplicar com L1
|
||||
4. **Timeout L3:** 30s — se exceder, retornar L1+L2
|
||||
5. **Citar fonte** de cada resultado no output
|
||||
3. **Citar fonte** de cada resultado no output
|
||||
|
||||
---
|
||||
|
||||
*Skill v1.0.0 | 06-04-2026 | Descomplicar®*
|
||||
*Skill v1.1.0 | 13-04-2026 | Descomplicar® — LightRAG removido (0 docs, serviço desactivado)*
|
||||
|
||||
---
|
||||
|
||||
|
||||
Reference in New Issue
Block a user