feat: adiciona 12 plugins Descomplicar ao marketplace

Plugins: automacao, crm-ops, design-media, dev-tools, gestao,
infraestrutura, marketing, negocio, perfex-dev, project-manager,
wordpress + hello-plugin (existente).

Totais: 83 skills, 44 agents, 12 datasets.json

Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
This commit is contained in:
2026-02-07 21:41:24 +00:00
parent bcce928beb
commit 2cb3210962
209 changed files with 50869 additions and 0 deletions

View File

@@ -0,0 +1,239 @@
# Workflow de Sincronização - /kb-sync
Documentação do processo de sincronização automática do índice de conhecimento.
---
## Visão Geral
```
┌─────────────────┐
│ /kb-sync │
└────────┬────────┘
┌─────────────────┐
│ Listar Dify │ ← mcp__dify-kb__dify_kb_list_datasets
│ Datasets │
└────────┬────────┘
┌─────────────────┐
│ Ler sources │ ← config/sources.json
│ .json │
└────────┬────────┘
┌─────────────────┐
│ Comparar e │
│ Detectar │
│ Alterações │
└────────┬────────┘
┌─────────────────┐
│ Actualizar │
│ sources.json │
└────────┬────────┘
┌─────────────────┐
│ Reportar │
│ Alterações │
└─────────────────┘
```
---
## Processo Detalhado
### 1. Obter Datasets Actuais
```
MCP: mcp__dify-kb__dify_kb_list_datasets
Params:
- limit: 100
- page: 1 (iterar se has_more)
```
**Resposta esperada:**
```json
{
"success": true,
"datasets": [
{
"id": "uuid",
"name": "Nome do Dataset",
"description": "...",
"document_count": 123,
"word_count": 456789,
"created_at": "2025-01-25T..."
}
],
"pagination": {
"total": 73,
"has_more": false
}
}
```
### 2. Ler Índice Actual
Ler `config/sources.json` e extrair:
- `dify_datasets` - mapeamento actual
- `last_sync` - última sincronização
- `total_datasets` - contagem anterior
### 3. Comparar e Detectar
#### Datasets Novos
```python
novos = []
for dataset in dify_response:
slug = slugify(dataset.name)
if slug not in sources.dify_datasets:
novos.append({
"slug": slug,
"id": dataset.id,
"name": dataset.name,
"docs": dataset.document_count
})
```
#### Datasets Removidos
```python
removidos = []
dify_ids = [d.id for d in dify_response]
for slug, info in sources.dify_datasets.items():
if info.id not in dify_ids:
removidos.append(slug)
```
#### Datasets Alterados
```python
alterados = []
for dataset in dify_response:
slug = slugify(dataset.name)
if slug in sources.dify_datasets:
old = sources.dify_datasets[slug]
if old.docs != dataset.document_count:
alterados.append({
"slug": slug,
"old_docs": old.docs,
"new_docs": dataset.document_count
})
```
### 4. Actualizar sources.json
```python
# Actualizar metadados
sources.version = increment_minor(sources.version)
sources.updated = now()
sources.last_sync = now()
sources.total_datasets = len(dify_response)
# Remover datasets eliminados
for slug in removidos:
del sources.dify_datasets[slug]
# Actualizar existentes e adicionar novos
for dataset in dify_response:
slug = slugify(dataset.name)
sources.dify_datasets[slug] = {
"id": dataset.id,
"name": dataset.name,
"docs": dataset.document_count
}
# Escrever ficheiro
write_json("config/sources.json", sources)
```
### 5. Gerar Relatório
```markdown
## Sync Concluído - 2026-01-25 15:30
| Métrica | Valor |
|---------|-------|
| **Total Datasets** | 73 |
| **Anterior** | 74 |
| **Novos** | 0 |
| **Removidos** | 1 |
| **Actualizados** | 5 |
### Datasets Removidos
- Demo Teste Agosto 2025
### Datasets Actualizados
| Dataset | Docs Antes | Docs Depois |
|---------|------------|-------------|
| marketing-digital | 81 | 85 |
| crocoblock-kb | 403 | 410 |
### Datasets Novos
(nenhum)
```
---
## Slugify
Função para converter nome do dataset em slug consistente:
```javascript
function slugify(name) {
return name
.toLowerCase()
.normalize('NFD')
.replace(/[\u0300-\u036f]/g, '') // Remove acentos
.replace(/[^a-z0-9]+/g, '-') // Substitui não-alfanum
.replace(/^-+|-+$/g, ''); // Remove hífens início/fim
}
```
**Exemplos:**
- "Marketing Digital" → "marketing-digital"
- "SEO (Search Engine Optimization)" → "seo-search-engine-optimization"
- "TI (Tecnologia da Informação)" → "ti-tecnologia-da-informacao"
---
## Frequência Recomendada
| Cenário | Frequência |
|---------|------------|
| Uso normal | Semanal |
| Após criar datasets | Imediato |
| Após remover datasets | Imediato |
| Debugging | Conforme necessário |
---
## Erros Comuns
| Erro | Causa | Solução |
|------|-------|---------|
| MCP timeout | Muitos datasets | Paginar requests |
| JSON inválido | Corrupção | Restaurar de backup |
| ID não encontrado | Dataset removido | Executar /kb-sync |
| Duplicados | Nomes similares | Verificar slugs manualmente |
---
## Backup Automático
Antes de cada sync, criar backup:
```
config/sources.json.bak
```
Restaurar se necessário:
```bash
cp config/sources.json.bak config/sources.json
```
---
*Workflow v1.0 | 2026-01-25*

View File

@@ -0,0 +1,266 @@
# Workflow de Pesquisa - /knowledge
Documentação detalhada do processo de pesquisa e routing.
---
## Fluxo Principal
```
┌─────────────┐
│ Pergunta │
└──────┬──────┘
┌─────────────┐
│ Analisar │ ← Extrair keywords, identificar tema
│ Termo │
└──────┬──────┘
┌─────────────┐
│ Routing │ ← Consultar config/sources.json
│ Tema │
└──────┬──────┘
┌─────────────┐
│ Pesquisar │ ← Fonte primária
│ Fonte 1 │
└──────┬──────┘
┌─────────────┐ ┌─────────────┐
│ Resultados │ NO │ Pesquisar │
│ Suficientes?├────►│ Fonte 2 │
└──────┬──────┘ └──────┬──────┘
│ YES │
▼ ▼
┌─────────────┐ ┌─────────────┐
│ Agregar │◄────┤ Fonte 3 │
│ Resultados │ │ (se neces.) │
└──────┬──────┘ └─────────────┘
┌─────────────┐
│ Detectar │ ← Se resultados insuficientes
│ Lacunas │
└──────┬──────┘
┌─────────────┐
│ Resposta │
│ Estruturada │
└─────────────┘
```
---
## Fase 1: Análise do Termo
### Extracção de Keywords
```
Input: "como configurar crocoblock filters no elementor"
Keywords: [crocoblock, filters, elementor, configurar]
Tema detectado: wordpress
```
### Regras de Detecção
1. Corresponder keywords com `routing[tema].keywords`
2. Se múltiplos temas, usar o mais específico
3. Se nenhum tema, usar pesquisa genérica (todas as fontes)
---
## Fase 2: Routing
### Consulta ao Mapeamento
```javascript
// Pseudocódigo
tema = detectarTema(keywords)
sources = routing[tema].sources
// Ordenar por prioridade
fonte1 = sources[0] // Primária
fonte2 = sources[1] // Secundária
fonte3 = sources[2] // Terciária
```
### Prioridades por Tipo
| Tipo de Pergunta | Fonte Primária | Porque |
|------------------|----------------|--------|
| Técnico/Como fazer | Context7 | Docs actualizados |
| Negócio/Clientes | Supabase | Contexto recente |
| Procedimento | WikiJS | Documentação interna |
| Conhecimento geral | Dify KB | RAG temático |
| Histórico/Decisão | Supabase | Memória longo prazo |
---
## Fase 3: Pesquisa
### Dify KB
```
MCP: mcp__dify-kb__dify_kb_retrieve_segments
Params:
- dataset_id: [obtido de sources.json]
- query: [termo original]
- top_k: 5
```
### WikiJS
```
MCP: mcp__wikijs__search_pages
Params:
- query: [termo]
Filtrar por paths relevantes do routing
```
### Supabase
```
MCP: mcp__memory-supabase__search_memories
Params:
- query: [termo]
Filtrar por tags do routing
```
### Context7
```
MCP: mcp__context7__resolve-library-id
MCP: mcp__context7__get-library-docs
Params:
- libraryName: [biblioteca detectada]
- topic: [termo específico]
```
### Filesystem
```
Grep em paths do routing:
- /media/ealmeida/Dados/GDrive/Cloud/EAL/Planeamento/ (Obsidian vault)
- /media/ealmeida/Dados/GDrive/Projectos/
```
---
## Fase 4: Agregação
### Critérios de Suficiência
- **Suficiente**: ≥1 resultado relevante com conteúdo útil
- **Parcial**: Resultados tangenciais, precisa complemento
- **Insuficiente**: 0 resultados ou irrelevantes
### Formatação de Resposta
```markdown
## Resultado: [termo pesquisado]
### Fonte: [Nome da Fonte]
[Conteúdo encontrado, formatado e resumido]
### Fonte: [Segunda Fonte] (se aplicável)
[Conteúdo complementar]
### Relacionado
- [[Link interno 1]]
- [[Link interno 2]]
### Acções Sugeridas (se aplicável)
- [ ] Criar documentação sobre X
- [ ] Actualizar Y com esta informação
```
---
## Fase 5: Detecção de Lacunas
### Triggers
1. **Zero resultados** em todas as fontes
2. **Tema recorrente** (3+ pesquisas similares sem resultado)
3. **Resultado desactualizado** (>6 meses)
4. **Decisão importante** sem registo
### Acção Automática
```markdown
> [!warning] Lacuna Detectada
> O tema "[X]" não tem documentação adequada.
>
> **Sugestão:**
> - Criar dataset Dify: `[nome-sugerido]`
> - Ou página WikiJS: `[path-sugerido]`
> - Ou guardar em Supabase (se decisão/contexto)
```
### Registo de Lacunas
Adicionar a `config/sources.json``gaps`:
```json
{
"gaps": {
"dify_missing": ["novo-tema"],
"wikijs_missing": ["novo-path"],
"detected_at": "2026-01-25"
}
}
```
---
## Comandos Especiais
### /kb-save [tema]
```
1. Receber conteúdo a guardar
2. Analisar tipo:
- Decisão → Supabase (tag: decisao)
- Procedimento → WikiJS
- Conhecimento → Dify KB
3. Formatar com metadata
4. Guardar na fonte adequada
5. Confirmar com referência
```
### /kb-gaps
```
1. Ler config/sources.json → gaps
2. Listar lacunas conhecidas
3. Sugerir prioridades baseado em:
- Frequência de pesquisa
- Impacto no trabalho
- Esforço de criação
```
### /kb-new [tema]
```
1. Criar dataset no Dify KB
2. Adicionar estrutura base
3. Actualizar sources.json com novo ID
4. Remover de gaps.dify_missing
```
---
## Métricas de Qualidade
### Pesquisa Bem Sucedida
- [ ] Resultado relevante encontrado
- [ ] Fonte adequada usada
- [ ] Resposta formatada correctamente
- [ ] Links internos incluídos
### Detecção de Lacunas
- [ ] Lacuna identificada quando apropriado
- [ ] Sugestão de acção clara
- [ ] Lacuna registada para futuro
---
## Troubleshooting
| Problema | Causa | Solução |
|----------|-------|---------|
| MCP timeout | Servidor lento | Retry com delay |
| Dataset não encontrado | ID inválido | Actualizar sources.json |
| Resultados irrelevantes | Keywords mal detectadas | Refinar routing |
| Muitas lacunas | Tema novo | Criar conteúdo base |
---
*Workflow v1.0 | 2026-01-25*