413 lines
15 KiB
Python
Executable File
413 lines
15 KiB
Python
Executable File
"""
|
|
structure_content_ctf.py - Estruturação inteligente de conteúdo em formato problema → solução → resultado
|
|
|
|
Author: Descomplicar® Crescimento Digital
|
|
Link: https://descomplicar.pt
|
|
Copyright: 2025 Descomplicar®
|
|
"""
|
|
|
|
import os
|
|
import json
|
|
import logging
|
|
import requests
|
|
import time
|
|
from pathlib import Path
|
|
from typing import Dict, Optional, List
|
|
from dotenv import load_dotenv
|
|
from concurrent.futures import ThreadPoolExecutor, as_completed
|
|
|
|
# Carregar variáveis de ambiente
|
|
load_dotenv()
|
|
|
|
# Configurações
|
|
INPUT_DIR = "/media/ealmeida/Dados/GDrive/Cloud/Clientes_360/CTF_Carstuff/KB/Scrapper/sites/output_md"
|
|
OUTPUT_DIR = "/media/ealmeida/Dados/GDrive/Cloud/Clientes_360/CTF_Carstuff/KB/Scrapper/sites/formatted"
|
|
API_KEY = os.getenv("OPENROUTER_API_KEY")
|
|
|
|
# Configurar logging
|
|
logging.basicConfig(
|
|
level=logging.INFO,
|
|
format='%(asctime)s - %(levelname)s - %(message)s'
|
|
)
|
|
logger = logging.getLogger(__name__)
|
|
|
|
class ContentStructurer:
|
|
def __init__(self):
|
|
self.api_key = API_KEY
|
|
self.api_url = "https://openrouter.ai/api/v1/chat/completions"
|
|
# Usar Gemini 2.5 Flash - modelo 2025 com "thinking" capabilities (~40x mais barato que Claude)
|
|
self.model = "google/gemini-2.5-flash"
|
|
|
|
# Prompt especializado para estofamento automotivo
|
|
self.structure_prompt = """
|
|
És um especialista em estofamento automotivo e documentação técnica.
|
|
|
|
Analisa o texto fornecido e extrai informação estruturada no seguinte formato JSON:
|
|
|
|
{
|
|
"metadata": {
|
|
"titulo": "Título principal do conteúdo",
|
|
"categoria": "tipo de conteúdo (tutorial, problema-tecnico, showcase, dica, recurso)",
|
|
"topicos": ["lista", "de", "topicos", "principais"],
|
|
"fonte": "nome do site original"
|
|
},
|
|
"conteudo": [
|
|
{
|
|
"tipo": "problema|solucao|resultado|info",
|
|
"titulo": "Título desta secção",
|
|
"descricao": "Descrição detalhada em português PT-PT",
|
|
"detalhes": [
|
|
"Lista de pontos-chave",
|
|
"Passos específicos",
|
|
"Materiais ou ferramentas mencionados"
|
|
],
|
|
"relevancia": "alta|media|baixa"
|
|
}
|
|
],
|
|
"keywords": ["palavras-chave", "tecnicas", "relevantes"],
|
|
"aplicabilidade": ["tipos de veículos ou situações onde se aplica"]
|
|
}
|
|
|
|
REGRAS IMPORTANTES:
|
|
1. Se o conteúdo for um artigo sobre problema técnico:
|
|
- Identifica claramente: problema → causa → solução → resultado
|
|
2. Se for showcase/galeria:
|
|
- Extrai: projeto → técnicas usadas → materiais → resultado visual
|
|
3. Se for tutorial:
|
|
- Extrai: objetivo → passos → dicas → precauções
|
|
4. Se for recurso/ferramenta:
|
|
- Extrai: propósito → características → vantagens → aplicação
|
|
|
|
5. IGNORA completamente:
|
|
- Navegação do site
|
|
- Comentários genéricos
|
|
- Publicidade
|
|
- Links de rodapé sem contexto
|
|
|
|
6. FOCA em:
|
|
- Técnicas de estofamento
|
|
- Materiais e ferramentas
|
|
- Processos e métodos
|
|
- Problemas comuns e soluções
|
|
- Casos práticos
|
|
|
|
7. Usa PORTUGUÊS DE PORTUGAL (PT-PT):
|
|
- "estofamento" (não "estofado")
|
|
- "automóvel" (não "carro")
|
|
- "tecido" (não "tecido")
|
|
|
|
Responde APENAS com o JSON, sem texto adicional.
|
|
"""
|
|
|
|
def chunk_content(self, content: str, max_chars: int = 15000) -> List[str]:
|
|
"""Divide conteúdo em chunks gerenciáveis."""
|
|
if len(content) <= max_chars:
|
|
return [content]
|
|
|
|
chunks = []
|
|
lines = content.split('\n')
|
|
current_chunk = []
|
|
current_size = 0
|
|
|
|
for line in lines:
|
|
line_size = len(line) + 1 # +1 para \n
|
|
|
|
if current_size + line_size > max_chars and current_chunk:
|
|
chunks.append('\n'.join(current_chunk))
|
|
current_chunk = [line]
|
|
current_size = line_size
|
|
else:
|
|
current_chunk.append(line)
|
|
current_size += line_size
|
|
|
|
if current_chunk:
|
|
chunks.append('\n'.join(current_chunk))
|
|
|
|
return chunks
|
|
|
|
def structure_content(self, content: str, source_file: str, retries: int = 3) -> Optional[Dict]:
|
|
"""Estrutura conteúdo usando AI."""
|
|
for attempt in range(retries):
|
|
try:
|
|
headers = {
|
|
"Authorization": f"Bearer {self.api_key}",
|
|
"Content-Type": "application/json",
|
|
"HTTP-Referer": "https://descomplicar.pt",
|
|
"X-Title": "CTF Carstuff Knowledge Base"
|
|
}
|
|
|
|
data = {
|
|
"model": self.model,
|
|
"messages": [
|
|
{"role": "system", "content": self.structure_prompt},
|
|
{"role": "user", "content": f"Ficheiro: {source_file}\n\n{content}"}
|
|
],
|
|
"temperature": 0.3, # Baixa temperatura para respostas mais consistentes
|
|
"max_tokens": 4000
|
|
}
|
|
|
|
response = requests.post(
|
|
self.api_url,
|
|
headers=headers,
|
|
json=data,
|
|
timeout=90
|
|
)
|
|
|
|
if response.status_code == 200:
|
|
result = response.json()
|
|
if 'choices' in result and len(result['choices']) > 0:
|
|
content_text = result['choices'][0]['message']['content']
|
|
|
|
# Tentar extrair JSON do texto
|
|
try:
|
|
# Remover markdown code blocks se existir
|
|
if '```json' in content_text:
|
|
content_text = content_text.split('```json')[1].split('```')[0]
|
|
elif '```' in content_text:
|
|
content_text = content_text.split('```')[1].split('```')[0]
|
|
|
|
structured_data = json.loads(content_text.strip())
|
|
return structured_data
|
|
except json.JSONDecodeError as e:
|
|
logger.error(f"Erro ao parsear JSON: {e}")
|
|
logger.debug(f"Conteúdo recebido: {content_text[:500]}")
|
|
if attempt < retries - 1:
|
|
time.sleep(2 ** attempt)
|
|
continue
|
|
return None
|
|
else:
|
|
logger.error(f"Resposta sem choices")
|
|
|
|
elif response.status_code == 429: # Rate limit
|
|
wait_time = int(response.headers.get('Retry-After', 20))
|
|
logger.warning(f"Rate limit. Aguardando {wait_time}s...")
|
|
time.sleep(wait_time)
|
|
continue
|
|
else:
|
|
logger.error(f"Erro API: {response.status_code} - {response.text}")
|
|
if attempt < retries - 1:
|
|
time.sleep(2 ** attempt)
|
|
continue
|
|
return None
|
|
|
|
except requests.exceptions.Timeout:
|
|
logger.warning(f"Timeout (tentativa {attempt + 1}/{retries})")
|
|
if attempt < retries - 1:
|
|
time.sleep(2 ** attempt)
|
|
continue
|
|
return None
|
|
except Exception as e:
|
|
logger.error(f"Erro ao estruturar conteúdo: {str(e)}")
|
|
if attempt < retries - 1:
|
|
time.sleep(2 ** attempt)
|
|
continue
|
|
return None
|
|
|
|
return None
|
|
|
|
def format_structured_md(self, structured_data: Dict, original_file: str) -> str:
|
|
"""Converte dados estruturados em Markdown formatado."""
|
|
md_lines = []
|
|
|
|
# Metadata
|
|
meta = structured_data.get('metadata', {})
|
|
md_lines.append(f"# {meta.get('titulo', 'Sem Título')}")
|
|
md_lines.append("")
|
|
md_lines.append(f"**Categoria**: {meta.get('categoria', 'Geral')}")
|
|
md_lines.append(f"**Fonte**: {meta.get('fonte', original_file)}")
|
|
|
|
if meta.get('topicos'):
|
|
md_lines.append(f"**Tópicos**: {', '.join(meta['topicos'])}")
|
|
|
|
md_lines.append("")
|
|
md_lines.append("---")
|
|
md_lines.append("")
|
|
|
|
# Conteúdo estruturado
|
|
conteudo = structured_data.get('conteudo', [])
|
|
|
|
# Agrupar por tipo
|
|
problemas = [c for c in conteudo if c.get('tipo') == 'problema']
|
|
solucoes = [c for c in conteudo if c.get('tipo') == 'solucao']
|
|
resultados = [c for c in conteudo if c.get('tipo') == 'resultado']
|
|
info = [c for c in conteudo if c.get('tipo') == 'info']
|
|
|
|
# Problemas
|
|
if problemas:
|
|
md_lines.append("## 🔍 Problemas Identificados")
|
|
md_lines.append("")
|
|
for p in problemas:
|
|
md_lines.append(f"### {p.get('titulo', 'Problema')}")
|
|
md_lines.append("")
|
|
md_lines.append(p.get('descricao', ''))
|
|
md_lines.append("")
|
|
if p.get('detalhes'):
|
|
for detalhe in p['detalhes']:
|
|
md_lines.append(f"- {detalhe}")
|
|
md_lines.append("")
|
|
|
|
# Soluções
|
|
if solucoes:
|
|
md_lines.append("## 💡 Soluções")
|
|
md_lines.append("")
|
|
for s in solucoes:
|
|
md_lines.append(f"### {s.get('titulo', 'Solução')}")
|
|
md_lines.append("")
|
|
md_lines.append(s.get('descricao', ''))
|
|
md_lines.append("")
|
|
if s.get('detalhes'):
|
|
for i, detalhe in enumerate(s['detalhes'], 1):
|
|
md_lines.append(f"{i}. {detalhe}")
|
|
md_lines.append("")
|
|
|
|
# Resultados
|
|
if resultados:
|
|
md_lines.append("## ✅ Resultados")
|
|
md_lines.append("")
|
|
for r in resultados:
|
|
md_lines.append(f"### {r.get('titulo', 'Resultado')}")
|
|
md_lines.append("")
|
|
md_lines.append(r.get('descricao', ''))
|
|
md_lines.append("")
|
|
if r.get('detalhes'):
|
|
for detalhe in r['detalhes']:
|
|
md_lines.append(f"- {detalhe}")
|
|
md_lines.append("")
|
|
|
|
# Informação adicional
|
|
if info:
|
|
md_lines.append("## 📋 Informação Adicional")
|
|
md_lines.append("")
|
|
for inf in info:
|
|
md_lines.append(f"### {inf.get('titulo', 'Info')}")
|
|
md_lines.append("")
|
|
md_lines.append(inf.get('descricao', ''))
|
|
md_lines.append("")
|
|
if inf.get('detalhes'):
|
|
for detalhe in inf['detalhes']:
|
|
md_lines.append(f"- {detalhe}")
|
|
md_lines.append("")
|
|
|
|
# Keywords e aplicabilidade
|
|
md_lines.append("---")
|
|
md_lines.append("")
|
|
|
|
if structured_data.get('keywords'):
|
|
md_lines.append(f"**Palavras-chave**: {', '.join(structured_data['keywords'])}")
|
|
md_lines.append("")
|
|
|
|
if structured_data.get('aplicabilidade'):
|
|
md_lines.append("**Aplicabilidade**:")
|
|
for app in structured_data['aplicabilidade']:
|
|
md_lines.append(f"- {app}")
|
|
md_lines.append("")
|
|
|
|
return '\n'.join(md_lines)
|
|
|
|
def process_file(self, input_file: Path, output_dir: Path) -> bool:
|
|
"""Processa um ficheiro."""
|
|
try:
|
|
output_file = output_dir / f"structured_{input_file.name}"
|
|
|
|
# Skip se já existe
|
|
if output_file.exists():
|
|
logger.info(f"Já existe: {output_file.name}")
|
|
return True
|
|
|
|
# Verificar tamanho
|
|
file_size = input_file.stat().st_size
|
|
if file_size < 500: # Muito pequeno
|
|
logger.warning(f"Ficheiro muito pequeno ({file_size}B): {input_file.name}")
|
|
return False
|
|
|
|
if file_size > 100000: # >100KB
|
|
logger.warning(f"Ficheiro grande ({file_size/1024:.1f}KB): {input_file.name}")
|
|
|
|
# Ler conteúdo
|
|
with open(input_file, 'r', encoding='utf-8') as f:
|
|
content = f.read()
|
|
|
|
logger.info(f"Processando: {input_file.name} ({file_size/1024:.1f}KB)")
|
|
|
|
# Estruturar com AI
|
|
structured_data = self.structure_content(content, input_file.name)
|
|
|
|
if not structured_data:
|
|
logger.error(f"Falha ao estruturar: {input_file.name}")
|
|
return False
|
|
|
|
# Converter para MD formatado
|
|
formatted_md = self.format_structured_md(structured_data, input_file.name)
|
|
|
|
# Guardar
|
|
with open(output_file, 'w', encoding='utf-8') as f:
|
|
f.write(formatted_md)
|
|
|
|
# Guardar JSON também
|
|
json_file = output_dir / f"structured_{input_file.stem}.json"
|
|
with open(json_file, 'w', encoding='utf-8') as f:
|
|
json.dump(structured_data, f, indent=2, ensure_ascii=False)
|
|
|
|
logger.info(f"✓ Guardado: {output_file.name}")
|
|
|
|
# Pausa para evitar rate limits
|
|
time.sleep(3)
|
|
|
|
return True
|
|
|
|
except Exception as e:
|
|
logger.error(f"Erro ao processar {input_file.name}: {e}")
|
|
return False
|
|
|
|
|
|
def main():
|
|
"""Função principal."""
|
|
if not API_KEY:
|
|
logger.error("OPENROUTER_API_KEY não configurada no .env")
|
|
return
|
|
|
|
input_path = Path(INPUT_DIR)
|
|
output_path = Path(OUTPUT_DIR)
|
|
|
|
if not input_path.exists():
|
|
logger.error(f"Diretório não existe: {INPUT_DIR}")
|
|
return
|
|
|
|
output_path.mkdir(parents=True, exist_ok=True)
|
|
|
|
# Encontrar ficheiros (focar nos sites completos primeiro)
|
|
priority_sites = ['thehogring.com', 'sailrite.com', 'relicate.com', 'thesamba.com']
|
|
|
|
all_files = []
|
|
for site in priority_sites:
|
|
pattern = f"{site}_*.md"
|
|
files = list(input_path.glob(pattern))
|
|
all_files.extend(files)
|
|
|
|
logger.info(f"Encontrados {len(all_files)} ficheiros para processar")
|
|
|
|
# Processar
|
|
structurer = ContentStructurer()
|
|
successful = 0
|
|
|
|
for md_file in all_files:
|
|
if structurer.process_file(md_file, output_path):
|
|
successful += 1
|
|
|
|
logger.info(f"Concluído: {successful}/{len(all_files)} ficheiros processados")
|
|
|
|
# Estatísticas
|
|
json_files = list(output_path.glob('*.json'))
|
|
logger.info(f"Total ficheiros JSON criados: {len(json_files)}")
|
|
|
|
|
|
if __name__ == '__main__':
|
|
print("═══════════════════════════════════════════════════════════")
|
|
print(" CTF CARSTUFF - ESTRUTURAÇÃO INTELIGENTE DE CONTEÚDO")
|
|
print(" Formato: Problema → Solução → Resultado")
|
|
print("═══════════════════════════════════════════════════════════")
|
|
print("")
|
|
main()
|
|
print("")
|
|
print("✓ Processo concluído!")
|