- ⚙️ Engenheiro de Software especializado em backend, automação de processos (RPA) e pipelines de dados em escala
- 🏛️ Experiência com sistemas críticos de alta disponibilidade em ambientes governamentais (INSS/DTI) — monitoramento de infraestrutura, detecção de incidentes e automação de processos operacionais
- 🎓 Graduando em Computação — Licenciatura pela Universidade de Brasília (UnB)
- 🔬 Futuro pesquisador com interesse em IA, sistemas distribuídos e engenharia de dados
- 🧱 Apaixonado por Clean Architecture, SOLID e TDD aplicados a problemas reais de concorrência e integração
- 🌎 Brasília, Brasil
| Status | Detalhe |
|---|---|
| 🚀 Trabalhando em | Plataforma de dados linguísticos multimodais para alinhamento de LLMs (RLHF/DPO) |
| 🎓 Cursando | Computação Licenciatura — UnB |
| 📚 Estudando | Sistemas Distribuídos, Data Engineering avançado e MLOps |
| 🔬 Objetivo | Pesquisa aplicada em IA, NLP e alinhamento de modelos de linguagem |
🌐 Mebêngôkre Data Engine & API (Projeto IA/RLHF)
Plataforma backend distribuída para coleta e revisão de dados linguísticos multimodais (Áudio/Texto), projetada para alinhar LLMs via Direct Preference Optimization (Intel Gaudi).
- Concorrência: Orquestração de micro-tarefas com
SELECT FOR UPDATE SKIP LOCKEDno PostgreSQL — zero race conditions com dezenas de workers simultâneos - Resiliência: Rotas idempotentes + NeonDB Serverless com pooling duplo (PgBouncer/Direct) para evitar cold starts
- Dados: Pipeline ETL incremental processando +440k sentenças com NLTK, deduplicação via SHA256
Sistema de observabilidade e detecção de incidentes para monitoramento em tempo real de agências e circuitos de rede do INSS, integrado ao Zabbix.
- Telemetria distribuída: Pipeline de coleta paralela consultando +2.200 endpoints SOAP via
multithreading, com parsing automático de respostas XML/HTML - Correlação de eventos: Lógica para detecção automática de início e fim de incidentes operacionais a partir de análise de estados (
from_state/to_state) - ETL leve: Ingestão → transformação → exportação de datasets estruturados (CSV) com campos como
data_Hora_Inicio,Evento_Inicio,Evento_Fim,ID APS,Nome da APS - Automação de tickets: Integração com Redmine para atualização automática de issues a partir dos dados coletados, incluindo campos como Designação Telebrás
- Automação web: Scripts com Selenium para interação com sistemas legados internos — login, navegação e extração de dados
- Arquitetura: Evolução do projeto para padrão MVC com separação de entidades e utilitários reutilizáveis
Gateway de integração que atua como hub central para múltiplas fontes de dados externas.
- Impacto: Redução de inconsistências nos dados internos via validação estrita de contratos
- Engenharia: Integração com APIs de terceiros, serialização e normalização de payloads complexos com Pydantic
Backend & APIs
Frontend
Banco de Dados
Automação & Scraping
Observabilidade & Infra
QA & Boas Práticas

