Líder Projetos
Apresentação editorial · IA, notas falsas e DevSecOps Deck editorial em formato de apresentação para web, PDF e reunião técnica
Slide 01 · Capa editorial
01

Apresentação editorial · IA, notas falsas e DevSecOps

Um deck pensado para ser lido na web, anexado em PDF e usado como base de conversa técnica em ambientes corporativos e acadêmicos.

O ponto principal

A classificação de notas bancárias funciona aqui como prova concreta de que acurácia, validação, latência e governança precisam caminhar juntas quando falamos de IA em contexto sensível.

UNIFOR · Engenharia da Computação
Machine Learning implementado do zero
DevSecOps para ambientes críticos
Material pronto para LinkedIn e Medium
100%

acurácia com K-NN Euclidiana e Chebyshev

98,54%

acurácia com Naive Bayes Multivariado

140x

ganho de velocidade do Naive Bayes sobre K-NN Euclidiana

1.372

amostras no dataset de autenticação de notas

Base institucional

UNIFOR · Universidade de Fortaleza

Disciplina de Inteligência Artificial

Pesquisa acadêmica com desdobramento corporativo e editorial pela Líder Projetos

Composição visual conectando notas bancárias, lupa, fórmulas e inteligência artificial.
Da classificação de notas à homologação de IA

O experimento acadêmico vira argumento técnico, editorial e estratégico.

Mateus Gomes Macário

Autoria, narrativa e estrutura editorial pela Líder Projetos.

Abril de 2026

Versão preparada para publicação web, PDF e compartilhamento profissional.

Slide 02 · Sumário executivo
02

Um mapa de leitura para entender o relatório com rapidez.

Em vez de uma página longa, o conteúdo foi reorganizado como capítulos de apresentação, cada um com função clara dentro da história técnica.

Como este material foi organizado

A primeira metade consolida a base científica da pesquisa. A segunda metade abre a ponte para IA responsável, DevSecOps, meta prompts e governança.

21 slides no deck editorial
Formato web e PDF com geometria 16:9
Pesquisa acadêmica com leitura executiva
03–06 Base experimental

Problema, dataset, features, famílias de modelos e protocolo de validação.

Abrir bloco
07–10 Resultados e decisão

Ranking de desempenho, latência, leitura estatística e escolha por cenário.

Abrir bloco
11–14 Aplicação prática

Forças, riscos, contextos de uso e conclusões com foco arquitetural.

Abrir bloco
15–21 IA responsável

Ponte com DevSecOps, overfitting, bias-variância, métricas e princípios finais.

Abrir bloco
Slide 03 · Problema e motivação
03

Detectar fraude com rigor estatístico é uma conversa sobre confiança operacional.

Pergunta que move o experimento

Como demonstrar que uma decisão automática merece confiança antes de virar rotina em um ambiente crítico?

  • Inspeção manual não escala.
  • Acurácia sem protocolo de validação é arriscada.
  • Latência e custo mudam a arquitetura possível.
  • O mesmo raciocínio vale para IA generativa em produção.
Ponto de partida

Fraude documental exige decisão confiável, rastreável e repetível.

Hipótese central

Se o protocolo estatístico falha, a acurácia isolada perde valor de negócio.

Leitura ampliada

A mesma disciplina vale para copilots, meta prompts e agentes em contexto crítico.

Slide 04 · Dataset e estrutura
04

1.372 amostras com quatro features estatísticas extraídas via Transformada Wavelet.

1.372 amostras no dataset
762

notas autênticas

610

notas falsas

Fonte oficial: UCI Machine Learning Repository · Banknote Authentication. O conjunto é limpo, balanceado e adequado para comparação didática entre famílias clássicas de classificação.

Features observadas
Variância -7,04 → 6,82
Média 0,43 · Desvio 2,84
Assimetria -13,77 → 12,95
Média 1,92 · Desvio 5,87
Curtose -5,29 → 17,93
Média 1,40 · Desvio 4,31
Entropia -8,55 → 2,45
Média -1,19 · Desvio 2,10
Protocolo de validação

Validação cruzada 10-folds com random_state=42

Slide 05 · Modelos implementados
05

Cinco classificadores construídos do zero para comparar precisão, custo e comportamento.

100% de acurácia K-NN Euclidiana

Métrica clássica, ótima quando a separação entre classes já está muito bem desenhada no espaço das features.

99,93% de acurácia K-NN Manhattan

Boa resposta quando queremos reduzir sensibilidade a distorções localizadas mantendo leitura simples.

100% de acurácia K-NN Chebyshev

Útil quando a maior diferença entre dimensões pode decidir a classe sozinha.

83,97% de acurácia Naive Bayes Univariado

Hipótese de independência forte demais para este dataset. Serve como comparação didática.

98,54% de acurácia Naive Bayes Multivariado

Captura correlações via matriz de covariância e muda completamente o patamar operacional.

Slide 06 · Validação e métricas
06

O resultado só ganha valor quando é reproduzível, comparável e auditável.

10 folds Divisão balanceada

Cada rodada preserva a proporção entre notas autênticas e falsas.

random_state = 42 Reprodutibilidade

O experimento pode ser repetido e auditado sob as mesmas condições.

média + desvio Leitura estatística

O foco sai da melhor rodada isolada e vai para estabilidade de comportamento.

Acurácia (TP + TN) / total

Leitura geral do acerto.

Precisão TP / (TP + FP)

Importante quando falso positivo custa caro.

F1-Score 2PR / (P + R)

Equilíbrio entre precisão e cobertura.

Tempo treino + teste

Transforma resultado técnico em decisão arquitetural.

Slide 07 · Resultados principais
07

K-NN dominou a precisão, mas o Naive Bayes Multivariado mudou a conversa sobre escala.

Comparativo central de desempenho
Classificador Acurácia Precisão F1
K-NN Euclidiana
classificação perfeita
100,00% 100,00% 100,00%
K-NN Manhattan
1 erro em ~1.400 amostras
99,93% 99,86% 99,93%
K-NN Chebyshev
empate técnico no topo
100,00% 100,00% 100,00%
NB Univariado
perde ao ignorar correlação
83,97% 84,10% 81,42%
NB Multivariado
melhor equilíbrio operacional
98,54% 96,87% 98,39%
Leitura imediata

O experimento mostra dois tipos de vitória: a vitória da precisão absoluta e a vitória do custo operacional sustentável.

100%

duas métricas de distância no topo

98,54%

na alternativa mais escalável

~1,5%

trade-off em troca de enorme ganho de latência

Slide 08 · Tempo e eficiência
08

Velocidade também é arquitetura: o melhor modelo depende do cenário de uso.

K-NN Euclidiana
0,2247s
K-NN Manhattan
0,1670s
K-NN Chebyshev
0,1846s
NB Univariado
0,0019s
NB Multivariado
0,0053s
Máxima precisão

K-NN ainda faz sentido quando volume é baixo e erro custa muito caro.

Máxima fluidez

Naive Bayes Multivariado aproxima o topo com latência muito menor.

Decisão de arquitetura

O resultado técnico não fecha a conversa sozinho. O que fecha a conversa é a soma entre acurácia, tempo de teste, volume transacional e tolerância a erro.

Slide 09 · Leitura de correlação
09

A diferença entre os dois Naive Bayes mostra por que correlação não é detalhe.

Por que o K-NN foi perfeito

As features geradas via Wavelet criaram uma separação muito clara entre classes no espaço de decisão.

Por que o NB Univariado caiu

Variância, Assimetria, Curtose e Entropia não são independentes entre si neste problema.

Por que o NB Multivariado reagiu

A matriz de covariância reintroduz relações reais entre variáveis e aproxima o modelo do comportamento do dado.

Slide 10 · Recomendação por cenário
10

A pergunta correta não é qual algoritmo ganhou. É qual compromisso faz sentido para a operação.

Máxima precisão K-NN Euclidiana ou Chebyshev

Para validações altamente controladas e baixa tolerância a erro, a família K-NN se destaca com classificação perfeita no experimento.

Produção em larga escala Naive Bayes Multivariado

Quando o problema envolve grande volume, latência e custo operacional, o equilíbrio entre 98,54% de acurácia e tempo de resposta muito menor muda a decisão.

Estratégia híbrida Naive Bayes para triagem + K-NN para casos limítrofes

A combinação usa velocidade para filtrar o fluxo principal e reserva precisão máxima para exceções de maior criticidade.

Slide 11 · Família K-NN
11

Quando a prioridade é precisão máxima, o K-NN mostra toda a sua força.

Vantagens
  • Leitura conceitual simples e implementação direta.
  • Não depende de hipóteses fortes sobre distribuição.
  • Foi a família mais precisa no experimento.
Riscos e custos
  • Tempo de teste cresce com o volume de amostras.
  • Sensível a features irrelevantes e normalização ruim.
  • Pode ficar caro para alta escala transacional.
Slide 12 · Família Naive Bayes
12

Quando velocidade, previsibilidade e escala entram forte na mesa, o Bayes muda o jogo.

Vantagens
  • Treino e teste extremamente rápidos.
  • Baixo custo computacional e ótima previsibilidade operacional.
  • A versão multivariada chegou muito perto do topo com forte ganho de latência.
Limitações
  • A hipótese probabilística precisa combinar com o dado.
  • Versões simplificadas perdem quando ignoram correlação.
  • Acurácia máxima não foi seu ponto mais forte aqui.
Slide 13 · Contextos de aplicação
13

O mesmo relatório permite decidir qual abordagem cabe melhor em cada tipo de fluxo.

Validação crítica K-NN Euclidiana ou Chebyshev

Ambientes de baixo volume e quase nenhuma tolerância a erro.

Escala operacional Naive Bayes Multivariado

Grandes volumes, latência curta e custo previsível.

Triagem híbrida NB Multivariado + K-NN

Triagem rápida na base e tratamento especial para casos limítrofes.

Didática e benchmark NB Univariado

Ótimo para mostrar por que hipótese estatística errada derruba resultado.

Slide 14 · Conclusões
14

Os números importam, mas o principal valor está na disciplina do método.

Dados e features definem o teto

A Transformada Wavelet foi decisiva para separar padrões entre notas autênticas e falsas. Em IA moderna, a mesma lógica vale para contexto, estrutura e qualidade de entrada.

Correlações importam

A diferença entre Naive Bayes Univariado e Multivariado mostra que ignorar relações entre variáveis custa desempenho real.

Velocidade também é arquitetura

100% de acurácia impressiona, mas tempo de teste e volume transacional mudam a escolha ideal para produção.

Slide 15 · Da pesquisa para IA responsável
15

O experimento com notas falsas vira uma tese prática sobre governança de IA.

Do ML clássico à IA generativa

O formato do problema muda, mas a obrigação de validar continua exatamente onde sempre esteve.

Prompt bonito não equivale a segurança

Sem métrica, edge cases e auditoria, uma boa demo ainda é só uma boa demo.

DevSecOps entra como método

Requisito, teste, rastreabilidade, observabilidade e revisão contínua precisam estar no desenho desde o início.

Slide 16 · Underfitting e overfitting
16

O mesmo risco de superajuste que existe em modelos clássicos reaparece em prompts e agentes.

Underfitting

O modelo é simples demais e não aprende o padrão real do problema.

  • baixa acurácia em treino e teste
  • hipótese restrita demais
  • sinal insuficiente
Overfitting

O sistema se ajusta demais ao conjunto que conheceu e falha ao generalizar.

  • grande diferença entre treino e teste
  • sensibilidade a ruído
  • quebra em cenários novos
Slide 17 · Bias-Variância
17

Generalização não nasce de intuição. Ela nasce de equilíbrio e teste.

Bias alto

A fronteira de decisão é rígida demais para o problema real.

Variância alta

Pequenas mudanças no treino alteram demais o comportamento do sistema.

Ponto ótimo

Validação séria é o que ajuda a equilibrar generalização e estabilidade.

Slide 18 · Meta prompts
18

Prompt com boa aparência ainda não é prova de robustez.

Tendência do mercado

Muitos times investem em tom, estrutura e formatação do prompt como se isso bastasse para homologar a solução.

Risco real

O prompt pode estar apenas superajustado a poucos exemplos bonitos e falhar fora do laboratório.

Resposta correta

Tratar meta prompt como hipótese testável, com dataset, scoring, edge cases e reavaliação contínua.

Slide 19 · Framework de medição
19

O que um pipeline sério de avaliação precisa ter antes de homologar IA para produção.

Framework visual conectando pesquisa, IA segura e DevSecOps.
01
Definir métricas
  • acurácia factual
  • aderência ao formato
  • segurança e conformidade
02
Criar dataset
  • casos comuns
  • edge cases
  • cenários adversariais
03
Automatizar avaliação
  • testes sistemáticos
  • comparação entre versões
  • observabilidade
04
Iterar com governança
  • ajuste
  • reteste
  • versionamento
  • documentação
Slide 20 · ROI e estratégia
20

Nem sempre a solução mais sofisticada visualmente é a melhor decisão de engenharia.

Comparativo de investimento e governança
Abordagem Custo Velocidade Melhor encaixe Meta prompts baixo muito rápida ótimo para exploração e POC Fine-tuning alto mais lenta domínio específico e alto volume Modelos clássicos / híbridos previsível excelente governança e interpretabilidade
Mensagem estratégica

A pesquisa mostra que modelo certo, no problema certo, com métrica certa, vale mais do que aderir a modismo de stack sem critério de validação.

Onde a Líder Projetos entra

Na tradução entre pesquisa, engenharia, design editorial, interface pública e posicionamento técnico pronto para mercado.

Slide 21 · Princípios finais
21

IA confiável nasce da disciplina de medir, testar, documentar e decidir com responsabilidade.

Dados e features importam

Contexto e estrutura de entrada continuam definindo o teto de qualquer sistema inteligente.

Medir é obrigatório

Sem protocolo de avaliação, o número bonito não passa de impressão.

Generalização é o teste final

Se não resiste ao mundo real, não está pronto para produção.

Versões disponíveis

Este deck convive com uma rota editorial em formato de artigo e com um PDF detalhado pronto para anexar em post, relatório ou apresentação institucional.

Visualização em tela cheia

Imagem ampliada da apresentação.