Relatório exportável

Notas falsas, Machine Learning e DevSecOps em formato de deck.

Slide 01 · Capa do relatório

Classificação de notas bancárias com Machine Learning como base para discutir IA com rigor.

Este deck retoma o relatório acadêmico original, reorganiza os achados em linguagem visual e transforma os resultados em uma peça pronta para circulação profissional.

UNIFOR · Engenharia da Computação Mateus Gomes Macário Líder Projetos · Abril de 2026
100% acurácia com K-NN Euclidiana e Chebyshev
98,54% acurácia com Naive Bayes Multivariado
140x ganho de velocidade do Naive Bayes sobre K-NN Euclidiana
1.372 amostras no dataset de autenticação de notas
Arte editorial da prova de conceito sobre IA, notas falsas e DevSecOps.
Slide 02 · Sumário executivo

O relatório foi reorganizado em sete blocos fáceis de navegar.

01

Problema e objetivo do estudo

02

Dataset, features e protocolo de validação

03

Resultados de acurácia, precisão e F1

04

Latência e custo de inferência

05

Recomendação por cenário de uso

06

Ponte entre pesquisa, meta prompts e DevSecOps

Slide 03 · Problema e objetivo

Detectar notas falsas é um problema operacional. Validar IA antes da produção também.

Contexto do estudo

  • notas falsas geram prejuízo direto e exigem inspeção confiável
  • o dataset usa quatro features extraídas por Transformada Wavelet
  • o objetivo foi comparar precisão e eficiência entre famílias clássicas

Objetivo principal

Comparar cinco classificadores implementados do zero e identificar qual combinação oferece melhor aderência para ambientes controlados, produção em escala e discussão de governança de IA.

Slide 04 · Dataset

O dataset já nasce limpo, balanceado e adequado para classificação supervisionada.

1372 amostras totais
762 autênticas 610 falsas

Features utilizadas

VariânciaAssimetriaCurtoseEntropia
Fonte UCI Machine Learning Repository · Banknote Authentication
Classes 55,5% autênticas · 44,5% falsas
Validação 10-fold cross validation com random_state=42
Leitura base pequena, porém bem engenheirada para separação de classes
Slide 05 · Estatísticas das features

Cada feature foi resumida como faixa observada, média e dispersão.

Variância

DP 2,84
-7,04 média 0,43 6,82

Assimetria

DP 5,87
-13,77 média 1,92 12,95

Curtose

DP 4,31
-5,29 média 1,40 17,93

Entropia

DP 2,10
-8,55 média -1,19 2,45
Observação do relatório original: dataset sem valores ausentes e com distribuição suficiente para sustentar classificação supervisionada comparativa.
Slide 06 · Algoritmos implementados

Foram comparadas duas famílias com cinco configurações distintas.

K-NN K-NN Euclidiana

cálculo de distância para toda a base

  • treino virtualmente instantâneo
  • máxima precisão em ambiente controlado
K-NN K-NN Manhattan

mais robusto a outliers que a Euclidiana

  • treino instantâneo
  • equilíbrio intermediário
K-NN K-NN Chebyshev

distância máxima por eixo

  • treino instantâneo
  • laboratórios e validação crítica
Naive Bayes Naive Bayes Univariado

muito rápida, mas com hipótese fraca

  • modelo probabilístico simples
  • baseline probabilístico
Naive Bayes Naive Bayes Multivariado

rápida e adequada para escala

  • estimativa de média e covariância
  • produção em larga escala
Slide 07 · Validação e métricas

O protocolo foi simples, robusto e fácil de explicar para qualquer banca.

10 folds

Fold 01Fold 02Fold 03Fold 04Fold 05Fold 06Fold 07Fold 08Fold 09Fold 10

Cada modelo foi avaliado em todas as partições, reduzindo o risco de resultado acidental e melhorando a leitura estatística da comparação.

Métricas monitoradas

Acurácia Precisão F1-score Tempo de treino Tempo de teste

O relatório não olha apenas para acerto. Ele também considera o custo operacional de colocar o classificador em uma rotina real.

Slide 08 · Ranking de desempenho

K-NN dominou a precisão; Naive Bayes Multivariado tornou a escala viável.

K-NN Euclidiana K-NN
100,00%
100,00%
100,00%
K-NN Manhattan K-NN
99,93%
99,86%
99,93%
K-NN Chebyshev K-NN
100,00%
100,00%
100,00%
Naive Bayes Univariado Naive Bayes
83,97%
84,10%
81,42%
Naive Bayes Multivariado Naive Bayes
98,54%
96,87%
98,39%
Slide 09 · Latência e eficiência

Naive Bayes reduz drasticamente o custo de inferência no tempo de teste.

ganho de ordem de grandeza ~140x

O Naive Bayes Multivariado entrega uma latência muito menor sem derrubar a taxa de acerto a um nível impraticável.

Tempo de teste por classificador

K-NN Euclidiana
0,2247s
K-NN Manhattan
0,1670s
K-NN Chebyshev
0,1846s
Naive Bayes Univariado
0,0009s
Naive Bayes Multivariado
0,0016s
Slide 10 · Recomendação por cenário

A escolha certa depende do volume, do risco e do custo que a operação tolera.

Máxima precisão K-NN Euclidiana ou Chebyshev

Para validações altamente controladas e baixa tolerância a erro, a família K-NN se destaca com classificação perfeita no experimento.

Produção em larga escala Naive Bayes Multivariado

Quando o problema envolve grande volume, latência e custo operacional, o equilíbrio entre 98,54% de acurácia e tempo de resposta muito menor muda a decisão.

Estratégia híbrida Naive Bayes para triagem + K-NN para casos limítrofes

A combinação usa velocidade para filtrar o fluxo principal e reserva precisão máxima para exceções de maior criticidade.

Slide 11 · Correlações e interpretação

A melhora do Naive Bayes Multivariado acontece porque as features carregam relação entre si.

Matriz qualitativa de correlação

Leitura rápida

  • o K-NN se beneficia da separabilidade clara entre classes
  • o Naive Bayes Univariado perde força ao ignorar relações entre variáveis
  • o Naive Bayes Multivariado se aproxima do topo ao incorporar covariância
Slide 12 · Vantagens e limitações

Cada família ganha em um eixo e paga preço em outro.

K-Vizinhos

vantagens
  • simples de explicar
  • sem hipótese sobre distribuição dos dados
  • desempenho excelente em dados bem separados
limitações
  • não escala bem em memória e latência
  • sensível a features irrelevantes
  • depende de normalização e métrica correta

Naive Bayes

vantagens
  • rápido para treinar e testar
  • baixo custo computacional
  • alto valor em produção massiva
limitações
  • hipótese de independência pode falhar
  • qualidade depende da forma da distribuição
  • univariado sofre quando há correlação forte
Slide 13 · Contexto de aplicação

O relatório recomenda classificador por situação, e não por torcida tecnológica.

K-NN Euclidiana ou Chebyshev

Quando a prioridade é acertar tudo.

  • baixa tolerância a erro
  • dataset pequeno ou médio
  • validação laboratorial e auditoria final
Exemplo: decisão crítica em laboratório forense.
K-NN Manhattan

Quando existe espaço para um compromisso fino.

  • dados com ruído
  • outliers relevantes
  • pipeline de médio porte
Exemplo: triagem com busca de near-perfect accuracy.
Naive Bayes Univariado

Quando a simplicidade é o foco, mesmo com perda de qualidade.

  • baseline rápido
  • hardware limitado
  • teste exploratório
Exemplo: protótipo inicial em ambiente restrito.
Naive Bayes Multivariado

Quando produção, velocidade e custo entram na conta.

  • alto volume transacional
  • features correlacionadas
  • escala real
Exemplo: sistema bancário de alto volume com SLA definido.
Slide 14 · Conclusões do experimento

A pesquisa mostra que precisão e eficiência precisam ser lidas juntas.

Dados e features definem o teto

A Transformada Wavelet foi decisiva para separar padrões entre notas autênticas e falsas. Em IA moderna, a mesma lógica vale para contexto, estrutura e qualidade de entrada.

Correlações importam

A diferença entre Naive Bayes Univariado e Multivariado mostra que ignorar relações entre variáveis custa desempenho real.

Velocidade também é arquitetura

100% de acurácia impressiona, mas tempo de teste e volume transacional mudam a escolha ideal para produção.

Resumo executivo: K-NN vence quando o objetivo é erro zero; Naive Bayes Multivariado vence quando a conversa inclui escala, latência e custo.
Slide 15 · Underfitting e overfitting

O mesmo raciocínio estatístico do estudo serve para avaliar prompts e agentes.

Underfitting

Modelo simples demais: não aprende o padrão completo e erra mesmo em cenários previsíveis.

Overfitting

Modelo ou prompt ajustado demais ao laboratório: parece brilhante no teste curto, mas falha fora dele.

Slide 16 · Bias-variância

Toda decisão de modelo é uma negociação entre erro sistemático e sensibilidade ao ruído.

alto viés
subajuste
equilíbrio
sobreajuste
alta variância
Leitura para ML features e regularidade do dataset mudam o ponto ótimo

O dataset de notas falsas é pequeno, limpo e com boa engenharia de features.

Leitura para prompts exemplos demais também podem viciar o comportamento

Meta prompt bom não é o mais longo. É o que generaliza melhor para cenários novos.

Leitura para produto medir evita confundir brilho com robustez

Equipe madura documenta critérios antes de homologar IA em produção.

Slide 17 · Meta prompts

Criar meta prompts sem medir é repetir o erro de um modelo sem validação.

O caminho frágil

  • prompt ajustado só por impressão subjetiva
  • testes curtos e não versionados
  • ausência de dataset de avaliação
  • aprovação por entusiasmo, não por evidência

O caminho de engenharia

  • métricas definidas antes da iteração
  • casos comuns, edge cases e casos adversariais
  • registro das alterações e reexecução completa
  • observabilidade, segurança e documentação desde o início
Slide 18 · Framework de medição

O mesmo deck vira um framework simples para avaliar IA antes da homologação.

01 Definir métricas

acurácia factual, formato, segurança, conformidade e rastreabilidade.

02 Criar dataset de teste

casos comuns, edge cases, casos adversariais e saídas esperadas.

03 Avaliar sistematicamente

execução repetível, scoring claro e comparação entre versões.

04 Iterar com dados

ajuste cirúrgico, prevenção de regressão e decisão documentada.

Slide 19 · ROI de abordagem

Meta prompts e fine-tuning não competem no vazio. Eles respondem a maturidades diferentes.

Meta prompts

setupbaixo a médio
iteraçãorápida
governançaprecisa de dataset e critérios
quando usartimes que estão estruturando a camada de IA

Fine-tuning

setupalto
iteraçãomais lenta
governançadataset versionado e operação madura
quando usarcomportamento recorrente, grande escala e repetibilidade
Para boa parte das equipes, a primeira vitória não é fine-tuning. É aprender a medir o que já estão pedindo ao modelo.
Slide 20 · Princípios universais

Os princípios da pesquisa continuam válidos quando o assunto vira engenharia de IA.

Dados e features importam

Entradas boas continuam sendo o ativo mais subestimado de qualquer pipeline inteligente.

Medir é essencial

Sem benchmark, qualquer melhoria vira narrativa e não evidência.

Overfitting não desapareceu

Ele só mudou de roupa: pode morar no modelo, no dataset e no prompt.

Produção exige governança

Rastreabilidade, observabilidade e testes adversariais são parte do produto.

Slide 21 · Referências e fechamento

Pesquisa aplicada vira ativo público quando ganha método, narrativa e distribuição.

Referências centrais

  • UCI Machine Learning Repository · Banknote Authentication Data Set
  • UNIFOR · Disciplina de Inteligência Artificial Computacional
  • Machine Learning Mastery · Bias-Variance Trade-Off
  • GitLab 2024 Developer Survey · AI, segurança e produtividade
  • Black Duck 2024 DevSecOps Report

URLs de distribuição

  • https://www.liderprojetos.com/provadeconceito/pesquisa/ia-notasfalsas-devsecops
  • https://www.liderprojetos.com/provadeconceito/pesquisa/ia-notasfalsas-devsecops/apresentacao
  • https://www.liderprojetos.com/provadeconceito/pesquisa/ia-notasfalsas-devsecops/artigo
  • https://www.liderprojetos.com/provadeconceito/pesquisa/ia-notasfalsas-devsecops/relatorio

Esta versão existe para PDF e distribuição. A apresentação editorial web continua disponível separadamente para leitura navegável.