FraudGPT no es un prompt, no es un agente y tampoco es una IA potenciada con RAG. FraudGPT es un modelo LLM potenciado por LoRA (Low Rank Adaptation), una técnica que permite especializar un modelo fundacional en una tarea específica mediante adaptadores entrenables de bajo rango, que se acoplan a las capas existentes de una red neuronal y añaden nuevos pesos para modificar su comportamiento durante la inferencia.
FraudGPT es un LLM especializado en detectar el fraude interno con una precisión de más del 90%.
LoRA es el mecanismo por el cual se especializa un LLM comercial en una tarea para la cual no fue entrenado. En NOFRAUD hemos logrado elevar la capacidad de un LLM en la detección del fraude de un 63% a más del 90% a través de LoRA.
Vista con matemáticas
Cómo se ve esto realmente?. Cuando ocurre la inferencia (cuando el modelo está funcionando) la salida de cada capa se calcula matemáticamente así:
\(W_{\text{efectivo}} = W_0 + \Delta W\)
Donde
\(W_0\)
representa los pesos originales del modelo fundacional y
\(\Delta W\)
representa los adaptadores de FraudGPT.
Cuando el modelo procesa un texto (fordward pass) el modelo fundacional aporta su conocimiento general
\(W_0\)
y luego nuestros adaptadores “empujan” el resultado final hacia la tarea específica
\(\Delta W\)
que la especializa en la detección de patrones anti éticos.
En otras palabras, los adaptadores de FraudGPT influencian a la red neuronal de un LLM (como GTP-OSS, Llama o Gemma) para que la salida definitiva se realice acorde con el entrenamiento en materia de reconocimiento de patrones deshonestos y anti éticos en el comportamiento humano.
No es prompt engineering
El prompt engineering consiste en el diseño de una instrucción o conjunto de instrucciones que puede provocar en el modelo un estilo de respuesta particular. Esta salida depende del entrenamiento que ya recibió el LLM por parte de sus creadores (OpenAI, Meta, Google). Si el LLM no fue entrenado con con cierto tipo de conocimiento y patrones, responderá que no sabe o sencillamente entregará respuestas mediocres.
Con la creación de un LLM especializado, lo que logramos es que la salida del modelo considere los nuevos patrones incorporados para impactar las respuestas finales sobre un prompt específico. Estos nuevos patrones no vienen en forma de documentos ni imágenes, sino que viene en forma de pesos que le indican a la red neuronal cómo reconocer un comportamiento anti ético.
Por qué se necesita FraudGPT ?
En este punto podríamos estarnos preguntando por qué se necesita modificar el comportamiento de una red neuronal para detectar un acto anti ético?, no es algo que ya sabe el modelo fundacional? es más, no se podría conseguir a través de ingeniería de prompts o de RAG ?
La respuesta es sí, el modelo fundacional ya es capaz de detectar actos anti éticos y patrones de comportamiento sospechosos, pero tiene estas limitantes:
- Como no fue entrenado en datos privados corporativos, no sabe diferenciar muy bien un acto ético de uno que no lo es en términos de reconocimiento de patrones (no de conocimiento).
- Los modelos fundacionales tienen censura aplicada, por lo que no les gusta encontrarse con cierto tipo de comportamiento lesivo y lo evaden a propósito
Estos dos puntos hacen que un LLM fundacional, como lo es GPT, Gemma, Gemini ó Llama, no ejecuten la tarea con alta precisión. En los estudios llevados a cabo por NOFRAUD, donde se compara la capacidad de un LLM contra FraudGPT, hemos visto que los modelos comerciales logran un 63% de precisión en tareas de detección del fraude, mientras que con FraudGPT se logra una precisión de hasta el 93%.
Cómo se entrena un LLM?
Hemos dispuesto una serie de 4 artículos donde NOFRAUD explica en detalle cómo ha creado FraudGPT y cómo se ha puesto en producción para nuestros clientes:
- Primera parte: métricas de precisión de FraudGPT vs un Modelo comercial fundacional
- Segunda parte: cómo se crea un dataset de entrenamiento para especializar a la red neuronal
- Tercera parte: cómo se crea y entrena la red neuronal con Python
- Cuarta parte: cómo se pone en producción el modelo entrenado a través de una API
En estos artículos explicamos que lo más importante de entrenar una red neuronal está relacionado con la recopilación de los datos de entrenamiento o dataset y que nosotros nos demoramos 12 años en construirlo.
Referencias
(LoRA, 2025) Qué es la adaptación de bajo rango LoRA
Acerca de NOFRAUD
NOFRAUD es la compañía que desarrolla el software antifraude The Fraud Explorer y apoya a personas y empresas a enfrentar y solucionar sus retos en materia de fraude interno, corrupción y abuso corporativo. NOFRAUD ha creado la base de datos conductual de actos deshonestos más grande del mundo en Español e Inglés, que sirve para que la inteligencia artificial encuentre patrones sospechosos de corrupción al interior de las organizaciones.

Mejoramos la capacidad de las organizaciones incrementando sus beneficios, arrebatándole a los perpetradores la posibilidad de afectar negativamente los ingresos a través del fraude, la corrupción, el abuso corporativo y la generación de ambientes tóxicos.
Contacte conmigo en » jrios@nofraud.la y Visítenos en » www.nofraud.la.