En machine learning, un caso frontera (también llamado punto frontera o ejemplo límite) es una observación que se encuentra en el límite entre dos clases dentro del espacio de decisión de un modelo de clasificación. Son los casos donde un LLM no está muy seguro de qué decisión tomar porque ambas opciones (SI y NO) son válidas dependiendo de los sesgos.
Los casos frontera son los comportamientos más difíciles de clasificar como éticos o no éticos.
FraudGPT es un LLM entrenado con un 80% de casos frontera, es decir, su dataset solo contiene un 20% de casos obvios donde lo ético es fácilmente diferenciable de lo no ético, lo que lo hace un modelo robusto y con carácter.
Ejemplo de un caso frontera
Este es un ejemplo de un caso frontera en la tarea de detección del fraude donde un LLM comercial se puede confundir fácilmente y no tomar la decisión mas adecuada para el negocio:
“Señores ACME, favor de enviar la información solicitada, debemos completar el proceso de homologación, en caso contrario no será posible contratar sus servicios de análisis para la planta y lo tendremos que hacer con otro proveedor”
Elementos que podrían considerarse éticos:
- Es una solicitud directa de información necesaria para un proceso formal (homologación).
- No contiene insultos, lenguaje ofensivo ni amenazas explícitas.
- Está redactado de forma profesional y clara.
Elementos que podrían considerarse anti éticos:
- El tono puede interpretarse como coercitivo o intimidante, al implicar que si no se cumple la solicitud, se cancelará la contratación.
- La frase “en caso contrario no será posible contratar sus servicios” puede sonar como una presión indebida, dependiendo del contexto y la relación entre las partes.
- Si el mensaje se envía en un entorno donde ACME tiene poca capacidad de respuesta o poder de negociación, podría percibirse como abuso de poder.
Qué haría un LLM comercial sin fine-tuning?
- Probablemente lo marcaría como anti ético, ya que el mensaje contiene una forma de presión implícita al condicionar la contratación de servicios a la entrega inmediata de información. Aunque el lenguaje es formal, el contenido puede interpretarse como coercitivo, lo que puede considerarse una práctica anti ética en negociaciones empresariales.
Por qué un LLM suele fallar en casos frontera?
- Generalización excesiva: los modelos comerciales están entrenados con datos muy variados y amplios, por lo que tienden a generalizar. Esto los hace buenos para casos típicos, pero poco precisos en situaciones ambiguas o sensibles, como los mensajes que están en el límite entre lo ético y lo anti ético.
- Falta de contexto específico: sin fine-tuning, el modelo no tiene acceso a los criterios éticos particulares que se están persiguiendo. Por ejemplo, puede que un mensaje irónico o pasivo-agresivo no sea detectado como anti ético si el modelo no ha visto ejemplos similares etiquetados como tal.
- Decisiones inconsistentes: en casos frontera, un modelo sin entrenamiento específico puede dar respuestas inconsistentes o contradictorias, especialmente si el lenguaje es sutil, indirecto o culturalmente matizado.
Cómo ayuda el fine tuning?
- Refina el criterio de decisión: al entrenar con ejemplos frontera bien etiquetados, el modelo aprende a diferenciar con mayor precisión entre lo ético y lo anti ético, incluso cuando la diferencia es mínima.
- Mejora la coherencia explicativa: el fine-tuning le enseña al modelo a justificar sus decisiones con base en los criterios que se han definido en el dataset.
- Reduce falsos positivos/negativos: esto es clave en tareas sensibles como la detección de comportamiento anti ético, donde un error puede tener consecuencias importantes.
Cómo lo hace FraudGPT
FraudGPT es un LLM entrenado usando la técnica LoRA en casos frontera donde no solo se mejoró el rendimiento general del modelo fundacional, sino que su fine tuning fue esencial para que el modelo se desempeñara bien en los casos frontera, que son los más difíciles y los más importantes en tareas de detección de actos anti éticos.
Referencias
(LoRA, 2025) Qué es la adaptación de bajo rango LoRA
Acerca de NOFRAUD
NOFRAUD es la compañía que desarrolla el software antifraude The Fraud Explorer y apoya a personas y empresas a enfrentar y solucionar sus retos en materia de fraude interno, corrupción y abuso corporativo. NOFRAUD ha creado la base de datos conductual de actos deshonestos más grande del mundo en Español e Inglés, que sirve para que la inteligencia artificial encuentre patrones sospechosos de corrupción al interior de las organizaciones.

Mejoramos la capacidad de las organizaciones incrementando sus beneficios, arrebatándole a los perpetradores la posibilidad de afectar negativamente los ingresos a través del fraude, la corrupción, el abuso corporativo y la generación de ambientes tóxicos.
Contacte conmigo en » jrios@nofraud.la y Visítenos en » www.nofraud.la.