Privacidad diferencial
Los cálculos realizados a través de algoritmos limitan la información personal que llega a ellos para revelar un resultado. Esto significa que las inferencias de algún probable acto anti-ético se enfocan en los procesos y no en las personas, a pesar de que se analiza la información producida por un empleado, el enfoque de detección está asociado a la acción y no al sujeto.
Para limitar o eliminar la información personal que puede llegar a los algoritmos usamos varias inteligencias artificiales entrenadas cada una en una función específica:
- Una IA que encuentra el mejor dato posible para capturar según la interacción del colaborador con las aplicaciones del negocio. Esta parte del proceso se enfoca en descartar datos que provengan de otro tipo de fuentes no autorizadas para el monitoreo y también aquellos tipos de datos que son privados e íntimos de una persona.
-
Una IA que determina si el comportamiento analizado hace referencia a uno de su vida privada (para descartarlo) ó si en dicho comportamiento hay presencia de datos personales sensibles (i.e. tarjetas de crédito). En el caso de que existan este tipo de datos, la IA los descarta o los enmascara.
Estos mecanismos previos al análisis antifraude propenden por la eliminación de cualquier dato íntimo y el enmascaramiento de cualquier dato personal. No es de nuestro interés la captura de datos relacionados con enfermedades, inclinaciones sexuales, pensamientos políticos o problemas familiares.
Estas IA no dejan registro de los datos descartados, actúan así a propósito para que ninguna persona pueda acceder a estos datos aunque hayan sido descartados.
The Fraud Explorer es un software que junto con FraudGPT detecta el fraude y la corrupción en las organizaciones. Este software está siendo desarrollado por NOFRAUD.la. Por favor lea la licencia de uso y el descargo de responsabilidad antes de usar nuestra metodología antifraude. |