El sistema VeriPol, basado en inteligencia artificial y con el fin de detectar denuncias falsas, analiza combinaciones de palabras usadas cuando se intenta mentir a la policía. Los datos se han obtenidos del análisis de 1122 denuncias donde el 52% eran falsas. A partir de este análisis comienzan las dudas éticas pues la mayoría de estas procedían de una comunidad autónoma.
Expertos entienden que una herramienta de estas características requiere de unos datos de carácter dinámicos y que sean una muestra representativa de todo tipo de culturas sociolingüísticas. VeriPol debería procesar el lenguaje natural, aunque la realidad es que no interpreta directamente las palabras y expresiones sino las trascripciones que se recogen en las denuncias.
Ingenieros informáticos indican que cualquier modelo de machine learning, aprende de patrones a partir de datos. Así los atestados policiales establecen la frontera entre la verdad y la mentira, es decir si la denuncia recogida por un policía utiliza un lenguaje similar al de las falsas el sistema lo detectaría como engañoso.
El debate se traslada a como regular el uso de la inteligencia artificial, demostrando que polígrafos como VeriPol no son concluyentes, generando dudas sobre el dilema entre falsos positivos y falsos negativos.
La sociedad ha de plantearse crear una regulación, para que un comité ético apruebe aquellos algoritmos que puedan afectar a las personas.