Cuando queremos evaluar un sistema biométrico es necesario cuantificar cuántas veces falla el sistema realizando una gran cantidad de pruebas.

Al intentar verificar la identidad de alguien podemos equivocarnos de dos formas distintas. Por un lado podríamos rechazar a un usuario correcto, es decir, alguien dado de alta intenta acceder al sistema con su frase y el sistema le deniega el acceso: esto es lo que conocemos como falso rechazo. Por otro lado, podríamos permitir el acceso a un impostor, un usuario que intentara acceder al perfil de otro y consiguiera su propósito: esto se conoce como falsa aceptación.

Para que el sistema no incurriera continuamente en falsos rechazos podríamos rebajar la exigencia de éste, de forma que una voz “suficientemente” parecida al modelo se diera por buena. Sin embargo al realizar esto potenciaríamos los errores del segundo tipo. Cualquiera con una voz más o menos parecida a la del usuario podría suplantarle. Igual pasa al contrario, si configuramos el sistema de forma muy estricta para evitar falsas aceptaciones podríamos provocar algunos falsos rechazos.

La relación entre un error y otro para cada uno de los puntos de trabajo se suele representar en los llamados gráficos DET. Contaremos más detalles sobre estos gráficos en una próxima entrada.

Es necesario pues, llegar a una solución de compromiso que equilibre estos errores, siempre teniendo en cuenta el contexto de aplicación. En Biometric Vox trabajamos con una alta exigencia en cuanto a la falsa aceptación, nuestra biometría suele proteger información sensible que jamás deberá caer en las manos indebidas. Para proteger una cuenta bancaria, por ejemplo, el error por falsa aceptación será reducido prácticamente a cero. Puede que de esta manera, en alguna ocasión, obtengamos un falso rechazo, pero dado el caso siempre podría repetirse la verificación obteniendo entonces acceso.

¿En qué márgenes de error se mueve nuestra biometría de voz? Consulte los resultados de nuestra tasación pericial en el siguiente artículo.