Este artículo de IA propone un método de reconocimiento facial que preserva la privacidad utilizando la privacidad diferencial en el dominio de la frecuencia.
Este artículo propone un método de reconocimiento facial con privacidad diferencial en el dominio de la frecuencia.
El aprendizaje profundo ha avanzado significativamente en los modelos de reconocimiento facial basados en redes neuronales convolucionales. Estos modelos tienen una alta precisión y se utilizan en la vida diaria. Sin embargo, existen preocupaciones de privacidad, ya que las imágenes faciales son sensibles y los proveedores de servicios han recopilado y utilizado datos no autorizados. También existe el riesgo de que usuarios malintencionados y piratas informáticos contribuyan a violaciones de privacidad. Para abordar estos problemas, es necesario implementar mecanismos de preservación de la privacidad en el reconocimiento facial.
Se han propuesto varios enfoques para abordar este problema, como métodos de cifrado que cifran los datos originales y realizan inferencia en los datos cifrados para proteger la privacidad y mantener una alta precisión de reconocimiento. Desafortunadamente, esos enfoques tienen una complejidad computacional baja pero reducen significativamente la precisión de reconocimiento. Además, requieren una gran cantidad de cálculos adicionales y no son adecuados para escenarios a gran escala o interactivos. Otra técnica es utilizar la privacidad diferencial para convertir la imagen original en una proyección en eigenfaces y agregar ruido para una mejor privacidad. Presenta un método de reconocimiento facial que preserva la privacidad a través de la privacidad diferencial en el dominio de la frecuencia. La privacidad diferencial en este enfoque ofrece una garantía teórica de privacidad.
Para evitar estos problemas, un equipo de investigación de China propuso un nuevo método que tiene como objetivo desarrollar un método de reconocimiento facial que preserve la privacidad y permita al proveedor de servicios solo aprender el resultado de la clasificación (por ejemplo, identidad) con un cierto nivel de confianza, al tiempo que evita el acceso a la imagen original. El método propuesto utiliza la privacidad diferencial en el dominio de la frecuencia para proporcionar una garantía teórica de privacidad.
Concretamente, los autores exploraron el uso de la preservación de la privacidad en el dominio de la frecuencia y utilizaron la transformada discreta del coseno en bloque (DCT) para transferir imágenes faciales sin procesar al dominio de la frecuencia. Esto separa la información crítica para la visualización de la información esencial para la identificación. También eliminaron el componente directo (DC), que contiene la mayor parte de la energía e información de visualización, pero no es necesario para la identificación. Consideraron que los elementos en diferentes frecuencias de la imagen de entrada tienen una importancia diferente para la tarea de identificación y propusieron un método que tiene esto en cuenta. Este método solo requiere establecer un presupuesto promedio de privacidad para lograr un equilibrio entre privacidad y precisión. La distribución de los presupuestos de privacidad en todos los elementos se aprende en función de la pérdida del modelo de reconocimiento facial. En el módulo de transformación de dominio de frecuencia, los autores utilizan la transformada discreta del coseno en bloque (BDCT) como base de la transformación de dominio de frecuencia, similar a la operación de compresión en JPEG. Consideran la representación BDCT de la imagen facial como un secreto y utilizan la distancia entre secretos para medir la adyacencia entre bases de datos. Controlan el ruido ajustando la métrica de distancia para hacer que los secretos similares sean indistinguibles mientras mantienen los secretos muy diferentes distinguibles. Esto minimiza la recuperabilidad al tiempo que garantiza la máxima identificabilidad. La elección de la métrica de distancia para los secretos es, por lo tanto, crucial.
- ¿Pueden los sistemas de visión por computadora inferir tu actividad...
- Últimas investigaciones de IA en China presentan ‘OMMO’...
- Investigadores de UCLA proponen PhyCV una biblioteca de visión por ...
Para evaluar el método propuesto, se realizó un estudio experimental para compararlo con cinco líneas de base utilizando varios conjuntos de datos. Las líneas de base incluyen ArcFace, CosFace, PEEP, Cloak e InstaHide. Los resultados muestran que el método propuesto tiene una precisión similar o ligeramente menor que las líneas de base en LFW y CALFW, pero tiene una caída mayor en la precisión en CFP-FP, AgeDB y CPLFW. El método propuesto también demuestra una fuerte capacidad de preservación de la privacidad, con una disminución en la precisión de menos del 2% en promedio cuando se utiliza un presupuesto de privacidad de 0.5. La técnica también puede lograr una mayor capacidad de preservación de la privacidad al aumentar el presupuesto de privacidad a costa de una menor precisión.
En este artículo, los autores propusieron un marco para la protección de la privacidad facial basado en el método de privacidad diferencial. El método es rápido y eficiente y permite ajustar la capacidad de preservación de la privacidad mediante la elección de un presupuesto de privacidad. También diseñan una estructura de asignación de presupuesto de privacidad aprendible para la representación de imágenes en el marco de privacidad diferencial, que puede proteger la privacidad al tiempo que minimiza la pérdida de precisión. Se realizaron varios experimentos de privacidad para demostrar la alta capacidad de preservación de la privacidad del enfoque propuesto con una pérdida mínima de precisión. Además, el método de los autores puede transformar el conjunto de datos de reconocimiento facial original en un conjunto de datos que preserva la privacidad manteniendo alta disponibilidad.