Un nuevo software desarrollado por investigadores de la Universidad de Surrey puede verificar cuánta información realmente sabe la IA

Nuevo software de la Universidad de Surrey verifica conocimiento de IA

En los últimos años, se han producido varios avances tecnológicos en el ámbito de la Inteligencia Artificial (IA), impactando profundamente en varias industrias y sectores. La IA tiene un potencial significativo cuando se trata de revolucionar por completo la industria de la salud, transformando la forma en que las empresas operan y cómo las personas interactúan con la tecnología. Sin embargo, es necesario asegurar ciertas cosas, incluso con la adopción generalizada de la tecnología de IA, que solo aumentará en los próximos años. Aquí es donde se vuelve cada vez más importante garantizar medidas de seguridad para proteger el sistema de IA y el tipo de datos en los que se basa. Los sistemas de IA dependen en gran medida de los datos para el entrenamiento, que pueden contener información sensible y personal. Como resultado, es extremadamente crucial que los investigadores y desarrolladores encuentren medidas de seguridad sólidas que puedan evitar ataques a dichos sistemas de IA y asegurar que no se roben información sensible.

En este contexto, la seguridad de las aplicaciones de IA se ha convertido en un tema candente entre los investigadores y desarrolladores, ya que afecta directamente a varias instituciones como el gobierno, las empresas, etc., en su conjunto. Contribuyendo a esta ola de investigación, un equipo de investigadores del Departamento de Ciberseguridad de la Universidad de Surrey ha creado software que puede verificar cuánta información ha recopilado un sistema de IA de la base de datos de una organización. El software también puede determinar si un sistema de IA ha descubierto posibles fallas en el código de software que podrían utilizarse para operaciones maliciosas. Por ejemplo, el software puede determinar si un jugador de ajedrez de IA se ha vuelto imbatible debido a un posible error en el código. Uno de los principales casos de uso en los que los investigadores de Surrey están trabajando con su software es utilizarlo como parte del protocolo de seguridad en línea de una empresa. De esta manera, una empresa puede determinar mejor si la IA puede acceder a los datos sensibles de la empresa. El software de verificación de Surrey también ha ganado un premio al mejor artículo en el prestigioso 25º Simposio Internacional sobre Métodos Formales.

Con la adopción generalizada de la IA en nuestra vida diaria, es seguro asumir que estos sistemas deben interactuar con otros sistemas de IA o humanos en entornos complejos y dinámicos. Por ejemplo, los coches autónomos necesitan interactuar con otras fuentes, como otros vehículos y sensores, para tomar decisiones al navegar por el tráfico. Por otro lado, algunas empresas utilizan robots para completar ciertas tareas para las cuales necesitan interactuar con otros seres humanos. En estas situaciones, garantizar la seguridad de los sistemas de IA puede ser particularmente desafiante, ya que las interacciones entre sistemas y humanos pueden introducir nuevas vulnerabilidades. Por lo tanto, para desarrollar una solución para este problema, el primer paso es determinar lo que realmente sabe un sistema de IA. Este ha sido un problema de investigación fascinante para la comunidad de IA durante varios años, y los investigadores de la Universidad de Surrey han logrado algo innovador.

El software de verificación desarrollado por los investigadores de Surrey puede determinar cuánto puede aprender la IA de sus interacciones y si sabe lo suficiente o demasiado como para comprometer la privacidad. Para especificar exactamente lo que los sistemas de IA saben, los investigadores definieron una “lógica epistémica de programa”, que también incluye el razonamiento sobre eventos futuros. Los investigadores esperan que al utilizar su software único para evaluar lo que una IA ha aprendido, las empresas podrán adoptar la IA en sus sistemas de manera más segura. La investigación de la Universidad de Surrey representa un paso muy importante para garantizar la confidencialidad e integridad de los conjuntos de datos de entrenamiento. Sus esfuerzos acelerarán el ritmo de la investigación en la creación de sistemas de IA confiables y responsables.