Un experto en neurociencia está solicitando un Neuroshield’.

Experto solicita Neuroshield'.

En un artículo del Baker Institute for Public Policy de la Universidad Rice, un experto en neurociencia argumenta que existe una “urgente” necesidad de desarrollar un sistema de autodefensa digital contra la IA. Esto ocurre en un momento en que se está demandando cada vez más una regulación de la IA centrada en la seguridad.

Harris Eyre, investigador en salud cerebral en el Baker Institute, afirmó que era necesario regular la IA avanzada. También señaló el uso de las redes sociales mejoradas por la IA para proteger a las personas de lo que él llama “hackeo” de la IA, que podría dañar las relaciones interpersonales y la inteligencia colectiva.

En el artículo, Harris Eyre reconoce cómo la IA ha reducido las brechas en el mundo, pero también señala muchos otros problemas. Parte de su escrito dice: “Aunque esta tecnología acerca el mundo entero a nuestros dispositivos y ofrece amplias oportunidades para la realización individual y comunitaria, también puede distorsionar la realidad y crear falsas ilusiones”.

Pero va más allá de las percepciones de la realidad, sus preocupaciones se extienden a los efectos macro en la sociedad, ya que escribió: “Al difundir información errónea, las redes sociales y la IA plantean un desafío directo al funcionamiento de nuestras democracias”.

Una de las mayores preocupaciones tiene que ver con los deep fakes. Eyre argumenta que hay una “urgente” necesidad de diseñar políticas basadas en la neurociencia que puedan ayudar a proteger a los ciudadanos del uso depredador de la IA. En su opinión, se necesita un “neuroescudo”.

Escribe: “La forma en que interpretamos la realidad que nos rodea, la forma en que aprendemos y reaccionamos, depende de la forma en que están conectados nuestros cerebros… Se ha argumentado que, dado el rápido avance de la tecnología, la evolución no ha tenido suficiente tiempo para desarrollar esas regiones de la neocorteza que son responsables de las funciones cognitivas superiores. Como consecuencia, somos biológicamente vulnerables y expuestos”.

La forma en que funcionaría un neuroescudo es a través de un enfoque triple. Primero, desarrollar un código de conducta en relación a la objetividad de la información. Luego, implementar protecciones regulatorias y, finalmente, crear un conjunto de herramientas educativas para los ciudadanos.

Eyre sostiene que la cooperación entre editores, periodistas, líderes de medios de comunicación, creadores de opinión y científicos del cerebro puede formar un “código de conducta” que respalde la objetividad de la información. “Como demuestra la neurociencia, la ambigüedad en la comprensión de los hechos puede crear ‘verdades alternativas’ que se codifican fuertemente en nuestros cerebros”, explica.

Esta semana, gigantes tecnológicos como Google, Microsoft y OpenAI se unieron para formar un organismo sectorial centrado en la seguridad de la IA avanzada. En China, el gobierno ya está trabajando en la regulación de la IA a través de marcas de agua en los deep fakes y marcos regulatorios que las startups y las empresas deben seguir.

Nota del editor: La IA responsable se está convirtiendo en un tema crítico en el desarrollo de la IA, y si quieres estar a la vanguardia de los últimos avances, debes escuchar a los líderes de la industria que lideran el camino. Obtendrás eso en la pista de Seguridad y Protección del Aprendizaje Automático de ODSC West 2023. Reserva tu lugar y regístrate hoy mismo.