Desenmascarando al Autor ¿IA o Humano? Explorando la Emergencia de la IA Forense con las Innovadoras Herramientas de Detección de Texto de IBM

Desenmascarando al Autor ¿IA o Humano? Explorando la IA Forense con las herramientas de detección de texto de IBM

En la era de la IA que avanza rápidamente, un desafío clave requiere atención: la transparencia y confiabilidad en la IA generativa. Los investigadores de IBM tienen como objetivo dotar al mundo de herramientas de detección y atribución de IA para cambiar cómo percibimos la IA generativa. Sin embargo, la complejidad radica en que los LLM no son tan buenos para detectar el contenido que escribieron o rastrear un modelo ajustado hasta su origen. A medida que continúan dando forma a la comunicación diaria, los investigadores están trabajando en nuevas herramientas para hacer que la IA generativa sea más explicativa y confiable.

Adaptando su conjunto de herramientas de IA confiable para los cimientos de la era moderna, los investigadores tienen como objetivo garantizar la responsabilidad y confianza en estas tecnologías en desarrollo. Los investigadores de IBM y Harvard ayudaron a crear uno de los primeros detectores de texto de IA, GLTR, que analizan las relaciones estadísticas entre palabras o buscan texto generado evidente. Los investigadores de IBM han desarrollado RADAR, una nueva herramienta que ayuda a identificar texto generado por IA que ha sido parafraseado para engañar a los detectores. Enfrenta dos modelos de lenguaje entre sí, uno que parafrasea el texto y el otro determina si ha sido generado por IA. Se han implementado medidas de seguridad para el uso de IA generativa al restringir el acceso de los empleados a modelos de terceros como Chatgpt, evitando así fugas de datos de clientes.

En el mundo de la IA generativa, el próximo desafío es identificar el origen de los modelos que produjeron el texto y su texto a través de un campo conocido como atribución. Los investigadores de IBM han desarrollado un clasificador de pares coincidentes para comparar las respuestas y revelar los modelos relacionados. La atribución automatizada de IA mediante el aprendizaje automático ha ayudado a los investigadores a identificar el origen de un modelo específico y muchos otros. Estas herramientas ayudan a rastrear la base del modelo y comprender su comportamiento.

IBM ha sido un defensor a largo plazo de la IA explicativa y confiable. Introdujeron el conjunto de herramientas AI Fairness 360, que incorpora mitigación de sesgos y explicabilidad en sus productos. Y ahora, con el lanzamiento de Watsonx.governance en noviembre, están mejorando la transparencia en los flujos de trabajo de IA. IBM está decidido en su misión de proporcionar herramientas de transparencia accesibles para todos.