La nueva iniciativa de OpenAI Guiar la IA superinteligente en la dirección correcta

OpenAI guía la IA superinteligente en la dirección correcta

OpenAI, un actor destacado en el campo de la inteligencia artificial, ha anunciado recientemente la formación de un equipo dedicado a gestionar los riesgos asociados con la IA superinteligente. Esta decisión se produce en un momento en el que los gobiernos de todo el mundo están debatiendo cómo regular las tecnologías emergentes de IA.

Comprender la IA superinteligente

La IA superinteligente se refiere a modelos hipotéticos de IA que superan a los humanos más dotados e inteligentes en múltiples áreas de conocimiento, no solo en un solo dominio como algunos modelos de generaciones anteriores. OpenAI predice que tal modelo podría surgir antes de finales de la década. La organización cree que la superinteligencia podría ser la tecnología más impactante que la humanidad haya inventado, potencialmente ayudándonos a resolver muchos de los problemas más apremiantes del mundo. Sin embargo, el vasto poder de la superinteligencia también podría plantear riesgos significativos, incluida la posible desempoderación de la humanidad o incluso la extinción humana.

Equipo de Superalineación de OpenAI

Para abordar estas preocupaciones, OpenAI ha formado un nuevo equipo de “Superalineación”, copresidido por el científico jefe de OpenAI, Ilya Sutskever, y Jan Leike, jefe de alineación del laboratorio de investigación. El equipo tendrá acceso al 20% de la potencia informática que OpenAI ha asegurado actualmente. Su objetivo es desarrollar un investigador de alineación automatizado, un sistema que podría ayudar a OpenAI a garantizar que una superinteligencia sea segura de usar y esté alineada con los valores humanos.

Aunque OpenAI reconoce que este es un objetivo increíblemente ambicioso y que el éxito no está garantizado, la organización se mantiene optimista. Los experimentos preliminares han mostrado promesa y se dispone de métricas cada vez más útiles para medir el progreso. Además, los modelos actuales se pueden utilizar para estudiar muchos de estos problemas de manera empírica.

La necesidad de regulación

La formación del equipo de Superalineación se produce en un momento en el que los gobiernos de todo el mundo están considerando cómo regular la incipiente industria de la IA. El CEO de OpenAI, Sam Altman, se ha reunido con al menos 100 legisladores federales en los últimos meses. Altman ha afirmado públicamente que la regulación de la IA es “esencial” y que OpenAI está “ansioso” por colaborar con los responsables políticos.

Sin embargo, es importante abordar tales afirmaciones con un grado de escepticismo. Al centrar la atención pública en riesgos hipotéticos que pueden no materializarse nunca, organizaciones como OpenAI podrían potencialmente trasladar la carga de la regulación al futuro, en lugar de abordar los problemas inmediatos relacionados con la IA y el trabajo, la desinformación y los derechos de autor que los responsables políticos necesitan abordar hoy en día.

La iniciativa de OpenAI de formar un equipo dedicado a gestionar los riesgos de la IA superinteligente es un paso significativo en la dirección correcta. Subraya la importancia de medidas proactivas para abordar los desafíos potenciales planteados por la IA avanzada. A medida que continuamos navegando por las complejidades del desarrollo y la regulación de la IA, iniciativas como esta sirven como un recordatorio de la necesidad de un enfoque equilibrado, uno que aproveche el potencial de la IA al tiempo que se protege contra sus riesgos.