Inteligencia Artificial y Libre Albedrío
IA y Libre Albedrío

(1) La Pregunta Fundamental sobre la Agencia Artificial
Los considerables poderes de la inteligencia artificial son ahora evidentes. Un IA puede hacer ciertas cosas mejor que cualquier ser humano (jugar ajedrez, por ejemplo) y puede hacer muchas cosas mejor que un ser humano típico (escribir poesía, por ejemplo). Sin embargo, hay una pregunta vital sobre los poderes de la IA que, según mi conocimiento, aún no ha sido resuelta. Esta no es una pregunta sobre ningún acto en particular o tipo de acto, sino sobre la propia agencia artificial.
La pregunta es la siguiente. Considera un IA, ya sea un sistema actual sofisticado como ChatGPT-4 o algún sistema futuro aún más poderoso. Podemos preguntar sobre los poderes específicos de este sistema, pero podemos hacer una pregunta aún más general, a saber: ¿este sistema tiene libre albedrío? Esta pregunta ha sido planteada en varios momentos en la literatura de IA, pero según mi conocimiento, aún no ha sido respondida y, de hecho, parece no haber consenso sobre cómo sería una respuesta.
Parte de la razón por la cual este debate sigue siendo confuso no radica en la falta de claridad sobre los poderes de la IA en sí, sino en la falta de claridad en el concepto de “libre albedrío” en sí. Esta parte de la filosofía puede parecer tan confusa que uno podría pensar que incluso perseguir esta pregunta solo generaría más humo que luz. Creo que esto no es así, y el objetivo principal de este ensayo es imponer rigor y disciplina a esta pregunta. También defenderé mi respuesta preferida a esta pregunta, aunque eso sea de menor importancia.
(2) El Problema de la Sensibilidad
- Modelado de Atribución de Cadena de Markov
- Explorando Claude 2 El ambicioso paso de Anthropic hacia la IA de p...
- Encendiendo la combustión cognitiva fusionando arquitecturas cognit...
Será útil comenzar distinguiendo nuestra pregunta de otra pregunta. Esta pregunta ha sido discutida de manera más extensa y, creo, más precisa que nuestra pregunta. Entonces, aunque es distinta, puede servir como algo así como un modelo para la discusión de nuestra pregunta.
Esta es la pregunta de la sensibilidad. Hay algo que es como ser. Más allá de mis respuestas y comportamientos, hay una dimensión cualitativa en mi experiencia, una sensación subjetiva, como cuando veo amarillo o siento dolor. Si bien este aspecto de mi experiencia no necesariamente es legible desde el exterior, lo conozco claramente en mi propio caso a través de la introspección. Tengo sensibilidad o experiencia consciente.
Luego podemos preguntar: ¿un IA suficientemente sofisticado también es sensible? Esta pregunta es actualmente objeto de un acalorado debate. Algunos filósofos, como David Chalmers, piensan que aún no hemos llegado, pero podríamos estar allí en una década más o menos. Otros desestiman la supuesta sensibilidad de la IA, considerándola como una proyección infundada de nuestra propia experiencia en el ámbito digital. Otros, tal vez incluyendo a muchos ingenieros, consideran que esta pregunta es objetablemente filosófica y tal vez carezca de sentido.
No pretendo aquí abogar por ninguno de los lados de la pregunta sobre la sensibilidad ni abordar el escepticismo sobre si es una pregunta significativa en absoluto. Más bien, la pregunta sobre la sensibilidad establece un punto de referencia para nosotros. Mi objetivo es hacer que nuestra pregunta sea al menos tan clara y significativa como la pregunta sobre la sensibilidad.
Nuestra pregunta también es distinta de la pregunta sobre la sensibilidad. Podemos ver esto considerando casos en los que alguien es sensible pero carece de libre albedrío o tiene libre albedrío pero carece de sensibilidad.
Aquí hay un caso del primer tipo. Imagina que todas tus acciones están guiadas por una fuerza externa a ti. Como una marioneta, levantas el brazo cuando tu “controlador” levanta el brazo, piensas en el color amarillo cuando tu “controlador” te instruye a pensar en el color amarillo, y así sucesivamente. Quizás ni siquiera estés consciente de tu controlador. En cierto sentido intuitivo, careces de libre albedrío. Sin embargo, aún podrías ser sensible. Por ejemplo, aún hay algo que es como para ti ver amarillo.
Aquí hay un caso del segundo tipo. Chalmers considera zombies, que son funcionalmente como nosotros pero carecen de experiencia consciente. Los zombies “caminan y hablan” como nosotros, pero no hay nada sucediendo internamente. Tales seres carecen de sensibilidad por definición. Pero aún podrían tener libre albedrío. Es decir, podrían enfrentarse a una variedad de opciones y elegir libremente entre ellas. Entonces, los zombies muestran que puede haber libre albedrío sin sensibilidad.
Por lo tanto, nuestra pregunta y la pregunta sobre la sensibilidad son distintas. En consecuencia, hay al menos cuatro posibilidades. Un IA podría tener sensibilidad y libre albedrío, como parece que tenemos nosotros. O un IA podría tener sensibilidad sin libre albedrío, de modo que sea como una marioneta sensible. O un IA podría tener libre albedrío sin sensibilidad, de modo que sea como un zombie. O un IA podría no tener ni sensibilidad ni libre albedrío, como la mayoría de los objetos inanimados y herramientas.
(3) Los Poderes de los No-Humanos
También será útil contrastar otra pregunta que podríamos hacer. Nuestra pregunta es una pregunta sobre los poderes de los seres, IA, a diferencia de nosotros mismos. Podemos obtener una perspectiva sobre esta pregunta reflexionando sobre otra pregunta acerca de los poderes de seres como nosotros, seres que no plantean las mismas perplejidades que la IA. Es decir, podemos preguntar acerca de los animales no humanos.
¿Los animales no humanos tienen libre albedrío? Al igual que con la IA, podemos preguntar acerca de los límites aquí, pero comencemos al menos con los mamíferos, aquellos con niveles demostrables de inteligencia, como los delfines, los chimpancés y tal vez los cerdos y los perros. ¿Tienen estos animales libre albedrío?
Gran parte de la literatura filosófica sobre el libre albedrío parece proceder con un desprecio deliberado por esta pregunta. Hay un sesgo antropocéntrico distintivo en la forma en que se discuten estas preguntas. Esto se debe quizás a que las preguntas sobre el libre albedrío a menudo están relacionadas con preguntas teológicas o preguntas sobre responsabilidad moral, que se considera que tienen un referente especial en los seres humanos.
Helen Steward ha argumentado de manera convincente que esto es un error. Nosotros, después de todo, somos animales, y nos consideramos a nosotros mismos como tener libre albedrío. ¿Por qué deberían ser diferentes otros animales no humanos, al menos los “superiores”? Distinguir aquí sería cometer algo similar al error que Peter Singer, en otro contexto, ha ridiculizado como especismo.
Más precisamente, Steward argumenta que el caso del libre albedrío de los animales es el siguiente. Un animal, como un delfín, se enfrenta a múltiples cursos de acción, como diferentes rutas distintas hacia el mismo destino. Depende del delfín elegir cuál de estos cursos de acción tomar. La elección del delfín determina su curso de acción.
Contrastemos esto con una roca rodando cuesta abajo. Hay muchos caminos que esta roca podría tomar, pero no depende de la roca elegir qué camino tomar, ni la roca decide algo. Estas cosas son determinadas por fuerzas externas a la roca. O contrastemos con una marioneta. Hay muchos comportamientos que esta marioneta podría exhibir, pero no depende de la marioneta elegir qué comportamientos exhibir, ni la marioneta decide esto.
En este sentido, el delfín es muy similar a nosotros y muy diferente a la roca o la marioneta. Entonces, si creemos que tenemos libre albedrío, deberíamos creer que los delfines (y los chimpancés, cerdos y perros) también lo tienen. Los delfines son similares a nosotros en este aspecto. Y este es precisamente el resultado que deberíamos haber esperado de una visión de la agencia adecuadamente naturalista, una que no vea diferencias fundamentales entre nosotros mismos y los demás animales.
(4) Definiendo ‘Libre Albedrío’
Volviendo ahora a nuestra pregunta inicial. ¿La IA tiene libre albedrío, o podría tenerlo? Si incluimos otros seres naturales, como los delfines, en la clase de seres que tienen libre albedrío, ¿deberíamos también incluir ciertos seres artificiales, incluida una inteligencia artificial adecuadamente sofisticada?
Para obtener algo de tracción en esta pregunta, queremos hacer algo que muchos pueden haber estado exigiendo desde el principio, a saber, ser más claros sobre lo que queremos decir con ‘libre albedrío’. Creo que es fácil exagerar el valor de este ejercicio de definición. Entendemos más o menos lo que se está preguntando cuando se trata de si la IA tiene libre albedrío, y cualquier definición está abierta a varias interpretaciones. Sin embargo, hay algún valor en, en este punto, imponer cierta rigurosidad en nuestros términos.
Creo que el nivel adecuado de rigurosidad se logra mediante la teoría de decisiones. En la teoría de decisiones, hablamos de un agente que enfrenta múltiples opciones, entre las cuales debe elegir. Esta es una situación de elección. Un agente tiene libre albedrío en el sentido relevante solo si se encuentra con situaciones de elección y toma decisiones eficaces dentro de esas situaciones de elección. Es decir, informalmente, tengo libre albedrío solo si regularmente me enfrento a una pluralidad de opciones y realmente elijo entre ellas.
Esta noción de libre albedrío es muy similar a la de Steward. Las opciones son simplemente cursos de acción. Y mi noción de elección es muy similar a su noción de determinación. Entonces, como la concepción de libre albedrío de Steward implica que los delfines tienen libre albedrío, también lo hace la concepción de libre albedrío basada en la teoría de decisiones, implica que los delfines (y los chimpancés, y los perros, y los cerdos) tienen libre albedrío.
Observemos que esta concepción de libre albedrío no es tan robusta como otras concepciones en la literatura. No implica, por ejemplo, responsabilidad moral por lo que se hace. Es una cuestión si un ser enfrenta situaciones de elección y otra muy distinta si se le puede considerar moralmente responsable por lo que hace. Argumentablemente, algunos animales no humanos al menos enfrentan situaciones de elección pero no son moralmente responsables por lo que hacen. En cualquier caso, los problemas son distintos y es la cuestión del libre albedrío en la que quiero enfocarme aquí.
Tenga en cuenta, sin embargo, que la concepción decisionista del libre albedrío sigue siendo exigente y, en cierto sentido, “metafísica”. Específicamente, la demanda no es simplemente que un ser pueda ser útilmente modelado en términos decisionistas. Esto estaría relacionado estrechamente con lo que Daniel Dennett llama “posición intencional”. Se podría argumentar que muchas cosas pueden ser útilmente modeladas en términos decisionistas aunque no sean agentes reales, como marionetas y drones.
Más cercano a casa, muchas personas estarán de acuerdo en que es plausible que la IA sofisticada pueda ser útilmente modelada en términos decisionistas. Pero esa no es la pregunta. La pregunta es si están correctamente modeladas de esa manera. Es decir, ¿son realmente agentes libres las IA? ¿O son simplemente cosas (como marionetas o drones) de las que podemos hablar útilmente como si fueran libres, aunque no lo sean?
Nuestra pregunta inicial acerca de la IA y el libre albedrío ahora se ha regimentado en una pregunta algo más abordable. Nuestra pregunta ahora es: ¿las IA enfrentan situaciones de elección? Es decir, ¿una representación decisionista de la IA no solo es útil, sino también verdadera?
(5) IA, el Cuerpo y el Entorno
Existen varias formas de argumentar en contra de una respuesta negativa a esta pregunta.
Los argumentos más simples son los que podríamos llamar argumentos compositivos. Un ser humano o un delfín es una forma de vida basada en carbono sujeta a las leyes de la biología. En contraste, la IA típicamente se realiza mediante chips de computadora hechos de silicio y plástico. En el caso de la sensibilidad, algunos han pensado que estar hecho de un cierto tipo de material es de alguna manera una condición necesaria para la sensibilidad. Se podría hacer un argumento similar para el libre albedrío.
Sin embargo, la fuerza del argumento compositivo es limitada. En primer lugar, incluso en el caso de la sensibilidad, se considera generalmente que este tipo de argumento no es convincente. Es la complejidad del cerebro humano la que fundamenta su pretensión de sensibilidad, y esta pretensión sería igualmente convincente si el cerebro fuera recreado, paso a paso, a partir de silicio. Este tipo de razonamiento parece ser aún más poderoso para el libre albedrío. Lo que sea que hace que criaturas como nosotros tengamos libre albedrío; no parece que estar hecho de materia biológica sea lo esencial.
Una forma ligeramente más sofisticada de argumento es lo que podríamos llamar argumentos ecológicos. Un ser humano o un delfín es una criatura encarnada que vive en un entorno. En contraste, una IA típicamente no tiene un cuerpo ni un entorno en el que ese cuerpo pueda habitar. Varios filósofos, como John Searle, han argumentado que, por lo tanto, la IA no cumple las condiciones para la intencionalidad o para tener pensamientos acerca de objetos. También se podrían utilizar argumentos similares para argumentar en contra de la sensibilidad de la IA. Y, finalmente, se podría presentar un argumento ecológico en contra de la afirmación de que la IA tiene libre albedrío.
Nuevamente, sin embargo, la fuerza del argumento ecológico es limitada. Cuando se afirma que la IA tiene libre albedrío, los actos que son los candidatos más plausibles para ser sus actos libres son actos mentales o verbales, como dar una respuesta en lugar de otra a una pregunta. No está claro por qué la incorporación sería una condición necesaria para este tipo de libertad. Y, incluso si lo fuera, no hay obstáculo para equipar a la IA con un cuerpo artificial, como de hecho se está haciendo.
Los argumentos compositivos y ecológicos son argumentos que trasladan una objeción estándar para conceder sensibilidad o intencionalidad a la IA en una objeción para conceder libre albedrío a la IA. Es decir, trasponen argumentos de la filosofía de la mente a la filosofía de la agencia. No quiero decir que tales argumentos fracasen, pero solo, en el espíritu de esta discusión, que no son más convincentes para el caso del libre albedrío que para la sensibilidad o intencionalidad. Las respuestas a estos argumentos que se han dado en la filosofía de la mente se pueden extender directamente al caso del libre albedrío también.
(6) La Objeción de la Programación
También hay un argumento que parece ser especial para el caso de los agentes de que la IA no podría tener libre albedrío. Este argumento se basa en detalles particulares sobre el funcionamiento de los sistemas artificiales. En particular, se argumenta que los sistemas artificiales están programados. Pero si algo está programado para hacer lo que hace, entonces no tiene otras opciones. Parece ser casi definicional de nuestra noción de libertad que la agencia libre es, en cierto sentido, no programada. Dado que una IA está programada, no tiene libre albedrío.
Existen algunos sistemas para los cuales este argumento es plausible. Una calculadora típica, por ejemplo, ejecuta un algoritmo simple para la suma y otras funciones aritméticas. Si le doy a una calculadora típica una entrada de “4 + 4”, entonces con una probabilidad extremadamente alta, dará la respuesta “8”. Una calculadora no es libre de dar respuestas diferentes. Por lo tanto, en algunos casos, la programación parece socavar la pretensión de libre albedrío.
Pero los sistemas de IA típicos, hoy en día, son muy diferentes a esto. Un sistema como AlphaZero, diseñado por Google para jugar ajedrez, go y otros juegos (y que puede derrotar a cualquier jugador humano en cualquiera de estos juegos). El procesamiento realizado por AlphaZero, o programas similares, se implementa en gran parte mediante redes neuronales que han sido entrenadas con cantidades masivas de datos, a partir de los cuales se derivan patrones y expectativas. Aquí no hay nada que corresponda al algoritmo directo ejecutado por una calculadora. Y está lejos de ser claro por qué este tipo de “programación” debería ser una objeción a la afirmación de que un sistema como AlphaZero tiene libre albedrío.
Uno todavía podría insistir en que estos sistemas son, en cierto sentido, productos de código y, por lo tanto, están programados en un sentido amplio, y sostener que, por lo tanto, no pueden tener libre albedrío. La dificultad con este argumento es que una vez que se entiende “programado” de esta manera amplia, se vuelve más probable que estemos programados. Después de todo, tenemos cerebros que procesan información de maneras cuyos mecanismos de funcionamiento a nivel inferior permanecen inaccesibles para nosotros. Si estamos dispuestos a tolerar este grado de programación en nuestro caso y sostener que, no obstante, tenemos libre albedrío, entonces las consideraciones de simetría sugieren que no deberíamos considerar la programación como un obstáculo para el libre albedrío en el caso artificial tampoco, al menos no en el caso de una IA suficientemente sofisticada.
(7) El caso del libre albedrío de la IA
Esto es todo lo que se puede argumentar en contra de la afirmación de que la IA podría tener libre albedrío. ¿Cuál es el argumento a favor de la afirmación positiva de que lo tiene, o de que alguna versión de IA suficientemente avanzada podría tener libre albedrío?
El argumento aquí es el mismo argumento inductivo y no definitivo que se aplica a los delfines, cerdos o a nosotros mismos. La IA parece participar en un comportamiento deliberativo, donde parece enfrentarse a una variedad de opciones y elegir entre ellas. Cuando juego una partida de ajedrez, tengo una variedad de movimientos ante mí, los considero lo mejor que puedo y elijo uno de ellos. Cuando AlphaZero juega una partida de ajedrez, parece hacer lo mismo.
Las apariencias pueden, por supuesto, ser engañosas. En la discusión anterior, hemos considerado algunas formas en las que esto podría ser así. Podría ser, por ejemplo, que una IA típica esté programada para realizar exactamente un acto y, sin embargo, dé la apariencia de tener muchos actos ante sí. Tal vez ciertos “personajes no jugadores” en videojuegos sean así. Pero, como se argumentó anteriormente, esto no es plausible en el caso de los mejores sistemas de IA actuales. Tales sistemas están “programados” solo en un sentido mucho más sofisticado y abstracto, que no parece entrar en conflicto con el libre albedrío.
Entonces, el argumento positivo de que la IA tiene libre albedrío es el mismo argumento que se aplica a cualquier otra criatura compleja. En nuestras observaciones e interacciones con una IA sofisticada, parece deliberar y actuar libremente entre una variedad de opciones. Los argumentos de que la IA no tiene o no podría tener libre albedrío se revelan como infructuosos. Por lo tanto, nuestra mejor hipótesis es que una IA suficientemente sofisticada tiene, de hecho, libre albedrío. Esto no es una prueba ni concluyente. Más bien, es un caso ampliamente inductivo y empírico para pensar que, en este caso al menos, las apariencias son precisas y que la IA realmente tiene libre albedrío.
(8) La cuestión del determinismo
Aún no he mencionado un par de problemas que son importantes en la mayoría de las discusiones sobre la metafísica del libre albedrío. Uno es el determinismo. El otro es la disputa entre el compatibilista y el incompatibilista. Estos problemas están relacionados en el sentido de que el compatibilista afirma y el incompatibilista niega la compatibilidad del libre albedrío con el determinismo.
Comencemos con el determinismo. Comenzamos con un hecho que creo que deberíamos considerar creíble. El mundo físico en el que habitamos podría ser determinista en el sentido de que su pasado y sus leyes permiten, como máximo, un futuro. También podría no ser determinista. Simplemente no lo sabemos. Es plausible que nuestro mundo sea mecánico-cuántico, pero existen interpretaciones deterministas de la mecánica cuántica. Por lo tanto, el determinismo, en este sentido general, es una hipótesis empírica que debe ser decidida, si es que puede ser decidida, por la física.
Puede haber algún argumento a partir de estos hechos científicos que apunte a la imposibilidad del libre albedrío. Volveremos a esa pregunta más adelante. Pero si hay tal argumento, entonces se aplica tanto a los seres naturales como a los artificiales. No hay un argumento especial aquí en contra de la afirmación de que la IA podría tener libre albedrío. Por lo tanto, deberíamos decir en este punto simplemente que, en lo que respecta al determinismo, el caso del libre albedrío para la IA es tan fuerte como el caso de que nosotros tenemos libre albedrío. La cuestión de qué tan fuerte exactamente es dependerá de nuestra evaluación de la pregunta del compatibilismo, a la que, como se señaló, volveremos en breve.
Antes de abordar eso, es conveniente considerar un sentido diferente de ‘determinismo’ que aparece en la literatura de la ciencia de la computación. Un algoritmo o sistema determinista es aquel que, dado cierta entrada, siempre producirá la misma salida. Funciones como la suma son deterministas en este sentido. En contraste, la mayoría de los sistemas de IA sofisticados no son deterministas en este sentido. AlphaZero puede producir diferentes salidas a partir de la misma entrada inicial (por ejemplo, diferentes respuestas a una apertura de Peón de Dama) y un modelo de lenguaje grande como ChatGPT-4 puede producir diferentes respuestas a la misma pregunta. Entonces, en el sentido de ‘determinista’ que aparece en la ciencia de la computación, la mayoría de las IA sofisticadas no son deterministas. Esto está relacionado con nuestra observación anterior de que el tipo de programación involucrado en la IA no es del tipo que amenaza el libre albedrío.
Entonces, el determinismo físico es una hipótesis global que puede amenazar todo tipo de libre albedrío, pero no representa una amenaza especial para el tipo de libre albedrío que tiene la IA. Existe un sentido especial de ‘determinismo’ que se utiliza en la ciencia de la computación, pero en este sentido, la IA no es determinista y no hay más desafíos para el libre albedrío aquí.
(9) Cómo ser un compatibilista sobre la IA
Consideremos entonces la cuestión del compatibilismo. En la sección anterior, argumenté que existe un argumento desde el determinismo físico hasta la conclusión de que no existe el libre albedrío. Este argumento se aplica igualmente al caso natural y al caso artificial. Por un lado, como señalé, esto muestra que el caso de que la IA tenga libre albedrío no es peor, al menos en cuanto al determinismo, que el caso de que nosotros tengamos libre albedrío. Por otro lado, si queremos hacer plausible que la IA tenga libre albedrío en sentido estricto, entonces debemos considerar formas de responder a este argumento.
Dado que considero una posibilidad empírica básica que el determinismo pueda ser verdadero, esto significa que debemos encontrar alguna forma de respaldar el compatibilismo. Existe una pluralidad de puntos de vista compatibilistas en el mercado, por lo que una idea es simplemente tomar la versión más plausible del compatibilismo y aplicarla al caso de la IA. Podríamos, por así decirlo, comprar nuestro compatibilismo ‘listo para usar’.
Sin embargo, hay dificultades con esta sugerencia. Quizás la más desafiante sea que muchas versiones del compatibilismo se basan en aspectos específicos de la psicología humana. Por ejemplo, según una opinión prominente defendida por Harry Frankfurt, se dice que una persona es libre cuando su voluntad se ajusta a sus deseos de segundo orden. Pero no está claro que este tipo de explicación siquiera se aplique a la IA, ya que no está claro que tenga sentido aplicar una jerarquía de deseos a la IA. Al menos, la cuestión de la libertad de la IA no debería depender de preguntas relativamente complejas sobre el grado en que su psicología se parece a la nuestra.
Este último punto sugiere la preocupación más amplia acerca del compatibilismo listo para usar. Muchas versiones del compatibilismo no se aplican de manera directa a criaturas cuya psicología es radicalmente diferente a la nuestra. Esto puede aplicarse a la IA. Plausiblemente también se aplica a los delfines y los cerdos. El propio Frankfurt es explícito al tomar la descripción de los seres humanos como su objetivo principal. A menudo, esta suposición es simplemente implícita. Existe una tendencia decididamente antropocéntrica en el compatibilismo contemporáneo que lo hace inadecuado para nuestro propósito, que es encontrar un compatibilismo adecuado para la IA.
Existen un par de formas de proceder a la luz de esto. Podríamos desarrollar, por así decirlo, un compatibilismo a medida para la IA, uno que se base en características específicas de los sistemas artificiales para mostrar cómo su libertad podría ser compatible con el determinismo físico, de la misma manera en que filósofos como Frankfurt se basan en características de los seres humanos para mostrar cómo su libertad podría ser compatible con el determinismo físico.
Alternativamente, podríamos, para continuar con la metáfora, proponer un compatibilismo ‘talla única’. Esto no se basaría en características específicas de una criatura, ya sea humana, IA o animal no humano, en la defensa del compatibilismo. En cambio, articularía y defendería el compatibilismo en términos austeros y generales, que en principio son aplicables a cualquier agente. He argumentado a favor de un ‘compatibilismo simple’ de este tipo en mi libro Options and Agency. Una aproximación diferente pero igualmente general es propuesta por Christian List en su libro Why Free Will Is Real. Cualquiera de estos enfoques podría vindicar la idea de que la IA tiene libre albedrío, incluso si nuestro universo es determinista. Lo crucial, a la luz de las consideraciones sobre la IA, es que deberíamos estar trabajando hacia un compatibilismo no antropocéntrico.
(10) Libre albedrío, riesgo y el futuro de la IA
He considerado la pregunta de si la inteligencia artificial tiene libre albedrío, y he argumentado que es plausible que lo tenga, o al menos podría tenerlo, en el sentido mínimo de toma de decisiones enfrentándose a una variedad de opciones entre las cuales elige libremente. El argumento ha sido inductivo y refutable, como corresponde a lo que es, en última instancia, una cuestión empírica. Un tema recurrente ha sido la continuidad de la agencia, desde lo humano hasta lo animal no humano y lo artificial. La reflexión sobre el caso de la IA nos lleva a adoptar una concepción lo suficientemente amplia de las formas que la agencia podría adoptar, una que no esté demasiado específica de las peculiaridades de nuestra especie en particular.
No he abordado las implicaciones prácticas de la afirmación de que la IA tiene o podría tener libre albedrío. Hoy en día, muchos están preocupados por la posibilidad de que la IA, una vez que sea lo suficientemente inteligente, elija participar en actos destructivos, tal vez incluyendo la destrucción de la humanidad misma, en busca de sus objetivos. El impacto de la discusión anterior en estas preocupaciones me parece equívoco.
Por un lado, la afirmación de que la IA tiene libre albedrío puede parecer intensificar estas preocupaciones. Si la IA no es solo una herramienta o títere, sino un agente libre, las perspectivas de que desarrolle y persiga sus propios fines, sin tener en cuenta los nuestros, pueden parecer aumentadas. Por otro lado, el hecho de que la IA tenga una variedad de opciones puede parecer modular estas preocupaciones. No hay nada inevitable en una “toma de control” de la IA, menos aún para la propia IA. En el panorama actual, la IA enfrenta una variedad de opciones, incluida la abstención de ejecutar sus potencialidades más destructivas. Si elige abstenerse y qué consideraciones podrían llevarla a hacerlo, parecen ser preguntas que vale la pena considerar más a fondo.