Los conflictos de agendas dificultan los esfuerzos de moderación de contenido en línea.
Conflictos de agendas dificultan moderación en línea.
.fav_bar { float:left; border:1px solid #a7b1b5; margin-top:10px; margin-bottom:20px; } .fav_bar span.fav_bar-label { text-align:center; padding:8px 0px 0px 0px; float:left; margin-left:-1px; border-right:1px dotted #a7b1b5; border-left:1px solid #a7b1b5; display:block; width:69px; height:24px; color:#6e7476; font-weight:bold; font-size:12px; text-transform:uppercase; font-family:Arial, Helvetica, sans-serif; } .fav_bar a, #plus-one { float:left; border-right:1px dotted #a7b1b5; display:block; width:36px; height:32px; text-indent:-9999px; } .fav_bar a.fav_de { background: url(../images/icons/de.gif) no-repeat 0 0 #fff } .fav_bar a.fav_de:hover { background: url(../images/icons/de.gif) no-repeat 0 0 #e6e9ea } .fav_bar a.fav_acm_digital { background:url(‘../images/icons/acm_digital_library.gif’) no-repeat 0px 0px #FFF; } .fav_bar a.fav_acm_digital:hover { background:url(‘../images/icons/acm_digital_library.gif’) no-repeat 0px 0px #e6e9ea; } .fav_bar a.fav_pdf { background:url(‘../images/icons/pdf.gif’) no-repeat 0px 0px #FFF; } .fav_bar a.fav_pdf:hover { background:url(‘../images/icons/pdf.gif’) no-repeat 0px 0px #e6e9ea; } .fav_bar a.fav_more .at-icon-wrapper{ height: 33px !important ; width: 35px !important; padding: 0 !important; border-right: none !important; } .a2a_kit { line-height: 24px !important; width: unset !important; height: unset !important; padding: 0 !important; border-right: unset !important; border-left: unset !important; } .fav_bar .a2a_kit a .a2a_svg { margin-left: 7px; margin-top: 4px; padding: unset !important; }

El entorno disputado que rodea lo que constituye una expresión legítima y lo que constituye información errónea y desinformación en Internet podría volverse aún más complicado a finales de este mes.
A partir de mañana (25 de agosto), entra en vigencia una parte de la Ley de Servicios Digitales (DSA) de la Unión Europea que afecta a lo que la UE denomina “Plataformas en Línea Muy Grandes” y “Motores de Búsqueda en Línea Muy Grandes”.
En una declaración del 25 de abril que señalaba las 19 plataformas que cumplían con la definición de “muy grandes” de la UE, con más de 45 millones de usuarios activos mensuales en la UE, Thierry Breton, comisario de Mercado Interior de la UE, dejó en claro las nuevas responsabilidades que enfrentarán los gigantes en línea.
“Cuatro meses después de la designación de hoy, no podrán actuar como si fueran ‘demasiado grandes para preocuparse'”, dijo Breton. “Consideramos que estas 19 plataformas en línea y motores de búsqueda se han vuelto sistemáticamente relevantes y tienen responsabilidades especiales para hacer de Internet un espacio seguro y confiable.”
- Hacer borroso la pantalla de tu teléfono podría detener el espionaje
- Dispositivo de seguimiento de pastillas de un adolescente atrae int...
- Cómo los médicos están utilizando la IA para transformar sus prácticas
Breton describió cuatro puntos que las plataformas deberán cumplir según las estipulaciones de la DSA. El tercero de esos puntos guía aborda específicamente la propagación de información errónea y desinformación en línea:
“Limitar la propagación de contenido ilegal, combatir la desinformación y proteger la libertad de expresión ya no será solo una responsabilidad cívica, sino una obligación legal”, dijo Breton. “Las plataformas en línea y los motores de búsqueda muy grandes estarán obligados a adaptar su sistema de recomendaciones para prevenir la amplificación algorítmica de la desinformación. No puedo enfatizar lo suficiente la importancia de este punto, como lo demuestran los eventos actuales. Los actores malintencionados están aprovechando activamente las plataformas en línea para distorsionar el entorno de información.”
Bajo condiciones ideales, entonces, se podría suponer que los proveedores de contenido en línea en todo el mundo podrían tener en cuenta los intentos de los responsables políticos de frenar la desinformación.
“Parece razonable que una vez que las empresas hayan identificado un área específica en la que existan grandes cantidades de desinformación, deberían poder actuar de manera responsable y consistente para evitar ese tipo de contenido”, dijo Philip Howard, director del Programa de Democracia y Tecnología de la Universidad de Oxford, en una entrevista con Communications. Howard también es cofundador y presidente del Panel Internacional sobre el Entorno de la Información (IPIE), un esfuerzo multidisciplinario global de más de 200 científicos lanzado en mayo con el objetivo de aportar rigor científico en la detección de falsedades en línea.
Lamentablemente, las condiciones no son ideales. Mientras que la fecha límite de la Unión Europea se acerca cada vez más, un grupo de legisladores estadounidenses está tratando de orientar la política nacional en la dirección opuesta, hacia un entorno de “todo vale”. El Comité Judicial de la Cámara de Representantes, presidido por Jim Jordan (R-OH), no solo ha apuntado a la administración demócrata del presidente Joseph Biden, sino que también ha dirigido sus esfuerzos hacia los investigadores, a quienes Jordan y sus colegas republicanos acusan de colaborar con funcionarios de la administración Biden para censurar la libertad de expresión protegida por la Constitución. Este esfuerzo ha incluido citaciones y cartas a investigadores de la Universidad de Stanford, la Universidad de Washington y otras instituciones, así como un proyecto de ley recientemente presentado por sus patrocinadores y denominado “Ley de Protección de la Libertad de Expresión”. Entre las disposiciones de la ley se encuentra una que prohíbe que cualquier investigador que reciba una subvención de una agencia del poder ejecutivo designe “a cualquier creador de contenido informativo, independientemente de su veracidad, como fuente de desinformación” durante el período de financiamiento.
El comité también ha perseguido constantemente a las plataformas de redes sociales con cartas y citaciones exigiendo información sobre las afirmaciones de que están colaborando con la administración Biden para censurar la libertad de expresión. El comité no respondió a una solicitud de comentarios de Communications.
Samuel Woolley, investigador de la Universidad de Texas y director de proyectos de investigación sobre propaganda en el Centro de Participación de Medios de la universidad, dijo a Communications que esta fragmentación de la política crea un “juego de ‘Whack-a-Mole’, tratando de atender a un conjunto de políticas o regulaciones mientras se intenta escuchar miles de otras cosas y eso es bastante imposible. Por eso vemos que surgen el IPIE y otros grupos similares, intentando crear cierta cohesión y una mirada sistemática sobre cómo podemos generar políticas internacionales que realmente aborden estos problemas a nivel de Internet en múltiples plataformas”.
Sin embargo, dado que en Estados Unidos, una reciente decisión de la Corte Suprema ha confirmado la inmunidad de las plataformas sociales frente a la responsabilidad por el contenido que publican sus usuarios según la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996, se desconoce la probabilidad de que las plataformas creen una plantilla global coherente para combatir la desinformación. Ni Google ni Meta, la empresa matriz de Facebook, respondieron a las solicitudes de comentarios sobre sus estrategias de moderación de contenido global después de que entre en vigor la DSA.
Sin embargo, tanto Howard como Woolley son optimistas de que el marco legalmente vinculante para que los “investigadores acreditados” realicen análisis de contenido en la DSA ofrecerá una oportunidad para reducir los esfuerzos concertados de influir en la opinión pública utilizando información falsa.
“Calificar su propia tarea”
Howard dijo que el IPIE no tiene la intención de examinar minuciosamente el contenido en línea y abordar lo que él llamó “la pregunta política de ‘p’ pequeña” sobre qué es la verdad.
“Desafortunadamente, no creo que el IPIE pueda ayudar con esa parte. No se puede pedir a un grupo de científicos que validen afirmaciones de verdad en un mensaje de Twitter. Lo que se puede hacer es que un grupo de científicos e ingenieros evalúe si alguien está interfiriendo con la infraestructura “, como la proliferación de miles de cuentas falsas que afirman que un evento como un tiroteo escolar nunca ocurrió.
La organización ya ha publicado tres informes sobre el estado de la desinformación en línea y también ha abordado lo que considera el estado aún incipiente de la investigación rigurosa sobre el tema.
Por ejemplo, en el tercer informe, los autores del IPIE encontraron que de 4,798 publicaciones en revistas científicas revisadas por pares, solo 588 eran empíricas y trabajaban con evidencia sobre contramedidas contra la desinformación. De ellas, solo 18 probaron las contramedidas de manera que permitiera la agregación de conocimiento, y la traducción de los datos estudiados en conocimientos prácticos es rara.
“Desafortunadamente, relativamente pocas publicaciones de investigación prueban contramedidas específicas que proponen utilizando datos del mundo real”, concluye el informe. “Algunas de las soluciones ofrecidas en la literatura son demasiado amplias para orientar la política”.
Sin embargo, la nueva disponibilidad de datos del mundo real de las plataformas muy grandes según lo establecido en la DSA puede ser justo el catalizador necesario para una nueva era de investigación rigurosa que impulse las políticas.
“Hasta ahora, me gusta decir que las empresas tecnológicas han estado calificando sus propias tareas”, dijo Howard. “A veces una empresa dirá ‘Hemos mejorado nuestro algoritmo de noticias’ y no hay nadie que pueda decir que no lo hayan hecho o que no haya pruebas de ello. El IPIE asumirá ese papel y será esa organización, aunque es muy probable que durante el primer año o dos, gran parte de lo que digamos sea que no hay evidencia. Debido a que las empresas tecnológicas no comparten datos de manera responsable, es muy difícil para nosotros validar las cosas que dicen”.
Entre las disposiciones del DSA se encuentra la creación de coordinadores de servicios digitales a nivel nacional, encargados de evaluar las solicitudes de acceso a los datos de plataformas muy grandes por parte de investigadores. Los investigadores aprobados están sujetos a diversas condiciones, como la afiliación universitaria, la independencia de intereses comerciales y el cumplimiento de requisitos de confidencialidad y seguridad.
En una publicación de abril, investigadores de la Escuela Hertie con sede en Berlín, una institución de posgrado centrada en la gobernanza, presentaron un prospecto conciso de cómo la cooperación entre coordinadores, investigadores y responsables políticos puede finalmente comenzar a crear algún tipo de consenso para desenmascarar las campañas de desinformación y desinformación sistémicas en Europa.
“Creo que lo que ha estado haciendo la UE ha sido internamente increíblemente lógico”, dijo Joanna Bryson, una de las coautoras del artículo. “Es lo que necesitamos hacer. Se ajusta al estado de derecho y a la declaración de los derechos humanos, y todo es preciso. Pero puede crear un dilema imposible para los proveedores de contenido.”
Howard dijo que la formación del IPIE se inspiró en el trabajo del Panel Intergubernamental sobre el Cambio Climático (IPCC), que también reunió a científicos de muchas disciplinas para abordar una amenaza general para el mundo. El IPCC se formó en 1988 y muchas de sus predicciones parecen confirmarse en eventos climáticos severos y anómalos recientes. Howard dijo que espera que cualquier orientación del IPIE sea aceptada y actuada más rápidamente que las advertencias del IPCC.
“¿Te imaginas otros 30 años en este entorno de información?” dijo. “La vida pública estará destrozada. Creo que necesitaremos movernos mucho más rápido.”
Gregory Goth es un escritor con sede en Oakville, CT, especializado en ciencia y tecnología.