Investigadores de Microsoft AI expusieron accidentalmente una gran cantidad de datos

Investigadores de Microsoft AI expusieron datos accidentalmente

.fav_bar { float:left; border:1px solid #a7b1b5; margin-top:10px; margin-bottom:20px; } .fav_bar span.fav_bar-label { text-align:center; padding:8px 0px 0px 0px; float:left; margin-left:-1px; border-right:1px dotted #a7b1b5; border-left:1px solid #a7b1b5; display:block; width:69px; height:24px; color:#6e7476; font-weight:bold; font-size:12px; text-transform:uppercase; font-family:Arial, Helvetica, sans-serif; } .fav_bar a, #plus-one { float:left; border-right:1px dotted #a7b1b5; display:block; width:36px; height:32px; text-indent:-9999px; } .fav_bar a.fav_print { background:url(‘/images/icons/print.gif’) no-repeat 0px 0px #FFF; } .fav_bar a.fav_print:hover { background:url(‘/images/icons/print.gif’) no-repeat 0px 0px #e6e9ea; } .fav_bar a.mobile-apps { background:url(‘/images/icons/generic.gif’) no-repeat 13px 7px #FFF; background-size: 10px; } .fav_bar a.mobile-apps:hover { background:url(‘/images/icons/generic.gif’) no-repeat 13px 7px #e6e9ea; background-size: 10px} .fav_bar a.fav_de { background: url(/images/icons/de.gif) no-repeat 0 0 #fff } .fav_bar a.fav_de:hover { background: url(/images/icons/de.gif) no-repeat 0 0 #e6e9ea } .fav_bar a.fav_acm_digital { background:url(‘/images/icons/acm_digital_library.gif’) no-repeat 0px 0px #FFF; } .fav_bar a.fav_acm_digital:hover { background:url(‘/images/icons/acm_digital_library.gif’) no-repeat 0px 0px #e6e9ea; } .fav_bar a.fav_pdf { background:url(‘/images/icons/pdf.gif’) no-repeat 0px 0px #FFF; } .fav_bar a.fav_pdf:hover { background:url(‘/images/icons/pdf.gif’) no-repeat 0px 0px #e6e9ea; } .fav_bar a.fav_more .at-icon-wrapper{ height: 33px !important ; width: 35px !important; padding: 0 !important; border-right: none !important; } .a2a_kit { line-height: 24px !important; width: unset !important; height: unset !important; padding: 0 !important; border-right: unset !important; border-left: unset !important; } .fav_bar .a2a_kit a .a2a_svg { margin-left: 7px; margin-top: 4px; padding: unset !important; }

Un portavoz de Microsoft dijo: “Hemos confirmado que no se expuso ningún dato del cliente y no se pusieron en riesgo otros servicios internos.” ¶ Crédito: David Paul Morris/Bloomberg

Científicos de la compañía de seguridad en la nube Wiz descubrieron que los investigadores de inteligencia artificial (IA) de Microsoft comprometieron accidentalmente una gran colección de datos privados mientras publicaban datos de entrenamiento de código abierto en la plataforma de software GitHub.

Los investigadores de Wiz bloguearon que se instaba a los usuarios de GitHub a descargar modelos de IA desde una URL de almacenamiento en la nube mal configurada que otorgaba permisos en toda la cuenta de almacenamiento, incluyendo permisos de control total en lugar de solo lectura.

Wiz dijo que los datos expuestos incluían copias de seguridad de computadoras personales de empleados de Microsoft, incluidas contraseñas de servicios de Microsoft, claves secretas y más de 30,000 mensajes internos de Microsoft Teams de 359 trabajadores.

Ami Luttwak de Wiz dijo que Microsoft actuó rápidamente para eliminar los datos después de que Wiz compartiera sus hallazgos con la compañía en junio. De Bloomberg Ver Artículo Completo: Puede Requerir Suscripción Paga

Derechos de autor de los resúmenes © 2023 SmithBucklin, Washington, D.C., EE.UU.