Nuevas reglas de Microsoft prohíben el uso de inteligencia artificial para el reconocimiento facial por parte de las fuerzas del orden

Microsoft ha seguido manteniéndose firme en su postura contra la aplicación de la ley con su servicio de reconocimiento facial de inteligencia artificial (IA) generativa Azure OpenAI, uniéndose a otros gigantes tecnológicos como Amazon e IBM en decisiones similares.

Gigante tecnológico con sede en Washington Los términos de servicio han sido modificados. de su oferta Azure OpenAI prohíbe explícitamente el uso “por o para” los departamentos de policía del reconocimiento facial en los Estados Unidos.

Ahora también está expresamente prohibido el uso de “tecnología de reconocimiento facial en tiempo real en las cámaras de los teléfonos móviles utilizadas por cualquier organismo encargado de hacer cumplir la ley a nivel mundial para intentar identificar a un individuo”. [sic] En entornos “salvajes” sin supervisión, que incluyen (entre otros) agentes de policía que patrullan utilizando cámaras corporales o montadas en el tablero y que utilizan tecnología de reconocimiento facial para intentar identificar a personas en una base de datos de sospechosos o ex prisioneros.

Desde entonces, la empresa afirmó que el cambio original a los términos de servicio contenía un error. Ellos dijeron TechCrunch La prohibición sólo se aplica al reconocimiento facial en los Estados Unidos, en lugar de una prohibición total a los departamentos de policía que utilizan el servicio.

¿Por qué Microsoft prohibió el reconocimiento facial a través de su servicio de IA generativa?

Esta actualización de los términos de servicio de Azure OpenAI de Microsoft se realizó solo una semana después de que Axon, una empresa de tecnología militar y de armas, anunciara una herramienta creada con GPT-4 de OpenAI para resumir el audio de la cámara corporal.

Los trabajos que utilizan IA generativa como este tienen muchos inconvenientes, como la tendencia de estas herramientas a «alucinar» y hacer afirmaciones falsas (OpenAI es actualmente objeto de una queja de privacidad por no corregir datos inexactos de ChatGPT), y el problema es que está rampante. Existe un sesgo racial en el reconocimiento facial debido a datos de entrenamiento racistas (como a finales del año pasado, cuando el reconocimiento facial incorrecto condujo al encarcelamiento falso de un hombre negro inocente).

Estos últimos cambios refuerzan una posición que Microsoft ha mantenido durante varios años. En 2020, durante las protestas de Black Lives Matter, Hablando con el Washington PostEl presidente de Microsoft, Brad Smith, dijo: «No venderemos tecnología de reconocimiento facial a los departamentos de policía de Estados Unidos hasta que tengamos una ley nacional, basada en los derechos humanos, que regule esta tecnología».

La actual ola de protestas en todo el mundo por el genocidio de los palestinos en Gaza ha llevado a un compromiso renovado de proteger los derechos humanos por parte de las empresas de tecnología, y en la prensa aparecen temas de brutalidad policial hacia los manifestantes.

Crédito de la imagen destacada: Creado con Ideogram

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *