Microsoft ha tomado una decisión trascendental al prohibir el uso de la inteligencia artificial desarrollada por OpenAI por parte de la policía de Estados Unidos. Esta medida, que busca limitar el potencial de abuso de estas tecnologías, marca un antes y un después en el debate sobre ética y tecnología. La compañía tecnológica ha optado por poner un alto a la utilización de herramientas avanzadas basadas en IA en contextos donde se puedan violar los derechos humanos o amenazar la privacidad de las personas. Esta decisión sin duda generará conversaciones profundas en la industria tecnológica y en la sociedad en general.
Microsoft veta uso de IA de OpenAI por policía de EE UU en reconocimiento facial
Microsoft prohíbe que la policía de Estados Unidos utilice la inteligencia artificial (IA) generativa de OpenAI. La compañía de Redmond actualizó el 'Código de Conducta de Azure OpenAI Service' para limitar el acceso a las herramientas de la compañía de Sam Altman, de esta manera, impide que cualquier departamento de policía tenga acceso a la IA de OpenAI para emplear los modelos de análisis de texto, voz y reconocimiento facial.
Según Microsoft, los integraciones con Azure OpenAI Service no deben utilizarse para cualquier tecnología de reconocimiento facial en tiempo real en cámaras móviles utilizadas por cualquier organismo policial, a nivel mundial, para intentar identificar a una persona en entornos no controlados y en la naturaleza. Es decir, ningún policía podrá utilizar modelos de inteligencia artificial para identificar a personas que se encuentren en una base de datos de sospechosos, además, tampoco emplearán dicha tecnología para realizar vigilancias continuas o seguimientos persistentes de cualquier usuario a través de la información personal o datos biométricos.
Microsoft restringe a la policía de EE UU acceso a IA generativa de OpenAI
Por otro lado, de acuerdo con las políticas de Microsoft, Azure con OpenAI restringe la identificación o verificación de identidades individuales mediante medios que contengan rostros de personas por parte de cualquier usuario, incluida la policía estatal o local de Estados Unidos. Asimismo, tampoco está permitido realizar análisis faciales para deducir el estado emocional, género o edad de una persona.
Estos cambios se producen una semana después de que Axon, fabricante de productos tecnológicos y de armas para militares y fuerzas del orden, anunciara un nuevo dispositivo que emplea el modelo de texto generativo GPT-4 de OpenAI para resumir el audio de las cámaras corporales. Según el diario TechCrunch, los críticos se apresuraron a señalar los peligros potenciales, como las alucinaciones y los prejuicios raciales introducidos a partir de los datos de entrenamiento.
Deja una respuesta