Microsoft está retirando el acceso público de varias de herramientas de análisis facial. La compañía, que había lanzado en 2015 una que aseguraba ser capaz de reconocer las emociones de cualquier usuario, asegura, de acuerdo a The Verge, que la decisión se tomó luego de que se hiciera “una revisión más amplia” de las políticas de ética de IA de la misma empresa, las cuales determinan los requisitos que debe cumplir la organización para ofrecer públicamente ciertas herramientas con inteligencia artificial aplicada.
La empresa tecnológica anunció la medida en la tarde de este martes, al mismo tiempo que hizo pública en su página web dicha normatividad. De acuerdo a Microsoft, si bien es cierto que varios desarrollos se eliminarán por completo, no todas las herramientas que funcionan con algoritmos de reconocimiento facial se retirarán del mercado. Algunas funciones como Azure Face permanecerán disponibles al público de forma limitada, y otras, como aquellas cuya única funcionalidad es detectar rostros en imágenes y videos para desenfocarlos y proteger su privacidad, se mantendrán abiertas.
En el caso de desarrollos como Azure Face, el acceso del público será limitado. Esto quiere decir que los usuarios y empresas que requieran hacer uso de esa herramienta, deberán realizar primero una solicitud en donde se explique a la empresa la forma en que la utilizarán y con cuál fin.
La polémica detrás del uso de sistemas de reconocimiento facial de Microsoft y otras tecnológicas
Al rededor del uso de la inteligencia artificial para desarrollar sistemas de reconocimiento facial, existe todo un debate en donde voces expertas cuestionan no solo la efectividad real de ese tipo de herramientas, sino su propia necesidad y las razones éticas detrás de su implementación. Por esta razón dentro de la política ética de Microsoft existe un punto en donde la empresa se compromete a desarrollar dichos sistemas de forma supervisada, si lo que busca es ofrecerlos públicamente.
La compañía fundada por Bill Gates no es la única que ha debido dar un paso atrás respecto a sus herramientas de detección facial. En noviembre de 2021, un tribunal en EE.UU cuestionó a Facebook sobre la legalidad del uso de sus propios algoritmos, después de que un grupo de usuarios demandaran a Meta por su tecnología de etiquetado en la red social.
A la empresa de Mark Zuckerberg se la acusó entonces de violar las leyes de privacidad biométrica del estado de Illinois, lo que obligó a Meta a pagar $US 650 millones a los afectados y a limitar el uso de reconocimiento facial a un conjunto de casos específicos.
Imágenes: Archivo