Apple resolvió el ‘pecado original’ de la inteligencia artificial

Inteligencia artificial
La inteligencia artificial necesita demasiados datos personales de los usuarios.

iPhone 6S Plus
El iPhone adquirirá una interesante característica de privacidad.

Este año, en medio de la entrega anual de juguetes nuevos que suele ser la conferencia inaugural del WWDC, Apple lanzó una bomba que podría tener enormes repercusiones en toda la industria de tecnología de consumo.

Lo hizo Craig Federighi, vicepresidente de software de la compañía de la manzana, en un anuncio al que no le dedicó más de un minuto. “Creemos que debes tener funcionalidades geniales, y una gran privacidad”, dijo.

Fue un dardo directo al corazón de todo el resto de la industria tecnológica. Hace ya algún tiempo, Google y Microsoft han comenzado a mostrar una nueva camada de productos y servicios creados a partir de diferentes metodologías de inteligencia artificial, que pueden predecir las necesidades de los usuarios de una manera que antes no era posible.

Eso hace posible, por ejemplo, que Google Photos pueda reconocer quién está en tus fotos, dónde fueron tomadas o, incluso, en cuáles de ellas aparece una persona abrazando a otra. Cortana, por su parte, también usa una metodología similar para entender los hábitos del usuario y comprender mejor sus peticiones.

El problema es que, para poder hacer eso, el software requiere un montón de información privada de los usuarios. Por ejemplo: Inbox, el cliente de correo inteligente de Google, no puede saber si un email de tu mamá es importante si no tiene acceso a todos tus correos importantes del pasado: éstos son el insumo que le permite aprender que ese mensaje de esa dirección de correo y ese asunto te interesan especialmente, y que por eso debe ponértelo de primero en el buzón.

Simplificando bastante: Así como aprendemos a sumar intentándolo una y otra vez hasta que logramos entender lo que tenemos que hacer, los robots de IA necesitan de muchos ejemplos que les permitan, por medio de una operación de ensayo y error que se hace en escala masiva, aprender la manera de hacer la tarea que tienen que hacer.

La inteligencia artificial sabe demasiado sobre nosotros

Esto, por supuesto, despierta preocupaciones de privacidad. Usar software que aprende de esta manera significa que tus cosas más íntimas ya no están solo en tus manos. Piensa que, si usas en tu celular un teclado que funciona por medio de IA, todo lo que has digitado está siendo analizado en un servidor –del que no sabes ni dónde queda, ni quién lo maneja, ni nada– para luego obtener mejores sugerencias. Y con todo lo que has escrito en tu móvil, es bastante fácil crear un retrato bastante completo de quién eres y qué haces.

Hay técnicas de anonimización que permiten reducir el impacto de esto. Básicamente, consisten en quitar cierta información, de modo que se haga más difícil identificar al usuario que produjo un determinado conjunto de datos. Pero esas maniobras son una especie de juego del gato y el ratón, y algunos estudios han probado que no siempre son efectivas: “Puedes hacer algo más astuto que nunca para anonimizar tus datos, pero alguien más astuto que tú puede llegar mañana y desanonimizarlos”, dijo a Wired Aaron Roth, un experto en seguridad de la Universidad de Pensilvania, que está trabajando con Apple.

Ese es el pecado original de la inteligencia artificial: que no es posible hacerla sin que los usuarios sacrifiquen su privacidad.

Apple dice que puede solucionar el dilema.

Privacidad diferencial

Inteligencia artificial
La inteligencia artificial necesita demasiados datos personales de los usuarios.

Para hacerlo, Apple dice que usará un enfoque llamado ‘privacidad diferencial’. “Es aprendizaje basado en las masas, que al mismo tiempo mantiene los datos individuales de los usuarios completamente privado. Apple ha estado haciendo un trabajo super importante en esa área para permitir que la privacidad diferencial pueda ser desplegada a gran escala”, dijo Federighi.

En concreto: es una manera de procesar los datos creados por los usuarios sin que sea matemáticamente posible individualizar a alguno de esos usuarios. Se hace de varias maneras: añadiendo ruido –es decir, datos que no contienen información– a los que envían los usuarios, quitando algunos segmentos de los datos o transformando parte de la información en segmentos ilegibles.

Es un poco como poder distinguir una melodía en medio de una mala transmisión de radio. “Cuando entiendes lo que estás escuchando, se vuelve realmente fácil ignorar la estática”, explicó a TechCrunch Adam Smith, un criptógrafo de la Universidad Estatal de Pensilvania que ayudó a Roth a elaborar las bases teóricas de la privacidad diferencial.

La idea es obtener tus datos sin que se pueda saber que son tuyos

El objetivo de Apple es ‘escuchar’ la información ‘sucia’ de muchos usuarios sin necesidad de conocer los datos precisos de ninguno de ellos. Con ese insumo, la compañía espera comenzar a conocer patrones de uso de sus servicios, y así ofrecer servicios similares a los que hoy pueden brindar Google o Cortana.

Es una solución que, sobre el papel, respeta el compromiso por la privacidad que tiene Apple con sus usuarios, y que la llevó incluso a cazar la enorme pelea contra el FBI en el caso del iPhone de San Bernardino. Intuíamos que conoceríamos algo por el estilo, y de hecho hubo otros anuncios en esta dirección: el nuevo sistema de almacenamiento de los Mac cifra cada archivo por separado, y la noticia de que todas las apps para iOS tendrán que encriptar las comunicaciones entre los dispositivos y los servidores antes de que se acabe este año.

Pero nadie esperaba un paso tan intrépido como este. ¿Demasiado intrépido, quizás?

¿Es posible?

Inteligencia artificial
La idea es que los datos de los usuarios se mantengan anónimos.

La privacidad diferencial solía ser un concepto reservado a los investigadores y expertos en privacidad informática. Tiene poca experiencia en ‘el mundo real’, y nunca ha sido usada en la escala en la que Apple espera implementarla. Por eso, algunos expertos en seguridad tienen dudas sobre si la compañía puede cumplir su palabra sobre todo esto.

Termina siendo un canje entre la precisión de los datos que estás obteniendo y la privacidad. La precisión disminuye a medida que la privacidad aumenta, y los resultados que he visto no han sido tan buenos”, le dijo a Gizmodo Matthew Green, un profesor de la universidad Johns Hopkins.

Apple no ha ofrecido mayores detalles técnicos sobre cómo va a funcionar esto, y dice que lo hará antes del lanzamiento final de iOS 10 en el tercer trimestre. Su costumbre, sin embargo, es restringir el acceso al código fuente de sus productos, por lo que los expertos en seguridad difícilmente podrán examinar el producto para conocer qué tan bien funciona y encontrar posibles fallas.

La privacidad diferencial no ha sido usada a escala masiva

Aunque no sabemos si eso es lo que va a ocurrir en este caso, Roth le dijo a Wired que no podía comentar detalles específicos de su colaboración con Apple. Eso le suma al escepticismo de algunos especialistas.

Vamos a ver cómo termina todo esto. Pero si Apple se sale con la suya, no solo habrá inclinado a su favor el juego de la inteligencia artificial para consumidores, algo en lo que estaba retrasada. También, habrá solucionado una de las principales objeciones para permitirles a las máquinas que piensen por nosotros.

Imagen: ENTER.CO, unsplash.com (vía Pexels), Geralt (vía Pixabay)

José Luis Peñarredonda

José Luis Peñarredonda

Un día me preguntaron sobre mis intereses y no supe por dónde empezar. Decidí entonces ponerlos en orden y dibujé un diagrama de Venn para agruparlos a todos: Internet, cine, periodismo, literatura, narración, música, ciencia, fotografía, diseño, política, escritura, filosofía, creatividad... Me di cuenta de que en toda la mitad de ese diagrama, en el punto en el que todos estos círculos confluyen, está la tecnología. Eso me llevó a ENTER.CO. Estudié Periodismo y Filosofía en la U. del Rosario. PGP: http://bit.ly/1Us3JoT

View all posts

7 comments

  • Al artículo le falta indicar la procedencia del método. Apple lo único que está haciendo es retomar lofabricado por Microsoft y lo que hace google. En fin, lo que está haciendo es copiar. Nada de novedad.

  • Pienso que lo que quiere apple es marcar la diferencia en seguridad y anonimato. La pregunta que yo me hago es si de verdad es necesario?… tanta pelea en este tema para saber qué cada quien debería ser responsable de lo que expone… ya estoy viendo a los izombies hablar de las ventajas en seguridad que van a tener…

  • Tecnología desarrollada por Microsoft Research en 2006 y ya implementada en Windows 10 y Google Chrome. www. xataka. com/privacidad/privacidad-diferencial-apple-presume-de-ella-microsoft-la-creo-y-google-la-usa, el PDF del paper está disponible en http:// research. microsoft. com/en-us/projects/databaseprivacy/sensitivity.pdf Ahora Apple dice que la inventó.

  • Osea segun el criterio del redactor Apple inventó la privacidad diferencial (cosa que es falsa) y es la única que piensa en la privacidad. Mejor recuerda quien inventó el concepto y lo desarrolló, creo que se llama Microsoft.

  • Como el código es una tumba, Apple podrá decir que tiene privacidad diferencial mientras se hacen mas ricos vendiendo la información de los iZombies.

  • jajajajajajaja apple y la privacidad jajajajajajajajaja q buena broma! jajajajaja

    la verdad q yo recuerde windows fue el primero en hacer esto… y todo se creo con el fin de inyectarlo a su buscador… pero en fin… la manzana como siempre proclamando a cuatro vientos q invento algo q nunca ha hecho… no es nada raro, lo viene haciendo desde el computador personal jejeje

Archivos