Durante el Google I/O 2017, el evento de desarrolladores de Google, pudimos ver algunos experimentos en los cuales los desarrolladores están integrando la tecnología de machine learning en la que trabaja la compañía.
Este avance permite que la misma tecnología aprenda de la experiencia y pueda, posteriormente, ofrecer resultados a los usuarios basados en conocimientos previos. Un experimento sencillo es el desarrollado por Eric Rosenbaum y Yotam Mann, con el cual es posible hacer música con el computador simplemente tomando una imagen.
El sistema usa reconocimiento de imágenes para etiquetar lo que ve y luego convierte esas etiquetas en letras de una canción. El uso de machine learning, precisamente en la aplicación de fotos de Google, le permite a la compañía mostrar resultados mucho más precisos cuando la gente realiza las búsquedas.
Si una persona busca la palabra ‘gato’, es posible que el buscador le muestre resultados de imágenes de gatos, los cuales se muestran allí solo porque reconocen la forma o la figura del gato. Este experimento se puede encontrar en este link.
Otras aplicaciones de machine learning en Android
Durante la conferencia para desarrolladores Google también nos mostró cómo está aplicando el machine learning en los smartphones. Uno de ellos es Google Lens, sistema que le permitirá a los usuarios interactuar con los objetos que ven. Por medio de la cámara del celular, Google Lens entiende la información de lo que está enfrente del lente. Luego lo proceso y le brinda mejores resultados a los usuarios de iPhone, Pixel y Google Fotos.
En cuanto a Google Fotos, en el I/O 2017 presentó la función Suggested Sharing. Esta le permitirá al usuario conocer cuál es la mejor foto y a quién puede ser enviada. Las condiciones de luz, el enfoque de los objetos y otros elementos, son los que tiene en cuenta Google Fotos para sugerir la foto.
Imagen: ENTER.CO