Meta lanzó este miércoles una inteligencia artificial llamada SAM que permite identificar y seleccionar objetos en una imagen. Lo que haría esta tecnología, sería distinguir qué píxeles de imagen pertenecen a un objeto.
El departamento de investigación del gigante tecnológico, señaló que el objetivo de su modelo bautizado, Segment Anything Model (SAM), es “democratizar la segmentación”, y explicó que este es el conjunto de datos más grande hasta la fecha, para permitir un amplio conjunto de aplicaciones y fomentar una mayor investigación sobre los modelos básicos para la visión por computadora.
Con SAM, los objetos se pueden seleccionar haciendo clic en ellos o escribiendo indicaciones de texto. En una demostración, al escribir la palabra “gato”, la herramienta dibujó cuadros alrededor de varios gatos en una foto, por elemplo.
El nuevo modelo, según Meta, ha aprendido “una noción general de lo que son los objetos y puede generar máscaras para cualquier objeto en cualquier imagen o video, incluso incluyendo objetos y tipos de imágenes que no haya encontrado durante el entrenamiento”.
¿Cómo podría usarse?
La investigación reseña que SAM podría usarse para ayudar a impulsar aplicaciones en numerosos dominios que requieren encontrar y segmentar cualquier objeto en cualquier imagen.
Asimismo, para los investigadores dicen que el modelo se convertería “en un componente de sistemas de IA más grandes para una comprensión multimodal más general del mundo, por ejemplo, la comprensión del contenido visual y de texto de una página web”.
La compañía explica que por ejemplo, “en el dominio AR/VR, SAM podría permitir seleccionar un objeto en función de la mirada de un usuario y luego “levantarlo” en 3D”.
Te puede interesar: La inteligencia artificial de Bing Maps que te ayudará a ubicar el mejor lugar para tu negocio
Esto permitiría que los creadores de pueden “mejorar las aplicaciones creativas, como la extracción de regiones de imágenes para collages o la edición de videos. También podría usarse para ayudar al estudio científico de sucesos naturales en la Tierra o incluso en el espacio, por ejemplo, mediante la localización de animales u objetos para estudiar y rastrear en video”.
Finalmente, el gigante tecnológico, señala que con SAM, recopilar nuevas máscaras de segmentación es más rápido. La herramienta podría tomar 14 segundos anotar una máscara de forma interactiva. “Nuestro proceso de anotación por máscara es solo 2 veces más lento que la anotación de cuadros delimitadores, lo que lleva alrededor de 7 segundos utilizando las interfaces de anotación más rápidas”.
El modelo incluye más de 1100 millones de máscaras de segmentación recopiladas en alrededor de 11 millones de imágenes con licencia y que preservan la privacidad. “SA-1B tiene 400 veces más máscaras que cualquier conjunto de datos de segmentación existente y, según lo verificado por estudios de evaluación humana, las máscaras son de alta calidad y diversidad, y en algunos casos incluso comparables en calidad a las máscaras de los conjuntos de datos anteriores mucho más pequeños y anotados completamente manualmente”.
La nueva IA y el conjunto de datos SAM estarán disponibles para su descarga bajo una licencia no comercial. Los usuarios que carguen sus propias imágenes en un prototipo adjunto también deben aceptar usarlo solo con fines de investigación.
Imagen: Meta – SAM