Durante los últimos años hemos sido testigos de una creciente tendencia entre las compañías de tecnología. Muchas de ellas (la mayoría, podría ser) dicen estar usando inteligencia artificial (AI), de una u otra forma. Pero lo más usual es que estas afirmaciones sean exageraciones. Así lo dice Michael Green, un analista experto en inteligencia artificial, quien escribió una columna para VentureBeat sobre este tema.
Green dice que la “AI aún está jugando en la piscina para niños de lo que es y lo que no es posible”. Según su análisis, pocas compañías en realidad están trabajando con verdadera AI, y ellas son la excepción, no la regla. Es por eso que aún no debemos preocuparnos por la Tercera Guerra Mundial causada por la AI, que pronosticó Elon Musk hace unas semanas. Y mucho menos debemos temer porque nuestros celulares con AI tomen el control de la humanidad.
De acuerdo con el vicepresidente de la firma de investigaciones Gartner, Jim Hare, citado por Green, muchas empresas de tecnología hoy en día están haciendo ‘lavado de AI’, porque le ponen a sus productos y servicios la etiqueta de AI, de forma muy ‘liberal’. Hare dice que muchos proveedores de software están aprovechando el auge de la AI para afirmar que sus servicios tienen esa tecnología.
Pero ¿cómo pueden justificar ese abuso del término? Green nos explica que en práctica no se podrían justificar, pero en teoría si sería posible.
Estadística convencional
Green dice que las compañías están usando reconocidos métodos de estadística como regresión lineal, algoritmos de conglomerado, o cualquier otro método derivado de operaciones matemáticas en una matriz. Ellas han usado estos métodos por mucho tiempo, y esas técnicas no tienen casi nada que ver con AI: excepto que hoy en día la AI incluye aprendizaje de máquinas como un caso especial. Y el aprendizaje de máquinas incluye, por extensión, todos estos métodos estadísticos.
Entonces, si un producto o servicio incluye cualquier operación estadística un poco más compleja que el promedio, muchas compañías dicen que es AI solo por una aproximación y como un esfuerzo de marketing. Esto podría ser bueno para el negocio, pero al final confunde a los clientes, dice Green.
¿Invadidos por la AI?
¿Por qué consideramos que la estadística es una parte del AI? Green nos explica con un ejemplo de historia. En 1958, el matemático David Cox desarrolló el método de regresión lógica. Este método estaba relacionado por el trabajo hecho por Frank Rosenblatt en 1957, que le abrió el camino al algoritmo Perceptron. Perceptron es el ‘padre’ fundador de las redes neuronales, que es lo primero que pensamos cuando hablamos de AI.
Finalmente, Green nos recomienda que tengamos presente que solo porque una compañía no tenga entonces ‘AI real’, sino que use métodos estadísticos convencionales, no significa que sus productos o servicio sean malos. E incluso, el hecho de que una compañía esté usando AI verdadera, no implica que su producto o servicio sea necesariamente útil.
Para que estés seguro de qué es inteligencia artificial, te recomendamos revisar nuestro glosario de esta tecnología.
Imagen: Pixabay.
No son mas que sistemas expertos, nada de IA verdadera, puro alforitmo y estadistica, asi cualquiera dice que es IA, pero no, todavia no se crea la verdadera IA, cuando eso pase, será el fin
Zapatero a tus zapatos, el termino “Sistema Experto” es algo ya obsoleto que no utilizamos para nada los desarrolladores de inteligencia artificial, y no tiene nada que ver con el Machine Learning puesto que en los primitivos sistemas expertos un ingeniero de conocimiento era quien implementaba “manualmente” el conocimiento en la base de conocimiento del sistema mediante un esquema de red semantica y reglas de inferencia, inclusive en lenguajes tan obsoletos como Prolog. En eso se llego ha basar un sistema que se inicio en los años 80 y que pretendia dar inteligencia y sentido comun a las maquinas llamado sistema CYC de Cyc Corp. y dirigido por el cientifico de stanford Douglas Lenat, sistema que hoy dia ya quedo obsoleto, La forma manual de alimentar esa base de conocimiento requeriria mas de 60 años. Hoy en dia el Machine Learnig con redes neuronales
permite que la base de conocimiento de un sistema de IA se alimente de forma automatica con el BIG DATA de la web y
con metodos de codificacion del entorno y de la realidad muy diferentes a los de los años 80 y permitiendo que el entrenamiento de las maquinas se haga en meses y no en años, una vez entrenadas las maquinas siguen aprendiendo y tomando desiciones por su propia cuenta, nada de viejos sistemas expertos.
como titular que me pareció curioso, resulta que el acoso sexual ahora no es sólo para los humanos
www. zdnet. com/article/sex-robot-molested-destroyed-at-electronics-show/