Actualmente estamos en uno de los momentos más decisivos en el desarrollo de la inteligencia artificial. Compañías como Google, Facebook, Amazon y Microsoft están invirtiendo fuertemente en crear tecnologías más avanzadas de AI. Sin embargo, hay muchos detractores de esta tecnología que advierten los posibles riesgos de la misma, como una posible ‘rebelión’ en la que las máquinas, por ser más inteligentes, no quieran obedecer a los humanos.
Es por eso que un laboratorio de investigación de inteligencia artificial, que pertenece a Google, llevó a cabo un estudio en el que se desarrollan métodos para ‘desconectar’ por completo las máquinas de autoaprendizaje cuando se necesite, según informó BusinessInsider.
‘DeepMind’, que pertenece a Google desde 2014, se alió con científicos de la Universidad de Oxford para encontrar una forma de asegurarse de que los sistemas de AI no aprendan a ser rebeldes, es decir, que siempre se dejen controlar por los humanos.
En un reporte liderado por la investigadora Laurent Orseau, se explica que es poco probable que un agente de AI funcione siempre correctamente. Según los científicos, los agentes pueden requerir en algún momento de la intervención humana para suspender sus actividades si estas resultan dañinas tanto para el mismo sistema como para lo que le rodea.
Los investigadores aseguran haber encontrado un marco de acciones que permite a los operadores humanos apagar un computador de AI, cuantas veces sea necesario, mediante un interruptor. Además este plan evitaría que los sistemas aprendan a prevenir las interrupciones.
Durante el estudio, los científicos descubrieron que algunos algoritmos, como los ‘Q-learning’, ya son ‘apagables’ por defecto. Pero otros, como ‘Sarsa’, no lo son, pero se pueden modificar para que se puedan apagar. Sin embargo existen algunos que no se pueden suspender de una forma segura, aún si se intentan modificar.
El laboratorio aliado de Google se llama ‘The Future of Humanity Institute’, y en esta ocasión hacen un paralelo ideal, porque DeepMind quiere seguir desarrollando AI, mientras que el instituto investiga sobre las posibles amenazas de esa tecnología para nuestra existencia. Incluso, el director del instituto, Nick Bostrom, cree que en 100 años las máquinas serán más inteligentes que los humanos, y que tienen el potencial de volverse contra nosotros. En una conferencia el año pasado, Bostrom explicó que en esas circunstancias, la AI podría llegar a tener mucho poder, y nos pondría en una situación similar a los humanos y los animales: nosotros tenemos mejor cerebro que ellos.
Los fundadores de DeepMind son conscientes de ese riesgo, y decidieron que Google comprara la compañía con la condición de que se creara una junta de ética que monitoree los avances que se hacen en área. No se sabe quienes conforman la junta. Pero es muy probable que las directivas de DeepMind decidan incorporar los descubrimientos de este reporte en sus próximos trabajos.
Imagen: Michael Cordedda (vía Flickr).
Bueno y cuando sean lo suficientemente inteligentes y sean capaz de desactivar todos estos mecanismos de seguiridad? nos van a matar a todosssssssssssssssss aaaaaaaaaaaaaaaaaaaaaaa jajajajaja q viva skynet y terminator
Mi opinión es que deberían buscar la forma de crear una nueva capa de ozono en vez de estar creando chorradas que terminen destruyendonos a todos. Pero esta opinión no vende ni es comercial, asi que buena suerte a las futuras generaciones.
Oye amigo, respétate y respétanos. El mundo ha hecho muchos avances en energías renovables aunque a algunos gobiernos no les agrada de a mucho. Y no hay que trabajar en una nueva capa de ozono ya que esta se regenera sola, hay es que cuidarla.
Que me respete y los respete? la ciencia y sus avances no han acabado ni con la hambruna mijo, asi que lee mas y abre tu conciencia.
solo debo decir q a la IA se le debe apoyar al 100%, de esa manera los centros de produccion volveran a nuestros paises y saldran de china jejejejejeje
para todo lo de mas… no veo mucho peligro, solo hay q aplicar las leyes de la robotica:
1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.1
y no se olviden nunca de la ley de leyes… la ley cero XD
jejeje un saludo para los buenos lectores q les guste leer algo mas q perfiles de facebook o tonteras en snapchat!… un cafe al q reconozca al autor sin buscar en wikipedia XD