GOOGLE ESTUDIA CÓMO APAGAR LOS SISTEMAS DE AI

Actualmente estamos en uno de los momentos más decisivos en el desarrollo de la inteligencia artificial. Compañías como Google, Facebook, Amazon y Microsoft están invirtiendo fuertemente en crear tecnologías más avanzadas de AI. Sin embargo, hay muchos detractores de esta tecnología que advierten los posibles riesgos de la misma, como una posible ‘rebelión’ en la que las máquinas, por ser más inteligentes, no quieran obedecer a los humanos. 

Es por eso que un laboratorio de investigación de inteligencia artificial, que pertenece a Google, llevó a cabo un estudio en el que se desarrollan métodos para ‘desconectar’ por completo las máquinas de autoaprendizaje cuando se necesite, según informó BusinessInsider.

‘DeepMind’, que pertenece a Google desde 2014, se alió con científicos de la Universidad de Oxford para encontrar una forma de asegurarse de que los sistemas de AI no aprendan a ser rebeldes, es decir, que siempre se dejen controlar por los humanos.

En un reporte liderado por la investigadora Laurent Orseau, se explica que es poco probable que un agente de AI funcione siempre correctamente. Según los científicos, los agentes pueden requerir en algún momento de la intervención humana para suspender sus actividades si estas resultan dañinas tanto para el mismo sistema como para lo que le rodea.

Los investigadores aseguran haber encontrado un marco de acciones que permite a los operadores humanos apagar un computador de AI, cuantas veces sea necesario, mediante un interruptor. Además este plan evitaría que los sistemas aprendan a prevenir las interrupciones.

Durante el estudio, los científicos descubrieron que algunos algoritmos, como los ‘Q-learning’, ya son ‘apagables’ por defecto. Pero otros, como ‘Sarsa’, no lo son, pero se pueden modificar para que se puedan apagar. Sin embargo existen algunos que no se pueden suspender de una forma segura, aún si se intentan modificar.

El laboratorio aliado de Google se llama ‘The Future of Humanity Institute’, y en esta ocasión hacen un paralelo ideal, porque DeepMind quiere seguir desarrollando AI, mientras que el instituto investiga sobre las posibles amenazas de esa tecnología para nuestra existencia. Incluso, el director del instituto, Nick Bostrom, cree que en 100 años las máquinas serán más inteligentes que los humanos, y que tienen el potencial de volverse contra nosotros. En una conferencia el año pasado, Bostrom explicó que en esas circunstancias, la AI podría llegar a tener mucho poder, y nos pondría en una situación similar a los humanos y los animales: nosotros tenemos mejor cerebro que ellos.

Los fundadores de DeepMind son conscientes de ese riesgo, y decidieron que Google comprara la compañía con la condición de que se creara  una junta de ética que monitoree los avances que se hacen en área. No se sabe quienes conforman la junta. Pero es muy probable que las directivas de DeepMind decidan incorporar los descubrimientos de este reporte en sus próximos trabajos.

Leave a Reply

Your email address will not be published. Required fields are marked *