Imagen ilustrativa Imagen creada por inteligencia artificial

Elon Musk ha asegurado que Larry Page buscaba desarrollar una «superinteligencia digital lo antes posible».

En medio de la intensa polémica que se viene desarrollando sobre los potenciales efectos nocivos de la inteligencia artificial (IA) si es empleada de forma dañina y sin ningún tipo de regulación, este lunes, el multimillonario jefe de Tesla y Twitter, Elon Musk, atribuyó al cofundador de Google, Larry Page, la intención de construir un «dios digital».

CEO de Google no "entiende completamente" cómo funciona su nuevo chatbot, que aprendió un idioma por su propia cuenta
CEO de Google no «entiende completamente» cómo funciona su nuevo chatbot, que aprendió un idioma por su propia cuenta

En una entrevista concedida al programa ‘Tucker Carlson Tonight’ de Fox News, Musk contó que en los tiempos en que conversaba frecuentemente con Page, pudo notar que este no se estaba tomando la seguridad de la IA lo suficientemente en serio. Al ser preguntado por lo que Page dijo al respecto, el dueño de Twitter contestó: «Realmente parecía estar… quería una especie de superinteligencia digital, básicamente un dios digital, por así decirlo, lo antes posible».

Musk reconoció que existe un gran potencial para el bien, pero también existe potencial para el mal en el empleo de la IA. Entonces recomendó que, ante esta disyuntiva, debe hacerse el mayor esfuerzo por maximizar la probabilidad de que funcione bien y minimizar «la probabilidad de que haga cosas malas«. Musk le comentó a Page que se aseguraría de que «la humanidad esté bien aquí» y en ese momento el cofundador de Google lo llamó especista (partidario de la creencia que afirma la superioridad de una especie en detrimento de las demás).

La inteligencia artificial tiene el potencial para "destruir la civilización", advierte Musk
La inteligencia artificial tiene el potencial para «destruir la civilización», advierte Musk

Musk considera que «no está bien» que estemos en «un mundo unipolar donde hay una empresa que está cerca de monopolio respecto a empleados de IA y computadoras» y el jefe de esta «no parece preocuparse por la seguridad». En este sentido, aseguró que «la cosa más lejana» de Google sería una organización sin fines de lucro totalmente abierta.

«No queremos que esto sea una especie de demonio del infierno que maximiza las ganancias y que simplemente nunca se detiene«, advirtió. «Queremos que prohumanos fastidien el futuro de los humanos. Porque somos humanos», agregó.

Por último, recalcó los peligros de los últimos avances en IA y señaló que, independientemente de que en el pasado las tecnologías se enfrentaron a los reguladores, «esta nueva frontera puede ser potencialmente peligrosa si no hay límites o directrices».

Fuente: actualidadrt.com