


Pensar que no puede existir nada ni nadie más inteligente que el ser humano es un tremendo error. Así se expresa Max Tegmark, físico y cosmólogo sueco, en el Foro Telos 2020. Durante el encuentro, Tegmark señala que hasta ahora vivimos en una especie de “chovinismo de carbono”. Y la inteligencia consiste en procesar información, donde poco importa que la procesen los átomos de carbono en las neuronas del cerebro o los átomos de silicio de los ordenadores.
El cosmólogo, profesor en el Instituto Tecnológico de Massachusetts (MIT), estima que la llegada de una inteligencia artificial (IA) general que supere a la humana es cuestión de décadas.
Para él, la pregunta clave es si debemos estar emocionados o aterrados, porque, haciendo una analogía, “podemos coger un cuchillo para hacer una deliciosa paella o para matar a alguien”. No se trata de si la IA es buena o mala, sino cómo la empleemos: “Podemos utilizarla para curar enfermedades, acabar con la pobreza o el cambio climático. Pero también para extinguir la humanidad si cometemos errores estúpidos”.
El grado de preparación marca la diferencia
Ante futuras pandemias como la actual de covid-19, Tegmark indica que lo importante es estar preparados. “Así no tendremos nada que temer porque podremos asegurarnos de que no sucederá lo que ha sucedido y, en caso de que lo haga, estaremos preparados para resolverlo”.
“Corea del Sur estaba preparada para la pandemia. España no tanto. Y esa es la razón por la que el número de muertes es mucho mayor aquí. El grado de preparación marca la diferencia”.
Un plan que se anticipe al futuro
Al calibrar los riesgos para la humanidad que podría traer la inteligencia artificial, Tegmark la compara con la llegada de las armas nucleares. Y aboga por un consenso entre todos los países en el que se entienda su peligrosidad y cómo proceder: “Es fantástico que la Unión Europea esté desarrollando un reglamento general de protección de datos para la IA con nuevas normas”, dice con entusiasmo.
El profesor del MIT señala que convertir la inteligencia artificial en el arma más potente a nuestro alcance no tiene que ser algo negativo, como sí ocurre con las armas nucleares: “Pero para conseguir que un futuro mejor sea una realidad debe existir una visión optimista común que podamos respaldar”.
Aunque empresas como Google o Facebook pidan que no se regule la IA, el físico europeo advierte de que dejar en manos de unos pocos la IA sería un error terrible:
“Nuestra estrategia hasta ahora ha consistido en aprender de los errores. Pero con una tecnología más potente, como las armas nucleares o la IA, aprender de los errores es una idea terrible. Es mucho mejor ser proactivo y elaborar un plan de antemano para evitar que todo pueda salir mal”.



¿Quién estará al mando?
El profesor del MIT expone que actualmente las investigaciones se dirigen hacia una inteligencia artificial general que llegue a ser igual de buena que el ser humano en cualquier aspecto.
“Pero si llegamos a este punto habremos alcanzado lo mejor de lo peor que jamás ha sucedido en la humanidad. Porque evidentemente no te van a pagar por hacer tu trabajo si hay una máquina que lo hace más barato”.
Por eso, hay que considerar que si todas estas máquinas fueran propiedad de una sola persona, todos acabaríamos muriendo de hambre. Las consecuencias dependerán de en qué manos caigan estas herramientas. Y, a juicio de Tegmark, lamentablemente vamos por el camino incorrecto, pues las desigualdades sociales son cada vez mayores.
¿Cuándo podremos confiar en estas máquinas?
El autor del libro ‘Vida 3.0’, en el que se plantean los desafíos y oportunidades que se esperan de la IA, recuerda que no se nos debe exigir que confiemos completamente en ella, pues en la historia de las tecnologías se han cometido muchos errores. “La solución no es crear propaganda psicológica y decirle a la gente que confíe en la IA, sino trabajar de manera incesante en estudiar su seguridad y entender bien cómo funcionan”.
De lo único que estoy seguro es de que será lo mejor o lo peor que haya sucedido nunca. Si la tecnología va a avanzar, también debemos asegurarnos de que crezcan los conocimientos con los que vamos a manejar esa tecnología de forma adecuada. Los conocimientos deben ser lo primero».
La versión original de este artículo fue publicada en la Revista Telos, de Fundación Telefónica.
Relacionado
La dura advertencia de Antonio Turiel: «Tenemos que reducir el nivel de vida un 90% o colapsaremos»
Antonio Turiel fue entrevistado por el Diario de León, donde fue tajante sobre la situación actual y futura. El científico leonés Antonio Turiel ha explicado que «lo que estamos haciendo en Europa es dar la ilusión de que vamos hacia una transición suave cuando hay…
«¿Pero por qué se le abren los micrófonos a Cuca Gamarra para que suelte propaganda?»: así ha intentado oscurecer los datos del paro
Frente a los datos presentados oficialmente Cuca Gamarra ha lanzado su discurso en radio. Entrevistada por Angels Barceló, Cuca Gamarra, portavoz popular ha cuestionado los datos oficiales del paro presentados este mismo lunes. «Siempre que baja el paro hay una noticia, pero las cifras hay…
La Seguridad Social firma su tercer mejor junio de la historia al ganar 115.607 afiliados
La Seguridad Social ganó una media de 115.607 cotizantes en junio (+0,6%), su mejor dato en este mes tras los de 2005 y 2021, condicionados por el proceso de regularización de inmigrantes y por el levantamiento del estado de alarma frente al Covid, respectivamente. El…
La sección semanal de Basilio Aragón: la masturbasió – HECD 99
Basilio Aragón se ha pasado por HECD, como cada martes, para hablarnos en su sección de la actualidad nacional. Es esta ocasión nos cuenta una anécdota personal relacionada con la educación sexual tan en boga estos días por las palabras de la candidata de Vox a la presidencia de la Junta de Andalucía, Macarena Olona.
HECD 99 – Entrevista completa a Tamayo: La Sexta roba
En el programa número 99 de ‘Hasta el coño de’, Marina Lobo ha recibido al periodista y Youtuber Carles Tamayo, a quién Equipo de Investigación de La Sexta ha robado su trabajo.