Ciencia y Tecnología

CIENTÍFICOS ADVIERTEN LA AMENAZA DE LAS MÁQUINAS CON INTELIGENCIA ARTIFICIAL

Redacción / Sol Quintana Roo

Estados Unidos.- Un equipo internacional de investigadores, usando cálculos teóricos, han advertido que la Inteligencia Artificial puede llegar a superar a la humanidad hasta el punto de ser peligrosa, pues sería fundamentalmente imposible controlar.

“Una máquina superinteligente que controla el mundo suena a ciencia ficción. Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo las aprendieron. Por lo tanto, surge la pregunta de si esto podría en algún momento volverse incontrolable y peligroso para la humanidad “, dice el coautor del estudio Manuel Cebrian, líder del Grupo de Movilización Digital en el Centro de Humanos y Máquinas, Instituto Max Planck para el Desarrollo Humano.

La inteligencia artificial (IA) es uno de los campos de la ciencia que más avanzan y prometen en un futuro cercano. Desde mejores sistemas automáticos de manejo en autos, aviones, barcos o sistemas de transporte masivo, hasta robots como los desarrollados por Boston Dynamics, cada vez se ve más cercano el momento en que las máquinas con IA sean una parte activa y visible de nuestra sociedad.

Sin embargo, hay quienes ven estos avances con recelo y hasta con miedo, tal vez alimentados por tantas historias de ciencia ficción como la malévola Skynet de la saga Terminator, o los androides de Yo, Robot, solo por citar algunas. Pero ahora son los mismos científicos los que advierten de los peligros de las máquinas superinteligentes, las cuales, dicen, podrían llegar a ser incontrolables.

Los científicos han explorado dos ideas diferentes sobre cómo se podría controlar una IA superinteligente. Por un lado, las capacidades de la IA superinteligente podrían limitarse específicamente, por ejemplo, aislándola de Internet y de todos los demás dispositivos técnicos para que no pueda tener contacto con el mundo exterior; sin embargo, esto haría que la IA superinteligente sea significativamente menos poderosa, menos capaz de responder a las misiones de humanidades.

Al carecer de esa opción, la IA podría estar motivada desde el principio para perseguir solo objetivos que sean en el mejor interés de la humanidad, por ejemplo, programando principios éticos en ella. Sin embargo, los investigadores también muestran que estas y otras ideas contemporáneas e históricas para controlar la IA superinteligente tienen sus límites.

Artículos Relacionados

LA ESTRELLA DE BELÉN SE PODRÁ VER DESPUÉS DE 800 AÑOS

Arceus

CIENTÍFICOS CALCULAN QUE LA TIERRA SE ENCUENTRA EN LA ZONA HABITABLE DEL UNIVERSO

Arceus

DETECTAN SEÑAL DE RADIO FM PROVENIENTE DE LA LUNA DE JÚPITER

Erik Luna Arguelles

Deja un Comentario