«La IA puede detonar a sí misma»: el terrible mensaje de Yuval Noah Harari te mantendrá despierto por la noche

«Ai puede detonar a sí misma ': el terrible mensaje de Yuval Noah Harari te mantendrá despierto por la noche (crédito de imagen – YouTube)

El historiador israelí y el aclamado autor Yuval Noah Harari, ampliamente conocido por 'sapiens: una breve historia de la humanidad', ha compartido una grave precaución con respecto a la inteligencia artificial (AI). En un video reciente publicado por Instagram Page @artificialIntelligenceNews.in, Harari argumentó que AI está evolucionando más allá de ser solo una herramienta operada por humanos. En cambio, lo describió como una fuerza autónoma con el poder de tomar decisiones independientes, algunas de las cuales podrían afectar significativamente la trayectoria futura de la humanidad.

Profesor de la Universidad Hebrea de Jerusalén, Harari ha sido celebrado durante mucho tiempo por sus perspicaces análisis de la historia humana, el progreso tecnológico y la transformación social. Sus últimos comentarios conectan los puntos entre las revoluciones pasadas y los riesgos emergentes planteados por máquinas cada vez más inteligentes.

La IA ya no es solo una herramienta: Harari advierte sobre su poder para tomar decisiones independientes

En el video, Harari destaca la diferencia crítica entre las herramientas convencionales y la inteligencia artificial. Utiliza ejemplos como martillos y bombas nucleares para subrayar su punto: «Una herramienta es algo en tus manos», dice. «Un martillo es una herramienta. Una bomba atómica es una herramienta. Decides comenzar una guerra y a quién bombardear. No camina allí y decide detonarse. AI puede hacer eso». Su declaración enfatiza el cambio alarmante de la IA de ser un instrumento controlable a una fuerza potencialmente autónoma.

Harari enfatiza que la IA difiere significativamente de la tecnología tradicional, que se basa en la intervención humana para operar. Señala que la IA ya funciona de manera autónoma en varios dominios, incluidas las aplicaciones militares. «Ya tenemos sistemas de armas autónomos tomando decisiones por sí mismos», señala, planteando la preocupación de que la IA podría avanzar aún más, capacidad de diseñar nuevas armas o desarrollar sistemas de IA más sofisticados sin supervisión humana.

¿Nos dirigimos hacia un futuro sin control humano?

Las advertencias de Harari van más allá de la especulación. Los sistemas autónomos impulsados ​​por la IA ya se están utilizando en defensa y seguridad, trayendo consigo las serias preguntas éticas y existenciales. A medida que el desarrollo de IA se acelera sin supervisión suficiente, la idea de las máquinas que determinan el destino de las naciones enteras cambia de ser «un tropo de ciencia ficción» a «una realidad inminente».

Las advertencias de Harari hacen eco de ideas que ha discutido en sus trabajos anteriores. En 'Homo Deus: una breve historia del mañana', profundiza en la posibilidad de que AI supere la inteligencia humana. En 'Sapiens', examinó cómo el Homo sapiens saltó al dominio a través de la narración de historias, la colaboración y el progreso tecnológico. Hoy, advierte que podemos estar cerca de crear una inteligencia que pueda exceder la nuestra y remodelar nuestro futuro de maneras impredecibles.

¿Qué se avecina? Harari suena la alarma en Autónomo AI

El mensaje de Harari es un aviso poderoso para la reflexión global. Si la IA es «no solo una herramienta» sino «un agente», entonces depende de nosotros administrar y guiar su evolución de manera responsable. Esto plantea preocupaciones apremiantes: «¿Cómo nos aseguramos de que la IA permanezca alineada con los valores humanos?» «¿Podemos evitar que la IA supere nuestro control?» Y quizás el más crítico de todos: «¿Ya hemos cruzado el punto de no retorno?»

Con la IA progresando más rápido que nunca, la advertencia de Harari se siente más urgente que especulativa. El control sobre la inteligencia puede estar resbalando de las manos humanas, y lo que se desarrolla a continuación, un progreso restringible o consecuencias peligrosas, aún es incierto.

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

    Deja una respuesta

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *