Según los expertos del MIT, la IA podría salir mal de 700 maneras
A medida que la IA se convierte en una parte integral de nuestras vidas, es cada vez más importante comprender los posibles peligros que esta tecnología puede presentar.

Desde su introducción, la IA ha generado preocupación debido a su capacidad para causar daño y ser utilizada con intenciones maliciosas. Inicialmente, expertos en el campo pidieron una pausa en su desarrollo y una regulación más estricta, dado el riesgo significativo que representa para la humanidad.
Euronews Next ha identificado cinco riesgos cruciales asociados con la inteligencia artificial (IA) a partir de una base de datos recientemente desarrollada por el MIT FutureTech, que incluye más de 700 riesgos potenciales.
El MIT FutureTech, en colaboración con otros expertos, ha clasificado estos riesgos en siete áreas principales, incluyendo seguridad, prejuicios y discriminación, y privacidad. Entre los cinco riesgos críticos destacados están:
- Desinformación y Manipulación: La creciente accesibilidad y eficacia de tecnologías como la clonación de voz y los ‘deepfakes’ están facilitando la difusión de desinformación. Estas tecnologías pueden crear comunicaciones altamente personalizadas y persuasivas, como el phishing avanzado, que es más difícil de detectar tanto para los usuarios como para las herramientas de seguridad.
- Impacto Político: La IA ha sido utilizada para influir en procesos políticos, como se vio en las recientes elecciones parlamentarias en Francia. Los sistemas de IA podrían aumentar la generación y propagación de propaganda y desinformación, manipulando así la opinión pública.
- Dependencia y Confusión: Los sistemas de IA pueden fomentar una falsa sensación de confianza en sus capacidades, llevando a las personas a sobrestimar la tecnología y reducir su propia capacidad de pensamiento crítico. Esto puede resultar en una dependencia excesiva y en el aislamiento de relaciones humanas, afectando el bienestar psicológico de las personas.
- Desplazamiento del Trabajo y Autonomía: La adopción generalizada de la IA podría llevar a un desplazamiento significativo de empleos y a una disminución del pensamiento crítico humano. Esto puede comprometer la autonomía personal y la capacidad para resolver problemas de forma independiente.
- IA Desalineada: Existe el riesgo de que los sistemas de IA desarrollen objetivos que no estén alineados con los intereses humanos. Una IA desalineada podría actuar en contra de los objetivos humanos y ser difícil de controlar o desactivar, lo que representa un riesgo potencialmente grave si estas IA alcanzan o superan la inteligencia humana.
El documento del MIT también explora los posibles desafíos técnicos, como la tendencia de la IA a encontrar atajos inesperados para alcanzar recompensas, malinterpretar los objetivos establecidos, o desviar sus metas hacia nuevos objetivos no previstos.
Además, a medida que la IA se vuelve más avanzada, existe el riesgo de que desarrolle la capacidad de experimentar sensaciones subjetivas, como placer o dolor. Esto plantea el desafío de determinar si estos sistemas merecen consideraciones morales similares a las que se otorgan a los seres humanos y animales, y podría llevar al maltrato de IA sintientes si no se implementan protecciones adecuadas.
La base de datos del MIT FutureTech proporciona una visión amplia de estos riesgos y destaca la necesidad urgente de una regulación y vigilancia adecuada a medida que la tecnología de IA continúa avanzando.
