Riesgos y miedos de la Inteligencia Artificial (IA o AI) | Más Colombia
sábado, 27 de diciembre de 2025
Inicio  »  Columnistas  »  Riesgos y miedos de la Inteligencia Artificial (IA o AI)

Riesgos y miedos de la Inteligencia Artificial (IA o AI)

Diego Cabrejo, Columnista, Más Colombia

Diego Cabrejo

Matemático e Ingeniero Electrónico, Magíster en Matemáticas Puras, Gerente de Riesgo y Co-Founder de la Fintech Prestanza (R). [email protected]

Es común que exista temor sobre el impacto de la Inteligencia Artificial (IA) en la humanidad y en el ámbito laboral. Sin embargo, es importante analizar los riesgos con datos objetivos y enfoque racional, estableciendo controles para evitar los peores escenarios.

Resulta curioso que el miedo a viajar en avión, a pesar de tener un menor riesgo de mortalidad por kilómetro recorrido que el automóvil, sea considerablemente mayor. Esto se debe a diferentes factores, como la sensación de control, traumas o experiencias previas, educación cultural y costumbre. De manera similar, el miedo a la IA es mayor que los riesgos objetivos asociados. Analicemos esto más detenidamente.


De acuerdo con un metaestudio realizado por Gavin I. Clark* y Adam J. Rock (), hasta un 40% de la población sufre un grado de miedo al viajar en avión, mientras que estudios en Estados Unidos muestran que cerca del 10% de las personas tiene miedo a manejar un carro.

¿Cómo es posible que un riesgo menor (viajar en avión) cause un miedo 4 veces mayor en las personas? En efecto, hay varias explicaciones o sesgos de pensamiento, tales como:

  1. La sensación de control hace que mi miedo disminuya (aun cuando el riesgo se mantiene constante).
  2. Traumas o experiencias dolorosas hacen que el miedo aumente (aun cuando el riesgo se mantiene constante).
  3. La educación o la cultura pueden hacer que el miedo hacia algunas situaciones aumente (aun cuando el riesgo se mantiene constante).
  4. La costumbre o la repetición de una circunstancia hace que el miedo disminuya.

Así mismo, la falta de control, los cambios o la desadaptación hacen que el miedo hacia las cosas aumente.

Por ejemplo, si combinamos el miedo a viajar en carro con la Inteligencia Artificial, vemos que el 71% de las personas tiene miedo a subirse en un vehículo auto-conducido, de acuerdo con estudios de la American Automobile Association (AAA) (ver enlace aquí). ¡Esto es mucho más que el miedo a volar!

Y es así como llegamos a analizar los riesgos y los miedos que nos genera una tecnología que cambia nuestras vidas a pasos agigantados: la Inteligencia Artificial.


Dentro de las conversaciones y contenidos que encuentro en mi vida diaria y en internet, se repiten las siguientes inquietudes:

  • La inteligencia artificial va a acabar con millones de trabajos.
  • La inteligencia artificial va a destruir a la humanidad.
  • La inteligencia artificial va a tomar todas nuestras decisiones en unos años.
  • La inteligencia artificial va a aumentar la desigualdad y la acumulación de poder.
  • La inteligencia artificial va a traer cambios tan grandes y tan rápidos que los humanos no vamos a poder entenderlos o procesarlos.
  • La inteligencia artificial tiene sesgos raciales, políticos y éticos. 
  • Y un largo etc…, etc…

Todas son inquietudes válidas, pero debemos usar el pensamiento crítico para entender y definir mejor una por una. De esta manera, podemos medirlas y estimarlas hasta reducirlas de miedos a riesgos y, finalmente, debemos definir controles y políticas para minimizar los riesgos a un nivel con el que nos sintamos tranquilos.

Recordemos algunos principios fundamentales sobre la Inteligencia Artificial (IA) expuestos en el libro Power and Prediction, de A. Agrawal, J. Gans y A. Goldfarb. 

Primero, la Inteligencia Artificial requiere información para mejorar, por lo que sin información o con información deficiente no podrá reemplazar trabajos o conducir automóviles de manera efectiva. Segundo, la IA es creada por personas, con sesgos y limitaciones humanas. Tercero, la información proporcionada por la IA es un insumo para la toma de decisiones, pero la responsabilidad siempre recae en las personas.

Por lo tanto, siempre que haya instancias humanas en un proceso, responsables de cambiar, alimentar, analizar y validar la información que arroja la Inteligencia Artificial, vamos a tener el poder suficiente para controlar los riesgos y exorcizar nuestros miedos hacia este nuevo poder que ya llegó y que no se irá.

Terminando esta trilogía sobre la Inteligencia Artificial, voy a mudar mi análisis hacia los riesgos que destruyen las grandes empresas (y también las pequeñas) y cómo podemos mitigarlos.

Nota: La corrección de estilo del presente artículo fue realizada por la abogada Alexandra Kurmen y por ChatGPT.