..

Traducir a otro idioma

English French German Spain Italian Dutch Russian Portuguese Japanese Korean Arabic Chinese Simplified

martes, 14 de abril de 2026

Uso de IA en Colombia: el 92% la emplea, pero el criterio es humano

Las empresas han apostado por implementar con mayor disposición la inteligencia artificial para acelerar sus operaciones. En Colombia, la adopción, según EY Work Reimagined, ha alcanzado un 92% entre los trabajadores que declaran usar la IA en su trabajo; un 34% de ellos la usan diariamente.

Esto es positivo en cuanto a la apertura a usar estas herramientas, pero su uso expandido debe contemplar el modo como se implementa. ¿Qué ocurre cuando una máquina ejecuta una tarea correctamente desde el punto de vista técnico, pero el resultado no es el más adecuado en términos humanos?

Según explica el Dr. Walter Andrés Ortiz Vargas, la diferencia radica en el criterio, que es algo que las máquinas aún no poseen, porque mientras que los sistemas de IA están diseñados para seguir instrucciones, detectar patrones y optimizar procesos a partir de grandes volúmenes de datos, el criterio implica comprender el contexto y evaluar las implicaciones de cada resultado.

«Por eso el rol humano es clave», advierte el experto de VIU. «Somos quienes damos significado a lo que hace la IA, decidimos qué es lo importante, qué límites poner y cuándo un resultado es útil o cuándo puede ser problemático. La IA ejecuta; el criterio lo ponemos nosotros».

El criterio humano puede considerarse, entonces, el elemento que determina si la IA se convierte en una herramienta que potencia capacidades o simplemente en un sistema que reproduce errores a gran escala.

Los sistemas de Inteligencia Artificial aprenden a partir de ejemplos y patrones presentes en los datos con los que fueron entrenados, pero esto no significa que comprendan el propósito final de las decisiones que generan. Si el juicio humano que supervisa estos sistemas es insuficiente, los resultados pueden ser técnicamente convincentes, pero incorrectos o incluso problemáticos.

Para las organizaciones, la falta de criterio y de supervisión en la incorporación de la IA puede detonar riesgos concretos entre los que se encuentran:

● Errores masivos: un fallo en un algoritmo no afecta a una persona, sino a miles. Su impacto se multiplica.

● Sesgos no detectados: los sistemas pueden reproducir discriminaciones presentes en los datos sin que exista una intención explícita.

● Decisiones sin contexto: un modelo no sabe si ha cambiado una ley, si existe una situación social excepcional o si el entorno ha variado.

● Pérdida de pensamiento crítico: delegar todas las decisiones a la IA puede reducir la capacidad de las organizaciones para cuestionar resultados.

● Exceso de confianza: la aparente seguridad con la que los algoritmos presentan sus respuestas puede llevar a aceptarlas sin la revisión necesaria.

Ante la pregunta de si la IA podría ser capaz, algún día, de desarrollar algo parecido al criterio humano, el experto de VIU analiza que, aunque los modelos avanzan rápidamente en su capacidad para razonar, explicar resultados o tomar decisiones cada vez más complejas, existe una diferencia fundamental entre procesar información y ejercer juicio.

«Podrá imitarlo mejor, eso seguro», agrega el Dr. Walter Andrés Ortiz. «Cada vez veremos modelos que razonan, explican y toman decisiones con más sofisticación. Pero el criterio en sentido humano, ese que combina conocimiento, experiencia, valores, responsabilidad y sensibilidad, es algo que no se aprende solo con datos. Los humanos vivimos las consecuencias de nuestras decisiones, una máquina no».

No hay comentarios:

Publicar un comentario