Un reciente ensayo expone un costo oculto en la rápida adopción de herramientas de inteligencia artificial. Más allá de si fallan o aciertan, la verdadera amenaza parece ser que su uso constante está «des-profesionalizando» oficios enteros al estandarizar el criterio humano y silenciar los debates éticos. ¿Puede una máquina reemplazar la intuición?
Imaginemos un juego de ajedrez donde una inteligencia artificial hiperpotente no compite contra un humano, sino que hace pareja con él. Un experimento informático reciente demostró que, en esta modalidad colaborativa, un sistema diseñado para hacer jugadas comprensibles para su compañero humano termina venciendo a equipos liderados por inteligencias artificiales de nivel «superhumano». La lección fue contundente: ser poderoso no sirve de nada si no sos compatible con tu compañero.
Este hallazgo, en apariencia lúdico, destapa una caja de Pandora sobre cómo estamos incorporando la inteligencia artificial a nuestra vida profesional. Hasta ahora, el debate se centraba en si entendíamos lo que la máquina nos decía. Pero el ajedrez tiene un objetivo fijo e inamovible: el jaque mate. La vida real, en cambio, es un terreno gris.
Cuando el criterio profesional no entra en un porcentaje
En campos como la medicina, el derecho o la educación, el concepto de «lo que está bien» muta constantemente. Una educación de calidad o un buen cuidado del paciente no pueden reducirse a una fórmula matemática inamovible. Y es aquí donde la IA empieza a chocar contra la realidad.
Pensemos en un software médico diseñado para diagnosticar en base a probabilidades estadísticas (ej: «70% de riesgo de infección bacteriana»). Todo muy lindo con los números, pero, ¿qué pasa cuando la intuición y la ética entran en juego?
Si un médico atiende a un paciente y sospecha que es víctima de violencia doméstica, la decisión de dejar o no constancia en la historia clínica no depende de un algoritmo matemático. Depende del criterio ético del profesional sobre si esa documentación va a proteger a la víctima o empeorará su situación en el hogar. Son decisiones humanas, arraigadas en valores complejos. Cuando la tecnología nos obliga a encasillar todo en probabilidades estadísticas, el juicio ético profesional se vuelve invisible. Y eventualmente, se atrofia.
Los dos niveles de la pérdida de habilidades
La ciencia empieza a registrar que la convivencia con la IA nos está de-capacitando en dos frentes preocupantes:
- La pérdida individual: Empezamos a depender tanto del sistema que nuestro propio «ojo clínico» se debilita por falta de uso. Un estudio de 2025 reveló que los médicos endoscopistas redujeron su capacidad de detectar crecimientos precancerosos a ojo desnudo (del 28% al 22%) luego de acostumbrarse a trabajar con asistencia robótica.
- La pérdida colectiva (y la más peligrosa): Cuando toda una profesión se apoya en un software que ya tiene preconfigurado «qué es el éxito», el gremio pierde la capacidad de debatir, cuestionar y redefinir sus propios objetivos. La máquina deja de ser una herramienta y se convierte en la ideología rectora del oficio.
El Costo Oculto de la IA
Cómo la tecnología está «des-profesionalizando» oficios
Un experimento demostró que una IA compatible y comprensible para su compañero humano es más exitosa que una IA hiperpotente que juega sola.
📉
Pérdida IndividualEl «ojo clínico» se atrofia por falta de uso. Ej: Médicos endoscopistas redujeron su capacidad de detectar anomalías a simple vista tras usar IA. |
🤐
Pérdida ColectivaAl aceptar los estándares del software, los gremios profesionales pierden la capacidad de debatir y redefinir qué es el éxito en su trabajo. |
⚖️
Ética vs. EstadísticaLa IA reduce todo a probabilidades. Pero decisiones humanas complejas (como proteger a una víctima) no entran en un porcentaje. |
🤝
La SoluciónLas instituciones deben exigir que la IA tenga procesos de retroalimentación donde los profesionales puedan moldear sus algoritmos con el tiempo. |
¿Aceptamos los términos y condiciones?
El desafío urgente es que las herramientas de inteligencia artificial no se diseñen solo para uso individual con un simple botón de «me gusta» o «no me gusta». Se necesitan procesos reales donde médicos, jueces y docentes puedan discutir cómo la máquina expresa la duda y la ambigüedad, obligando al sistema a adaptarse al consenso humano y no al revés.
Las instituciones de salud, la Justicia y el sector educativo tienen la última palabra: cuando compran estas herramientas, deben exigir que los profesionales tengan voz y voto para moldear al algoritmo a lo largo del tiempo.
El experimento del ajedrez nos dejó claro que la meta no es crear la máquina perfecta que supere todos los récords, sino construir un asistente que se adapte al juego. Y en la vida real, donde las reglas y los valores se negocian en sociedad todos los días, la compatibilidad no es una opción; es la única forma de no perder nuestro propio criterio en el intento.
Por Daniel Ventuñuk
En base al artículo de Sylvie Delacroix publicado en Nature
