“Cuando alguien dice “la IA va a reemplazar tu trabajo” sin ahondar en todo lo que eso implica, no está siendo valiente ni honesto. Está siendo irresponsable.
Esta semana en mi clase de IA del MBA, el profesor invitado anunció con orgullo que hoy en su empresa gracias a la IA tienen “el equipo de UX más chico de la historia” y que el único UX que les queda ya es un cuello de botella.
Nadie preguntó nada.
”Qué crack”, posiblemente pensaron algunos.
A mí me frustró. Estuve a punto de decir algo varias veces, pero no lo dije.
Y me acordé de algo que presencié hace unos meses, en una conferencia de tecnología, una empresa celebró haber reemplazado a veinte personas con un agente de IA.
Aplauso cerrado.
Nadie preguntó qué pasó con esas veinte personas ni quiénes eran.
A eso súmenle la salida de Claude Design, que muchos dicen que “quebrará Figma y reemplazará a miles de diseñadores”.
Y una vez más voy a responder la pregunta más repetida de los últimos 5 años:
Sí, si tu “UX” solo es de entregables. Eso lo hace la IA en segundos.
Sí, si tu “UX” solo sabe Figma y no entiende el problema de fondo.
Sí, si tu “UX” es ese equipo al que ves como fábrica de papas, no como transformadores estratégicos de la experiencia digital.
O sea, solo si tu UX no es realmente UX.
Seamos honestos, lo que este señor tenía en su empresa no era UX, era un grupo de diseñadores tomando pedidos.
No perdamos el foco, no entremos en pánico. El UX nació para transformar equipos de diseño operativos en estratégicos, con impacto real en los resultados del negocio.
Figma, Claude Design, Sketch, Adobe, son solo herramientas. Siempre lo fueron.
La IA no destruye valores. Los transforma.
Mientras el mercado entra en pánico, las empresas resilientes se adaptan. Sus ventajas competitivas no desaparecen, evolucionan. Los fundamentos sólidos siempre pesan más que el miedo.
El mercado confunde disrupción con extinción, y no son lo mismo.
Cuando miles de empresas despiden personas simultáneamente, pasa algo que ninguna calcula individualmente, esas personas dejan de consumir.
No van más a tu tienda. No pagan más tu subscripción. No compran más tus productos. No entran más a tu APP
La empresa que las reemplazó acaba de achicar, sin saberlo, el mercado que la sostiene.
Los economistas lo llaman “paradoja de la composición”; lo que es racional para cada empresa es catastrófico para el sistema completo.
“El problema no es la tecnología en sí.
Es quien captura los beneficios y quién absorbe los costos.”
Daron Acemoglu, en su Libro “Poder y Progreso”
Sí, hay empresas que genuinamente no pueden permitirse mantener esos roles. Pero hay muchas más que sí pueden y eligen no hacerlo porque el mercado premia el margen inmediato sin importarles cómo se obtuvo.
La consultora Forrester descubrió que el 55% de las empresas que despidieron personas para reemplazarlas con IA, ya se arrepienten. Y la mitad terminará recontratando, asumiendo costos más altos por pérdida de productividad y conocimiento perdido.
El MIT fue más lejos todavía. Analizaron todos los trabajos donde la IA “puede” reemplazar humanos y descubrieron que en 3 de cada 4 casos, hacerlo no es rentable. El costo de implementar y mantener la IA supera el ahorro.
Dicho de otra forma, muchas veces solo es una buena idea en un PowerPoint.
Esto no significa que la IA no vaya a transformar el trabajo. Lo va a hacer. Pero hay una diferencia enorme entre transformar y reemplazar masivamente sin pensar.
La primera es inevitable. La segunda es una decisión, y como toda decisión, tiene consecuencias.
Forrester · Predictions 2026: Future of Work
De los empleadores se arrepienten de haber reemplazado personas por la IA
Se arrepienten del despido
Terminarán recontratando personas
Esperan que la IA aumente el empleo (no lo reduzca)
MIT CSAIL · Economic Limits to AI Job Automation
¿Cuántos reemplazos con IA son realmente rentables?
En 3 de cada 4 reemplazos con IA, las empresas terminan gastando más de lo que ahorran.
“Si no lo hacemos nosotros, lo hará China”, “No se puede ir contra el progreso”, “Es inevitable.”
Frases que suenan a sentido común. pero fíjate en quién las dice, siempre son las empresas que venden IA o quienes hacen negocio con ellas.
Lo que hacen no es describir la realidad. Es cerrar el debate antes de que empiece.
Porque si algo te lo presentan como inevitable, cuestionarlo parece de ingenuos.
Nadie quiere verse como el que “no entiende el progreso”. Y así, lo que en realidad son decisiones tomadas por personas con intereses muy concretos, termina pareciendo natural.
Y no lo es.
El libro “Poder y Progreso” de Daron Acemoglu, lo demuestra con datos históricos, la tecnología nunca distribuyó sus beneficios de manera automática.
En cada revolución tecnológica de la historia, los beneficios se concentraron primero en quienes tenían el capital para adoptarla. La redistribución llegó después, y no sola, llegó porque hubo sindicatos que negociaron, regulaciones que pusieron límites, e impuestos que capturaron parte del valor generado y lo devolvieron a la sociedad.
Sin esas fuerzas, la tecnología no democratiza, se concentra en unos pocos.
«La narrativa de la inevitabilidad no es una descripción de la realidad. Es una decisión política disfrazada de física.»
Hay respuestas grandes como regular, legislar, educar.
Pero hoy quiero hablar de algo más cercano. De lo que podemos hacer los que trabajamos en tecnología: diseñadores, ingenieros, investigadores, educadores.
Tenemos una responsabilidad que raramente nombramos.
Nosotros decidimos cómo la tecnología se presenta a las personas. Qué se muestra y qué se oculta. Qué se normaliza y qué se cuestiona. Eso no es poca cosa. Es una decisión con consecuencias reales.
Cuando alguien dice “la IA va a reemplazar tu trabajo” sin ahondar en todo lo que eso implica, no está siendo valiente ni honesto. Está siendo irresponsable. Está alimentando exactamente la narrativa de la inevitabilidad que beneficia a quienes ya tienen el poder.
Un discurso que construye transparencia es un acto político pequeño.
Un discurso que normaliza lo que no debería normalizarse, también.
La diferencia está en si te haces las preguntas difíciles antes de hablar.