Cuando la aplicación de inteligencia artificial se vuelve una distracción


Antes de que lo abrieran, me dijeron con orgullo que lo habían lanzado en tiempo récord. Apenas lo vi en acción, pregunté: “¿Qué problema resuelve esto?” Hubo silencio. Luego alguien respondió: “Bueno, es inteligencia artificial.” Ahí quedó claro que estaban buscando reconocimiento, no soluciones. Lo que habían construido no respondía a una necesidad real del usuario, no estaba basado en datos, y no había pasado por una validación seria. Tenía IA, y eso, al menos para la presentación del lunes, parecía suficiente.
No lo fue. Tres semanas después, los usuarios comenzaron a dejar reseñas negativas. Cinco semanas después, la funcionalidad fue desactivada. No hubo necesidad de reparar nada a medias ni justificar decisiones ajenas. Tomé el control del proyecto y, junto con mi equipo, reconstruimos la experiencia desde la base, guiando el proceso hacia una solución que, esta vez, sí empezó por escuchar al usuario. Y esa es la diferencia. No vengo a ver qué se puede automatizar. Vengo a entender qué vale la pena construir.
La inteligencia artificial tiene el potencial de amplificar la capacidad humana, eliminar fricción, personalizar experiencias y anticipar decisiones. Lo tiene todo. Pero cuando se implementa sin estrategia, sin alineación al contexto y sin una comprensión profunda de quién está al otro lado de la pantalla, se convierte en una distracción costosa. Lo difícil no es usar IA. Lo difícil es tener la valentía de aplicarla con sentido, de diseñarla con intención y de validarla con usuarios reales antes de escalarla en entornos donde el margen de error es cero.
En casi dos décadas de trabajo en diseño, innovación y estrategia tecnológica, ha quedado claro que la mayoría de las empresas no fallan por falta de talento ni de tecnología. Fallan porque confunden avance con velocidad, experimentación con improvisación y tecnología con valor. Tecnologías como blockchain, IoT o inteligencia artificial tienen un enorme potencial cuando se aplican con propósito, pero también pueden terminar mal utilizadas si se adoptan sin contexto, sin validación o simplemente por presión de mercado. No es un tema de capacidades. Es un tema de decisiones. Porque incluso la mejor tecnología pierde relevancia si se lanza sin diseño, sin claridad y sin una necesidad real detrás.
Como escribo en mi libro Innovation Unrated: On Desing Thinking: "No hay peor enemigo de la innovación que el entusiasmo mal dirigido. Porque una idea brillante mal colocada sigue siendo un error de diseño."

Assistive technologies enabler supporting accessibility to banking services, leveraging Google Vertex AI.
Y eso es exactamente lo que está ocurriendo con la inteligencia artificial cuando se fuerza a entrar donde no hace falta, cuando se prioriza lo llamativo por encima de lo útil, cuando se lanza algo porque “tiene que haber IA” y no porque haya un problema que valga la pena resolver.
El caso reciente de WhatsApp lo demuestra con precisión. Una aplicación que millones de personas usan por su simplicidad y familiaridad introduce, sin previo aviso, un botón de Meta AI en su interfaz principal. Sin explicación, sin onboarding, sin validación previa. Lo que debía ser un avance se sintió como una intrusión. Una función que desplazó una de las herramientas más utilizadas, como el botón de audio, y que alteró la experiencia sin aportar valor inmediato. Eso no es innovación. Eso es interferencia. Y el usuario siempre lo detecta.
Lo mismo ocurre con chatbots mal entrenados que generan más frustración que respuestas, con sistemas de recomendación que no entienden el contexto y con flujos automatizados que interrumpen en lugar de facilitar. En todos estos casos, el problema no es la inteligencia artificial. El problema es la desconexión entre tecnología y diseño, entre decisión de negocio y comportamiento humano.
La diferencia entre usar IA y aplicarla con sentido es enorme. Lo primero se logra con un modelo funcional y una API. Lo segundo requiere una visión clara, un proceso disciplinado y una cultura capaz de cuestionar sus propios impulsos. La IA no corrige errores de estrategia. No reemplaza la empatía. Y no transforma una mala experiencia solo porque fue automatizada.
También en el libro:
“Aplicar frameworks sin entender el problema es como usar bisturí sin diagnóstico. Podés tener la herramienta correcta, pero igual vas a causar daño.”
Por eso la pregunta no es cuánta IA tiene una empresa. La pregunta es si está resolviendo algo que de verdad importa. Si el usuario la percibe como una mejora o como una barrera. Si está cumpliendo un propósito claro o simplemente está ahí para aparentar.
Ese teatro de la innovación ya se ha convertido en rutina. Interfaces llenas de funcionalidades que nadie pidió. Dashboards construidos para impresionar al comité ejecutivo, no al cliente. Automatizaciones que complican lo que antes era simple. Todo eso se ve bien en una demo. Hasta que el producto llega al mundo real. Entonces, ¿qué se necesita para innovar con inteligencia?
Primero, asumir que las preguntas difíciles son parte del proceso. ¿Esto que se está construyendo realmente mejora la vida del usuario? ¿Hay evidencia de que alguien lo necesita? ¿Estamos dispuestos a eliminarlo si no funciona?
Segundo, recordar que la empatía sigue siendo la mejor herramienta de innovación. Una IA que no parte de una observación real, que no responde a un comportamiento auténtico y que no ha sido validada por usuarios reales, no es innovación. Es automatización sin alma.
Tercero, trabajar con equipos que no se enamoran de la tecnología, sino del resultado. Equipos que saben cuándo aplicar IA y cuándo dejarla fuera. Que se animan a frenar, a preguntar, a priorizar lo invisible por encima de lo espectacular.
Porque el verdadero liderazgo no se mide por cuánto se lanza, sino por cuánto se cuestiona antes de lanzar.
En GFT trabajamos desde ese nivel de criterio. Ayudamos a idear, validar y construir soluciones basadas en inteligencia artificial solo cuando tiene sentido hacerlo. Cuando resuelve un problema real. Cuando mejora una experiencia concreta. Cuando el diseño lo respalda.
“Porque cuando se aplica con claridad, la inteligencia artificial transforma. Pero cuando se implementa por ansiedad, interfiere. Y cuando eso pasa, el usuario lo nota. Siempre lo nota.”

