He leído estos días en Xataka una idea que veo cada semana en proyectos reales: las empresas están metiendo IA en todo y, muchas veces, el usuario no la quiere. En una pyme el problema es aún más delicado, porque el coste no es “solo la licencia”: es el tiempo perdido, la confusión en el equipo y los errores nuevos que aparecen.
Yo no soy anti-IA. Uso IA a diario. Pero la uso cuando reduce trabajo o reduce errores. Cuando mete fricción, la quito. Aquí tienes un checklist para decidir en 60–90 minutos si una herramienta “con IA” te conviene o es puro ruido.
Paso 1 (10–15 min): elige un proceso concreto, no “la empresa”. La IA no se adopta “en general”. Se adopta en una tarea: responder emails repetitivos, resumir reuniones, clasificar tickets, redactar propuestas, etiquetar leads, etc. Escribe el proceso en una frase y ponle un número: ¿cuántas veces pasa por semana y cuánto tarda?
Paso 2 (10–15 min): define el resultado mínimo aceptable. Antes de probar nada, define qué tiene que pasar para que compense. Ejemplos: “ahorrar 30 minutos al día”, “reducir respuestas fuera de tono”, “bajar los tickets mal clasificados”. Sin esto, cualquier demo “parece” útil.
Paso 3 (15–20 min): haz una prueba A/B de andar por casa. No hace falta un experimento científico: coge 10 casos reales (10 emails, 10 tickets, 10 descripciones de producto). Haz 5 con tu método actual y 5 con la herramienta con IA. Cronometra y apunta errores. Si el equipo es de 2–3 personas, que lo prueben dos perfiles distintos: el que domina el proceso y el que lo sufre.
Paso 4 (10–15 min): revisa el “coste oculto”. La IA a veces ahorra 2 minutos y te añade 5 de revisión. Preguntas prácticas: ¿requiere que el equipo aprenda un flujo nuevo? ¿te obliga a copiar/pegar entre herramientas? ¿rompe tu forma actual de trabajar? Si la respuesta es sí, súmale ese coste al cálculo.
Paso 5 (10–15 min): controla riesgos de datos y reputación. Aquí hay que ser serio. Si la herramienta toca datos de clientes, contratos o facturación, necesitas saber dónde se guarda y quién accede. Si no lo sabes, no es “innovación”: es riesgo. Y si la IA genera texto que sale al cliente (emails, WhatsApp, soporte), define un control: siempre revisión humana hasta que tengas confianza.
Errores comunes (y cómo detectarlos): 1) Probarla con ejemplos inventados. Se detecta porque “funciona genial” en demos, pero en tu semana real no la usáis. 2) Medir solo velocidad, no calidad. Se detecta porque respondes más rápido pero suben quejas, devoluciones o idas y vueltas. 3) Meter IA donde no hay repetición. Se detecta porque cada caso es distinto y acabas reescribiendo todo.
Cómo medir si ha funcionado: elige 2 métricas durante 7 días: (1) tiempo medio por tarea (antes/después) y (2) tasa de retrabajo (cuántas veces hay que corregir o rehacer). Si es atención al cliente, añade una tercera: tiempo hasta primera respuesta o satisfacción del cliente si la tenéis.
Cuándo compensa delegar: si tu caso de uso implica integrar varias herramientas (CRM, email, WhatsApp, facturación) o automatizar con n8n/Make, delegaría cuando la prueba manual ya demuestre valor, pero el montaje te lleve a “chapuzas” (copiar/pegar, pasos manuales, falta de control). Ahí merece la pena que alguien lo conecte bien, con trazabilidad y un plan de fallback. Si ni siquiera la prueba manual mejora métricas, no inviertas en integraciones: no hay nada que amplificar.