La reciente noticia sobre Deloitte Australia —que debió reembolsar parte de su contrato con el gobierno australiano tras entregar un informe lleno de errores atribuibles al uso de IA generativa— nos brinda una valiosa lección para todos los que trabajamos en consultoría, industria, tecnología o gestión institucional.

FUENTE: The Guardian 6.Oct.2025 Ir a la noticia

El incidente revela cómo, aún con las herramientas más avanzadas, seguimos enfrentando riesgos reales: la famosa “alucinación” de los modelos de IA, cuando generan información convincente pero falsa o sin respaldo.

En Comunia, Marketing y Comunicación utilizamos la IA para potenciar de forma extraordinaria los resultados para nuestros clientes —mejorando eficiencia, detectando patrones y habilitando nuevos escenarios de análisis—, pero siempre con salvaguardas.

A continuación compartimos algunos tips para trabajar con IA y evitar sorpresas:

✅ 5 TIPS PARA USAR IA DE FORMA CONFIABLE

  1. Verificar las fuentes
    – Siempre cotejar referencias, citas y datos que la IA haya generado: ¿existe realmente el estudio? ¿La cita está bien atribuida?
    – No aceptar como válidos los resultados sin pasar por un chequeo humano riguroso.
  2. Mantener control humano
    – La IA es una herramienta, no el decisor final: el profesional debe seguir siendo quien firme, valide y asuma la responsabilidad.
    – Revisar cada aparte clave del documento antes de publicarlo o presentarlo.
  3. Registrar la metodología
    – Documentar cuándo y cómo se usó la IA (qué modelo, qué datos, qué prompts), para auditar el proceso y tener trazabilidad.
    – Establecer políticas internas de uso de IA: qué está permitido, qué no, quién lo supervisa.
  4. Dudar de lo “demasiado perfecto”
    – Si el contenido parece impecable pero no hay verificaciones externas, puede estar generando “lenguaje plausible” pero sin base real.
    – Las “alucinaciones” pueden manifestarse como citas de libros inexistentes, datos fabricados o conclusiones sin respaldo.
  5. Fomentar una cultura de transparencia y aprendizaje
    – Compartir internamente casos de error o casi‐error con IA para aprender colectivamente.
    – Actualizar protocolos y formación de equipos para que comprendan tanto el poder como los límites de la IA.

🔍 Reflexión final

El caso de Deloitte no es un llamado a temer la IA, sino a usar la IA con responsabilidad. Cuando la incorporamos bien —como aliado de nuestras capacidades humanas— podemos elevar considerablemente el valor que brindamos. Pero si la usamos sin los controles adecuados, los riesgos de reputación, calidad e impacto se multiplican.