El escándalo que sacude a Deloitte: informes millonarios con citas inventadas por IA

El prestigio de las grandes consultoras internacionales vuelve a quedar bajo escrutinio. Deloitte, una de las firmas más influyentes del mundo, enfrenta un nuevo escándalo por el uso indebido de inteligencia artificial en documentos oficiales, esta vez en Canadá. Un informe de 1,6 millones de dólares encargado por la provincia de Newfoundland y Labrador, destinado a proyectar las necesidades futuras de médicos y enfermeros, está siendo revisado después de que periodistas detectaran referencias bibliográficas que parecen directamente inventadas.
El estudio, de 526 páginas, incluía citas, artículos académicos, revistas especializadas y códigos DOI que no pudieron ser verificados en ningún repositorio científico. El patrón de los errores coincide con un fenómeno ampliamente documentado: las “alucinaciones” de los modelos de lenguaje, que generan citas plausibles pero ficticias cuando se utilizan sin supervisión rigurosa. Lo que debía ser un documento técnico para fundamentar decisiones de política sanitaria terminó revelando inconsistencias que comprometen su credibilidad.
Deloitte aseguró inicialmente que el informe había sido redactado por profesionales humanos y que la inteligencia artificial solo se había utilizado para “asistir en un conjunto limitado de citas”. Sin embargo, la compañía ya reconoció que algunas de esas referencias eran incorrectas y afirma encontrarse en proceso de corrección. La explicación, lejos de apaciguar la polémica, abrió un debate mayor: ¿cómo una consultora global puede entregar un informe millonario con errores tan elementales de validación documental?
Este episodio no es aislado. Hace pocas semanas, Deloitte también quedó envuelta en otra controversia en Australia, donde un informe gubernamental de 440.000 dólares contenía citas falsas e incluso una referencia judicial completamente inventada. Ambos casos ampliaron la preocupación sobre la calidad del trabajo producido por consultoras que, cada vez más, incorporan IA generativa en sus procesos sin mecanismos de control adecuados.
La controversia está generando reacciones inmediatas en los gobiernos implicados. Tanto Canadá como Australia han iniciado revisiones para determinar qué ocurrió, por qué fallaron los mecanismos de supervisión y qué responsabilidad le cabe a Deloitte en la producción de informes públicos con información defectuosa. Funcionarios, legisladores y especialistas en ética tecnológica coinciden en que se necesitan normativas más estrictas sobre el uso de IA en asesoramiento gubernamental, sobre todo cuando la información proporcionada influye en políticas sanitarias, educativas o económicas.
La situación expone un problema más profundo: la creciente dependencia de grandes consultoras respecto a herramientas de IA sin controles robustos. En un contexto donde los gobiernos externalizan análisis críticos y miles de decisiones públicas se basan en estos informes, la falta de rigor puede tener consecuencias reales en la formulación de políticas. La promesa de eficiencia que ofrece la IA se vuelve irrelevante cuando se sacrifican la exactitud, la trazabilidad y la confiabilidad.
El escándalo no solo golpea la imagen de Deloitte, sino que plantea un interrogante clave para toda la industria: ¿pueden las consultoras garantizar que la inteligencia artificial sea un recurso complementario y no una fuente de errores costosos y vergonzosos? El debate recién comienza, pero los gobiernos ya están exigiendo explicaciones y medidas concretas. En un momento donde la confianza pública es un activo escaso, las firmas que históricamente vendían credibilidad hoy se ven obligadas a demostrar que siguen mereciéndola.
