La IA generativa ha avanzado mucho, pero las alucinaciones siguen estando a la orden del día. Y es que la IA prefiere inventarse una respuesta antes que decir que no sabe algo. Quienes la usamos a menudo sabemos que no podemos fiarnos al 100% y siempre hay que hacer comprobaciones. En Deloitte no pensaron que comprobar fuera importante y ahora tienen que devolver casi 300.000 dólares al gobierno australiano.
Qué ha pasado. El departamento de empleo del gobierno australiano encargó un informe a la consultora Deloitte. Fue publicado el pasado mes de julio y todo iba bien hasta que, tal y como cuentan en AP, un investigador de la Universidad de Sydney alertó a los medios de que el informe estaba plagado de referencias erróneas, incluyendo una cita inventada de una sentencia judicial y referencias a estudios que no existían. La compañía lo retiró y se publicó una versión revisada.
Por qué es importante. La industria de la consultoría es un negocio multimillonario (se estima que en 2024 generó la friolera de 354.000 millones de dólares) y, por su propia esencia y forma de operar, es uno de los sectores vulnerables a la “sustitución por IA”. La IA ya es una tecnología muy usada en el sector para tareas como gran análisis de datos, generación de informes o presentaciones y otras tareas administrativas. El caso de Deloitte es un buen ejemplo de esto, pero evidencia que es necesaria la supervisión humana. Probablemente nos encontremos con más casos así en el futuro.
Consecuencias. El gobierno pagó casi 300.000 dólares a Deloitte por la elaboración del informe, por lo que la firma deberá devolver el importe parcialmente. Sin embargo, Barbara Pocock, senadora del partido de los verdes, cree que deberían devolver el importe completo: “Deloitte hizo un uso indebido de la IA: citó erróneamente a un juez y utilizó referencias inexistentes (…) Son el tipo de cosas por las que un estudiante universitario de primer año se metería en un buen lío”.
Disimula, que no se ha notado. Chris Rudge, el investigador que descubrió el pastel, dice que el documento contenía al menos 20 errores, entre los que se encontraba una referencia a un libro escrito por una conocida suya y que no existía. Quizás el más grave de todos es que cita una frase de un juez totalmente inventada. A pesar de tratarse de un caso tan evidente, Deloitte no ha admitido que los errores sean generados por el uso de IA y se han limitado a comentar que “el asunto se ha resuelto directamente con el cliente”.
Imagen | Wikipedia
En Xataka | Klarna tiene clarísimo que la IA es el mejor aliado posible. Así que la ha usado para sustituir a su CEO
–
La noticia
«Son cosas por las que un universitario se metería en un lío»: Deloitte entregó a Australia un informe hecho con IA
fue publicada originalmente en
Xataka
por
Amparo Babiloni
.