La IA esta dañando a la consultora KPMG
Una investigación del Senado en Australia se enfocó en examinar a fondo la ética y la responsabilidad social de la industria de consultoría en el país, incluyendo a prestigiosas empresas consultoras como KPMG y Deloitte, para considerar cambios regulatorios amplios. Sin embargo, esta investigación ha desencadenado un debate sobre la reputación en la industria, en medio de acusaciones por parte de KPMG de que la inteligencia artificial (IA) ha dañado su reputación.
El informe presentado por un grupo de académicos señalaba a las principales empresas de consultoría, incluyendo a KPMG, como supuestas involucradas en una serie de escándalos y prácticas cuestionables. Sin embargo, se descubrió que estas acusaciones eran completamente infundadas y habían sido generadas por una herramienta de IA conocida como Google Bard, de acuerdo con The guardian.
Implicación de KPMG en escándalos
El informe sostenía que KPMG estaba involucrada en un supuesto «escándalo de robo de salarios de 7-Eleven de KPMG» que resultó ser completamente inexistente. Además, acusaba a KPMG de auditar al Commonwealth Bank durante un escándalo de planificación financiera, una afirmación que carecía de fundamento. La gravedad de estas acusaciones radicaba en el hecho de que estaban protegidas por el privilegio parlamentario, lo que dificultaba la capacidad de KPMG para defenderse y proteger su reputación.
La respuesta de KPMG a esta situación no se hizo esperar. Andrew Yates, director ejecutivo de KPMG, escribió al comité parlamentario conjunto de corporaciones y servicios financieros, que había aprobado y cargado el documento, expresando su profunda preocupación y descontento.
Yates también subrayó que las vidas de más de 10,000 empleados de KPMG podían verse afectadas negativamente cuando se difundía información evidentemente incorrecta respaldada por el privilegio parlamentario y presentado como un hecho. La firma acusó a la IA de dañar su reputación y resaltó en riesgo de confiabilidad de las herramientas de IA en la generación de información.
Confianza en la IA
El escándalo ha planteado importantes cuestionamientos y responsabilidad social en el uso de la IA sin una verificación adecuada de los datos generados por estas herramientas. En la declaración del Senado, este destaca que, aunque las herramientas de IA pueden parecer una forma de reducir la carga de trabajo, si no se comprenden adecuadamente ni se aplican con supervisión detallada y una verificación rigurosa, pueden poner en peligro la integridad y la precisión del trabajo.
En este caso, la información arrojada por Google Bard, es un ejemplo de cómo las nuevas tecnologías están transformando la forma en que se produce y se difunde información. Si bien pueden generar grandes cantidades de datos y texto de manera eficiente sin una adecuada verificación corre el riesgo de dañar más que ayudar.
Responsabilidad en la generación de información
En una carta al Senado, el profesor emérito James Guthrie asumió la responsabilidad por los errores generados por la IA y se disculpó en nombre de los académicos involucrados. Guthrie destacó que, dada la utilización de la IA, el equipo de autores entero se disculpaba sinceramente con el comité y con las principales empresas de consultoría por haber dañado su reputación.
La académica de la Universidad de Sídney, Jane Andrew, quien no estaba directamente involucrada en la investigación de la IA, pero sí contribuyó a la presentación, ya había expresado previamente preocupaciones sobre el creciente papel de la IA en la publicación académica. En un artículo de 2022 titulado «Los peligros de la inteligencia artificial en la publicación académica,» se centró en cómo la creciente influencia de la IA en tareas históricamente realizadas por seres humanos, como la edición y revisión de artículos académicos, planteaba desafíos a la comunidad académica.