Tecnología

Cuando las fotos ya no prueban nada: la inteligencia artificial abre la puerta a devoluciones fraudulentas

Durante años, una imagen bastaba para demostrar un problema. Un producto roto, un paquete dañado o un error en la entrega podían resolverse con una simple fotografía enviada al servicio de atención al cliente. Hoy, esa lógica empieza a resquebrajarse. La inteligencia artificial ha alcanzado un nivel de realismo tal que las imágenes ya no son una prueba fiable, y el comercio electrónico está empezando a pagar el precio.

Modelos avanzados de generación de imágenes, como Nano Banana, permiten crear o modificar fotos con un grado de detalle prácticamente indistinguible de la realidad. El resultado es una nueva forma de fraude: clientes que generan imágenes falsas para obtener reembolsos por productos que nunca estuvieron dañados.

El mecanismo es tan simple como efectivo. Un cliente recibe un pedido en buen estado, hace una foto real del producto y luego utiliza una herramienta de IA para añadir daños creíbles: golpes, roturas, manchas o desperfectos causados supuestamente durante el transporte. La imagen se envía al servicio de atención al cliente y, en muchos casos, el reembolso se aprueba sin más comprobaciones.

La inteligencia artificial no solo está transformando cómo creamos contenido, sino también cómo confiamos en él.

Un ejemplo ilustrativo es el de un pedido de huevos a domicilio. Solo uno llegó roto, pero la imagen fue alterada para mostrar varios huevos dañados. El resultado: devolución aprobada sin necesidad de devolver el producto. Este tipo de casos está dejando en evidencia la fragilidad de los sistemas actuales de verificación.

Más allá del impacto económico, el problema de fondo es mucho más profundo. Las imágenes han dejado de ser una prueba objetiva. Ya ocurrió con los primeros vídeos y fotos hiperrealistas generados por IA, pero ahora el fenómeno se extiende al día a día de millones de transacciones digitales.

Esto no solo afecta al comercio electrónico. Si una imagen puede falsificarse con facilidad, también se vuelve cuestionable cualquier evidencia visual: justificar una ausencia en el trabajo, exagerar daños ante una aseguradora o incluso mentir en el ámbito personal. La frontera entre lo real y lo fabricado se vuelve cada vez más difusa.

El fenómeno se ha detectado con especial intensidad en China, el mayor mercado de comercio electrónico del mundo. Durante eventos masivos de ventas como el 11.11, numerosas tiendas reportaron solicitudes de reembolso acompañadas de imágenes generadas por IA: cepillos eléctricos supuestamente oxidados, ropa “defectuosa” o tazas de cerámica rotas que nunca lo estuvieron.

Algunos fraudes han sido descubiertos por errores evidentes —como vídeos de cangrejos vivos en los que los animales tenían más patas de las normales—, pero estos casos solo representan la punta del iceberg. La verdadera preocupación son las falsificaciones sutiles, aquellas que pasan desapercibidas y se aceptan como legítimas.

Aunque China concentra muchos casos por el tamaño de su mercado, el problema no es exclusivo de un solo país. Se han detectado situaciones similares en India, Estados Unidos y otros mercados occidentales. Según la firma especializada en prevención de fraudes Forter, el uso de imágenes generadas por IA para engañar a comercios online creció un 15% en 2025, coincidiendo con la llegada de modelos más avanzados y accesibles.

Y todo apunta a que esta cifra seguirá aumentando. Herramientas más potentes y fáciles de usar reducen la barrera de entrada, haciendo que este tipo de engaños esté al alcance de cualquier usuario con conocimientos mínimos.

Este tipo de fraude se concentra especialmente en productos de bajo valor, perecederos o frágiles, donde las empresas optan por devolver el dinero sin exigir la devolución del artículo. Es una política pensada para mejorar la experiencia del cliente, pero que ahora se vuelve vulnerable.

La inteligencia artificial ha alcanzado un nivel de realismo tal que las imágenes ya no son una prueba fiable.

Ante este nuevo escenario, las plataformas tendrán que replantear sus estrategias. Una posible solución es obligar a que las fotos se tomen directamente desde la aplicación, evitando la subida de imágenes editadas desde el carrete. Otras opciones incluyen el uso de metadatos, marcas de agua dinámicas o incluso análisis automatizados para detectar patrones de manipulación.

La generación de imágenes hiperrealistas marca un antes y un después. Ya no basta con “ver para creer”. El comercio electrónico, las aseguradoras y muchas otras industrias deberán adaptarse a un mundo en el que la evidencia visual ha perdido su valor probatorio.

La inteligencia artificial no solo está transformando cómo creamos contenido, sino también cómo confiamos en él. Y en ese cambio, empresas y usuarios tendrán que aprender a convivir con una nueva realidad: una en la que la verdad ya no siempre cabe en una foto.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *