Gemini causa revuelo por su capacidad para borrar marcas de agua
¿Una herramienta para eliminar marcas de agua de imágenes?
El modelo de inteligencia artificial Gemini de Google ha generado controversia debido a su capacidad para eliminar marcas de agua de imágenes, incluso mientras la compañía busca simplificar el etiquetado de contenido generado por IA.
Según informes recientes, usuarios en plataformas como X (antes Twitter) y Reddit han señalado que Gemini 2.0 Flash, una versión experimental de la herramienta, puede eliminar marcas de agua de imágenes provenientes de sitios populares como Getty Images y otras plataformas de medios.
Un informe de TechCrunch destaca que esta función de generación de imágenes, disponible de forma gratuita, supera a otras herramientas de IA en la tarea de eliminar marcas de agua. Esto ha levantado preocupaciones sobre el uso ético de la tecnología y su impacto en los derechos de autor.
Generación de imágenes sin restricciones
Además de su capacidad para eliminar marcas de agua, la función de generación de texto a imagen de Gemini parece tener menos limitaciones en comparación con otras herramientas.
Según los reportes, el modelo puede generar imágenes de celebridades y otro contenido protegido por derechos de autor de manera nativa, lo que podría desencadenar acciones legales por parte de los titulares de estos derechos.
Aunque Google ha aclarado que el acceso a la función de generación de imágenes de Gemini 2.0 Flash se expandió recientemente con fines “experimentales” y no para uso en producción, su disponibilidad actual en Google AI Studio —la plataforma de herramientas para desarrolladores de IA— ha generado un debate sobre los posibles usos indebidos de la tecnología.
Google y la lucha por la autenticidad del contenido generado por IA
En 2024, Google DeepMind anunció la disponibilidad pública de SynthID Text, una herramienta diseñada para marcar texto generado por IA.
Además, reveló que su aplicación Google Photos comenzaría a utilizar SynthID para identificar imágenes manipuladas por inteligencia artificial. Estas iniciativas forman parte de los esfuerzos de Google para garantizar la transparencia en el uso de contenido generado por IA.
La compañía, propiedad de Alphabet, también es miembro de la Coalición para la Proveniencia y Autenticidad de Contenido (C2PA), junto con gigantes tecnológicos como Amazon, Microsoft, OpenAI y Adobe.
Este grupo ha desarrollado estándares técnicos para rastrear el origen de las imágenes generadas por IA, incluyendo metadatos con detalles como la fecha de creación y las herramientas utilizadas. Sin embargo, la adopción generalizada y la interoperabilidad de estos estándares siguen siendo un desafío.
Fuente: TechCrunch