Innovación responsable en la era de la IA generativa

A high angle view of a city Description automatically generated with low confidence Imagen generada utilizando Adobe Firefly

La IA generativa está cambiando nuestra forma de concebir la creatividad. Si escribes "render 3D de un dragón de papel, estilo fotografía de estudio", te ofrecerá al instante múltiples variaciones del retrato de una feroz criatura de origami o, si combinas algunos datos con unas sencillas instrucciones, un chatbot puede escribir un convincente correo electrónico de marketing. Es fácil ver el poder que esta tecnología puede brindar tanto a los creadores individuales como a las empresas. La IA generativa permite pintar con texto en lugar de con píxeles (o pintura). Desde el punto de vista empresarial, permite conectar con los clientes de forma eficaz a través de textos, correos electrónicos y contenidos generados automáticamente y, si se aplica correctamente, la IA generativa aporta precisión, potencia, velocidad y facilidad a los flujos de trabajo existentes, lo que permite a las personas centrarse en aspectos más estratégicos o creativos de su trabajo.

La IA generativa también abre la puerta a nuevas cuestiones sobre ética y responsabilidad en la era digital. A medida que Adobe y otros aprovechan el poder de esta tecnología de vanguardia, debemos unirnos en todas las industrias para desarrollar, aplicar y respetar una serie de pautas que guíen su desarrollo y uso responsables.

Basado en la ética y la responsabilidad

Cualquier empresa que desarrolle herramientas de IA generativa debería empezar con un marco ético de IA. Contar con un conjunto de principios éticos de IA concisos y aplicables, así como un proceso de revisión formal integrado en la estructura de ingeniería de una empresa puede ayudar a garantizar que las tecnologías de IA -incluida la IA generativa- se desarrollen de una forma que respete a sus clientes y se alinee con los valores de la empresa. La formación, las pruebas y, en caso necesario, la supervisión humana son elementos esenciales de este proceso.

La IA generativa, como cualquier otra IA, es tan buena como los datos con los que se entrena. La mitigación de los resultados perjudiciales empieza en la creación y el entrenamiento con conjuntos de datos seguros e inclusivos. Por ejemplo, el primer modelo de Adobe de nuestra familia Firefly de modelos de IA generativa creativa se entrena con imágenes de Adobe Stock, contenido con licencia abierta y contenido de dominio público cuyos derechos de autor han expirado. El entrenamiento a partir de conjuntos de datos curados y diversos proporciona de forma inherente a su modelo una ventaja competitiva a la hora de producir resultados comercialmente seguros y éticos.

Pero no se trata sólo de lo que entra en un modelo, también se trata de lo que sale. Porque incluso con buenos datos, se puede acabar con una IA sesgada, que puede discriminar o denigrar involuntariamente y hacer que las personas se sientan menos valoradas. La respuesta es realizar pruebas rigurosas y continuas. En Adobe, bajo la dirección de nuestro equipo de Ética de la IA, probamos constantemente nuestros modelos internamente para comprobar su seguridad y sesgo y proporcionamos esos resultados a nuestro equipo de ingeniería para resolver cualquier problema. Además, nuestras funciones de IA cuentan con mecanismos de retroalimentación para que, cuando se hagan públicas, los usuarios puedan informar de cualquier problema y podamos tomar medidas para solucionarlo. Es fundamental que las empresas fomenten este diálogo bidireccional con el público para que podamos trabajar juntos y seguir mejorando la IA generativa para todos.

Además de la formación, las empresas pueden incorporar diversas medidas técnicas para mejorar la ética de sus productos. Se pueden implementar listas de bloqueo, listas de denegación, clasificadores NSFW para mitigar el sesgo perjudicial en el resultado de un modelo de IA. Si una empresa sigue sin estar segura o satisfecha con el resultado, siempre puede incluir o requerir la intervención de un humano en el proceso para asegurarse de que el resultado cumple sus expectativas.

Y siempre que una empresa se abastezca de IA de un proveedor externo, ya sea para integrarla en los flujos de trabajo de la empresa o en sus propios productos, deberá asegurarse de que la IA cumple sus normas éticas como parte de su proceso de riesgo del proveedor.

La transparencia genera confianza

También necesitamos transparencia sobre el contenido que producen los modelos generativos de IA. Piensa en el ejemplo anterior, pero cambia el dragón por un discurso de un líder mundial. La IA generativa plantea dudas sobre su capacidad para crear contenidos sintéticos convincentes en un mundo digital ya inundado de desinformación. A medida que aumente la cantidad de contenidos generados por IA, será cada vez más importante proporcionar a las personas una forma de transmitir un mensaje y autenticar que es verdadero.

En Adobe, hemos implementado este nivel de transparencia en nuestros productos con nuestras Content Credentials, las cuales permiten a los creadores adjuntar información a un contenido, como su nombre, fecha y las herramientas utilizadas para crearlo. Esas credenciales viajan con el contenido, de modo que cuando la gente lo ve, sabe exactamente de dónde procede y qué le ha pasado en el camino.

No estamos hacienda esto solos. Hace cuatro años fundamos la Iniciativa para la Content Authenticity Initiative con el fin de construir esta solución de forma abierta para que cualquiera pueda incorporarla a sus propios productos y plataformas. Hay más de 900 miembros de todos los ámbitos de la tecnología, los medios de comunicación y la política que se unen para llevar esta solución al mundo.

Y para la IA generativa en concreto, adjuntamos automáticamente Content Credentials para indicar cuándo se ha creado o modificado algo con IA generativa. De este modo, la gente puede ver cómo se creó un contenido y tomar decisiones más informadas sobre si confiar en él

Generative AI image of a dragon created with Adobe Firefly.

Imagen generada utilizando Adobe Firefly.

Respetar la elección y el control de los creadores

Los creadores quieren controlar si su trabajo se utiliza para entrenar IA generativa o no. Algunos no quieren que sus contenidos entren en la IA. Para otros, es un placer que se utilicen en los datos de entrenamiento para ayudar a crecer a esta nueva tecnología, especialmente si pueden conservar la atribución de su trabajo. Mediante la tecnología de procedencia, los creadores pueden adjuntar credenciales de "No entrenar" que viajan con sus contenidos allá donde vayan. Con la adopción del sector, esto ayudará a evitar que los rastreadores web utilicen obras con credenciales "Do Not Train" como parte de un conjunto de datos. Juntos y con los esfuerzos exploratorios para compensar a los creadores por sus contribuciones, podemos construir una IA generativa que empodere a los creadores y mejore sus experiencias.

Un viaje constante

Justo estamos tocando la superficie de la IA generativa y la tecnología mejora día a día. A medida que siga evolucionando, la IA generativa planteará nuevos retos y es imprescindible que la industria, el gobierno y la comunidad trabajen juntos para resolverlos. Compartiendo las mejores prácticas y respetando las normas para desarrollar la IA generativa de forma responsable, podemos aprovechar las posibilidades ilimitadas que ofrece y construir un espacio digital más fiable.