En este artículo hablaremos sobre la reducción de sesgos y mejora de la seguridad en DALL-E 2, la tecnología de inteligencia artificial de generación de imágenes desarrollada por OpenAI
Hoy se está implementando una nueva técnica para que DALL·E genere imágenes de personas que reflejen con mayor precisión la diversidad de la población mundial. Esta técnica se aplica a nivel del sistema cuando DALL·E recibe un aviso que describe a una persona que no especifica la raza o el género, como por ejemplo: “bombero”.
Según la evaluación interna, los usuarios tenían 12 veces más probabilidades de decir que las imágenes DALL·E incluían personas de diversos orígenes después de aplicar la técnica. Se planea mejorar esta técnica con el tiempo a medida que se recopilen más datos y comentarios.
En abril, se comenzó a realizar una vista previa de la investigación DALL·E 2 para un número limitado de personas, lo que ha permitido comprender mejor las capacidades y limitaciones del sistema y mejorar los sistemas de seguridad.
Durante esta fase de vista previa, los primeros usuarios han marcado imágenes sensibles y sesgadas que han ayudado a informar y evaluar esta nueva mitigación.
Se sigue investigando cómo los sistemas de IA, como DALL·E, podrían reflejar sesgos en sus datos de entrenamiento y las diferentes formas en que pueden ser abordados.
Durante la vista previa de la investigación, se han tomado otras medidas para mejorar los sistemas de seguridad, que incluyen:
- Minimizar el riesgo de que DALL·E se utilice indebidamente para crear contenido engañoso al rechazar cargas de imágenes que contengan rostros realistas e intentos de crear la semejanza de figuras públicas, incluidas celebridades y figuras políticas prominentes.
- Hacer que los filtros de contenido sean más precisos para que sean más efectivos en el bloqueo de avisos y cargas de imágenes que violan la política de contenido y al mismo tiempo permitan la expresión creativa.
- Refinar los sistemas de monitoreo automatizados y humanos para protegerlos contra el uso indebido.
Estas mejoras han ayudado a ganar confianza en la capacidad de invitar a más usuarios a experimentar DALL·E.
Ampliar el acceso es una parte importante de la implementación responsable de los sistemas de IA porque permite aprender más sobre el uso en el mundo real y continuar iterando en los sistemas de seguridad.