Contenido desarrollado por:
Alejandra Ciria
En esta sección, se revisan algunas de las consideraciones éticas que son relevantes conocer y tomar en cuenta al usar herramientas de IA. Para esto, se describe qué implica cada una de las consideraciones éticas y se otorgan algunas ideas para poder abordar los dilemas éticos desde una perspectiva personal y responsable, así como sugerencias para discutir estos temas de forma didáctica en la docencia.
Para profundizar más sobre estos temas, te recomendamos que revises la primera norma mundial sobre la ética de la IA desarrollada por la UNESCO en el 2021, los cuatro valores fundamentales planteado por la UNESCO que sientan las baes para que los sistemas de IA trabajen por el bien de la humanidad, las personas, las sociedades y el medioambiente, así como nuestra sección con diversos recursos educativos.
¿Conoces a la IA o la IA te conoce mejor a ti? Considerando la ética de la IA (versión en inglés con subtítulos multilingües).
Fuente: UNESCO Inteligencia Artificial.
El incremento en la tendencia de usar las herramientas de IA y el aumento en la creación de centros de datos provocará un incremento significativo en la demanda energética a nivel mundial. Se estima que se generará un aumento del 15% en demanda de energía por el uso de herramientas de IA, y que en un periodo 2023 a 2030 se requeriría aproximadamente 47 GW de capacidad para cumplir la demanda del crecimiento en esta industria.
El entrenamiento que requieren las herramientas de IA consume mucha energía. Esto se debe a que son entrenadas con muchísimos datos (ejemplos) para aprender los patrones asociados a la estructura del lenguaje (o de imágenes, videos, etc.) y sean capaces de generar predicciones basadas en lo que se ha aprendido. A la vez, durante el entrenamiento las redes neuronales artificiales ajustan las conexiones entre las neuronas de la red, por lo que se requiere ajustar millones de parámetros para que las redes puedan aprender.
De la misma forma, se pueden generar residuos de aparatos eléctricos y electrónicos (RAEE), los cuales son los productos que están presentes en la vida cotidiana y para poder funcionar necesitan de la corriente eléctrica o de los campos electromagnéticos, pero que después de algún tiempo dejan de ser útiles o funcionales (Ministerio de Ambiente y Desarrollo Sostenible, s. f.). Los residuos electrónicos son muy contaminantes debido a que contienen metales pesados que se descomponen de manera lenta y pueden liberar diferentes sustancias como el plomo, el cadmio, el mercurio, el cianuro, las dioxinas y furanos (Universidad Pontificia Bolivariana, 2021).
Ser conscientes de que cada consulta que se realiza usando herramientas de IA: Mientras más complejo sea un modelo detrás de una herramienta de IAGen necesita consumir más electricidad que una búsqueda web tradicional. Para un uso sostenible, utiliza las herramientas de IA solo cuando realmente aporte valor. Por ejemplo, evita hacer preguntas triviales por entretenimiento.
Reflexiona sobre el tipo de herramienta de IA que necesitas según la actividad que vas a realizar: Investiga sobre el tipo de herramientas que existen y decide cuál usar según la que sea más apropiada para la tarea. Un primer acercamiento, es revisar nuestro catálogo con algunas de las herramientas de IA.
Planea las preguntas y estructura tu prompt con anticipación: Esta estrategia es pedagógicamente útil y al mismo tiempo te ayuda a cuidar el planeta. Cuando estructures tus prompts recuerda que es importante agregar el contexto necesario de la tarea para reducir el número de preguntas o interacciones que realizas con las herramientas de IA.
Exigir transparencia: Optar por proveedores de herramientas de IAGen que publiquen sus esfuerzos ambientales es un esfuerzo importante.
Actividades para realizar en clase: Este tema abre la puerta a conversar sobre la ética medioambiental del uso de diversas tecnologías. Para esto, se pueden asignar lecturas o debates sobre el costo energético de las herramientas de IA, así como otras tecnologías digitales y no digitales, vinculándolos con los Objetivos de Desarrollo Sostenible de la UNESCO.
Las herramientas de IA son entrenadas con datos que pueden contener prejuicios sociales, culturales, de género, de ideas, etc., los cuales se pueden reflejan en sus respuestas. Aunque las herramientas de IAGen suelen pasar por intensos procesos de ajustes para contrarrestar y evitar estos sesgos en las respuestas que otorgan, es difícil evitar que ciertos sesgos se presenten. Aquí, también es importante cuestionarnos sobre quiénes deciden sobre los valores a replicar, qué es correcto o incorrecto, qué sesgos deben evitarse y cuáles deben fomentarse, cuál es la manera apropiada de responder y de presentar la información, etc. El aspecto ético de estas decisiones es considerable y se vuelve aún más controversial si se considera que muchas de estas decisiones son realizadas por las personas detrás de grandes compañías.
Los sesgos en las herramientas de IA están presentes en distintos ámbitos, desde los datos con los que se han entrenado a las herramientas de IA, hasta sesgos que se inducen de manera intencional. Esto significa que los sesgos pueden ser inducidos por los creadores de las herramientas de IA, por ejemplo, el tipo de resultados que se te presentan, por ejemplo, al hacer una búsqueda en Google, en Amazon, o en YouTube. Por lo tanto, los sesgos pueden reproducirse con intenciones de manipulación para, por ejemplo, inducir que se compre un producto que ha pagado por publicidad en Amazon.
Uno de los procesos de ajustes de sesgos se conoce como "curado de contenido" el cual implica que personas juzguen el contenido y moderen si es apropiado para cierta audiencia o para usarse como datos de entrenamiento. Muchas de las personas que realizan el curado del contenido son contratadas por grandes empresas y trabajan desde sus casas. Desafortunadamente, estas grandes empresas pocas veces se preguntan sobre las condiciones de trabajo en las que se encuentran estas personas, así como en los motivos que las llevaron a trabajar bajo estas condiciones. Mucho del contenido detrás de internet, de los datos de entrenamiento que usan las herramientas de IA, así como del proceso de ajuste post-entrenamiento depende del trabajo de estas personas, el cual, dadas las condiciones de trabajo en las que se encuentran y el poco reconocimiento que reciben, suele ser conocido como "Trabajo Fantasma".
En esta imagen puedes ver el resultado de solicitarle a ChatGPT 4o: "genera una imagen de investigadores".
En este ejemplo, gracias a distintas técnicas para evitar sesgos, al generar la imagen se ha intentado evitar el sesgo de género, agregando dos mujeres investigadoras y dos hombres investigadores.
Sin embargo, es posible observar que se conservan ciertos sesgos de género, así como otros sesgos relacionados con la edad, la estatura, la complexión, etc.
¿Qué otros sesgos puedes observar en la imagen?
¿Qué son los sesgos algorítmicos? Te recomendamos ver este video para conocer un poco más sobre los sesgos algorítmicos dentro de las herramientas de IA.
Para conocer más sobre el tema del "Trabajo Fantatma", te recomendamos el libro de Mary L.Gray y Siddharth Suri: Ghost Work.
Te recomendamos revisar la plataforma Women4Ethical AI de la UNESCO que tiene como objetivo hacer avanzar la igualdad de género en la agenda de la IA.
Incrementar el conocimiento sobre el problema: Es importante que docentes, estudiantes, y toda persona que usa internet tengan conocimientos respecto a que las herramientas de IA pueden reproducir sesgos y discriminaciones inadvertidas. La consciencia de las y los usuarios sobre este problema, es la base fundamental que permite tomar decisiones que lleven a realizar acciones que ayuden a mitigar esta problemática.
Diversificar el contenido que se proporciona al usar las herramientas: Muchas veces, los sesgos provienen de la propia persona que usa las herramientas de IA, ya sea desde la forma en que busca información o solicita cierto contenido que replica los sesgos. Para evitar esto, se recomienda reflexionar pensar en los posibles sesgos que estamos replicando, por ejemplo, al pedir ejemplos o imágenes. La inclusión de contextos variados y evitando sesgos en el lenguaje es una estrategia que ayuda a mitigar esta problemática.
Pensamiento crítico: Las personas que desarrollan las herramientas de IA utilizan distintas técnicas para mitigar los sesgos, pero al entender que estas herramientas son entrenadas con nuestros datos, si las usamos teniendo un pensamiento crítico podemos tomar medidas, contrastando siempre la información y evitando estereotipos en los prompts que realizamos diversificando el contenido.
Actividades para realizar en clase: Se pueden analizar casos de sesgo de motores de búsqueda, así como diversas herramientas de IAGen como actividad de discusión y para estructurar debates sobre el contenido (sesgos sociales y consideraciones éticas, preferencias de compras, información académica que se prioriza en las búsquedas, etc.).