Generative-AI-professional-Certification

Capitulo 6 - Destino IA: Introducción a la Inteligencia Artificial

Image (Image created with AI)

6.1 - Identifica los desafíos en la creación de una IA responsable y confiable

Explora los Desafíos de los Datos

Como hemos visto, las grandes empresas tecnológicas recopilan una gran cantidad de datos. Utilizan estos datos con fines publicitarios, pero eso no es todo. Con la llegada de la inteligencia artificial, pueden utilizar estos datos para automatizar ciertas tareas. Ya no son los humanos quienes toman decisiones, son los algoritmos.

Debes ser consciente de cómo los algoritmos de IA utilizan los datos, especialmente cuando se trata de tus datos personales y cuando esos datos están sesgados. Veamos cada uno de estos casos.

Verifica Cómo se Utilizan Tus Datos Personales

Envías y recibes correos electrónicos todo el día. Probablemente uses tus aplicaciones de mapas favoritas para moverte. Utilizas servicios digitales todos los días.

Hay un lado negativo en estos servicios convenientes en su mayoría gratuitos que no debes pasar por alto. Los datos que produces pueden ser recopilados y analizados para su uso en publicidad, entre otras cosas. Tu perfil se examina en función de tu uso y hábitos observados para que se te sugieran anuncios y funciones dirigidos.

Hay una expresión que utilizamos para describir este fenómeno: “¡si es gratis, tú eres el producto!” Esto se puede ver en la mayoría de las grandes empresas tecnológicas, que dependen de esto como su modelo de negocio principal.

### Entonces, ¿cómo puedo asegurarme de que mi información no se utilice con fines no deseados? ¡Aplicando el pensamiento crítico! Cuando utilizas un servicio digital, tómate un momento para identificar qué datos se están recopilando y utilizando.

Por ejemplo, cuando se te pide identificar imágenes para demostrar que no eres un robot (como en el sistema CAPTCHA), en realidad estás entrenando algoritmos para reconocer ciertas imágenes. Cuando permites que se rastree tu actividad en una página web al aceptar cookies, en realidad estás permitiendo que los algoritmos sugieran anuncios dirigidos en función de tus preferencias.

Algunas de estas prácticas te parecerán aceptables, mientras que otras no. ¡Lo importante es estar informado!

Muchos países tienen organizaciones que supervisan la protección de datos personales, como la Oficina del Comisionado de Información (ICO, por sus siglas en inglés) en el Reino Unido. En la Unión Europea, el Reglamento General de Protección de Datos (RGPD) entró en vigor en 2018. Esta regulación tiene como objetivo fortalecer las pautas para las organizaciones públicas y privadas que manejan datos personales.

En algunos países, existen usos que plantean preguntas. Este es el caso en China, donde ahora estamos viendo la vigilancia estatal de la actividad web de los ciudadanos y de sus movimientos y comportamiento mediante el reconocimiento de imágenes, con la mayoría de las ciudades bajo vigilancia de video. Los datos personales y los sistemas de IA se utilizan para asignar a cada ciudadano una puntuación en función de sus acciones, y esta puntuación determina su acceso a servicios como el crédito y el transporte.

¿Cómo puedo mantener el control sobre los datos que se recopilan?

Para las grandes empresas tecnológicas, el primer paso es analizar la información recopilada para comprenderla mejor (en el caso de Google, puedes ir a Google Takeout para ver todos tus datos registrados). Una vez que lo sepas, ¡no dudes en cambiar la configuración de privacidad! Por ejemplo, puedes desactivar el seguimiento por GPS para aplicaciones de mapas de ruta, acondicionamiento físico y citas. También puedes reducir su activación permitiendo el acceso a la ubicación solo mientras estás utilizando la aplicación.

### ¿Existen empresas que no recopilan datos?` ¡Sí! Empresas como DuckDuckGo, Ecosia, Firefox y Startpage no recopilan ni utilizan tus datos personales.

Sé consciente del riesgo de sesgo

Como verás, los algoritmos pueden reproducir sesgos. Los algoritmos nunca son neutrales, ya que se basan en bases de datos de aprendizaje. Por ejemplo, los datos pueden estar sesgados por ser una representación imperfecta del mundo (como en el caso de un algoritmo de reconocimiento visual que aprende principalmente de sujetos blancos) o por imitar un mundo imperfecto. Por lo tanto, si los datos utilizados para entrenar un algoritmo contienen rastros de discriminación, el algoritmo podría tomar decisiones discriminatorias.

Veamos un ejemplo del mundo real: la contratación. Los departamentos de recursos humanos de hoy en día utilizan cada vez más soluciones de inteligencia artificial. Por ejemplo, el software puede analizar automáticamente documentos como currículums vitae para seleccionar a los candidatos más adecuados.

En 2015, Amazon desarrolló un software de contratación para analizar a los solicitantes de diversos puestos de trabajo. En poco tiempo, la empresa se dio cuenta de que el algoritmo tenía un sesgo contra las solicitantes femeninas. El sistema rechazaba automáticamente a más solicitantes femeninas que a solicitantes masculinos porque se había entrenado con datos de la estructura organizativa de Amazon, que mostraba que el 85%delos empleados de Amazon eran hombres.

Una vez que descubrieron esto, dejaron de utilizar la herramienta.

Por supuesto, tales instancias no ocurren de manera sistemática; muchas herramientas que incorporan inteligencia artificial son bastante útiles, incluidas las herramientas de contratación, que en la mayoría de los casos hacen un excelente trabajo al emparejar a posibles solicitantes con ofertas de trabajo relevantes.

Si, por ejemplo, estás buscando ofertas de empleo, los sistemas de IA están diseñados para mostrarte las oportunidades que mejor se adaptan a tu perfil.

Lo que hay que tener en cuenta es que estas soluciones deben beneficiar a todos; no deben perpetuar comportamientos sexistas o racistas, por ejemplo. Los desarrolladores deben aplicar un pensamiento crítico a las soluciones de IA, y debemos exigir que sean transparentes.

Las iniciativas de etiquetado (como la etiqueta Open Ethics) se están volviendo más comunes. La idea es otorgar una etiqueta a los sistemas de IA éticos. Los proyectos deben demostrar que han sido éticos desde el principio. La autoridad de protección de datos francesa (CNIL, por sus siglas en francés) ha definido un método de Evaluación de Impacto de la Privacidad (PIA, por sus siglas en inglés) para evaluar el impacto en la privacidad. En Estados Unidos, la Universidad de Chicago ha publicado un programa código de abierto para llevar a cabo auditorías de discriminación en sistemas de IA.

Explora los desafíos asociados con el medio ambiente

A veces escucharás que los datos son el “petróleo” del siglo XXI. Bueno, este nuevo “oro negro” está impulsado por la inteligencia artificial.

¿Cuál es el impacto ambiental de la industria de datos?

La economía de la información, que incluye la fabricación y el uso de hardware, tiene un impacto ambiental significativo. En 2015, se estimó que la industria representaba aproximadamente el 3.5% de las emisiones globales de CO2 (para poner esto en contexto, los viajes aéreos representan el 2% y las redes de telecomunicaciones el 0.5%). La economía de la información no puede funcionar sin dispositivos digitales (teléfonos inteligentes, computadoras, tabletas, etc.) o ciertas infraestructuras físicas que están más o menos fuera de la vista pública, como redes fijas y móviles, redes empresariales y centros de datos. Los centros de datos albergan los sistemas informáticos y los componentes asociados, como servidores, que hacen posible el Internet y todos sus servicios.

A menudo se habla de computación en la nube para referirse a estos servidores remotos. La nube simplemente significa todo este hardware, que opera de manera remota las 24 horas del día para hacer posible las actividades digitales.

Concretamente, cada vez que utilizas Internet o uno de sus servicios, tus “clics” van a un servidor en algún lugar del mundo, que procesa y responde a tu solicitud. ¡Ese servidor necesita energía para realizar su trabajo!

¿Cómo pueden las personas limitar el impacto ambiental de las actividades digitales de rutina?

Hay algunas cosas simples que puedes hacer a diario para reducir tu huella ambiental digital. Estas incluyen eliminar correos electrónicos antiguos, cancelar la suscripción a boletines que no lees y limitar el uso de plataformas de streaming.

Sin embargo, el auge de la inteligencia artificial está ampliando esta huella ambiental. Almacenar y procesar datos para desarrollar programas de IA consume mucha energía. La razón por la que los algoritmos cotidianos son tan poderosos es que han sido entrenados durante días en servidores extremadamente potentes y consumidores de energía.

Se están realizando esfuerzos para que los centros de datos sean más respetuosos con el medio ambiente. Por ejemplo, se pueden hacer más eficientes en el uso de la energía, a veces con la ayuda de algoritmos de IA. El calor que generan a veces se utiliza en entornos urbanos para calentar edificios cercanos o piscinas (grandes consumidores de energía). En Helsinki, Finlandia, el agua calentada mientras se enfría un centro de datos proporciona suficiente calor para 500 hogares o 1,000 apartamentos.

Aunque el entrenamiento de algoritmos de IA requiere grandes cantidades de energía, las aplicaciones también se pueden utilizar para mitigar los impactos ambientales y ahorrar energía al optimizar las líneas de producción y el uso de energía y otros recursos.

6.2 - Limitar y anticipar el riesgo con la gobernanza de la IA

Como hemos visto, investigar la seguridad de la IA es esencial al intentar resolver problemas de explicabilidad, robustez y definición de propósitos. La investigación también es clave para limitar el sesgo de la IA y el impacto ambiental. Sin embargo, proporcionar soluciones a estos problemas técnicos no garantiza que aquellos que desarrollan soluciones de IA las adopten. Aquí es donde entra en juego la gobernanza de la IA.

La gobernanza se trata de desarrollar, financiar, supervisar y regular la inteligencia artificial de manera que se alinee con el interés público.

Las empresas rara vez están interesadas en invertir en la seguridad de la IA para los sistemas que implementan. Las empresas que operan en la vanguardia de la IA en particular están más interesadas en competir para desarrollar una IA cada vez más poderosa. Este enfoque puede evitar consideraciones adecuadas de seguridad, ya que cualquier presupuesto asignado a la seguridad no se puede aplicar a actividades rentables.

En estas circunstancias, las instituciones desempeñan un papel importante al organizar mesas redondas con las partes interesadas, fomentar esfuerzos coordinados, incentivar la adopción de las mejores prácticas y definir nuevas reglas a seguir. La Unión Europea (UE) está elaborando actualmente regulaciones conocidas como “La Ley de la IA” con el objetivo de promover las mejores prácticas de desarrollo y reducir los riesgos planteados por la IA. Todas las empresas que utilizan la IA deberán cumplir con las regulaciones a partir de 2025. Entonces, si trabajas para una de estas organizaciones, ¡ahora sabes que probablemente te verás afectado!

volver al inicio