Publicador de contenidos
javax.portlet.title.customblogportlet_WAR_customblogportlet (Blog Health is Global)

Deep Learning: cómo ser humano en un futuro basado en los datos

20.6.2023
Deep Learning 4.jpg
Foto: Imágenes creadas por una inteligencia artificial generativa (StableDiffusion)

Es posible que hoy hayas aplicado un filtro nuevo a alguna historia de Instagram o disfrutado de una serie en tu smart TV con una muy buena calidad de imagen. Lo que de quizás no te hayas percatado es de que estabas usando modelos de Deep Learning o aprendizaje profundo, e incluso contribuyendo a su entrenamiento.

 

[Pablo Iáñez Picazo (Granada, 1995) está cursando un doctorado en Biomedicina en ISGlobal, becado por la Fundación ”la Caixa”. Forma parte del grupo de Ciencia de Datos Biomédicos de ISGlobal, liderado por Paula Petrone. Licenciado en Bioquímica por la Universidad de Granada y máster en Bioinformática por la Universidad de Copenhague, siente especial curiosidad por las posibles aplicaciones del aprendizaje automático y los algoritmos de Deep Learning (aprendizaje profundo) en grandes cantidades de datos biológicos, que prometen acercarnos hacia la medicina de precisión.]

 

Muchos de nosotros hemos leído el libro 1984 de George Orwell, donde un ente omnipresente conocido como el Gran Hermano monitorea constantemente a los ciudadanos de una distópica Oceanía. En el capítulo reciente Crocodile de la serie Black Mirror (S4E3), presentan un dispositivo que es capaz de extraer los datos de los recuerdos de la visión como si de un video se tratase. El episodio compromete los temas de la videovigilancia y la privacidad, donde cada ojo puede ser un aparato de grabación, y cualquier evento pasado donde hubo más de una persona puede ser recapitulado con resolución fotográfica. Aunque este escenario sigue siendo ciencia ficción, nuestra tecnología actual no está tan lejos de hacer posible un mundo donde la realidad está constantemente siendo grabada y analizada. Esto es lo que Eric Sadin llama la "mano invisible automatizada" en una data driven society en su libro "La inteligencia artificial o el desafío del siglo". Los modelos de Deep Learning o aprendizaje profundo se han infiltrado en tareas tan rutinarias que no somos conscientes de su presencia. Es posible que hoy hayas conducido un coche con conducción automática, aplicado un filtro nuevo en alguna historia de Instagram o disfrutado de una serie en tu smart TV con una muy buena calidad de imagen. Lo que de quizás no te hayas percatado es de que estabas haciendo uso, e incluso contribuyendo al entrenamiento, de modelos de Deep Learning.

Los modelos de Deep Learning o aprendizaje profundo se han infiltrado en tareas tan rutinarias que no somos conscientes de su presencia

Los modelos de Deep Learning no son antropomórficos

Los modelos de Deep Learning pueden ser esquematizados como arquitecturas complejas de múltiples matrices ordenadas y conectadas entre sí, donde la información fluye desde los datos de entrada hasta el output del algoritmo. Su arquitectura original es similar a las conexiones entre neuronas del cerebro, lo que derivó en el concepto de "redes neuronales". El término deep (profundo) en Deep Learning hace referencia al número de capas ocultas que encontramos entre las capas de entrada y salida. Cuanto más avanzada se encuentre una capa dentro de esta jerarquía, más complejas serán las características que procese de los datos de entrada. Mientras que las primeras redes neuronales se desarrollaron en 1957 en formas primitivas por Frank Rosenblatt, solo en los últimos años contamos con recursos computacionales y cantidades suficientes de datos para poder ejecutar estos algoritmos. Cuando decimos que estos modelos "aprenden", lo que realmente hacen es ajustar los valores dentro de estas matrices cada vez que se les presenta un nuevo dato para mejorar su rendimiento en una tarea muy específica. El aprendizaje suele ser "supervisado", donde la tarea y el ecosistema de aprendizaje de la máquina han sido cuidadosamente prediseñados por un ser humano. El desarrollo de una inteligencia artificial general, o AGI por sus siglas en inglés, está todavía lejos en el tiempo.

 

Imágenes creadas por una inteligencia artificial generativa (StableDiffusion)

La caja negra, explicada

Estos modelos de Inteligencia Artificial (IA) están envueltos en una densa niebla que nubla nuestro entendimiento. Curiosamente, estamos en un momento histórico en el que hemos desarrollado una tecnología extremadamente eficaz pero todavía no hemos tenido tiempo para entender completamente el por qué de su eficiencia. Es por eso que estos modelos se conocen como cajas negras: conocemos los datos que entran, sabemos las predicciones que obtenemos del modelo, pero desconocemos los mecanismos que rigen las reglas de su aprendizaje. Y, de una forma anticlimática, si hacemos un zoom dentro de estas arquitecturas solamente encontramos millones y millones de valores agrupados en caprichosas series de matrices. Estos modelos podrían tomar decisiones cruciales para la ciudadanía, como determinar quién obtiene un crédito bancario o quién es diagnosticado con cáncer de pulmón. Por lo tanto, es imperativo entender el por qué de estas decisiones algorítmicas. De ahí surge la rama de la inteligencia artificial explicable (XAI por sus siglas en inglés).

Estos modelos podrían tomar decisiones cruciales para la ciudadanía, como determinar quién obtiene un crédito bancario o quién es diagnosticado con cáncer de pulmón. Por lo tanto, es imperativo entender el por qué de estas decisiones algorítmicas

Nuestro futuro como sociedad aumentada por la IA

Los modelos de Deep Learning están teniendo un impacto disruptivo en nuestras sociedades actuales. Uno de los primeros casos de éxitos de un modelo de Deep Learning fue cuando en 2016, el modelo AlphaGo desarrollado por DeepMind, la unidad de investigación en IA de Google, ganó al campeón mundial de Go en una partida. Más tarde, DeepMind lanza en 2021 a AlphaFold, un modelo capaz de predecir el plegamiento tridimensional de proteínas a través de su secuencia de aminoácidos con una precisión sin precedente. El modelo expandió la base de datos de estructura de proteínas a casi todas aquellas conocidas, y a la vez dejó a muchos laboratorios que llevaban estudiando este problema durante decenas de años sin mucho que hacer. Más recientemente, el lanzamiento de grandes modelos de lenguaje (LLM por sus siglas en inglés) como ChatGPT durante el último año ha demostrado que puede ser más efectivo que las personas a la hora de redactar textos, resumir contenido e incluso crear código en diferentes lenguajes de programación.

Aunque todavía es difícil prever el alcance total de estos modelos, ciertamente van a cambiar nuestra forma de estudiar, trabajar y vivir. Se predice que el 38% de los trabajos actuales en EE.UU. pueden ser automatizados con la IA para 2030

Aunque todavía es difícil prever el alcance total de estos modelos, ciertamente van a cambiar nuestra forma de estudiar, trabajar y vivir. Se predice que el 38% de los trabajos actuales en EE.UU. pueden ser automatizados con la IA para 2030. De hecho, muchas personas creen que pueden ser sustituidos profesionalmente por ChatGPT. Lo cierto es que vamos a tener que aprender a convivir con estos modelos como agentes personalizados que nos sugieren y ayudan en la toma de decisiones. Idealmente, estos modelos acelerarán nuestras tareas profesionales y nos permitirán producir la misma cantidad de resultados en un tiempo significativamente menor. Con buenas políticas, podríamos empezar a observar reducciones en las horas de la jornada laboral, lo que nos permitiría disfrutar de más tiempo para nuestro bienestar y actividades de ocio. Pero necesitamos buenos marcos políticos para poder adaptarnos gradualmente a este cambio.

 

Imágenes creadas por una inteligencia artificial generativa (StableDiffusion)

Un artista más en la sala

Los modelos de Deep Learning también están revolucionando el panorama artístico actual con la llegada de inteligencia artificial generativa. Estos modelos son capaces de generar nuevos datos nunca antes observados. ChatGPT es un modelo generativo de texto, mientras que DALL-E es un modelo generativo de imágenes. Con el tiempo, será más fácil y menos costoso generar datos con IA, lo que llevará a una mayor valoración de las creaciones artísticas humanas. Le daremos mucho más valor a un cuadro pintado artesanalmente por un humano comparado con el creado en segundos por una red generativa. Aunque es cada vez más difícil identificar qué imagen ha sido creada por un humano y cual por una máquina, contribuyendo a difuminar la sensación de verdadero. De hecho, el advenimiento de las redes generativas adversariales que hicieron popular los modelos generativos llenó las redes sociales de cuentas e imágenes falsas con fines poco lícitos que fueron conocidos como DeepFakes. Recientemente, Boris Eldagsen se alzó con el prestigioso premio a la mejor fotografía en los Sony World Photography Awards 2023. Sin embargo, decidió rechazar el galardón al revelar que la imagen ganadora era, en realidad, una creación sintética generada por una IA. Ante este panorama, Google sugiere adjuntar siempre un metadata junto a las imágenes, para poder verificar si ha sido creado por un humano o una máquina.

Con el tiempo, será más fácil y menos costoso generar datos con IA, lo que llevará a una mayor valoración de las creaciones artísticas humanas. Le daremos mucho más valor a un cuadro pintado artesanalmente por un humano comparado con el creado en segundos por una red generativa

La guerra de los datos - Data Wars

Muchas de las aplicaciones que usamos diariamente rastrean cada uno de nuestros gestos y movimientos. Esta información personal está siendo almacenada por macrocorporaciones en sus plataformas digitales que los explotan para crear modelos de Deep Learning más eficientes y sofisticados. Tal montaña de datos solo puede ser procesada por modelos con millones de parámetros, que son demasiado grandes para ser ejecutados en ordenadores personales, como los PCs. Por esta razón, los sistemas más avanzados se están construyendo en macroclusters de GPUs y TPUs que hacen el aprendizaje de estos modelos factible. Aquellas empresas que posean más poder computacional serán las que puedan desarrollar los mejores modelos y, por lo tanto, aumentar su competencia y beneficios. Los datos se han convertido en el petróleo del siglo XXI. Es necesario establecer marcos legislativos adecuados para regular el uso de los datos, como la Ley de Protección de Datos Generales (GDP). Estas medidas deben frenar el poder de las macrocorporaciones. Por ejemplo, la empresa Meta ha sido multada con 1.200 millones de euros por la Unión Europea debido a una fuga de datos privados.

Muchas de las aplicaciones que usamos diariamente rastrean cada uno de nuestros gestos y movimientos. Esta información personal está siendo almacenada por macrocorporaciones en sus plataformas digitales que los explotan para crear modelos de Deep Learning más eficientes y sofisticados

Conclusión

Los modelos de Deep Learning están transformando abruptamente nuestra sociedad en todos sus aspectos: político, económico, artístico y cultural. Debemos estar preparados para aceptarlos e incluirlos en nuestra vida cotidiana y, como con toda tecnología, saber utilizarlos de una manera ética y responsable. Los gobiernos tienen que apresurarse para regular los aspectos morales de la aplicación de estos modelos, ya que de lo contrario podrían amplificar las desigualdades sociales y tener un impacto existencial profundo en nuestra especie. El código de estos modelos arrastra errores que podemos cometer o creencias que tenemos impresas, magnificando los sesgos de sus creadores, los humanos, máquinas imperfectas. Pero es posible que dentro de poco esta tarea también deje de ser nuestra.