🤖 IA para Techies: De dónde venimos y hacia dónde vamos
¡Qué ambientazo tuvimos en la segunda edición de AlmeriaTech! Con la sala a reventar (¡más de 132 personas registradas!), celebramos un encuentro épico de “techies para techies”. Y para ponerle la guinda al pastel, trajimos a Antonio Zarauz, matemático, divulgador y doctor en Inteligencia Artificial, para que nos diera un paseo por los cimientos y el futuro hipervitaminado de la IA.
Si pensabas que esto solo iba de prompts y chatbots, prepárate, porque la charla de Antonio nos puso a todos a pensar.
🤯 La IA es una bestia de los datos (y empezó con las neuronas)
Antonio Zarauz lo dejó claro desde el principio: la IA, en su corazón, solo intenta imitar ciertos comportamientos humanos.
La base mínima de esa inteligencia es la neurona. El concepto de perceptrón imita esa unidad básica, y cuando entrelazas muchísimas de estas operaciones en redes gigantescas (como las que usa GPT), es cuando empiezan a suceder las cosas chulas.
Pero, atención, porque estas inteligencias artificiales son “bestias de los datos”. Necesitan una cantidad masiva de información que a menudo requiere ordenadores del tamaño de toda una sala.
Por qué el texto es más hardcore que las fotos
A nivel técnico, no toda la información es igual de fácil de digerir:
-
Imágenes y Audio (¡Los Early Adopters!): Estas áreas avanzaron volando porque es relativamente sencillo pasarlas a números. Una imagen, por ejemplo, no es más que una serie de matrices bidimensionales (grids) con números del 0 al 255 (y tres capas, como una lasaña, para el color). El audio son series temporales de frecuencias (espectrogramas). Por eso, el reconocimiento de imágenes y la transcripción superaron el rendimiento humano experto hace ya unos cuantos años (cerca de 2020).
-
Texto y Lenguaje (El Desafío): El texto ha ido más lento porque no está estandarizado. Aunque Antonio nos recordó que el lenguaje tiene una estructura fuerte (gracias a la ley de Zipf), los modelos avanzados (como los que usa GPT) no trabajan con palabras enteras, sino con porciones de palabras (tokens), complicando la tarea.
🚀 El Transformer y la magia de las propiedades emergentes
Las redes neuronales tienen distintas formas de trabajar, que Antonio clasificó en tres arquitecturas principales:
- Encoder (El “Embudo”): Ideal para extraer características específicas de la información (como identificar organizaciones o fechas en un texto).
- Encoder-Decoder (El “Embudo Invertido”): Compara dos representaciones del mismo objeto, como hace el Traductor de Google (inglés a español) o un transcriptor de audio a texto.
- Embudo Invertido (El “Generador”): Estos son los modelos que se dedican a generar contenido (GPT, generadores de imágenes a partir de texto, o incluso texto a vídeo).
El verdadero plot twist en esta historia fue el Transformer, desarrollado en 2017-2018.
Este avance fue una “revolución” que permitió entrenar modelos mediante aprendizaje autosupervisado para tareas abstractas (como predecir la siguiente palabra). De esta técnica surgieron las “propiedades emergentes”, que es esa “magia” por la que la IA logra hacer cosas para las que no fue preparada específicamente.
🎢 La Curva de Gartner y la realidad del Hype
¿Dónde estamos ahora? Antonio Zarauz nos situó en el mapa: la IA generativa está en el punto más alto de la famosa curva de Gartner (el pico de las expectativas infladas).
En otras palabras, el rendimiento no es tan bueno como las promesas sugieren. Citando a Jan LeCun, Antonio ilustró el largo camino que queda: para llegar a la “inteligencia de Dios,” primero hay que alcanzar la “inteligencia de un perro,” ¡y todavía no estamos ahí!.
Además, todo este músculo digital depende de hardware serio. La capacidad computacional requerida es “verdaderamente extraordinaria”. Los chips (GPUs) necesarios son un diseño dominado por NVIDIA (EE. UU.), y la fabricación está concentrada principalmente en EE. UU., China y Taiwán, siendo este último responsable de casi uno de cada dos chips producidos.
Mientras tanto, Europa se ha centrado en legislar, definiendo cuatro niveles de IA: riesgo mínimo, limitado, alto e inaceptable.
🧠 ¿Y el ingeniero informático? Tranqui (por ahora)
Antonio Zarauz enfatizó que la IA es genial para: trabajos especializados, tareas repetitivas, consumir datos masivos, obedecer sin cuestionar y trabajar 24/7 sin descanso.
El peligro, según Antonio, es que nuestro sistema educativo actual (basado en memorizar y repetir) premia precisamente las cosas que las máquinas ya hacen mejor que nosotros.
Sin embargo, las fortalezas humanas son insustituibles:
- Pensamiento cruzado y lateral.
- Adaptación a la novedad.
- Implicación emocional (el aprendizaje más valioso es el que tiene impacto emocional).
- Pensamiento crítico (no aceptar las cosas tal como son).
¿Y qué pasa con el miedo a ser reemplazados? Antonio ofreció una visión tranquilizadora: la simulación razonable del trabajo de un ingeniero informático tomará al menos una o dos décadas. Las máquinas actuales “no son capaces ni de corregir errores con dignidad” ni de mimetizar un estilo de programación.
La clave no es competir, sino colaborar: “Yo más la máquina somos algo extraordinario”. Quienes usen la IA para generar una ventaja competitiva progresarán, y aprender a programar, sin importar la profesión, proporcionará una “ventaja competitiva abismal” en el futuro.
El futuro de la IA no será un único “megacerebro,” sino muchos “mini-cerebros” con un buen “director de orquesta”.
Conclusión: El Futuro es Colaborativo
¡Así que ya sabes! La IA está aquí para quedarse, pero la creatividad y el pensamiento crítico siguen siendo los superpoderes de cualquier techie almeriense.
La charla de Antonio nos recordó que, más allá del hype, la inteligencia artificial es una herramienta poderosa que debemos entender y dominar, no temer. El futuro pertenece a quienes sepan combinar la potencia de las máquinas con la creatividad humana.