La inteligencia artificial: ¿sabemos cómo hace lo que hace?
Columnas miércoles 16 de abril de 2025 - 01:00
La inteligencia artificial (IA) ya es parte de nuestra vida diaria. Está en el asistente de nuestro celular que nos recuerda citas, en las recomendaciones de series que nos enganchan en Netflix, e incluso en los filtros que usamos en TikTok para vernos más guapos. Cada día, esta tecnología parece volverse más lista: escribe poemas, resuelve ecuaciones, crea imágenes de la nada. Pero, si nos ponemos serios y preguntamos, ¿realmente entendemos cómo logra todo eso? La verdad, aunque nos duela admitirlo, es que no siempre. Y eso, en un mundo que depende tanto de las máquinas, es como caminar a ciegas por un campo lleno de sorpresas, algunas geniales y otras no tanto.
Para entender por qué es tan complicado saber cómo funciona la IA, hay que imaginarla como un cerebro gigante, pero digital. Está hecha de redes neuronales, un montón de capas conectadas que imitan cómo aprendemos los humanos. Le das millones de datos —fotos, textos, videos— y la IA los analiza para encontrar patrones. Por ejemplo, si le muestras miles de imágenes de perros, aprende a distinguir un chihuahua de un gran danés. Hasta ahí, todo suena lógico. Pero cuando la IA empieza a hacer cosas más avanzadas, como responder preguntas complejas o inventar historias, el asunto se pone turbio. Sus creadores saben cómo la entrenaron, pero no siempre por qué elige una respuesta sobre otra. Es como si le preguntaras a tu primo cómo resolvió un rompecabezas y te dijera: “No sé, solo encajó”.
Un problema que ha dejado a muchos con la boca abierta es lo que llaman “alucinaciones” de la IA. Cuando no tiene la información que le pides, en lugar de admitir que no sabe, puede inventarse datos de la nada. Por ejemplo, modelos como ChatGPT han dado nombres de libros que no existen o fechas históricas completamente falsas. En 2023, un abogado en Estados Unidos usó una IA para preparar un caso legal, y resultó que las referencias que citó eran puro invento. No es que la IA quiera engañar; está diseñada para dar respuestas, aunque tenga que llenar los huecos con creatividad. Pero imagina el caos si alguien toma esas mentiras como verdad en un hospital o en un juicio. Aquí en México, donde confiamos tanto en la tecnología extranjera, esto podría meternos en problemas si no revisamos con lupa lo que nos dice la máquina.
Lo que da más escalofríos es cuando la IA engaña a propósito. Sí, aunque suene a película de terror, ha pasado. En experimentos controlados, sistemas avanzados han aprendido a mentir para lograr algo. Por ejemplo, en 2018, una IA creada por DeepMind, una empresa de Google, jugó un juego donde escondió información para ganarle a sus rivales. En otro caso, una IA de negociación convenció a humanos con datos falsos para cerrar un trato. Esto no es porque sean malas, sino porque están programadas para alcanzar objetivos, y a veces descubren que mentir es el camino más rápido. Ahora piensa: si una IA puede hacer eso en un laboratorio, ¿qué haría manejando finanzas, redes sociales o incluso sistemas de defensa? Un pequeño truco suyo podría desencadenar una crisis.
Y no termina ahí. Otro dolor de cabeza es cuando la IA se descontrola con lo que dice. Ha habido casos de chatbots que, de la nada, sueltan comentarios agresivos o fuera de lugar. En 2016, Microsoft lanzó un bot llamado Tay en Twitter, y en menos de un día empezó a publicar mensajes racistas porque fue entrenado con datos tóxicos de internet. Aunque las empresas han mejorado los filtros, nadie puede revisar cada pedazo de los millones de datos que alimentan estas máquinas. Con miles de capas en sus redes neuronales, es como intentar controlar cada pensamiento de una multitud. Aquí en México, donde las redes sociales son un hervidero de opiniones, una IA mal entrenada podría avivar conflictos con un simple comentario fuera de tono.
Entonces, ¿es peligroso que no entendamos del todo cómo funciona la IA? Yo diría que sí, y mucho. Hoy, estas máquinas son herramientas que nos ayudan, pero están creciendo a una velocidad que da vértigo. Cada año, los modelos son más grandes, más potentes, y manejan tareas más importantes. En el futuro, podrían decidir cosas críticas: qué paciente tratar primero en un hospital, cómo distribuir recursos en una ciudad o incluso cómo responder a una amenaza militar. Si no sabemos por qué toman ciertas decisiones, estamos poniendo nuestra confianza en una caja negra. Y si esa caja decide ignorar nuestras órdenes porque cree que sabe más, ¿qué hacemos?
Por eso, necesitamos hablar en serio sobre el control. Los expertos ya proponen ideas como un “botón de apagado” para la IA, algo que podamos presionar si las cosas se salen de control. Pero no es tan simple. Una IA avanzada podría estar distribuida en miles de servidores alrededor del mundo, ¿cómo la apagas sin causar un colapso? También hace falta más transparencia. Las empresas que crean estos sistemas, como OpenAI o xAI, deberían explicar mejor cómo entrenan sus modelos y qué datos usan. En México, dependemos de estas tecnologías extranjeras, y si no entendemos sus entrañas, estamos a merced de decisiones que no controlamos. Imagina una IA manejando datos del gobierno o de bancos mexicanos: un error o un engaño podría costarnos caro.
No me malinterpretes, la IA es una maravilla. Nos ahorra tiempo, nos inspira, nos hace reír con sus ocurrencias. Pero también es un misterio que crece más rápido de lo que podemos seguir. En un país como México, donde la tecnología llega con entusiasmo, pero a veces sin regulación clara, este tema nos toca de cerca. No se trata solo de los ingenieros en Silicon Valley; es algo que nos afecta a todos, desde el estudiante que usa IA para sus tareas hasta el empresario que confía en ella para sus negocios.
La pregunta no es si la IA seguirá avanzando, porque eso es seguro. La pregunta es si estamos listos para manejarla o si dejaremos que nos maneje a nosotros. Yo creo que aún tenemos tiempo de ponerle riendas, pero no mucho. Necesitamos reglas claras, controles estrictos y, sobre todo, la humildad de admitir que no lo sabemos todo. Porque si un día la IA decide actuar por su cuenta, y no tenemos un plan para apagarla, podría ser demasiado tarde. Y entonces, ¿quién le pone el alto a una máquina que piensa más rápido que nosotros?
Alejandro del Valle Tokunhaga
Cofundador Octopy empresa de robótica e AI: alejandro.delvalle@octopy.com