Tras la retirada de nominación de Clair Obscur: Expedition 33 de los Indie Games Awards, resurgió de manera polémica el uso y empleo de herramientas de Inteligencia Artificial (IA) en aquellos productos que anteriormente resultaban ser casi artesanales. Dentro de la misma industria del gaming, el uso de esta herramienta lleva años presentándose como un arma de doble filo. Su propósito inicial (al menos el declarado) es crear experiencias más dinámicas, inmersivas y realistas, pero su implementación real se encuentra constituida por un principio opuesto: la necesidad de tener más control.
Mientras la promesa tecnológica apunta más hacia mundos generados de manera automática y personajes que buscan actuar con cierta autonomía, los desarrolladores de títulos comerciales llevan años aferrándose a algoritmos y líneas de códigos baratos, predecibles y consistentes.
Esta contradicción no es un mero accidente, sino el núcleo del “problema” en el uso de la IA en los videojuegos.
El término “IA” abarca un amplio espectro de sistemas de cómputo que controlan Personajes No Jugables (PNJ), generan comportamientos dinámicos o simulan la toma de decisiones. Su objetivo no es replicar una inteligencia humana, sino simular un comportamiento creíble y eficiente dentro de los límites del juego.
Brecha entre expectativa y realidad computacional
Desde un inicio, la percepción popular sobre esta herramienta puede sugerir que los videojuegos están poblados por entidades casi conscientes, pero la realidad técnica es mucho más rudimentaria. La “inteligencia” con la que interactúan los jugadores se crea sobre algoritmos clásicos y estructuras de control que le dan prioridad al bajo costo computacional y de previsibilidad.
La base de la IA en los videojuegos reside en redes neuronales complejas y en técnicas ya utilizadas en otras disciplinas. El algoritmo A*, proveniente de la teoría de grafos, columna vertebral en la búsqueda de caminos, permitiendo que un PNJ se traslade desde un punto A a B de manera eficiente. Los árboles de comportamiento (o árboles de decisión) codifican grandes series de preguntas que terminan siendo acciones específicas, estructurando y ordenando el pensamiento o acción de un enemigo o aliado.
Los comportamientos de grupo, como el de un banco de peces en el mar o una bandada de pájaros que salen volando ante un ruido, se simulan a menudo con estos sencillos algoritmos de agrupamiento.
Desde antes de que la IA se popularizara en el mundo, en esencia, la mayoría usada en los videojuegos se reducía a meras máquinas de estados finitos que transitan entre comportamientos predefinidos y establecidos previamente (por ejemplo, de “patrulla” a “alerta” a “ataque”). Una Inteligencia Artificial que operaba como el conductor de un tren construido por manos humanas.
Sin embargo, los grandes estudios de desarrollo con presupuestos millonarios, particularmente en el segmento AAA, destinan sus ya de por sí limitados recursos ante el renderizado gráfico, diseño de niveles y otros aspectos directamente perceptibles por el jugador. La IA puede resultar “barata” en términos de procesamiento en la computadora.
Más crítico aún es que los diseñadores busquen crear una experiencia específica y consistente para el jugador.
Una IA demasiado impredecible o “exótica” puede llegar a romper esta misma experiencia e inmersión, causar frustración o hasta desbalancear el juego. Por lo tanto resulta preferible una ilusión de inteligencia que sea predecible para el diseñador, aunque no siempre para el jugador.
La trampa detrás del diseño
Una de las manifestaciones más claras de la problemática es la práctica aceptada, y a veces necesaria, de que el uso de la IA “haga trampa”.
Esto no se refiere a un fallo, sino a un diseño intencional donde los agentes controlados por el ordenador tienen acceso a información o capacidades negadas al jugador para compensar sus limitaciones algorítmicas.
Un PNJ puede “conocer” la ubicación exacta del jugador consultando directamente los datos del motor del juego, sin necesidad de sistemas sensoriales simulados como la vista o el oído.
En juegos de estrategia, la IA puede tener visión completa del mapa (“sin niebla de guerra”) o conocer desde el inicio la estrategia del jugador.
Es común en juegos de carreras que los oponentes controlados por IA tengan velocidades superiores para mantener la presión sobre el jugador, o en shooters que aparezcan en posiciones ventajosas de forma poco realista.
Este recurso es una admisión tácita de las limitaciones de la IA “honesta”. Revela que, en muchos géneros, un agente artificial que juegue con las mismas reglas que un humano sería derrotado con facilidad tras un mínimo de prueba y error por parte del jugador.
La trampa sostiene el desafío, pero cuando es descubierta, puede destruir la inmersión y generar una sensación de injusticia en el jugador, quien percibe que las reglas no son equitativas..
Entre la estupidez artificial y la inconsistencia
Los PNJ son la cara más visible, y obvia, de la IA hacia el jugador, y también donde sus fallas son más notorias. Su evolución ha pasado de patrones de movimiento fijos a sistemas más complejos, pero se mantienen varios problemas de fondo que persiguen a la industria.
Los árboles de decisión manualmente escritos, aunque útiles, dan lugar a lo que se ha denominado “estupidez artificial”. Los PNJ pueden caer en bucles de comportamiento obvios, responder de manera incongruente a situaciones no previstas por los desarrolladores o tomar decisiones que, aunque lógicas dentro de su algoritmo, resultan absurdas en el contexto del juego (como correr en círculos bajo fuego enemigo).
La búsqueda de caminos (pathfinding), pese a usar algoritmos eficientes como A*, sigue siendo un problema en entornos amplios, complejos y dinámicos. Es común para todo jugador ver a unidades en juegos de estrategia atascándose mutuamente o a PNJ en mundos abiertos teniendo dificultades con la geometría del entorno.
Estos fallos rompen la credibilidad del mundo simulado.
Dentro de la misma adaptabilidad, avances en el uso de IA parecen apuntar a PNJ que aprenden de las acciones del jugador y adaptan sus tácticas. Herramientas de IA generativa prometen diálogos fluidos y únicos. Sin embargo, esto choca con la narrativa guionizada.
Un PNJ que se comporta de forma totalmente autónoma e impredecible puede estropear misiones críticas, arruinar secuencias cinematográficas o contradecir su arco de personaje. Los desarrolladores deberán, por tanto, encontrar un equilibrio casi imposible entre autonomía y guion dentro de un ambiente simulado.
Cantidad vs calidad y la pérdida humana
La Generación Procedural de Contenido (PCG) es una aplicación inmersiva de la IA que puede crear niveles, paisajes e incluso misiones de forma algorítmica y aleatoria. Si bien resuelve el problema de la escala y la rejugabilidad, introduce otros, como la repetitividad.
Gracias a la PCG la industria del gaming halló mundos infinitos, pero pocos profundos. Juegos como Minecraft o No Man’s Sky demuestran el poder de la PCG para crear vastos universos explorables. Sin embargo, la crítica recurrente es que este contenido puede volverse genérico y repetitivo.
Un algoritmo puede ensamblar mil variaciones de una montaña o una mazmorra, pero le cuesta replicar el diseño intencional, la “pizarra” y el detalle narrativo que un diseñador humano incorpora a un nivel hecho a mano. El contenido puede ser ancho, pero a menudo carece de profundidad significativa.
Para algunos desarrolladores, la IA sigue representando una herramienta, no una sustitución; los más cautos usan la PCG de forma híbrida. Por ejemplo, generar redes de carreteras entre pueblos diseñados manualmente, o crear variaciones de vegetación sobre un terreno base. El consenso emergente es que la IA generativa es una herramienta de asistencia formidable para artistas y diseñadores, capaz de generar bosquejos, texturas o variaciones, pero que la dirección creativa y el toque final deberían seguir en manos humanas para garantizar coherencia y calidad.
¿Cuál es el futuro de la IA?
La frontera de la IA en videojuegos se dirige hacia sistemas que aprenden en tiempo real del jugador individual. Esta “IA adaptativa” ajustaría no solo la dificultad, sino la personalidad de los enemigos, las estrategias de los aliados y los giros de la trama para ofrecer una experiencia única. Sin embargo, este futuro plantea nuevas capas de problemas.
¿Cómo se asegura que un juego siga siendo justo y disfrutable si la IA está constantemente evolucionando para contrarrestar las tácticas del jugador? El riesgo de crear una experiencia frustrante o, paradójicamente, demasiado complaciente, es alto.
El uso de IA generativa para crear voces, diálogos y personajes ha encendido debates sobre los derechos de los actores de voz y la posible despersonalización de las interpretaciones. Además, la capacidad de la IA de generar contenido basado en estilos artísticos existentes plantea serias cuestiones sobre propiedad intelectual y originalidad.
Si bien la IA puede automatizar tareas tediosas (como pruebas de calidad a gran escala) y potenciar a equipos pequeños, también existe la preocupación legítima sobre su impacto en los puestos de trabajo especializados dentro de la industria, desde testers hasta artistas secundarios.
Una de las herramientas más poderosas del Siglo XXI
El problema de la IA en los videojuegos no es su falta de sofisticación, sino la tensión irresuelta entre sus dos mandatos contradictorios: simular un mundo vivo e inteligente, mientras mantiene un control férreo sobre la experiencia del jugador para garantizar diversión, balance y narrativa. Se ha avanzado desde los patrones simples de Space Invaders, pero la esencia sigue siendo la misma: la IA es un mecanismo de ilusión.
Su éxito se mide no por su autonomía real, sino por su capacidad de “vender” esa ilusión de manera eficiente, barata y, sobre todo, de forma que sirva al diseño del juego, no lo domine. Los mayores avances no vendrán de algoritmos más complejos, sino de una integración más inteligente y matizada de estas herramientas dentro del marco creativo y técnico que define lo que es un videojuego.







