Un antiguo juego chino de hace más de 2.500 años revela el principal punto débil de la inteligencia artificial.

Index

Un antiguo juego chino de hace más de 2.500 años revela el principal punto débil de la inteligencia artificial.

En un sorprendente giro de eventos, un antiguo juego chino que data de hace más de 2.500 años ha revelado un importante secreto sobre la inteligencia artificial. El juego, conocido como Liubo, ha demostrado ser un desafío para los sistemas de inteligencia artificial más avanzados, poniendo en evidencia su principal punto débil. A pesar de los avances tecnológicos y los logros en el campo de la inteligencia artificial, este juego milenario ha logrado vencer a los ordenadores más potentes, lo que ha llevado a los expertos a replantearse las limitaciones y debilidades de esta tecnología.

La IA no es tan inteligente: un juego chino de hace años revela su principal debilidad

La inteligencia artificial y sus posibilidades se han convertido en los temas de actualidad tecnológicas más discutidos del sector. Así, la evolución de herramientas como ChatGPT ha provocado que distintos investigadores ahonden en las posibilidades de estas IA y, por consiguiente, prueben distintos métodos para comprobar dónde está su límite.

Y, en línea con esta condición, hoy conocemos que existe un juego en el que la IA no es capaz de superar a los humanos. Uno de los juegos más populares de China es Go, que desde hace más de 2.500 años, los ciudadanos del país ponen a prueba su habilidad y la de sus contrincantes durante los enfrentamientos que llevan a cabo.

Investigadores de y FAR han querido comprobar hasta qué punto son capaces de rivalizar con la IA, descubriendo (de forma sorprendente) que esta no tiene nada que hacer contra los jugadores más hábiles.

Las estrategias más complicadas se le resisten a la IA

Las estrategias más complicadas se le resisten a la IA

Según indica el portal Ars Technica en una reciente publicación, este experimento se llevó a cabo creando el modelo KataGo. Una vez se creó, se probaron tres estrategias para endurecer las defensas del algoritmo en el caso de que los adversarios fueran muy agresivos.

Tras esto, se ajustó el modelo con aún más ejemplos de estrategias poco convencionales que ya lo habían derrotado y, a pesar de ello, la IA seguía sin tener la posibilidad de vencer a los humanos.

Así, a pesar de aplicar distintas estrategias, KataGo comenzó a experimentar problemas a la hora de dominar a los jugadores con estrategias sencillas. De esta forma, aunque aprendió la forma de enfrentar de manera eficiente a aquellos con más experiencia, comenzó a sufrir contra los que eran incapaces de utilizar técnicas avanzadas.

Por ello, los investigadores entendieron que, por mucho que aplicasen diferentes patrones, la IA nunca era capaz de competir contra los humanos.

Pablo González

Hola, soy Pablo, un apasionado de los videojuegos y experto en la página web Legión Gamer. En Legión Gamer, me encargo de brindarte las últimas noticias, análisis y guías sobre videojuegos para PC, PS5, PS4, Xbox, Switch y móvil. Mi objetivo es mantenerte informado y entretenido con todo lo relacionado al mundo del gaming. ¡Únete a nuestra comunidad y disfruta de la mejor información sobre tus juegos favoritos!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir