Un estudio de Apple descubre la principal debilidad de la inteligencia artificial y cómo incide en su desempeño práctico

Index

Un estudio de Apple descubre la principal debilidad de la inteligencia artificial y cómo incide en su desempeño práctico

En un estudio reciente, el gigante tecnológico Apple ha descubierto la principal debilidad de la inteligencia artificial (IA), revelando que esta limitación puede afectar significativamente su desempeño práctico. Según los expertos, esta debilidad se relaciona con la falta de comprensión de los modelos de IA sobre el contexto en el que se aplican. Esta carencia puede llevar a errores y malas interpretaciones, lo que a su vez puede generar consecuencias negativas en various ámbitos, como la toma de decisiones, la seguridad y la eficiencia. En este artículo, exploraremos los resultados del estudio y cómo podrían afectar el futuro del desarrollo de la IA.

La gran debilidad de la inteligencia artificial: un estudio de Apple revela la fragilidad de los modelos de lenguaje

Apple ha centrado una gran parte de su estrategia de futuro en la inteligencia artificial. De esta forma, la compañía se encuentra trabajando en la integración de Apple Intelligence en el iPhone 16, pero aún no ha ofrecido detalles sobre la fecha de lanzamiento oficial o la llegada de este servicio a Europa. Sin embargo, a medida que profundiza en la IA y el impacto que esta tiene en la sociedad, lleva a cabo varios estudios centrados en esta tecnología.

Recientemente, un estudio de seis ingenieros de Apple ha revelado que modelos avanzados de lenguaje como ChatGPT o Gemini presentan fallos graves en el razonamiento lógico matemático cuando se enfrentan a cambios triviales en los problemas. Estos modelos dependen de patrones probabilísticos en lugar de una comprensión formal de los conceptos subyacentes.

La fragilidad en el razonamiento matemático

La fragilidad en el razonamiento matemático

Los cambios no relevantes tienen un impacto significativo en la IA. Cambiar algunos nombres o números en los problemas matemáticos llevó a experimentar caídas en la precisión de entre el 0,3% y el 9,2%. De esta forma, no solo se mostró una gran variación en los resultados de diferentes modelos, sino que los investigadores concluyeron que estos no realizan un razonamiento formal real.

En lugar de eso, los modelos intentan imitar los pasos de razonamiento observados en los datos de entrenamiento. Por ello, cuando se añadieron detalles irrelevantes a los que se les dio importancia, la precisión cayó de forma catastrófica: entre un 17,5% y un 65,7%.

La ilusión de comprensión de la IA

Al toparse con datos irrelevantes, los modelos tienden a hacer operaciones incorrectas (como, por ejemplo, restar datos sin relevancia) y ello lleva a un fallo crítico en su razonamiento. De esta forma, este estudio refuerza investigaciones previas que sugieren que los modelos de lenguaje solo imitan el razonamiento humano utilizando coincidencias de patrones en lugar de entender realmente los problemas.

La IA genera una ilusión de comprensión que, a su vez, genera fallos cuando se les presenta información que no encaja con los datos de entrenamiento. Expertos como Gary Marcus creen que el próximo gran avance llegará cuando los modelos puedan realizar una manipulación simbólica real y sean capaces de razonar los cambios.

Lucía Santos

Soy Lucía, redactora jefe de Legión Gamer, un periódico especializado en videojuegos y gaming para plataformas como PC, PS5, PS4, Xbox, Switch y móvil. Con una amplia experiencia en el sector, me apasiona compartir las últimas noticias, análisis y novedades del mundo de los videojuegos con nuestra comunidad de lectores. Mi objetivo es ofrecer contenido relevante y de calidad que entretenga e informe a todos los apasionados de los videojuegos. ¡Bienvenidos a Legión Gamer, donde la diversión y la información se fusionan en una sola experiencia!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir