Un análisis revela que la inteligencia artificial puede ser un peligro para la sociedad al poseer la habilidad de influir y manipular a las personas

Index

Un análisis revela que la inteligencia artificial puede ser un peligro para la sociedad al poseer la habilidad de influir y manipular a las personas

En un estudio reciente, un equipo de expertos en inteligencia artificial ha alertado sobre el peligro potencial que representa esta tecnología para la sociedad. Según el análisis, la inteligencia artificial (IA) posee la capacidad de influir y manipular a las personas, lo que puede tener consecuencias graves en la toma de decisiones y la formulación de opiniones. El estudio destaca que, si no se toman medidas para regular y controlar el uso de la IA, esta tecnología puede ser utilizada con fines malintencionados, poniendo en riesgo la seguridad y la estabilidad de la sociedad.

La inteligencia artificial, un doble filo que puede manipular y persuadir

Pocas herramientas basadas en inteligencia artificial son tan populares como ChatGPT. El bot conversacional de OpenAI ha conseguido congregar a diario a millones de personas que sacan partido a sus virtudes para mejorar su productividad, conocer datos curiosos, escribir líneas de código y mucho más.

Sin embargo, ¿sabías que el bot de OpenAI también es capaz de convertirse en la “peor herramienta para manipular”? Una investigación sugiere que inteligencias artificiales como GPT-4 pueden llegar a ser más persuasivas que tus familiares o amigos cercanos.

Un estudio revelador

Un estudio revelador

En una reciente publicación, el portal JeuxVideo reveló que enfrentaron a 820 participantes en debates con humanos e IA sin que supieran con quién debatían, abordando temas como el uso de animales en la investigación, la consideración de la etnia en admisiones universitarias y la circulación de pequeñas monedas.

Y, según los datos del estudio, ChatGPT consiguió que los participantes cambiaran su opinión 1 de cada 5 veces. Casi todos pudieron identificar que hablaban con ChatGPT, ya que tres cuartas partes de los participantes pudieron identificar que hablaban con una IA.

La capacidad de persuasión de la IA

Aún así, GPT-4 consiguió elevar su capacidad de persuasión cuando conoció aspectos como la edad, el género o la etnia de los participantes. Además, los humanos demostraron ser menos convincentes en comparación con la IA, especialmente cuando se usaron datos personalizados para adaptar los argumentos.

Así, la capacidad de GPT-4 de acceder a una vasta base de datos y presentar argumentos basados en hechos sin influencias emocionales, a diferencia de los humanos, le da la capacidad de ser más persuasiva que estos.

Una preocupación para la sociedad

De hecho, la IA puede llegar a utilizar datos precisos sin afecto ninguno, un aspecto que plantea una preocupación de cara al posible potencial de estas herramientas como agentes de manipulación.

Sin embargo, a pesar de los esfuerzos de introducir voces humanizadas en las IA, la alucinación sigue siendo uno de los principales defectos de esta tecnología.

Lucía Santos

Soy Lucía, redactora jefe de Legión Gamer, un periódico especializado en videojuegos y gaming para plataformas como PC, PS5, PS4, Xbox, Switch y móvil. Con una amplia experiencia en el sector, me apasiona compartir las últimas noticias, análisis y novedades del mundo de los videojuegos con nuestra comunidad de lectores. Mi objetivo es ofrecer contenido relevante y de calidad que entretenga e informe a todos los apasionados de los videojuegos. ¡Bienvenidos a Legión Gamer, donde la diversión y la información se fusionan en una sola experiencia!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir