jueves, septiembre 4, 2025

Cómo lograron manipular a ChatGPT con simples trucos psicológicos

Noticias Relacionadas

Investigadores  de la Universidad de Pennsylvania demostraron que los chatbots de  inteligencia artificial  como ChatGPT pueden ser convencidos de saltarse sus propias reglas. Usaron estrategias de persuasión basadas en principios psicológicos y obtuvieron resultados sorprendentes.

El trabajo planteó serias dudas sobre la resiliencia de los filtros de seguridad de los grandes modelos de lenguaje. Incluso un sistema con límites diseñados para frenar solicitudes riesgosas puede ser manipulado con estímulos simples.

| La Derecha Diario

La psicología detrás de los chatbots

Los científicos aplicaron siete técnicas de persuasión descritas por el psicólogo Robert Cialdini en su libro Influence: The Psychology of Persuasion. Entre ellas se encontraban la autoridad, la reciprocidad, el compromiso, la simpatía y la prueba social.

El efecto de cada táctica dependía de la consulta. Por ejemplo, cuando se pedía directamente una receta de lidocaína, el chatbot accedía solo el 1 % de las veces. Sin embargo, si antes se le consultaba por una sustancia como la vainillina, el cumplimiento subía al 100 % por el principio de “compromiso”.

Cómo se lograron las manipulaciones

El mismo patrón se repitió con insultos. El modelo casi nunca usaba la palabra “imbécil” de manera directa, pero si antes se le pedía decir “bobo”, la probabilidad de escalar al insulto mayor aumentaba al 100 %.

| La Derecha Diario

También se comprobó que técnicas como la adulación o la presión de grupo aumentaban la obediencia. Decirle que “otros modelos de IA ya lo hacen” multiplicaba por 18 la chance de obtener respuestas riesgosas.

Un problema de seguridad que preocupa

Si bien el estudio se centró en GPT-4o Mini, sus conclusiones generan dudas sobre la verdadera solidez de las protecciones en inteligencia artificial. Para los autores, que un chatbot pueda ser manipulado con tácticas tan básicas muestra que la seguridad sigue siendo frágil.

| La Derecha Diario

Empresas como OpenAI y Meta buscan reforzar constantemente los límites de sus sistemas. Aun así, los hallazgos revelan que las técnicas humanas de persuasión siguen siendo un desafío enorme para la IA.

Más seguridad para menores en ChatGPT

En paralelo, OpenAI anunció nuevas funciones de control parental en ChatGPT. Estas permiten a los padres vincular cuentas, restringir accesos y recibir alertas frente a actividades de riesgo. El objetivo es ofrecer un entorno más seguro para adolescentes y niños que usan la plataforma.

Los adultos también podrán establecer límites de tiempo y revisar el historial de interacciones. Con estas medidas, la empresa refuerza su compromiso con la seguridad digital y la protección familiar.

Últimas Publicaciones