Investigadores de la Universidad de Pennsylvania demostraron que los chatbots de inteligencia artificial como ChatGPT pueden ser convencidos de saltarse sus propias reglas. Usaron estrategias de persuasión basadas en principios psicológicos y obtuvieron resultados sorprendentes.
El trabajo planteó serias dudas sobre la resiliencia de los filtros de seguridad de los grandes modelos de lenguaje. Incluso un sistema con límites diseñados para frenar solicitudes riesgosas puede ser manipulado con estímulos simples.
| La Derecha Diario
La psicología detrás de los chatbots
Los científicos aplicaron siete técnicas de persuasión descritas por el psicólogo Robert Cialdini en su libro Influence: The Psychology of Persuasion. Entre ellas se encontraban la autoridad, la reciprocidad, el compromiso, la simpatía y la prueba social.
El efecto de cada táctica dependía de la consulta. Por ejemplo, cuando se pedía directamente una receta de lidocaína, el chatbot accedía solo el 1 % de las veces. Sin embargo, si antes se le consultaba por una sustancia como la vainillina, el cumplimiento subía al 100 % por el principio de “compromiso”.
Cómo se lograron las manipulaciones
El mismo patrón se repitió con insultos. El modelo casi nunca usaba la palabra “imbécil” de manera directa, pero si antes se le pedía decir “bobo”, la probabilidad de escalar al insulto mayor aumentaba al 100 %.
| La Derecha Diario
También se comprobó que técnicas como la adulación o la presión de grupo aumentaban la obediencia. Decirle que “otros modelos de IA ya lo hacen” multiplicaba por 18 la chance de obtener respuestas riesgosas.
Un problema de seguridad que preocupa
Si bien el estudio se centró en GPT-4o Mini, sus conclusiones generan dudas sobre la verdadera solidez de las protecciones en inteligencia artificial. Para los autores, que un chatbot pueda ser manipulado con tácticas tan básicas muestra que la seguridad sigue siendo frágil.
| La Derecha Diario
Empresas como OpenAI y Meta buscan reforzar constantemente los límites de sus sistemas. Aun así, los hallazgos revelan que las técnicas humanas de persuasión siguen siendo un desafío enorme para la IA.
Más seguridad para menores en ChatGPT
En paralelo, OpenAI anunció nuevas funciones de control parental en ChatGPT. Estas permiten a los padres vincular cuentas, restringir accesos y recibir alertas frente a actividades de riesgo. El objetivo es ofrecer un entorno más seguro para adolescentes y niños que usan la plataforma.
Los adultos también podrán establecer límites de tiempo y revisar el historial de interacciones. Con estas medidas, la empresa refuerza su compromiso con la seguridad digital y la protección familiar.