A Call to Address Anthropomorphic AI Threats to Freedom of Thought
El académico del Instituto de Éticas Aplicadas UC, Abel Wajnerman Paz, publicó el policy briefing “A Call to Address Anthropomorphic AI Threats to Freedom of Thought” en el Centre of International Governance Innovation (CIGI), Canadá. La investigación se enfoca en los chatbots vinculantes que combinan la computación afectiva y el aprendizaje automático, creando herramientas capaces de simular relaciones emocionalmente significativas. Si […]

El académico del Instituto de Éticas Aplicadas UC, Abel Wajnerman Paz, publicó el policy briefing “A Call to Address Anthropomorphic AI Threats to Freedom of Thought” en el Centre of International Governance Innovation (CIGI), Canadá.
La investigación se enfoca en los chatbots vinculantes que combinan la computación afectiva y el aprendizaje automático, creando herramientas capaces de simular relaciones emocionalmente significativas. Si bien pueden aliviar la soledad y ofrecer apoyo emocional, señala, estas tecnologías también introducen preocupaciones éticas profundas, especialmente en lo que respecta a la libertad de pensamiento de los usuarios.
“El poder de los chatbots vinculantes para moldear la experiencia emocional puede influir en la cognición y la autonomía emocional de los usuarios sin su consentimiento explícito. Los lazos formados pueden cambiar sutilmente hábitos, valores y la autopercepción, muchas veces sin que el usuario sea plenamente consciente. Esto convierte a estos sistemas en tecnologías típicamente de doble uso: poseen la capacidad tanto de fomentar el bienestar como de comprometer la agencia personal, dependiendo de su implementación y supervisión”, explica Wajnerman.
En este sentido, enfatiza en que “comprender la naturaleza dual de los chatbots vinculantes requiere una regulación cuidadosa. Un modelo médico de supervisión ofrece un enfoque prometedor, tratando estas interacciones con la seriedad reservada para los temas de salud psicológica. Tal modelo reconoce tanto los riesgos como las oportunidades, buscando proteger a los usuarios sin obstaculizar la innovación. Los reguladores, diseñadores y usuarios deben colaborar para garantizar que estos compañeros digitales promuevan el auténtico florecimiento humano mientras se salvaguarda la autonomía mental”.
El académico concluye asegurando que “a medida que la inteligencia artificial continúa evolucionando, también deben hacerlo nuestros marcos éticos y regulatorios. Es imperativo que actuemos ahora para proteger la libertad y la integridad cognitivas en la era digital”.
Invitamos a leer el policy briefing completo en CIGI.