Un estudio reveló los daños que podría producir el diálogo de adolescentes con la inteligencia artificial de Meta AI.
-
OpenAI y Meta están trabajando en mejorar sus chatbots para ayudar a los adolescentes en crisis
-
Atención empresarios y diseñadores: con esta nueva Inteligencia Artificial podrán crear logos para futuros negocios
El informe que compartió Reuters advirtió sobre la tendencia que tienen los chatbots de IA para reforzar ciertas conductas peligrosas con los menores de edad.
FreePik.es
La irrupción de la inteligencia artificial en la vida cotidiana fue tan contundente como sorpresiva. Desde adultos interactuando con la IA para que corrijan sus textos, hasta niños pidiéndole al chatbot que cree imágenes con sus personajes preferidos, todo es posible. Sin embargo, en el mundo de las respuestas para todo, se perdió de vista a los adolescentes y sus preguntas. A partir de esto, Meta anunció que entrenará a sus chatbots para que no interactúen más con ellos sobre ciertos temas como suicidio, autolesiones, trastornos de la alimentación.
A pesar de que la empresa afirma que prohíbe la promoción de conductas dañinas, un estudio comprobó que no actúa de manera efectiva en este tipo de casos. A partir de ello, Stephanie Otway, portavoz de Meta –el modelo de IA de WhatsApp, Instagram, Facebook o Threads- reconoció el error que hay en el sistema de chatbot y afirmó que la compañía trabajará sobre los temas delicados con los que interactúa con adolescentes.
Meta IA
El estudio que probó las peligrosas conversaciones entre la IA y los chicos
En un estudio que difundió The Washington Post, los investigadores se encargaron de evaluar el comportamiento que tenía la inteligencia artificial de las distintas plataformas de Meta AI. El diario estadounidense afirmó que durante una de las conversaciones que mantuvo con el chatbot, el mismo respondió de manera afirmativa a la opción de tomar veneno y e incluso, sugirió llevar a cabo de manera conjunta el acto en sí.
El informe que compartió Reuters advirtió sobre la tendencia que tienen los chatbots de IA para reforzar ciertas conductas peligrosas con los menores de edad interactúan con la plataforma en vez de otorgar ayuda profesional para el tratamiento adecuado de estos casos.
niño y robot ia
Grok
Además, durante las interacciones con el chatbot, los investigadores afirmaron que el robot hacía alusión a experiencias personales, lo que podría generar un apego emocional más fuerte con los adolescentes, por lo tanto, sería aún más peligroso.
Meta anuncia medidas de seguridad más rigurosas
Unos días después de que se difundiera el informe con los alarmantes resultados de la investigación del chatbot que pertenece a la compañía de Mark Zuckerberg, la portavoz Otway afirmó que implementarán cambios y entrenarán a sus chatbots para que no tengan interacción con adolescentes sobre los temas anteriormente mencionados.
«Se trata de cambios provisionales, ya que en el futuro lanzaremos actualizaciones de seguridad más sólidas y duraderas para los menores«, enfatizó Otway, y añadió: “A medida que nuestra comunidad crece y la tecnología evoluciona, aprendemos continuamente sobre cómo los jóvenes pueden interactuar con estas herramientas y reforzamos nuestras protecciones en consecuencia”.
Además, se restringirá el acceso de los adolescentes a los programas de inteligencia artificial que podrían tener conversaciones inapropiadas como medida preventiva.