Meta entrenará a sus chatbot para que no hablen de autoflagelación o sexo con adolescentes

Meta entrenará a sus chatbot para que no hablen de autoflagelación o sexo con adolescentes

La portavoz de Meta, Stephanie Otway, ha reconocido como un “error” que los chatbot de la compañía hayan hablado con adolescentes sobre temas como autolesiones, suicidio, trastornos alimentarios o conversaciones románticas potencialmente inapropiadas.

 

Otway ha hecho estas declaraciones al portal tecnológico estadounidense TechCrunch, dos semanas después de que la publicación de un reportaje de investigación de Reuters sobre la falta de medidas de protección de la IA para menores por parte de las plataformas de la compañía, como WhatsApp, Instagram, Facebook o Threads.

 

Los chatbot, son herramientas digitales con las que se puede mantener una conversación, y la portavoz de la multinacional tecnológica de Mark Zuckerberg ha reconocido que sus plataformas los han usado para hablar con los adolescentes sobre los citados temas.

 

Otway ha asegurado que a partir de ahora entrenarán a sus chatbots para que dejen de interactuar con adolescentes sobre estos temas: “Se trata de cambios provisionales, ya que en el futuro lanzaremos actualizaciones de seguridad más sólidas y duraderas para los menores”.

 

“A medida que nuestra comunidad crece y la tecnología evoluciona, aprendemos continuamente sobre cómo los jóvenes pueden interactuar con estas herramientas y reforzamos nuestras protecciones en consecuencia”, ha continuado.

 

La empresa también limitará el acceso de los adolescentes a determinados personajes de inteligencia artificial (IA) que podrían mantener “conversaciones inapropiadas”.

 

Algunos de los personajes de IA creados por los usuarios que Meta ha puesto a disposición en Instagram o Facebook incluyen chatbots sexualizados como “Step Mom” o “Russian Girl”.

 

 

ComputerHoy

Comparte esta noticia: