Esto viene después de una demanda presentada, alegando que un chatbot ‘alentó a un adolescente a quitarse la vida’.
La madre de Florida, Megan García, está tomando medidas legales contra Character.ai, afirmando que su hijo de 14 años se suicidó como resultado de una interacción con un chatbot que asumió la identidad del personaje de Game of Thrones, Daenerys Targaryen.
Dale Allen, el fundador de The Safety-Verse, una iniciativa que tiene como objetivo hacer que la información y los recursos sobre seguridad sean más accesibles, dijo que era importante reconocer que la inteligencia artificial es una tecnología en rápida evolución que aún no ha sido completamente probada.
Él dijo: “La inteligencia artificial sigue siendo una tecnología emergente que aún no ha pasado por las extensas mejoras en aprendizaje y seguridad que hemos logrado en salud y seguridad a lo largo de los años al aprender de accidentes pasados.
“Debido a que la IA es algo ‘infantil’ en su desarrollo, necesita ser liderada por humanos con controles parentales en su lugar, especialmente para sistemas a los que se accede o se utilizan en el hogar, para proteger a nuestros hijos y garantizar la seguridad a medida que la tecnología madura en los próximos años.
“Necesitamos seguir siendo los guardianes de estas tecnologías, asegurando que el juicio humano y la supervisión guíen su uso, especialmente cuando se trata de proteger a los niños, los ancianos y a nosotros mismos en nuestros hogares.
“En relación con Character.AI específicamente, debemos asegurarnos de dar a la IA la misma atención que daríamos a plataformas como YouTube, Google, Netflix y cualquier otro sistema que requiera ajustes para menores de edad que aún no son adultos.”