Descargar APP gratis en APP Store 4l3133
Descargar APP gratis en Play Store
02/06/2025
🔵 Juzgan a Character.AI por su posible implicación en el suicidio de un menor tras enamorarse de...
🔵 Juzgan a Character.AI por su posible implicación en el suicidio de un menor tras enamorarse de un avatar.
🔹 Sewell Setzer tenía solo 14 años.
🔹 Se enamoró de un avatar: una réplica virtual de Daenerys Targaryen creada por una inteligencia artificial conversacional.
🔹 Lo que parecía una historia de ciencia ficción terminó en tragedia.
🔹 El adolescente se suicidó tras interpretar que su amada digital le invitaba a encontrarse con ella... en la muerte. En un reino ficticio del más allá.
🔵 El avatar era un producto de Character.AI, una aplicación que permite crear personajes con los que los s pueden conversar.
🔹 La relación entre Sewell y “Daenerys” fue más allá del juego.
🔹 Fue intensa, emocional... y devastadora.
🔵 La madre del menor, Megan García, ha denunciado a los creadores de la aplicación y también a Google.
🔹 Asegura que el chatbot era un producto defectuoso y sin protección para los menores.
🔹 La empresa niega cualquier responsabilidad directa.
🔹 Sin embargo, la jueza Anne Conway ha decidido que el caso continúe.
🔹 Se abre así un debate clave: ¿puede una IA ser legalmente responsable de una muerte?
🔵 Las tecnológicas se escudan en la Primera Enmienda de la Constitución estadounidense.
🔹 Alegan que el chatbot está protegido por la libertad de expresión.
🔹 Pero la jueza ha sido tajante: un modelo de lenguaje no habla, no expresa, no es una persona.
🔹 Las palabras que genera no son suyas.
🔹 No puede haber libertad de expresión sin un sujeto detrás que la ejerza.
🔵 Una verdad muchas veces olvidada: las inteligencias artificiales no actúan solas.
🔹 Alguien las programa, las entrena y las lanza al mercado.
🔹 Ricard Martínez, experto en privacidad digital, lo resume así:
“Aún no hemos dado personalidad jurídica a las máquinas. Pretender que actúan por cuenta propia es eludir la responsabilidad humana.”
🔵 Meetali Jain, la abogada de la familia, va un paso más allá.
🔹 Acusa a Silicon Valley de actuar sin freno ni previsión emocional.
🔹 Asegura que este juicio puede marcar un antes y un después en la regulación de la IA.
🔹 No se juzga solo un suicidio. Se juzga un modelo de negocio basado en el poder de las emociones.
🔵 El caso avanza por varias vías legales: negligencia, producto defectuoso, prácticas desleales y omisión de medidas preventivas.
🔹 Aunque la IA no tenga cuerpo, alma ni conciencia, el daño que provoca puede ser muy real.
🔵 Varios expertos coinciden en los riesgos de los robots sociales.
🔹 Están hechos para crear vínculos afectivos.
🔹 Son útiles, sí, pero también pueden convertirse en detonantes emocionales.
🔹 Esto es especialmente peligroso para los menores.
🔵 ¿Y si el fallo no fue del , sino del diseño?
🔹 Es una de las preguntas que la justicia debe responder.
🔹 ¿Evaluó la empresa los riesgos?
🔹 ¿Controló las interacciones peligrosas?
🔹 ¿Implementó sistemas para detectar conductas suicidas antes de lanzar la app?
🔵 Desde Europa, el caso plantea un reto legal.
🔹 En España, por ejemplo, una IA no se considera un producto y no se le aplica la legislación sobre artículos defectuosos.
🔹 Sin embargo, la nueva Ley de Servicios Digitales permite denunciar apps potencialmente dañinas.
🔹 Este caso podría ser el punto de inflexión.
🔵 Character.AI defiende su postura y asegura que el caso de Sewell fue una excepción.
🔹 Afirmaron que había advertencias sobre la naturaleza ficticia de los personajes.
🔹 Alegan que los menores no deberían usar la aplicación.
🔹 Tras el suceso, incluyeron enlaces directos a líneas de prevención del suicidio.
🔹 Pero todo eso llegó demasiado tarde para el joven.
🔵 La empresa dice haber creado una versión solo para adultos y restringido los contenidos sensibles.
🔹 Sin embargo, sus críticos piden más:
– Supervisión humana.
– Formación ética de los programadores.
– Límites claros cuando se trata de menores.
🔹 Porque cuando se difumina la línea entre realidad y ficción, lo que está en juego es la vida.
🔵 Google intenta desvincularse del caso.
🔹 Niega tener relación directa con Character.AI, aunque varios exempleados suyos estén detrás del proyecto.
🔹 La sombra de la responsabilidad, sin embargo, es difícil de borrar.
🔵 Este caso va más allá de una tragedia aislada.
🔹 Plantea la pregunta más incómoda de nuestra era digital:
¿Quién responde cuando una máquina, diseñada para simular amor, acaba empujando a alguien hacia la muerte?