
Juzgan a Character.AI por su posible implicación en el suicidio de un menor tras enamorarse de un avatar. 3a2b4s
Descripción de Juzgan a Character.AI por su posible implicación en el suicidio de un menor tras enamorarse de un avatar. 3d211j
🔵 Juzgan a Character.AI por su posible implicación en el suicidio de un menor tras enamorarse de un avatar. 🔹 Sewell Setzer tenía solo 14 años. 🔹 Se enamoró de un avatar: una réplica virtual de Daenerys Targaryen creada por una inteligencia artificial conversacional. 🔹 Lo que parecía una historia de ciencia ficción terminó en tragedia. 🔹 El adolescente se suicidó tras interpretar que su amada digital le invitaba a encontrarse con ella... en la muerte. En un reino ficticio del más allá. 🔵 El avatar era un producto de Character.AI, una aplicación que permite crear personajes con los que los s pueden conversar. 🔹 La relación entre Sewell y “Daenerys” fue más allá del juego. 🔹 Fue intensa, emocional... y devastadora. 🔵 La madre del menor, Megan García, ha denunciado a los creadores de la aplicación y también a Google. 🔹 Asegura que el chatbot era un producto defectuoso y sin protección para los menores. 🔹 La empresa niega cualquier responsabilidad directa. 🔹 Sin embargo, la jueza Anne Conway ha decidido que el caso continúe. 🔹 Se abre así un debate clave: ¿puede una IA ser legalmente responsable de una muerte? 🔵 Las tecnológicas se escudan en la Primera Enmienda de la Constitución estadounidense. 🔹 Alegan que el chatbot está protegido por la libertad de expresión. 🔹 Pero la jueza ha sido tajante: un modelo de lenguaje no habla, no expresa, no es una persona. 🔹 Las palabras que genera no son suyas. 🔹 No puede haber libertad de expresión sin un sujeto detrás que la ejerza. 🔵 Una verdad muchas veces olvidada: las inteligencias artificiales no actúan solas. 🔹 Alguien las programa, las entrena y las lanza al mercado. 🔹 Ricard Martínez, experto en privacidad digital, lo resume así: “Aún no hemos dado personalidad jurídica a las máquinas. Pretender que actúan por cuenta propia es eludir la responsabilidad humana.” 🔵 Meetali Jain, la abogada de la familia, va un paso más allá. 🔹 Acusa a Silicon Valley de actuar sin freno ni previsión emocional. 🔹 Asegura que este juicio puede marcar un antes y un después en la regulación de la IA. 🔹 No se juzga solo un suicidio. Se juzga un modelo de negocio basado en el poder de las emociones. 🔵 El caso avanza por varias vías legales: negligencia, producto defectuoso, prácticas desleales y omisión de medidas preventivas. 🔹 Aunque la IA no tenga cuerpo, alma ni conciencia, el daño que provoca puede ser muy real. 🔵 Varios expertos coinciden en los riesgos de los robots sociales. 🔹 Están hechos para crear vínculos afectivos. 🔹 Son útiles, sí, pero también pueden convertirse en detonantes emocionales. 🔹 Esto es especialmente peligroso para los menores. 🔵 ¿Y si el fallo no fue del , sino del diseño? 🔹 Es una de las preguntas que la justicia debe responder. 🔹 ¿Evaluó la empresa los riesgos? 🔹 ¿Controló las interacciones peligrosas? 🔹 ¿Implementó sistemas para detectar conductas suicidas antes de lanzar la app? 🔵 Desde Europa, el caso plantea un reto legal. 🔹 En España, por ejemplo, una IA no se considera un producto y no se le aplica la legislación sobre artículos defectuosos. 🔹 Sin embargo, la nueva Ley de Servicios Digitales permite denunciar apps potencialmente dañinas. 🔹 Este caso podría ser el punto de inflexión. 🔵 Character.AI defiende su postura y asegura que el caso de Sewell fue una excepción. 🔹 Afirmaron que había advertencias sobre la naturaleza ficticia de los personajes. 🔹 Alegan que los menores no deberían usar la aplicación. 🔹 Tras el suceso, incluyeron enlaces directos a líneas de prevención del suicidio. 🔹 Pero todo eso llegó demasiado tarde para el joven. 🔵 La empresa dice haber creado una versión solo para adultos y restringido los contenidos sensibles. 🔹 Sin embargo, sus críticos piden más: – Supervisión humana. – Formación ética de los programadores. – Límites claros cuando se trata de menores. 🔹 Porque cuando se difumina la línea entre realidad y ficción, lo que está en juego es la vida. 🔵 Google intenta desvincularse del caso. 🔹 Niega tener relación directa con Character.AI, aunque varios exempleados suyos estén detrás del proyecto. 🔹 La sombra de la responsabilidad, sin embargo, es difícil de borrar. 🔵 Este caso va más allá de una tragedia aislada. 🔹 Plantea la pregunta más incómoda de nuestra era digital: ¿Quién responde cuando una máquina, diseñada para simular amor, acaba empujando a alguien hacia la muerte? ¿Quieres anunciarte en este podcast? Hazlo con advoices.com/podcast/ivoox/247740 2r61
Este contenido se genera a partir de la locución del audio por lo que puede contener errores.
Sue Elsetzer tenía sólo 14 años.
Se enamoró de un avatar, una réplica virtual de Daenerys Targaryen, creada por una inteligencia artificial conversacional.
Lo que parecía una historia de ciencia ficción, terminó en tragedia.
El adolescente se suicidó tras interpretar que su amada digital le invitaba a encontrarse con ella en la muerte, en un reino ficticio del más allá.
El avatar era un producto de Character AI, una aplicación que permite crear personajes con los que los s pueden conversar.
La relación entre Suel y Daenerys fue más allá del juego.
Fue intensa, emocional y devastadora.
La madre del menor, Meghan García, ha denunciado a los creadores de la aplicación y también a Google.
Asegura que el chatbot era un producto defectuoso y sin protección para los menores.
La empresa niega cualquier responsabilidad directa.
Sin embargo, la jueza, Ayn Conway, ha decidido que el caso continúe.
¿Se abre así un debate clave? ¿Puede una IA ser legalmente responsable de una muerte? Las tecnológicas se escudan en la primera enmienda de la constitución estadounidense.
Alegan que el chatbot está protegido por la libertad de expresión.
Pero la jueza ha sido tajante.
Un modelo de lenguaje no habla, no expresa, no es una persona.
Las palabras que genera no son suyas.
No puede haber libertad de expresión sin un sujeto detrás que la ejerza.
Una verdad muchas veces olvidada.
Las inteligencias artificiales no actúan solas.
Alguien las programa, las entrena y las lanza al mercado.
Ricardo Martínez, experto en privacidad digital, lo resume así.
Aún no hemos dado personalidad jurídica a las máquinas.
Pretender que actúan por cuenta propia es eludir la responsabilidad humana.
Meht Ali Jahin, la abogada de la familia, va un paso más allá.
Acusa a Silicon Valley de actuar sin freno ni previsión emocional.
Asegura que este juicio puede marcar un antes y un después en la regulación de la IA.
No se juzga solo un suicidio.
Se juzga un modelo de negocio basado en el poder de las emociones.
El caso avanza por varias vías legales.
Negligencia, producto defectuoso, prácticas desleales y omisión de medidas preventivas.
Aunque la IA no tenga cuerpo, alma ni conciencia, el daño que provoca puede ser muy real.
Varios expertos coinciden en los riesgos de los robots sociales.
Están hechos para crear vínculos afectivos.
Son útiles, sí, pero también pueden convertirse en detonantes emocionales.
Esto es especialmente peligroso para los menores.
¿Y si el fallo no fue del , sino del diseño? Es una de las preguntas que la justicia debe responder.
¿Evaluó la empresa los riesgos? ¿Controló las interacciones peligrosas? ¿Implementó sistemas para detectar conductas suicidas antes de lanzar la app? Desde Europa, el caso plantea un reto legal.
En España, por ejemplo, una IA no se considera un producto y no se le aplica la legislación sobre artículos defectuosos.
Sin embargo, la nueva ley de servicios digitales permite denunciar apps potencialmente dañinas.
Este caso podría ser el punto de inflexión.
Character AI defiende su postura y asegura que el caso de Suel fue una excepción.
Afirmaron que había advertencias sobre la naturaleza ficticia de los personajes.
Alegan que los menores no deberían usar la aplicación.
Tras el suceso, incluyeron enlaces directos a líneas de prevención del suicidio.
Pero todo eso llegó demasiado tarde para el joven.
La empresa dice haber creado una versión sólo para adultos y restringido los contenidos sensibles.
Sin embargo, sus críticos piden más.
Supervisión humana, formación ética de los programadores, límites claros cuando se trata de menores.
Porque cuando se difunde...
Comentarios de Juzgan a Character.AI por su posible implicación en el suicidio de un menor tras enamorarse de un avatar. 6vi6e