Trending Misterio
iVoox
Descargar app Subir
iVoox Podcast & radio
Descargar app gratis
Adolescencia Positiva
238. Deepfakes, cuando un juego de niños se convierte en delito

238. Deepfakes, cuando un juego de niños se convierte en delito 2q6q5b

31/3/2025 · 13:35
0
580
0
580
Adolescencia Positiva

Descripción de 238. Deepfakes, cuando un juego de niños se convierte en delito 3xp1p

Masterclass ⁠"Motivación en el adolescencia"⁠: https://adolescenciapositiva.com/registro-masterclass-motivacion/ En este episodio, hablamos sobre el preocupante uso de los deepfakes entre adolescentes: qué son, por qué su uso está creciendo y qué riesgos implican cuando se usan para bromas, acoso o manipulación. Exploramos cómo prevenir su mal uso, educar sobre el impacto ético de esta tecnología y proteger a nuestros hijos en el entorno digital. Un episodio esencial para entender un fenómeno tan nuevo como alarmante. RECUERDA: Puedes ayudarme a seguir creciendo con un 💕 Like 💌 Un comentario 💾 Guardando en tus audios favoritos 📌 Suscribiéndote al canal 🔔 Activando la campanita de notificaciones ¿Quieres anunciarte en este podcast? Hazlo con advoices.com/podcast/ivoox/883156 60163f

Lee el podcast de 238. Deepfakes, cuando un juego de niños se convierte en delito

Este contenido se genera a partir de la locución del audio por lo que puede contener errores.

Bienvenido a Adolescencia Positiva, el programa donde vas a descubrir cómo mejorar la comunicación con tus hijos. Conocerás a psicólogos, sexólogos, coaches, padres y educadores que te descubrirán las mejores herramientas para trabajar desde casa. Comienza tu camino hacia el buen entendimiento en este nuevo episodio con Diana Alacena.

Bienvenidas, queridísimas familias. Episodio 238 del podcast de Adolescencia Positiva.

Como siempre, un lunes más compartiendo con vosotros, por ellos, por ellos, por nuestros adolescentes. Qué maravilla, de verdad, qué maravilla de adolescentes, ¿verdad? Bueno, sigue muy viralizado todo el tema de la serie adolescencia, la gente sigue hablando mucho de ella y hoy quiero hablar con vosotros de un tema que está también de alguna manera relacionado con ese uso abusivo de las pantallas, ¿verdad? Ese encerrarse en la habitación y pasar la tarde con videojuegos, pero sabemos que están jugando a videojuegos o quizás están haciendo otras cosas.

Porque fíjate lo que te voy a decir, los padres de los chavales que montaron aquel lío, ¿os acordáis que salió en todas las noticias hace ya yo creo que más de un año? Los famosos deepfakes de las niñas de Almendralejo, ya sabes, ese cambio, ¿no? Fueron chavales que cogían las fotografías de sus compañeras de las redes sociales, manipulaban esas fotografías con la inteligencia artificial y creaban fotografías de sus compañeras desnudas, ¿no? Algunos incluso creo que llegaron a subir estas fotografías a páginas pornográficas, o sea que imagínate, terrible, ¿no? Pero, ¿vosotros pensáis realmente que los padres de estos niños pensaban que sus hijos estaban haciendo o maquinando semejante trastada? Bueno, pues hoy vamos a hablar precisamente de qué son los deepfakes, porque para mí es primordial que los padres tengamos competencias digitales y saber lo que está pasando en el mundo digital de nuestros hijos y queremos educar en ese sentido, ¿no? Porque si les damos la pantalla y bueno, y nos desentendemos y que sea lo que Dios quiera, pues ahí es cuando vienen realmente todos los problemas, ¿no? Así que vamos a hablar sobre este tema, qué consecuencias tienen todos estos hechos para las víctimas también, hasta qué punto esto es delictivo, cómo podemos frenar la difusión de esas fotografías o incluso de esos vídeos una vez que comienzan a compartirse, cuáles son los derechos de nuestras adolescentes, sobre todo las chicas, que en ese sentido pues suelen ser las más afectadas en líneas generales, aunque ojo que también ya hay casos de chavales a los que se le ha hecho, ¿de acuerdo? Bien, si tuviéramos que resumir mucho el contenido de este podcast, yo diría que manipular imágenes de chicas o de chicos para crear pornografía, pues es algo muy antiguo y que hacerlo por ordenador es al menos tan viejo como el photoshop, porque hay ya sentencias desde los años 90 por este hecho, por haber cometido estos delitos, aunque probablemente mucho más, ¿vale? La novedad ahora es que se pueden hacer vídeos cada vez más verosímiles y que las imágenes pueden generarse solamente con una aplicación, se sabía que los chavales de Almendralejo utilizaron una aplicación simplemente en la que con cuatro fotos ya tenían ahí todo el desparrame, vamos.

Vamos a entender qué es esto del deep fake, para empezar esto es una palabra que viene del deep learning, ¿vale? que significa aprendizaje profundo en inglés, es una tecnología por la que la propia inteligencia artificial aprende y fake que significa falso, ¿de acuerdo? Fíjate que el artículo más conocido sobre estos deep fake fue publicado en el año 2019, ¿de acuerdo? y lo que aquí hablaban es que el deep fake se utilizó por primera vez en el 2017, ese fue el momento en el que se abre un foro de reddit o de deep fakes dedicado a crear falsos vídeos pornográficos de mujeres famosas empleando fotografías de las mismas. Este foro en cuestión se borró pero desde entonces la tecnología que permite el deep fake ha ido mejorando y las herramientas como comentábamos se han hecho cada vez más accesibles.

Seguro que has visto, ¿no? esta navidad salió un vídeo muy divertido y muy gracioso donde salían personajes muy reconocidos del mundo de la política pues dándose un abrazo. A ver, es muy gracioso este tipo de vídeos y creo que no hace daño a nadie pero es verdad que cuando se utiliza con cierta maldad pues puede hacer muchísimo daño, ¿vale? y aquí yo no quiero en ningún momento desacreditar el proceso tecnológico ni mucho menos porque como digo pues tiene sus aplicaciones también positivas, no sé si os acordáis de aquel anuncio en el que aparecía Lola Flores, que ya falleció hace muchísimos años y aparecía Lola Flores, ¿no?

Comentarios de 238. Deepfakes, cuando un juego de niños se convierte en delito 2m1o6c

Este programa no acepta comentarios anónimos. ¡Regístrate para comentar!