Trending Misterio
iVoox
Descargar app Subir
iVoox Podcast & radio
Descargar app gratis
Novomind, el podcast de Pascual Parada
IA Explicable

IA Explicable 4d6t53

21/4/2025 · 29:45
0
9
Novomind, el podcast de Pascual Parada

Descripción de IA Explicable 6zj6l

La Inteligencia Artificial explicable o XAI se enfoca específicamente en garantizar la comprensión y la trazabilidad de las decisiones tomadas por la IA. Es decir, trata de entender y justificar las decisiones de los algoritmos. En este episodio explicamos el concepto de XAI, identificando el problema existente con los algoritmos caja negra, y veremos herramientas para poder mitigarlo. 4k4824

Lee el podcast de IA Explicable

Este contenido se genera a partir de la locución del audio por lo que puede contener errores.

Bienvenidos a este nuevo vídeo, donde vamos a ver un concepto que se está poniendo muy en boca de todos en los últimos tiempos, y no es para menos, sino porque es por una necesidad que tenemos de que la Inteligencia Artificial sea cada vez más explicable.

Y eso es de lo que vamos a hablar hoy, de IA explicable. Vamos a entender por qué es necesario y qué es lo que podemos hacer y qué se está haciendo para poder desarrollar modelos, algoritmos, donde entendamos qué es lo que la IA está tomando en consideración para darnos la respuesta que nos da. Vamos a ver la diferencia de dos conceptos importantes.

Por un lado está el concepto de la Inteligencia Responsable. La Inteligencia Artificial Responsable, que es un enfoque holístico donde lo que se busca es que haya una ética, unos valores detrás del desarrollo de cualquier tipo de algoritmo de inteligencia artificial. Esto es, por un lado, de que la Inteligencia Artificial cada vez se comporte de una forma más humana.

Mejor explicado, que la Inteligencia Artificial se comporte para aquello que para los humanos queremos y nos aporta valor, y nada más. Esto es una IA responsable. Queremos que haga lo que justamente estamos buscando y eso que nos hace más humanos, de acuerdo con una ética y con unos valores que nosotros transmitimos. Perfecto, este concepto queda claro. Pero es que luego está el concepto de la IA explicable.

Es decir, que se enfoca en la comprensión realmente de la respuesta que nos está dando. Es decir, justificar, saber la trazabilidad de argumentos, de criterios, en base a qué datos ha tomado la decisión de darme la respuesta que me ha dado. Esto es una IA explicable. No solamente me interesa que me dé una respuesta que sea coherente de acuerdo a lo que yo buscaba y que me aporte valor, sino, oye, la respuesta en qué argumentos la basas, en qué te justificas, qué has tomado en consideración.

Tengo que entender la trazabilidad de tu argumentación para darme la respuesta que me estás dando. Y esto es una IA explicable y tenemos que llegar hasta ese punto. Esto sucede y además es que la IA responsable con la IA explicable son dos procesos complementarios, no son excluyentes. Es decir, necesitamos trabajar ambos.

Necesitamos que la IA tenga una ética y unos valores y necesitamos entender por qué la IA nos ha dado la respuesta que nos ha dado. ¿Por qué es necesario este enfoque de explicabilidad de la IA? Primero tenemos que entender qué es la IA generativa y cuáles son los elementos que la componen. Una IA generativa está basada principalmente en tres principales elementos.

El primero de ellos sería una red neuronal. Una red neuronal, que es un algoritmo, nada más, es simplemente un algoritmo, es un software, es una pieza informática de programación.

Bueno, pues esta red neuronal es un algoritmo particular que ha sido inspirado en las células, en las neuronas de nuestro cerebro. Y por eso, por esa inspiración, se le llama red neuronal. A partir de aquí, de esa inspiración en las neuronas de nuestro cerebro, cualquier parecido de una red neuronal con el funcionamiento de nuestro cerebro es inexistente. Solamente nos hemos inspirado en el cerebro, pero desde luego la implementación nada tiene que ver.

El cerebro, gracias a Dios, hoy es mucho más complejo, del cual no terminamos de entender muchos conceptos de cómo nuestro cerebro funciona como para poder emularlo con un programa informático. Entonces nos hemos inspirado en él para desarrollar una red neuronal, que es un programa informático. Bien, este programa informático en muchos casos adopta una estructura adecuada, que es un conjunto de redes neuronales que se van interconectando entre sí, que se mezclan de acuerdo a esa estructura que antes os decía, y a esta estructura le llamamos transformer.

De hecho, si os fijáis en el propio nombre de chatGPT, chatGPT, las siglas significan Generated Pre-trained Transformer. Con lo cual, en la propia palabra de chatGPT, la T del acrónimo significa que tiene una estructura transformer, que es realmente la que dio el pistoletazo de salida y la potencia que hoy podemos ver todos en la guía generativa.

Es verdad que las redes neuronales con esta arquitectura transformer ya han evolucionado más, pero siguen siendo una base sólida de cómo funciona la guía generativa. Por lo tanto, entendemos que la guía generativa tiene tres elementos principales. Uno de ellos es una red neuronal, que es un algoritmo, un programa informático inspirado en nuestro cerebro, que tiene una determinada arquitectura o estructura, que se llama transformer.

Y lo tercero, el tercer elemento, es que esta es el...

Comentarios de IA Explicable 6b5c2w

Este programa no acepta comentarios anónimos. ¡Regístrate para comentar!