Trending Misterio
iVoox
Descargar app Subir
iVoox Podcast & radio
Descargar app gratis
No Tiene Nombre
NTN 368 - 🧠 Dentro del Cerebro de Claude

NTN 368 - 🧠 Dentro del Cerebro de Claude 5j6d23

5/4/2025 · 17:07
1
369
No Tiene Nombre

Descripción de NTN 368 - 🧠 Dentro del Cerebro de Claude 4t25

¡Bienvenidos a un alucinante viaje dentro del cerebro de las IAs! En este episodio: 🧪 Descubrimos cómo los científicos de Anthropic pueden "ver" los pensamientos de los modelos de lenguaje 🔬 Exploramos los circuitos neuronales artificiales y la "cirugía neuronal" 🤯 Analizamos las implicaciones filosóficas y éticas de este avance tecnológico 📚 Fuentes: Anthropic Blog: https://www.anthropic.com/news/tracing-thoughts-language-model ¿Quieres anunciarte en este podcast? Hazlo con advoices.com/podcast/ivoox/277993 474vo

Lee el podcast de NTN 368 - 🧠 Dentro del Cerebro de Claude

Este contenido se genera a partir de la locución del audio por lo que puede contener errores.

Buenas, buenas, bienvenidos a otro episodio de No Tiene Nombre, hoy vamos a hablar de Anthropic. Y vamos a hablar de Anthropic como una segunda parte del episodio 362 de hace ya unas semanitas, donde expliqué cómo funciona un Large Language Model, pero como Anthropic ha sacado un paper hace unos días muy muy interesante y yo no había tenido tiempo hasta hoy para analizarlo, pues ahora que he vuelto en el tren, le he podido leer, me he dedicado unas horitas a tomar notas y demás, pues lo vamos, voy a tratar de explicarlo y a ver cómo sale. Imagínense esto, tenemos inteligencias artificiales que son brutales, sabemos Cloud, GPT y demás. Por cierto, estoy utilizando Cloud para hacer el tema del procesado de las notas y está bastante bien.

Pero bueno, el tema es que estas inteligencias artificiales, estos modelos grandes de lenguaje, no tenemos ni idea de cómo llegan a respuesta. Es como si le preguntas a alguien cuál es la capital de Francia y te dice es París. Y cuando le preguntas cómo lo sabes, se queda en blanco. Hasta ahí es donde entendemos cómo son las cosas. Este problema de no saber cómo llegan a esos pensamientos es algo que ha roto la cabeza de la comunidad de inteligencia artificial durante mucho tiempo.

Los investigadores usualmente llaman a estas AIs, a muchas de estas AIs, que son cajas negras. Metemos una pregunta, sale una respuesta, pero lo que pasa adentro no se sabe. Y estamos construyendo sistemas cada vez más poderosos sin entender cómo funcionan. Es como darle ahora que me toca a mí las llaves del coche a un adolescente que este es el acelerador, este es el freno.

Buenísimo. Pues mira, no sabes cómo va, termina. Aquí es donde viene la gente de Anthropic. ¿Qué es lo que hace? Por cierto, Anthropic son las empresas detrás de Cloud.

Cloud, la última versión 3.7 Sonnet y demás es brutalmente bueno, ya algo hablé por aquí.

Pero esta gente, la Anthropic, han publicado una investigación súper interesante que se llama Phrasing the Thought of a Large Language Model, que básicamente es como si fuera rastreando los pensamientos de un Large Language Model. En este trabajo desarrollaron un método que se llama Activation Tracking, rastreo de las activaciones, que básicamente permite ver en qué partes del modelo se encienden cuando está pensando. Es como si le pusiéramos electrodos a un cerebro para ver qué neuronas se iluminan cuando le hace una pregunta, como por ejemplo, ¿cuál es la capital de Francia? ¿Por qué cielo es azul? Etcétera.

En el momento de dar crédito, voy a decir los nombres y lo voy a destruir, pero los investigadores detrás de todo esto son Nelson L. Hayes, Colin Burns, Kisisti Gupta y otros más que están en la lista es larga. Pero estos tipos son como una especie de Tony Stark, donde tienen unos conocimientos brutales de matemáticas, porque aquí sí hay que saber matemática. Vamos a ver cómo funciona esto para entender qué hace, porque mira, yo inclusive me pierdo con todo esto. Los modelos, los investigadores van a agarrar un modelo tipo Cloud, le hacen una pregunta y analizan la respuesta.

Después, y esta es la parte interesante, observan las activaciones internas, básicamente los patrones que se disparan dentro del modelo y analizan estos patrones para identificar qué partes del modelo se activan cuando está procesando información específica. Si fuera un cerebro, ves por dónde se van prendiendo las neuronas. Es como si fuera una resonancia magnética. Pero, pero aquí en dónde entra el problema. ¿Por qué? Esto para mí está un poquito más geek, está un poquito más nerd, ¿no? Cuando hablamos de activaciones, son básicamente los valores numéricos que se producen en cada capa de una red neuronal.

Pero en estos modelos grandes de lenguajes pueden tener cientos de miles de millones de parámetros, con lo que la cantidad de datos y la cantidad de caminos por los que pueden recorrer esta información es algo masivo. Lo que hizo Antropic es imposible de ver. Lo que hizo Antropic es desarrollar unas técnicas para filtrar el tsunami de información y encontrar los patrones más significativos. Las llamaron Casual Mediation Analysis, Casual Tracing y otras más que no las tengo aquí. Y lo que hacen es identifican qué activaciones específicas son responsables de los comportamientos del modelo. Pueden ver a grandes rasgos por dónde pasan, como dijéramos, los pensamientos en la red neuronal y pueden ir bajando hasta el detalle fino. Pero de nuevo, recordemos que el detalle fino pueden ser miles de millones de parámetros.

Entonces, en base a todo esto, descubrí una cosa donde que parece que las IA's sí piensan, piensan entre comillas. ¿Por qué? Porque parece que estuvieran pensando de una forma estructurada, básicamente como lo hacemos nosotros. No es un proceso aleatorio y un simple juego de probabilidades.

Hasta ahora, una de las formas en las que sabíamos que algunos, algunos modelos de inteligencia artificial resolvían problemas era con fuerza bruta. Pero acá empezaron a ver que, por ejemplo, cuando un modelo resuelve un problema matemático, el detalle fino

Comentarios de NTN 368 - 🧠 Dentro del Cerebro de Claude 2c5848

Este programa no acepta comentarios anónimos. ¡Regístrate para comentar!