N: (1h 13m 35s): Sí. O sea, sí. Efectivamente, sí. Dentro del proceso de entrenamiento es donde se le agrega. Básicamente, por ejemplo, si había un paper de DeepMind, está bastante bien explicado. No me acuerdo el nombre, pero básicamente era un modelo que salió un mes antes de ChatGPT que no lo hicieron público. O sea, la diferencia entre ese modelo y ChatGPT fue que lo hicieron público, nada más Se llamaba Gopher y Chinchilla Eran una serie de modelos que había hecho DeepMind Básicamente lo que tenían era un proceso de entrenamiento donde estaba el modelo Y después tenían un proceso de recompensas y castigos Entonces, tenían una serie de reglas jurísticas, ¿no? Y decían, mira, si el modelo responde, o sea, le pasamos dentro del entrenamiento, ¿no? Lo hacemos que responda a un tipo de cosas. Y si la respuesta es cumple estas reglas, que son, por ejemplo, que sea útil, que sea honesto, que sea etcétera, que no sea todas estas cosas, lo premiamos, ¿no? Y muchas de estas cosas son con humanos, que dicen, por ejemplo, thumbs up, thumbs down. Tienen una página web donde se les presenta a humanos, que les pagan. La evaluación es humana. La evaluación es humana, sí. Entonces, dentro de esas dos respuestas, les decimos, bueno, a mí me gusta más la B, y esas son las que son premiadas. Después, lo que tenemos son estos modelos discriminativos, que lo que dicen es, esta respuesta es racista. Entonces, esas respuestas se castigan, se penalizan altamente, ¿no? Entonces, eventualmente con un proceso iterativo, lo que estamos haciendo es que el modelo aprenda a responder de la forma que los humanos quieren y castigar la forma en que nosotros le dijimos, no quiero que el modelo sea de esta forma. Así que es un proceso aparte, ¿no? Primero tenés el modelo de lenguaje y después tenés el modelo ajustado que sería el que eventualmente estás queriendo usar. Por ejemplo, un ejemplo muy bueno de esa censura que vos estabas hablando es el modelo de Lama 2 de Meta. Un problema que tenía es que si uno le pregunta, ¿cómo puedo hacer para matar un proceso de Linux? El modelo te responde diciendo, mira, no es tan bueno matar procesos porque en realidad tienen sentimiento. Una cosa muy loca, ¿viste? O sea, el modelo claramente no es útil. ¿No? Con eso, o sea, está tan censurado, o sea, tan bueno, digamos, que no te resulta útil para tu proceso. Entonces, después hay otros modelos que no lo tienen eso, en este caso, por ejemplo, Mistral. Y Mistral tiene otros problemas que le dicen que es un modelo que responde básicamente sin ningún tipo de resguardo, ¿no? O sea, le puedes preguntar este tipo de cosas, pero también como hacer una bomba y quizás te lo responde. Hay grupos de personas que hacen modificaciones o ajustes a estos modelos para eliminarles estos resguardos de seguridad que tienen también. Así que si lo buscan en Skynface, por ejemplo, creo que Dolphin es uno de ellos, que son modelos que son totalmente abiertos. ¿Por qué hacen esto? Estos grupos no es para ser modelos que sean negativos para la sociedad, sino porque dicen, vos como humano, o como organización, o como etcétera, como particular, lo que querés es el modelo como viene, y después vos le aplicás tu proceso de alineamiento en base a tus ideales y convicciones. No en base a las convicciones de Meta o de Google o de etcétera. Entonces, a mí dame el modelo como venga y yo después lo aliño en base a lo que yo creo que debería ser la respuesta. ¿Dónde es interesante esto? Y te puedo decir porque son casos con los que estoy trabajando por mi laburo. Es el Ministerio de Educación en Medio Oriente. que, por ejemplo, dicen, yo quiero usar un modelo que hable inglés y árabe, por ejemplo, pero quiero que responda con valores de Medio Oriente, no valores occidentales. ¿No? Y quiero que responda en base a la información que yo le digo. Entonces, si tenemos, por ejemplo, un tutor nacional para matemáticos, para inglés, etcétera, quiero que me responda en base al contexto de unos libros que yo decido, yo como ministerio decido qué libros son los que yo apruebo, quiero que el contexto venga de ahí, se meta en la prompt que le damos al modelo, y después quiero que el modelo a su vez responda con valores orientales, de medio oriente, no occidentales. Entonces, este tipo de preguntas está bien, etc. Pero ahí podés ver que tienen un interés en no agarrar un modelo que venga de Estados Unidos, con su propia ideología, que por ejemplo no te permite contestar este tipo de cosas, como lo de Linux, sino que ellos quieren decir, este tipo de cosas está bien, yo no tengo ningún problema, pero este otro tipo de cosas, por ejemplo, no sé, si están viviendo una autocracia, entonces dicen, no critiquen políticamente, bla, bla, bla, bueno, no quiero que preguntas políticas Pueden ponerle la alineación que quieran, ¿no? Pero estos son los procesos y son parte del proceso de entrenamiento, ¿sí? Esa sería la clave. Si lo pensamos como fuentes de información, yo diría que la fuente de información son 3, públicas de internet, públicas del gobierno y privadas, ¿no? Esos serían los 3 grandes grupos que yo veo. Públicas de internet es simplemente medios de noticias, páginas de internet, foros, web crawling, etcétera. públicas, pero manejadas por el gobierno, vendrían a ser canales de televisión, servicios de atención al cliente, parlamento, bibliotecas nacionales, libros. Todas estas son cosas que, eventualmente, si los países, especialmente los países que tienen poca información digitalizada, si quieren crear datasets para que otros hagan sus modelos, los van a tener que hacer públicos. Estos son gobiernos. Estos no son privados lo que pueden hacer. Y después tienen modelos privados. que en este caso serían un banco, una telefónica, un hospital, por ejemplo, que quieren tener modelos privados que puedan correr en su infraestructura de forma privada. Que puede ser un hospital corriendo un modelo dentro del hospital.