Si bien estos avances son emocionantes, también generan cierta aprensión y desconcierto. A medida que las máquinas demuestran su capacidad para superarnos en ciertos campos, surge la pregunta inevitable sobre cómo esto afectará a nuestra sociedad y a nuestra propia identidad.
La inteligencia artificial es una amalgama de diversas tecnologías, cuya convergencia ha desencadenado una auténtica revolución. Mi objetivo es ofrecerte una comprensión sólida de dónde nos encontramos, especialmente en lo que respecta a ChatGPT, para que puedas tener una visión clara de cómo estas herramientas están dando forma a nuestro mundo.
En el contexto tecnológico, ChatGPT representa una forma de inteligencia artificial basada en un modelo generativo. Su función principal consiste en predecir palabras y completar frases en un texto. Imagina su funcionamiento como una versión avanzada y precisa de la función de autocompletado en los dispositivos móviles. No obstante, lo que distingue a ChatGPT es su capacidad para ofrecer respuestas coherentes y contextualmente relevantes que a menudo sorprenden por su nivel de comprensión.
La sensación de que ChatGPT comprende y responde con profundidad es notable, especialmente al utilizarlo por primera vez. A menudo, parece haber adquirido cierta conciencia propia, llevando a pensar que ha generado contenido a partir de fuentes existentes en la web. Sin embargo, su funcionamiento se basa en las redes neuronales, una tecnología fundamental en este proceso.
Las redes neuronales.
En contraste con la programación tradicional, donde cada paso se instruye explícitamente a la máquina (como cuando utilizas una calculadora), una red neuronal se adapta para aprender tareas mediante el aprendizaje automático o machine learning. Por ejemplo, su capacidad para reconocer números escritos a mano sería extremadamente compleja de programar paso a paso debido a las variaciones en la escritura. Las redes neuronales desempeñan un papel esencial en este enfoque, permitiendo a ChatGPT desarrollar respuestas aparentemente autónomas y generar ideas coherentes a partir de datos procesados. No obstante, es fundamental comprender que este proceso no implica un verdadero entendimiento o análisis humano, sino más bien un procesamiento avanzado de patrones en los datos.
El concepto es simple, aunque su implementación es compleja. La idea consiste en instruir a una máquina para llevar a cabo tareas que no sabemos cómo explicar de manera precisa. Para lograrlo, utilizamos ejemplos y entrenamos una red neuronal, que aprenderá dónde dirigir su atención en los datos, qué operaciones realizar y cómo extraer conclusiones relevantes. Aunque proporcionamos una estrategia, es la máquina quien analiza una gran cantidad de casos y datos para entender cómo actuar en cada situación. En esencia, la red neuronal extrae conclusiones y descubre patrones, a veces incluso identificando detalles que podríamos haber pasado por alto. A este proceso se le llama entrenamiento y es clave para el desarrollo de la inteligencia artificial.
Sin embargo, nos enfrentamos un desafío adicional: las computadoras solo comprenden números y no entienden los conceptos detrás de las palabras. Cuando escribimos "HOLA", el ordenador interpreta los números asociados a cada letra. "HOLA" para un ordenador es esta secuencia de números: 72 79 76 65. Si deseamos que una inteligencia artificial nos entienda y se comunique con nosotros, debemos considerar que la red neuronal trabaja con números, no con frases ni palabras.
Los tokens.
Para abordar este problema, configuramos la red neuronal para reconocer patrones numéricos en los datos. Al analizar numerosas secuencias, la red identifica patrones que se repiten, indicando la presencia de ciertos términos. Estos patrones recurrentes, llamados tokens, se transforman en números únicos para representar palabras. Este proceso, denominado tokenización, permite que la red neuronal trabaje con términos y conceptos.
No obstante, aunque la máquina conoce los tokens, nunca comprenderá su significado real ni podrá relacionarlos con objetos del mundo, como lo hacemos nosotros. Sin embargo, puede identificar relaciones entre tokens, como la conexión entre "chica" y "vestido". Esto se logra a través del embedding, una técnica que asigna conexiones a los tokens y sus relaciones. Un token puede tener 300 marcadores que serían como 300 dimensiones distintas que permiten relacionarlos dentro de la red neuronal.
El embedding.
ChatGPT lo lleva a otro nivel porque directamente coge secuencias de varios tokens o sea frases enteras y también las organiza dentro del espacio con sus respectivas relaciones y con más de 1.000 marcadores. Recuerda conjuntos de tokens, como frases, y los organiza en un espacio crearando un sistema complejo de etiquetado
Para simplificar aún más, se eliminan palabras como “el”, “la”, "esto", "eso", "quizás", así como mayúsculas y signos de puntuación, en un proceso llamado lematización que agiliza el proceso pues aportan muy poco valor a la frase en la fase de entrenamiento agilizándolo mucho.
El sampling.
Además, ChatGPT utiliza una técnica llamada sampling, que permite que el sistema explore ligeramente su espacio de embedding. Esto resulta en respuestas creativas y coherentes, ya que el sistema se desplaza hacia frases cercanas pero distintas en su espacio. La generación de historias coherentes pero únicas es posible debido a las combinaciones de patrones que el sistema ha aprendido durante su fase de entrenamiento.
Ideas principales finales.
- ChatGPT es una forma de IA basada en un modelo generativo que predice palabras y completa frases.
- Su funcionamiento se basa en redes neuronales y el aprendizaje automático en contraste con la programación tradicional.
- Las redes neuronales aprenden tareas mediante ejemplos y entrenamiento, no con instrucciones explícitas.
- La tokenización convierte números en entidades con propiedades para que las máquinas las clasifiquen. Son las palabras de la máquina.
- El embedding asigna conexiones a tokens para identificar relaciones entre la palabras que usa la máquina. También se utilizan en conjuntos de token, las frases de la máquina.
ChatGPT se basa en técnicas como tokenización, embedding y sampling para generar respuestas coherentes aparentando ser inteligente. Así es como ChatGPT crea historias que parecen coherentes, pero en realidad son una combinación y cálculos de otras historias que ha procesado durante su fase de entrenamiento. Todo lo que escribe, proviene de esa fase de entrenamiento, un proceso que explicaré en detalle en futuros artículos.
Comentarios
Publicar un comentario