22. Ajustes del Playground de OpenAI

En el programa de hoy vamos a hablar del funcionamiento de los ajustes del Playground que podéis encontrar dentro de la plataforma de OpenAI. Como bien indica su nombre, Playground es una lugar de juego, de experimentación. Es una herramienta interactiva que nos permite a los usuarios experimentar con modelos avanzados de inteligencia artificial. Esta plataforma ofrece una serie de ajustes que pueden personalizarse para obtener resultados específicos. En el podcast de hoy hablaremos de cómo funcionan estos ajustes y cómo pueden ser utilizados de manera efectiva.

👉 En primer lugar vamos a encontrarnos con el Tipo de Modelo a elegir, que es uno de los aspectos más importantes del Playground. Vemos que hay un desplegable con los diferentes tipos de modelo. Cada modelo tiene características y capacidades únicas. Los más importantes son GPT-3.5 Turbo y GPT4.

¿Y cuándo utilizamos uno u otro? La diferencia principal entre GPT-3.5 Turbo y GPT-4 radica en sus capacidades

GPT-3.5 Turbo
es una versión optimizada del modelo GPT-3.5, diseñada para ser más rápida y eficiente en términos de costes, manteniendo una alta calidad en la generación de texto. GPT-3.5 Turbo se destaca por su capacidad para procesar solicitudes de manera más rápida, lo que lo hace ideal para aplicaciones que requieren respuestas rápidas y eficientes. 

Por otro lado, GPT-4, es un modelo más avanzado y potente, con mejoras significativas en términos de comprensión y generación de texto. Muestra una mejora en la comprensión de contextos más complejos y en la generación de respuestas más precisas y detalladas. Como este modelo es capaz de manejar tareas más sofisticadas, puede ofrecer resultados más precisos en situaciones donde se requiere un mayor entendimiento del lenguaje y el contexto.

Utilizaremos GPT-3.5 Turbo para respuestas rápidas y eficientes. Por ejemplo, sería útil para aquellas empresas que hayan desarrollado un chatbot de atención al cliente. Este chatbot necesita responder preguntas frecuentes de manera rápida y eficiente. Aquí, GPT-3.5 Turbo sería la opción ideal gracias a su capacidad para procesar solicitudes rápidamente. GPT-3.5 Turbo puede manejar un gran volumen de interacciones simultáneas, proporcionando respuestas precisas y coherentes a las consultas comunes de los clientes.

Consideremos ahora otro escenario: un entorno académico donde se requiere la creación de contenido educativo detallado y complejo o el caso donde un investigador necesita asistencia para redactar un artículo científico o un educador que busca crear material didáctico. Aquí GPT-4 sería la elección más adecuada debido a su avanzada comprensión del lenguaje y su capacidad para generar respuestas detalladas y bien informadas. 

Os he explicado los modelos más importantes, pero os dejo también el enlace del resto de modelos para otro usos específicos. Entre ellos destacar también DALL E que es un modelo que puede generar y editar imágenes con un mensaje en lenguaje natural o WHISPER que es un modelo que puede convertir audio en texto:

MODELODESCRIPCIÓN
GPT-4 y GPT-4 TurboUn conjunto de modelos que mejoran GPT-3.5 y pueden comprender y generar lenguaje o código natural.
GPT-3.5Un conjunto de modelos que mejoran GPT-3 y pueden comprender y generar lenguaje o código natural.
DALL·EUn modelo que puede generar y editar imágenes con un mensaje en lenguaje natural.
ttsUn conjunto de modelos que pueden convertir texto en audio hablado con sonido natural.
WhisperUn modelo que puede convertir audio en texto.
EmbeddingsUn conjunto de modelos que pueden convertir texto en forma numérica.
ModeraciónUn modelo ajustado que puede detectar si el texto puede ser confidencial o inseguro
Base GPTUn conjunto de modelos sin instrucciones siguientes que pueden comprender y generar lenguaje o código natural.
ObsoletoUna lista completa de modelos que han quedado obsoletos junto con el reemplazo sugerido

👉 Volvamos con otros ajustes. Nos encontramos también con la temperatura. La «Temperatura» en el Playground es un ajuste que controla el nivel de aleatoriedad o creatividad en las respuestas generadas por el modelo de IA. La temperatura es un parámetro numérico, generalmente en un rango de 0 a 1, que ajustas para influir en cómo el modelo genera respuestas.

A temperatura baja (cerca de 0) el modelo genera respuestas más predecibles, coherentes y enfocadas en el contexto. Situaremos el nivel a una temperatura baja cuando estemos trabajando con tareas que requieran de precisión y fiabilidad, como responder a preguntas basadas en hechos, generar texto técnico o cuando queramos evitar respuestas inesperadas. Si estamos utilizando el modelo para generar instrucciones claras y precisas sobre cómo usar un software, la temperatura baja nos asegurará que las instrucciones son directas y libres de ambigüedades.

Por otro lado, ajustaremos la Temperatura alta (cerca de 1) cuando queramos respuestas más creativas, variadas y a veces inesperadas. Este nivel de temperatura es óptimo para tareas creativas como escribir historias, cuentos de ciencia ficción, poesía, generar ideas innovadoras o cuando queremos respuestas menos convencionales.

👉 Otro de los ajustes con el que nos encontramos es el máximo de tokens. El ajuste de «Máximo de Tokens» en el Playground de OpenAI es crucial para controlar la longitud de las respuestas generadas por los modelos de IA. Un «token» en el contexto de los modelos de lenguaje de OpenAI puede ser una palabra, parte de una palabra, o incluso signos de puntuación. Los modelos de IA, como GPT-3, procesan y generan texto en términos de estos tokens.

El «Máximo de Tokens» es un ajuste que determina la longitud máxima de la respuesta generada por el modelo. Este límite incluye tanto los tokens de la entrada (lo que tú escribes) como los de la salida (la respuesta que genera el modelo). ¿Y para qué sirve tener un máximo de tokens? Principalmente para controlar cuán larga o corta queremos que sea la respuesta. Esto es útil para mantener las respuestas enfocadas y dentro de los límites deseados. Es importante el manejo de este ajuste si estamos trabajando con limitaciones, como puede ser la generación de tweets o mensajes de texto, donde la longitud del contenido está restringida. Si queremos escribir un post para nuestro blog y queremos generar este artículo con una longitud media, podríamos configurar el modelo para generar alrededor de 500 tokens, lo que equivale aproximadamente a un texto de 800-1000 palabras.

👉 Otro de los ajustes con el que nos encontramos es la Frecuencia y la Presencia. Estos parámetros ajustan la probabilidad de que ciertas palabras aparezcan en la respuesta. Modificar estos valores puede cambiar la repetición de palabras y la introducción de nuevos conceptos.

La frecuencia controla la probabilidad de que ciertas palabras o frases aparezcan con más frecuencia en la respuesta generada.

Por ejemplo, si estamos generando un texto sobre tecnología y queremos enfatizar en palabras como «innovación», «futuro» y «avance», podríamos aumentar la frecuencia de estas palabras para asegurarnos de que aparezcan más a menudo en el texto.

Por otro lado está la presencia, que controla la probabilidad de que ciertas palabras o frases aparezcan al menos una vez en la respuesta.

Por ejemplo, si necesitamos que en un artículo sobre salud siempre se mencione la frase «salud preventiva», ajustaríamos la presencia de esta frase para incrementar las posibilidades de que se incluya al menos una vez.

👉 Otro de los ajustes con el que nos encontramos es el ajuste «Top P», que es una técnica utilizada en la generación de texto para controlar la aleatoriedad en las respuestas del modelo. Un valor más alto de «Top P» permite mayor aleatoriedad, generando respuestas más creativas y menos predecibles. Por otro lado, un valor más bajo restringe la elección de palabras a las más probables, resultando respuestas más coherentes y conservadoras. Este ajuste es particularmente útil por ejemplo, en tareas creativas como la escritura de ficción o publicidad, un valor más alto de «Top P» podría fomentar ideas más originales y únicas. En contraste, para aplicaciones que requieren precisión y claridad, como redacciones técnicas o académicas, un valor más bajo sería más apropiado.

¿Qué diferencia hay entre el «Top P» y el ajuste de la temperatura, de la que antes hemos hablado? Mientras que el «Top P» controla la diversidad de palabras considerando su probabilidad, la «Temperatura» ajusta el nivel de aleatoriedad en la selección de estas palabras.

👉 Y por último, nos encontramos con el parámetro “Stop secuencies”  o las secuencias de detención que son una serie de palabras o caracteres que indican al modelo cuándo detener la generación de texto. Estas secuencias actúan como señales para que el modelo sepa en qué punto concluir su respuesta o generación de texto, independientemente de si ha alcanzado el límite máximo de tokens o no. En la práctica, las secuencias de detención son especialmente útiles en escenarios donde se requiere que la salida de texto tenga un final específico. Por ejemplo, si un usuario desea que el modelo genere un correo electrónico, podría establecer una secuencia de detención como «Saludos cordiales,» para indicar el fin del cuerpo del correo antes de la firma.


Si tenéis cualquier sugerenciapropuesta o pregunta sobre este espacio podéis dirigiros a mí a través del formulario de contacto de la web.

Os agradezco mucho vuestra escucha. Muchas gracias también por vuestras valoraciones de 5 estrellas en Spotify y en iTunes.

¡Nos «vemos»!

👀