API para generar texto con GPT-Neo y GPT-J (alternativas a GPT-3)

Bootcamp AI
3 min readJun 25, 2021

--

¿Qué es la generación de texto?

La generación de texto consiste en comenzar un texto y luego dejar que el modelo de PNL cree el resto del texto por usted, en la parte de su entrada inicial. Depende de usted decidir qué tan grande desea que sea el texto generado.

Digamos que tiene el siguiente fragmento de texto:

GPT Neo es un potente modelo de PNL

Ahora, digamos que desea generar unas 250 palabras a partir del texto anterior. Simplemente entregue su texto al modelo y generará el resto:

GPT Neo es un poderoso modelo de PNL que hace lo que todo modelo debería hacer: predecir su comportamiento futuro. Es muy eficaz para detectar patrones en su entrada en tiempo real, predecir los próximos eventos y respuestas que quizás ni siquiera considere. El poder de GPT consiste en un conjunto de procesos neuronales internos que son extremadamente precisos. Pero al mismo tiempo que los resultados son buenos, deben ser rápidos. Entonces, GPT Neo está diseñado para ejecutarse en el servidor. Para acelerar sus resultados, es posible que deba utilizar la nube. Este es el motivo: es posible que esté almacenando los datos de su empresa en la nube. Y el uso de la nube puede significar que no puede introducir sus datos en el proceso de PNL porque tiene que transferir todo a través de la nube.

Bastante inteligente, ¿no? Como puede ver, el texto generado por el modelo dice cosas interesantes sobre GPT Neo. La mayoría de los modelos de generación de texto no son deterministas, lo que significa que, cada vez que envíe el mismo texto al modelo, obtendrá resultados diferentes.

¿Por qué utilizar la generación de texto?

La generación de texto es una excelente manera de crear contenido automáticamente. Aquí hay un par de ejemplos.

Generación de contenido de marketing

La creación de contenido es crucial para el SEO hoy en día, pero también es un trabajo tedioso. ¿Por qué no dejarlo en manos de un modelo de PNL dedicado y luego concentrarse en algo más importante?

Chatbot

Una forma interesante de hacer que los chatbots suenen más humanos es agregar “charlas” no esenciales a la discusión central. La generación de texto puede ayudar en esta situación.

Prueba difusa

La prueba difusa es una técnica utilizada por los programadores para probar sus aplicaciones con contenido aleatorio. Generar contenido nuevo para cada prueba es una forma conveniente de realizar pruebas difusas.

Creación de maquetas

Antes de lanzar una nueva aplicación, a menudo es necesario crear maquetas para obtener comentarios de los usuarios. Llenar los espacios en blanco de estas maquetas con texto generado es una buena manera de hacer que parezca lo más real posible.

Generación de texto con GPT-Neo y GPT-J, las versiones de código abierto de GPT-3

Hugging Face transformers es una biblioteca increíble que se ha lanzado recientemente. Se basa en PyTorch o TensorFlow, según el modelo que estés usando. Los transformadores claramente han ayudado al aprendizaje profundo de la PNL a lograr un gran progreso en términos de precisión. Sin embargo, esta mejora de la precisión tiene un costo: los transformadores son extremadamente exigentes en términos de recursos.

Hugging Face es un repositorio central que reagrupa todos los modelos más nuevos basados ​​en transformadores de PNL de código abierto. 2 de ellos, GPT-Neo 2.7B y GPT-J de Eleuther AI son perfectos para la generación de texto. Son equivalentes de código abierto del impresionante modelo GPT-3 de OpenAI.

¿Por donde inicio?

Prueba este colab de GPT-J-6B

https://colab.research.google.com/github/kingoflolz/mesh-transformer-jax/blob/master/colab_demo.ipynb

Revisa los resultados

Conoce mas de Bootcamp AI

bootcampai.org

--

--