Posts

DoLa – Decoding by Contrasting Layers Improves Factuality in Large Language Models

DoLa – Decoding by Contrasting Layers Improves Factuality in Large Language Models

¿Alguna vez has hablado con un LLM y te ha respondido algo que suena como si hubiera estado bebiendo café de máquina durante toda la noche? 😂 ¡Eso es lo que llamamos una alucinación en el mundo de los LLMs! Pero no te preocupes, porque no es que tu modelo de lenguaje esté loco (aunque a veces puede parecerlo 🤪). La verdad es que los LLMs pueden ser un poco... creativos cuando se trata de generar texto. Pero gracias a DoLa, un método que utiliza capas de contraste para mejorar la factibilidad de los LLMs, podemos evitar que nuestros modelos de lenguaje se conviertan en escritores de ciencia ficción 😂. En este post, te explicaré cómo funciona DoLa y te mostraré un ejemplo de código para que puedas entender mejor cómo hacer que tus LLMs sean más fiables y menos propensos a inventar historias. ¡Vamos a salvar a nuestros LLMs de la locura y hacer que sean más útiles! 🚀

QLoRA: Efficient Finetuning of Quantized LLMs

QLoRA: Efficient Finetuning of Quantized LLMs

¡Hola a todos! 🤗 Hoy vamos a hablar de QLoRA, la técnica que te permitirá hacer que tus modelos de lenguaje sean más eficientes y rápidos ⏱️. Pero, ¿cómo lo hace? 🤔 Bueno, primero utiliza la cuantización para reducir el tamaño de los pesos del modelo, lo que ahorra memoria y velocidad 📈. Luego, aplica LoRA (Low-Rank Adaptation), que es como un superpoder que permite al modelo adaptarse a nuevos datos sin necesidad de volver a entrenar desde cero 💪. Y, para que veas cómo funciona en la práctica, te dejo un ejemplo de código que te hará decir '¡Eureka!' 🎉. ¡Vamos a sumergirnos en el mundo de QLoRA y descubrir cómo podemos hacer que nuestros modelos sean más inteligentes y eficientes! 🤓

GPTQ: Accurate Post-Training Quantization for Generative Pre-trained Transformers

GPTQ: Accurate Post-Training Quantization for Generative Pre-trained Transformers

¡Atención, desarrolladores! 🚨 ¿Tienes un modelo de lenguaje que es demasiado grande y pesado para tu aplicación? 🤯 ¡No te preocupes, GPTQ está aquí para ayudarte! 🤖 Este algoritmo de cuantización es como un mago que hace desaparecer los bits y bytes innecesarios, reduciendo el tamaño de tu modelo sin perder demasiada precisión. 🎩 Es como comprimir un archivo sin perder calidad. ¡Es una forma de hacer que tus modelos sean más eficientes y rápidos! 🚀

llm.int8() – 8-bit Matrix Multiplication for Transformers at Scale

llm.int8() – 8-bit Matrix Multiplication for Transformers at Scale

¡Prepárate para ahorrar espacio y acelerar tus modelos! 💥 En este post, voy a explorar el método llm.int8(), una técnica de cuantización que te permite reducir el tamaño de tus modelos de aprendizaje automático sin sacrificar demasiada precisión. 📊 ¡Eso significa que podrás entrenar y desplegar modelos más grandes y complejos en menos espacio y con menor consumo de recursos! 💻 Vamos a ver cómo utilizar llm.int8() con transformers para cuantizar un modelo y hacer que sea más eficiente, sin perder la esencia de su inteligencia artificial. 🤖

LLMs quantization

LLMs quantization

¡Imagina que tienes un modelo de lenguaje gigante que puede responder a cualquier pregunta, desde la capital de Francia hasta la receta perfecta para hacer brownies! 🍞️🇫🇷 Pero, ¿qué pasa cuando ese modelo tiene que caber en un dispositivo móvil? 📱 ¡Eso es donde entra en juego la cuantización! 🎉 Esta técnica nos permite reducir el tamaño de los modelos sin sacrificar su precisión, lo que significa que podemos disfrutar de inteligencia artificial en nuestros dispositivos móviles sin necesidad de un supercomputador. 💻 ¡Es como comprimir un elefante en una caja de zapatos, pero sin aplastar al elefante! 🐘😂

LoRA – low rank adaptation of large language models

LoRA – low rank adaptation of large language models

¡Prepárate para llevar la adaptación de tus modelos al siguiente nivel con LoRA! 🚀 Esta técnica de adaptación de baja rango es como una capa de superhéroe para tus redes neuronales - les ayuda a aprender nuevos trucos sin olvidar los antiguos 🤯. Y lo mejor de todo? Puedes implementarla en solo unas pocas líneas de código PyTorch 💻. ¡Y si eres como yo, un pobre de GPU que lucha con recursos limitados 💸, LoRA es como un regalo del cielo: te permite adaptar tus modelos sin necesidad de entrenarlos desde cero ni gastar una fortuna en hardware 🙏. ¡Revisa el post para obtener una guía paso a paso y un ejemplo práctico!

Fine tuning Florence-2

Fine tuning Florence-2

¡Ya tienes a Florence-2 en tu radar, pero ahora quieres llevarlo al siguiente nivel! 🚀 ¡Es hora de fine-tuning! 💻 En este post, te guiaré paso a paso por el proceso de adaptar este modelo multimodal a tus necesidades específicas. 📊 Desde la preparación de tus datos hasta la configuración de hyperparámetros, te mostraré cómo sacar el máximo provecho de Florence-2. 💡 Con PyTorch y Python,aremos que este modelo se adapte a tus necesidades y se convierta en tu herramienta de confianza para resolver tareas de lenguaje y visión. 📈 ¡Así que prepárate para llevar tu modelo al siguiente nivel y haz que Florence-2 brille con todo su esplendor! ✨

Florence-2

Florence-2

¡Atención todos! 🚨 ¡Tenemos un nuevo rey en la ciudad! 👑 Florence-2, el modelo multimodal que está revolucionando el juego de la inteligencia artificial. 🤯 Con solo 200M de parámetros en su versión base (o 700M en su versión large, para los que quieren con todo 💥), este modelo está arrasando en los benchmarks, superando a los modelos con 10 y 100 veces más parámetros. 🤯 ¡Es como si tuvieras una navaja suiza en tu toolkit de AI! 🗡️ Modifica el prompt y listo, Florence-2 se adapta a cualquier tarea que necesites. 🔧 En resumen, Florence-2 es el nuevo modelo SOTA (State-Of-The-Art) en los MLLM (Multimodal Language Models) y no te puedes perder. 🚀 ¡Vamos a ver qué otras sorpresas tiene guardadas esta bestia! 🤔

GPT1 – Improving Language Understanding by Generative Pre-Training

GPT1 – Improving Language Understanding by Generative Pre-Training

¡¡¡Desbloquea el poder del lenguaje!!! 💥 En mi último post, te llevo de la mano a través del paper de GPT-1, explicando de manera clara y concisa cómo funciona este modelo pionero en el procesamiento de lenguaje natural. ¡Y no solo eso! También te muestro cómo hacer un fine-tuning del modelo para que puedas adaptarlo a tus necesidades específicas 📊. ¡No te pierdas la oportunidad de aprender sobre uno de los modelos más influyentes de la historia! 🚀 ¡Lee mi post y descubre cómo puedes mejorar tus habilidades en inteligencia artificial! 📄

Hugging Face Evaluate

Hugging Face Evaluate

¡Olvida las noches en vela calculando métricas y perdiendo la cabeza con la evaluación de tus modelos de NLP! 😩 La librería evaluate de Hugging Face es la respuesta a tus plegarias, permitiéndote evaluar el rendimiento de tus modelos con facilidad y rapidez 🚀. Con evaluate, puedes decir adiós a los cálculos manuales y hola a la automatización total 🤗, lo que te deja más tiempo para enfocarte en lo que realmente importa 🤔: mejorar tus modelos y revolucionar el mundo de la IA 💻

Hugging Face Datasets

Hugging Face Datasets

¡Despierta, desarrollador de IA! ☕️ Deja de perder el tiempo cargando y preprocesando datos como un esclavo 🙅‍♂️ y descubre la librería datasets de Hugging Face, la solución a todos tus problemas de NLP (y a algunos de tus problemas de vida, también). Con datasets, puedes acceder a una colección de conjuntos de datos de alta calidad que te harán olvidar que alguna vez tuviste que lidiar con CSVs y pandas 🐼. ¡Así que no te quedes atrás, actualiza tus habilidades y entra en el siglo XXI de la IA con datasets! 💥

Hugging Face Transformers

Hugging Face Transformers

🤖 ¡Transforma tu mundo con Transformers de Hugging Face! 🚀 ¿Listo para hacer magia con el lenguaje natural? Desde técnicas súper rápidas con pipeline 🌪️ hasta trucos ninja con AutoModel 🥷, este post te lleva de la mano en una aventura épica en el universo NLP. Explora cómo generar texto que sorprende, entrena modelos que deslumbran y comparte tus creaciones en el Hugging Face Hub como un pro. ¡Prepárate para codificar y reír, porque el futuro del NLP es ahora y es divertidísimo! 😂

Expresiones regulares

Expresiones regulares

Explora el poder y la precisión de las expresiones regulares, herramientas esenciales en la programación que permiten describir patrones en cadenas de texto para una búsqueda, extracción y manipulación eficiente. Este post desentraña desde los fundamentos hasta técnicas avanzadas de regex, ofreciendo una guía práctica con ejemplos claros para dominar su uso en el análisis y manejo de datos. Prepárate para transformar tu enfoque hacia el procesamiento de texto, desbloqueando nuevas posibilidades en tus proyectos de desarrollo

CSS

CSS

CSS, o Hojas de Estilo en Cascada, es una tecnología fundamental en el diseño web que permite a los desarrolladores y diseñadores estilizar y presentar documentos HTML de manera sofisticada y eficiente. A través de CSS, podemos controlar el layout, los colores, las tipografías, y mucho más, permitiendo la creación de experiencias de usuario ricas y visualmente atractivas. Este post explora los conceptos básicos de CSS, desde selectores y propiedades hasta el modelo de caja, ofreciendo una guía detallada para aquellos que buscan empezar o mejorar su habilidad en el diseño web. Con ejemplos prácticos y consejos útiles, se demuestra cómo CSS facilita la separación del contenido de la presentación, mejorando la accesibilidad y la mantenibilidad de los proyectos web

OpenAI API

OpenAI API

🚀 ¡Descubre el poder de la API de OpenAI en este post! 🌟 Aprende cómo instalar la librería de OpenAI ✨ y te guiaré en los primeros pasos para convertirte en un gurú de la inteligencia artificial. 🤖 No importa si eres un principiante curioso o un experto en código buscando nuevas aventuras, este post tiene todo lo que necesitas para empezar. Prepárate para explorar el universo de GPT para generación de texto y DALL-E, análisis de imágenes, ¡todo con un toque de diversión y mucha innovación! 🎉👩‍💻 ¡Sumérgete en el emocionante mundo de la IA y comienza tu viaje hacia la creatividad ilimitada! 🌈💻

Seguir leyendo

DoLa – Decoding by Contrasting Layers Improves Factuality in Large Language Models

DoLa – Decoding by Contrasting Layers Improves Factuality in Large Language Models

¿Alguna vez has hablado con un LLM y te ha respondido algo que suena como si hubiera estado bebiendo café de máquina durante toda la noche? 😂 ¡Eso es lo que llamamos una alucinación en el mundo de los LLMs! Pero no te preocupes, porque no es que tu modelo de lenguaje esté loco (aunque a veces puede parecerlo 🤪). La verdad es que los LLMs pueden ser un poco... creativos cuando se trata de generar texto. Pero gracias a DoLa, un método que utiliza capas de contraste para mejorar la factibilidad de los LLMs, podemos evitar que nuestros modelos de lenguaje se conviertan en escritores de ciencia ficción 😂. En este post, te explicaré cómo funciona DoLa y te mostraré un ejemplo de código para que puedas entender mejor cómo hacer que tus LLMs sean más fiables y menos propensos a inventar historias. ¡Vamos a salvar a nuestros LLMs de la locura y hacer que sean más útiles! 🚀

Últimos posts -->

¿Has visto estos proyectos?

Subtify

Subtify Subtify

Generador de subtítulos para videos en el idioma que desees. Además a cada persona le pone su subtítulo de un color

Ver todos los proyectos -->

¿Quieres aplicar la IA en tu proyecto? Contactame!

¿Quieres mejorar con estos tips?

Últimos tips -->

Usa esto en local

Los espacios de Hugging Face nos permite ejecutar modelos con demos muy sencillas, pero ¿qué pasa si la demo se rompe? O si el usuario la elimina? Por ello he creado contenedores docker con algunos espacios interesantes, para poder usarlos de manera local, pase lo que pase. De hecho, es posible que si pinchas en alún botón de ver proyecto te lleve a un espacio que no funciona.

Ver todos los contenedores -->

¿Quieres aplicar la IA en tu proyecto? Contactame!

¿Quieres entrenar tu modelo con estos datasets?

short-jokes-dataset

Dataset de chistes en inglés

opus100

Dataset con traducciones de inglés a español

netflix_titles

Dataset con películas y series de Netflix

Ver más datasets -->