Fundamentos de RAG
¡Olvídate de Ctrl+F! 🤯 Con RAG, tus documentos responderán a tus preguntas directamente. 😎 Tutorial paso a paso con Hugging Face y ChromaDB. ¡Libera el poder de la IA (y presume con tus amigos)! 💪
La mejor herramienta de seguimiento de GPU en tiempo real
Monitorea el rendimiento, la temperatura y el uso de la memoria de tu GPU directamente desde la barra de menú de Ubuntu con GPU Monitor. Esta aplicación fácil de usar y eficiente admite múltiples GPU y está totalmente integrada con el último sistema operativo Ubuntu. Obtén actualizaciones en tiempo real y optimiza tus tareas de juego o desarrollo. ¡Descargala ahora y toma el control de la salud de tu GPU!
GPU Monitor es una herramienta intuitiva diseñada para desarrolladores, jugadores y profesionales que necesitan mantener un ojo en el rendimiento y la salud de su tarjeta gráfica en tiempo real. Se integra perfectamente con la barra de menú de Ubuntu, proporcionando información esencial al alcance de tu mano.
Clónalo con https
git clone https://github.com/maximofn/gpu_monitor.git
o con ssh
git clone git@github.com:maximofn/gpu_monitor.git
Asegúrate de no tener ningún entorno venv o conda instalado
if [ -n "$VIRTUAL_ENV" ]; thendeactivatefiif command -v conda &>/dev/null; thenconda deactivatefi
Ahora instala las dependencias
sudo apt-get install python3-gi python3-gi-cairo gir1.2-gtk-3.0sudo apt-get install gir1.2-appindicator3-0.1pip3 install nvidia-ml-py3pip3 install pynvml
Ejecuta este script
./add_to_startup.sh
Después de reiniciar tu ordenador, GPU Monitor se iniciará automáticamente.
Si te ha gustado considera darle una estrella ⭐ al repositorio, pero si realmente te ha gustado considera invitarme a un café ☕.
¡Olvídate de Ctrl+F! 🤯 Con RAG, tus documentos responderán a tus preguntas directamente. 😎 Tutorial paso a paso con Hugging Face y ChromaDB. ¡Libera el poder de la IA (y presume con tus amigos)! 💪
😠 ¿Tus commits parecen escritos en lenguaje alienígena? 👽 ¡Únete al club! 😅 Aprende Conventional Commits en Python y deja de torturar a tu equipo con mensajes crípticos. git-changelog y commitizen serán tus nuevos mejores amigos. 🤝
¿Alguna vez has hablado con un LLM y te ha respondido algo que suena como si hubiera estado bebiendo café de máquina durante toda la noche? 😂 ¡Eso es lo que llamamos una alucinación en el mundo de los LLMs! Pero no te preocupes, porque no es que tu modelo de lenguaje esté loco (aunque a veces puede parecerlo 🤪). La verdad es que los LLMs pueden ser un poco... creativos cuando se trata de generar texto. Pero gracias a DoLa, un método que utiliza capas de contraste para mejorar la factibilidad de los LLMs, podemos evitar que nuestros modelos de lenguaje se conviertan en escritores de ciencia ficción 😂. En este post, te explicaré cómo funciona DoLa y te mostraré un ejemplo de código para que puedas entender mejor cómo hacer que tus LLMs sean más fiables y menos propensos a inventar historias. ¡Vamos a salvar a nuestros LLMs de la locura y hacer que sean más útiles! 🚀
Espacio para calcular la memoria necesaria para ejecutar un modelo
Tu compañero Manolo hace código que cuesta verlo? Pásale este formateador de código que te enseño en este post! Entra y aprende cómo formatear código para dejarlo más entendible. No vamos a solucionar los problemas de Manolo, pero tu al menos no vas a sufrir al leerlo
Declarar redes neuronales de forma clara en Pytorch
Los espacios de Hugging Face nos permite ejecutar modelos con demos muy sencillas, pero ¿qué pasa si la demo se rompe? O si el usuario la elimina? Por ello he creado contenedores docker con algunos espacios interesantes, para poder usarlos de manera local, pase lo que pase. De hecho, es posible que si pinchas en alún botón de ver proyecto te lleve a un espacio que no funciona.
Dataset de chistes en inglés
Dataset con traducciones de inglés a español
Dataset con películas y series de Netflix