Cree un RAG local parlante con Llama 3, Ollama, LangChain, ChromaDB y ElevenLabs: Nvidia Stock

Cree un RAG local parlante con Llama 3, Ollama, LangChain, ChromaDB y ElevenLabs: Nvidia Stock

Inicio › Dra. Maryam Miradi › Cree un RAG local parlante con Llama 3, Ollama, LangChain, ChromaDB y ElevenLabs: Nvidia Stock
Cree un RAG local parlante con Llama 3, Ollama, LangChain, ChromaDB y ElevenLabs: Nvidia Stock
ChannelPublish DateThumbnail & View CountDownload Video
Channel AvatarPublish Date not found Thumbnail
0 Views
Tutorial práctico para crear RAG con Ollama, Llama 3, Langchain y ElevenLabs para Nvidia Stock.
¿Quieres aprender de mis más de 20 años de experiencia en IA y dominar las soluciones de IA del mundo real? Si es así, únete a mi programa de formación: https://www.maryammiradi.com/training

3er video de mi serie de videos LLM (RAG totalmente local).

Le muestro cómo construir una canalización de generación aumentada de recuperación (RAG) completamente local para el análisis de acciones de Nvidia usando Llama 3, Ollama, LangChain y ChromaDB.
Juntos, analizamos archivos PDF, dividimos texto y creamos incrustaciones almacenadas en ChromaDB, una base de datos vectorial.
Aprenderás a combinar RAG con ingeniería rápida para chatear con
documentos PDF complejos y utilice ElevenLabs para generar audio a partir de texto.
Perfecto para aquellos interesados en RAG LLM, Ollama, LLM locales como Llama 3, Elevenlabs y análisis de acciones de Nvidia con IA (que va más allá de OpenAI GPT).

Efecto adicional: Este es un tutorial práctico en el que aprenderá qué es rag y qué es langchain en la práctica (usando modelos de lenguaje grandes (LLM) en la práctica)

︾︾︾︾︾︾︾︾︾︾︾︾︾︾︾︾︾︾︾︾
Obtenga mi guía gratuita de más de 20 años de experiencia en IA y mejore sus conocimientos: https://www.maryammiradi.com/free-guide
Únase a mi programa práctico de capacitación en IA y cree productos de IA desde cero: https://www.maryammiradi.com/training
︽︽︽︽︽︽︽︽︽︽︽︽︽︽︽︽︽︽︽

MENCIONADO EN EL VIDEO

⏩ Tutorial de cara abrazada: https://youtube.com/playlist?list=PLBYdyi7-DjV041LieLyazGZoRndy4uu5z&si=BRpm-6LBUnLOLNTx
⏩ Ajuste de indicaciones y prefijos: https://youtube.com/playlist?list=PLBYdyi7-DjV041LieLyazGZoRndy4uu5z&si=BRpm-6LBUnLOLNTx

Enlace al código Python ︎
https://colab.research.google.com/drive/1G0g-fBWIMKYQSn91XfenkWo4TaOGTBWF?usp=sharing

Códigos de tiempo
0:00 Introducción Cree un RAG totalmente local y parlante con Llama 3, Ollama, LangChain, ChromaDB y ElevenLabs | Stock Advisor
0:42 Análisis de archivos PDF con Langchain
2:14 División de texto con LangChain
3:35 Instalación de Python en Ollama y incrustaciones de Ollama y Nomic (tutorial de Ollama)
6:10 Almacenamiento de incrustaciones en la base de datos vectorial ChromaDB
7:32 Bases de datos de vectores FAISS y Qdrant (tutorial de Langchain)
8:29 MultiQueryBuilder con Llama 3 y Ollama (cómo ejecutar Llama 3 localmente)
10:56 RAG + Ingeniería rápida para Nvidia Stock charlando con Llama 3 (llm local)
12:41 Cómo usar ElevenLabs y generar audio con ElevenLabs
14:47 Cara abrazada

#llama3 #llm #ollama #langchain #elevenlabs #vectordatabase #chromadb #ai #nvidiastock #python #genai #incrustación #huggingface #modelosdelenguaje #modelosdelenguajegrandes #openai #gpt #ingenieríarápida

Aproveche la oportunidad de conectarse y compartir este video con sus amigos y familiares si lo encuentra útil.