RAG offers a new way to maximize the capabilities of large language models (LLMs) to produce more accurate, context-aware, and informative responses. Join Akash Shankaran (Intel), Ron Abellera (Microsoft), and Juan Pablo Norena (Canonical) for a tutorial on how RAG can enhance your LLMs. The session will explore how to optimize LLMs with RAG using Charmed OpenSearch, which can serve multiple services like data ingestion, model ingestion, vector database, retrieval and ranking, and LLM connector. We will also show the architecture of our RAG deployment in Microsoft® Azure Cloud. Notably, the vector search capabilities of RAG are enhanced by Intel AVX® Acceleration, delivering faster processing and high-throughput performance for the RAG workflow.

Hora

16:00 - 17:00 hs GMT+1

Organizador

Ubuntu and Canonical
Compartir
Enviar a un amigo
Mi email *
Email destinatario *
Comentario *
Repite estos números *
Control de seguridad
Enero / 2026 213 webinars
Lunes
Martes
Miércoles
Jueves
Viernes
Sábado
Domingo
Lun 29 de Enero de 2026
Mar 30 de Enero de 2026
Mié 31 de Enero de 2026
Jue 01 de Enero de 2026
Vie 02 de Enero de 2026
Sáb 03 de Enero de 2026
Dom 04 de Enero de 2026
Lun 05 de Enero de 2026
Mar 06 de Enero de 2026
Mié 07 de Enero de 2026
Jue 08 de Enero de 2026
Vie 09 de Enero de 2026
Sáb 10 de Enero de 2026
Dom 11 de Enero de 2026
Lun 12 de Enero de 2026
Mar 13 de Enero de 2026
Mié 14 de Enero de 2026
Jue 15 de Enero de 2026
Vie 16 de Enero de 2026
Sáb 17 de Enero de 2026
Dom 18 de Enero de 2026
Lun 19 de Enero de 2026
Mar 20 de Enero de 2026
Mié 21 de Enero de 2026
Jue 22 de Enero de 2026
Vie 23 de Enero de 2026
Sáb 24 de Enero de 2026
Dom 25 de Enero de 2026
Lun 26 de Enero de 2026
Mar 27 de Enero de 2026
Mié 28 de Enero de 2026
Jue 29 de Enero de 2026
Vie 30 de Enero de 2026
Sáb 31 de Enero de 2026
Dom 01 de Enero de 2026

Publicidad

Lo más leído »

Publicidad

Más Secciones »

Hola Invitado