RAG offers a new way to maximize the capabilities of large language models (LLMs) to produce more accurate, context-aware, and informative responses. Join Akash Shankaran (Intel), Ron Abellera (Microsoft), and Juan Pablo Norena (Canonical) for a tutorial on how RAG can enhance your LLMs. The session will explore how to optimize LLMs with RAG using Charmed OpenSearch, which can serve multiple services like data ingestion, model ingestion, vector database, retrieval and ranking, and LLM connector. We will also show the architecture of our RAG deployment in Microsoft® Azure Cloud. Notably, the vector search capabilities of RAG are enhanced by Intel AVX® Acceleration, delivering faster processing and high-throughput performance for the RAG workflow.

Hora

16:00 - 17:00 hs GMT+1

Organizador

Ubuntu and Canonical
Compartir
Enviar a un amigo
Mi email *
Email destinatario *
Comentario *
Repite estos números *
Control de seguridad
Octubre / 2025 377 webinars
Lunes
Martes
Miércoles
Jueves
Viernes
Sábado
Domingo
Lun 29 de Octubre de 2025
Mar 30 de Octubre de 2025
Mié 01 de Octubre de 2025
Jue 02 de Octubre de 2025
Vie 03 de Octubre de 2025
Sáb 04 de Octubre de 2025
Dom 05 de Octubre de 2025
Lun 06 de Octubre de 2025
Mar 07 de Octubre de 2025
Mié 08 de Octubre de 2025
Jue 09 de Octubre de 2025
Vie 10 de Octubre de 2025
Sáb 11 de Octubre de 2025
Dom 12 de Octubre de 2025
Lun 13 de Octubre de 2025
Mar 14 de Octubre de 2025
Mié 15 de Octubre de 2025
Jue 16 de Octubre de 2025
Vie 17 de Octubre de 2025
Sáb 18 de Octubre de 2025
Dom 19 de Octubre de 2025
Lun 20 de Octubre de 2025
Mar 21 de Octubre de 2025
Mié 22 de Octubre de 2025
Jue 23 de Octubre de 2025
Vie 24 de Octubre de 2025
Sáb 25 de Octubre de 2025
Dom 26 de Octubre de 2025
Lun 27 de Octubre de 2025
Mar 28 de Octubre de 2025
Mié 29 de Octubre de 2025
Jue 30 de Octubre de 2025
Vie 31 de Octubre de 2025
Sáb 01 de Octubre de 2025
Dom 02 de Octubre de 2025

Publicidad

Lo más leído »

Publicidad

Más Secciones »

Hola Invitado