La creciente presencia de la inteligencia artificial (IA) en nuestra vida cotidiana ha amplificado los deseos de los consumidores en cuanto a personalización e inmediatez. En el mundo del entretenimiento, la gente espera respuestas instantáneas, sugerencias personalizadas y la capacidad de actuar en función de lo que ve y oye. Para algunos, eso significa encontrar la película perfecta para un estado de ánimo específico; para otros, significa encontrar el partido deportivo entre su equipo favorito y su mayor rival.
Para ofrecer estas experiencias, los editores, las plataformas y los servicios aprovecharán cada vez más los modelos de lenguaje grandes (LLM)1, que se convertirán en los motores predeterminados de los entornos de entretenimiento de próxima generación.
Los LLM son matrices de probabilidad, no bases de datos, entrenadas con datos exhaustivos, pero finitos. La naturaleza fundamental de esta novedosa tecnología significa que los LLM sintetizan datos, pero no los recuperan, por lo que son propensos a las «alucinaciones», es decir, a devolver datos que parecen plausibles, pero que son incorrectos. Para garantizar que las respuestas de los LLM sean precisas, relevantes y fiables, estos deben estar conectados a fuentes de conocimiento complementarias del mundo real. Este proceso de «base» reduce los errores, enriquece los resultados y proporciona relevancia contextual. Existen dos métodos principales para basar los LLM: la generación aumentada por recuperación (RAG) y el Protocolo de Contexto del Modelo (MCP).
RAG y MCP abordan las limitaciones de los LLM, pero lo hacen de maneras fundamentalmente diferentes.
A un nivel muy alto:
RAG implica un proceso en el que la indicación original se enriquece con datos relevantes procedentes de una base de conocimientos externa de documentos relevantes. Procesa esta indicación enriquecida y su respuesta refleja la precisión de los datos procedentes del aumento de conocimientos externos.
MCP es un protocolo de código abierto que estandariza la forma en que las aplicaciones proporcionan contexto a los LLM. Como interfaz universal, a veces descrita como el «USB-C para la IA», MCP conecta los LLM con fuentes de datos y lógica externas, eliminando la necesidad de codificación e integraciones personalizadas. Aquí, un LLM se conecta a uno o más servidores MCP que facilitan la validación en tiempo real de las consultas entrantes.
De las dos técnicas, RAG es la que tiene más historia. Con raíces en la recuperación temprana de información, RAG se discutió por primera vez en 2020 como un proceso para conectar dinámicamente los LLM con repositorios de conocimiento externos.
En pocas palabras, RAG permite a los LLM consultar información ajena a sus datos de entrenamiento antes de responder a la consulta de un usuario. Con RAG, los LLM no necesitan ser constantemente reentrenados para mantenerse actualizados. En su lugar, las actualizaciones periódicas de la base de conocimientos externa mantienen las respuestas de un LLM actualizadas y relevantes.

Aunque RAG mejora drásticamente la precisión y la relevancia de los resultados de LLM, tiene algunas limitaciones:
Disponible a finales de 2024 como protocolo de código abierto, MCP resuelve el reto de desarrollar integraciones personalizadas entre fuentes de datos y modelos de IA. Como conector universal, MCP crea una interfaz entre un LLM y fuentes de datos externas. Con una API de baja latencia y una interfaz uniforme y abstracta, MCP permite a los LLM obtener información actualizada en tiempo real de uno o más servicios específicos de un dominio, y permite a los LLM invocar herramientas específicas que les permiten proporcionar la mejor respuesta posible.
Con MCP, los LLM pueden conectarse a muchas fuentes de datos sin problemas, lo que permite el acceso a datos y acciones en tiempo real. Dada esta arquitectura, MCP basa sus respuestas en bases de conocimiento externas tras una consulta del usuario, lo que lo hace ideal para situaciones que requieren la información más actualizada disponible, como resultados deportivos o cambios en el precio de las acciones.

RAG y MCP están diseñados intrínsecamente para hacer lo mismo: enriquecer las respuestas de LLM con contexto externo para reducir las alucinaciones y proporcionar relevancia contextual. Sin embargo, destacan en diferentes tipos de datos, proporcionan diferentes niveles de sofisticación y los métodos que utilizan para ejecutar esta tarea son fundamentalmente diferentes.
RAG es ideal para la recuperación de datos de documentos no estructurados, mientras que MCP está optimizado para el acceso a datos estructurados en tiempo real. Si bien los LLM proporcionan experiencias de búsqueda y descubrimiento notablemente mejoradas en comparación con las infraestructuras tecnológicas tradicionales, MCP es la solución ideal para experiencias centradas en el contenido que aprovechan los datos estructurados y se basan en el razonamiento que mejor se proporciona fuera del propio LLM.
La actualidad de los datos es clave en este caso. Los archivos de documentos estáticos pueden satisfacer la curiosidad de un usuario sobre la historia del desarrollo de una película o serie de televisión concretas, pero no pueden ayudar a los usuarios a identificar cuándo o dónde se emitirá esa serie o película. Los datos de entrenamiento de los LLM son fijos en el tiempo, por lo que el grounding proporciona a los LLM no solo datos correctos, sino también datos oportunos y actualizados que permiten a los LLM acceder al mundo real fuera de su modelo de «conocimiento bloqueado».
Pero la disponibilidad de programas es solo la punta del iceberg. MCP abre una nueva era en la experiencia de entretenimiento gracias a su capacidad para crear experiencias extremadamente ricas y personalizadas. He aquí un ejemplo:
El uso de los LLM supondrá una transformación para el público, pero sin una base sólida, los LLM se limitan a respuestas no verificadas y bloqueadas por el tiempo. Los LLM con una base sólida permitirán a las plataformas y los servicios romper con las limitaciones de las infraestructuras de búsqueda tradicionales, al tiempo que abrirán la puerta a una amplia gama de consultas sofisticadas que generarán respuestas más actuales y relevantes.
Para obtener más información, descargue nuestro informe técnico sobre el servidor MCP.
A pesar de sus raíces en Estados Unidos, los cinco servicios SVOD globales analizados en Gracenote Data Hub más contenido global que contenido estadounidense.
A medida que crecen las bibliotecas de contenidos y se multiplican los canales de distribución, los deportes se han convertido en el producto más cotizado en el panorama del streaming.
Los canales FAST dependerán cada vez más de los metadatos para informar las compras de anuncios en los sistemas programáticos.
Llene el formulario para ponerse en contacto con nosotros.
Hemos recibido su consulta y nuestro equipo está ansioso de ayudarle. Revisaremos su mensaje con prontitud y le responderemos lo antes posible.