La présence croissante de l'intelligence artificielle (IA) dans notre vie quotidienne a amplifié les désirs des consommateurs en matière de personnalisation et d'instantanéité. Dans le monde du divertissement, les gens attendent des réponses instantanées, des suggestions sur mesure et la possibilité d'agir en fonction de ce qu'ils voient et entendent. Pour certains, cela signifie trouver le film parfait pour une humeur spécifique ; pour d'autres, cela signifie trouver le match de sport entre leur équipe favorite et son plus grand rival.
Pour offrir ces expériences, les éditeurs, les plateformes et les services exploiteront de plus en plus les grands modèles linguistiques (LLM)1, qui deviendront les moteurs par défaut des environnements de divertissement de nouvelle génération.
Les LLM sont des matrices de probabilité, et non des bases de données, entraînées à partir de données exhaustives, mais finies. La nature fondamentale de cette technologie novatrice signifie que les LLM synthétisent les données, mais ne les récupèrent pas, et sont donc sujettes à des « hallucinations », où elles renvoient des données qui semblent plausibles, mais qui sont incorrectes. Pour garantir que les réponses des LLM sont précises, pertinentes et fiables, les LLM doivent être connectés à des sources de connaissances supplémentaires issues du monde réel. Ce processus de « mise à la terre » réduit les erreurs, enrichit les résultats et fournit une pertinence contextuelle. Il existe deux méthodes principales pour mettre à la terre les LLM : la génération augmentée par la récupération (RAG) et le protocole de contexte du modèle (MCP).
RAG et MCP abordent tous deux les limites des LLM, mais ils abordent la question de manière fondamentalement différente.
À un niveau très élevé :
Le RAG implique un processus dans lequel la requête initiale est enrichie avec des données pertinentes provenant d'une base de connaissances externe contenant des documents pertinents. Il traite cette requête enrichie, et sa réponse reflète la précision des données provenant de l'enrichissement des connaissances externes.
MCP est un protocole open source qui normalise la manière dont les applications fournissent du contexte aux LLM. En tant qu'interface universelle, parfois décrite comme « l'USB-C de l'IA », MCP connecte les LLM à des sources de données et à des logiques externes, éliminant ainsi le besoin de codage et d'intégrations personnalisés. Ici, un LLM est connecté à un ou plusieurs serveurs MCP qui facilitent la validation en temps réel des requêtes entrantes.
Parmi ces deux techniques, c'est le RAG qui a la plus longue histoire. Issu des débuts de la recherche d'informations, le RAG a été évoqué pour la première fois en 2020 comme un processus permettant de connecter dynamiquement les LLM à des référentiels de connaissances externes.
En termes simples, le RAG permet aux LLM de se référer à des informations extérieures à leurs données d'entraînement avant de répondre à une requête utilisateur. Grâce au RAG, les LLM n'ont pas besoin d'être constamment réentraînés pour rester à jour. Au contraire, des mises à jour périodiques de la base de connaissances externe permettent de garantir que les réponses des LLM restent actuelles et pertinentes.

Bien que le RAG améliore considérablement la précision et la pertinence des résultats du LLM, il présente certaines limites :
Disponible fin 2024 en tant que protocole open source, MCP résout le défi du développement d'intégrations personnalisées entre les sources de données et les modèles d'IA. En tant que connecteur universel, MCP crée une interface entre un LLM et des sources de données externes. Grâce à une API à faible latence et à une interface uniforme et abstraite, MCP permet aux LLM d'obtenir des informations actualisées en temps réel à partir d'un ou plusieurs services spécifiques à un domaine, et leur permet d'invoquer des outils spécifiques qui leur permettent de fournir la meilleure réponse possible.
Avec MCP, les LLM peuvent être connectés de manière transparente à de nombreuses sources de données, ce qui permet un accès aux données et des actions en temps réel. Grâce à cette architecture, MCP fonde ses réponses sur des bases de connaissances externes après une requête utilisateur, ce qui le rend idéal pour les scénarios nécessitant les informations les plus récentes disponibles, telles que les résultats sportifs ou les variations des cours boursiers.

RAG et MCP sont intrinsèquement conçus pour faire la même chose : enrichir les réponses LLM avec un contexte externe afin de réduire les hallucinations et fournir une pertinence contextuelle. Cependant, ils excellent dans différents types de données, offrent différents niveaux de sophistication et les méthodes qu'ils utilisent pour exécuter cette tâche sont fondamentalement différentes.
RAG est idéal pour la récupération de données documentaires non structurées, tandis que MCP est optimisé pour l'accès en temps réel à des données structurées. Si les LLM offrent une expérience de recherche et de découverte nettement améliorée par rapport aux infrastructures technologiques traditionnelles, MCP est la solution de base idéale pour les expériences axées sur le contenu qui exploitent des données structurées et s'appuient sur un raisonnement mieux fourni en dehors du LLM lui-même.
L'actualité des données est ici essentielle. Les fichiers de documents statiques peuvent répondre à une requête d'un utilisateur concernant l'historique du développement d'un film ou d'une série télévisée spécifique, mais ils ne peuvent pas aider les utilisateurs à identifier quand et où ce film ou cette série sera diffusé. Les données d'entraînement des LLM sont figées dans le temps, de sorte que le grounding fournit aux LLM non seulement des données correctes, mais aussi des données actualisées et opportunes qui leur permettent d'accéder au monde réel en dehors de leur modèle « verrouillé par la connaissance ».
Mais la disponibilité des programmes n'est que la partie émergée de l'iceberg. MCP ouvre une nouvelle ère en matière d'expérience de divertissement grâce à sa capacité à créer des expériences extrêmement riches et personnalisées. Voici un exemple :
L'utilisation des LLM va transformer l'expérience des utilisateurs, mais sans ancrage, les LLM sont limités à des réponses non vérifiées et figées dans le temps. Les LLM ancrés permettront aux plateformes et aux services de s'affranchir des limites des infrastructures de recherche traditionnelles, tout en ouvrant la voie à un large éventail de requêtes sophistiquées qui généreront des réponses plus pertinentes et plus actuelles.
Pour en savoir plus, téléchargez notre livre blanc sur le serveur MCP.
Bien qu'ils soient originaires des États-Unis, les cinq services SVOD mondiaux suivis par Gracenote Data Hub davantage de contenus internationaux que de contenus américains.
Alors que les bibliothèques de contenu s'enrichissent et que les canaux de distribution se multiplient, le sport est devenu le produit le plus prisé dans le streaming .
Les chaînes FAST dépendront de plus en plus des métadonnées pour orienter les achats publicitaires dans les systèmes programmatiques.
Remplissez le formulaire pour nous contacter !
Nous avons bien reçu votre demande et notre équipe est impatiente de vous aider. Nous examinerons rapidement votre message et vous répondrons dans les meilleurs délais.