A crescente presença da inteligência artificial (IA) em nossas vidas diárias amplificou os desejos dos consumidores por personalização e imediatismo. No mundo do entretenimento, as pessoas esperam respostas instantâneas, sugestões personalizadas e a capacidade de agir com base no que veem e ouvem. Para alguns, isso significa encontrar o filme perfeito para um humor específico; para outros, significa encontrar o jogo entre o seu time favorito e o seu maior rival.
Para proporcionar essas experiências, editores, plataformas e serviços irão utilizar cada vez mais modelos de linguagem de grande porte (LLMs)1, que se tornarão os motores padrão para os ambientes de entretenimento da próxima geração.
Os LLMs são matrizes de probabilidade, não bases de dados, treinadas com dados exaustivos, mas finitos. A natureza fundamental desta nova tecnologia significa que os LLMs sintetizam, mas não recuperam dados, e são, portanto, propensos a «alucinações», nas quais retornam dados que parecem plausíveis, mas incorretos. Para garantir que as respostas dos LLMs sejam precisas, relevantes e confiáveis, os LLMs devem estar conectados a fontes de conhecimento suplementares do mundo real. Esse processo de "ancoragem" reduz erros, enriquece os resultados e fornece relevância contextual. Existem dois métodos principais para ancorar os LLMs: geração aumentada por recuperação (RAG) e o Protocolo de Contexto do Modelo (MCP).
O RAG e o MCP abordam as limitações dos LLMs, mas abordam a questão de maneiras fundamentalmente diferentes.
Em um nível muito elevado:
O RAG envolve um processo em que o prompt original é enriquecido com dados relevantes de uma base de conhecimento externa de documentos relevantes. Ele processa esse prompt enriquecido, e sua resposta reflete a precisão dos dados do aumento de conhecimento externo.
O MCP é um protocolo de código aberto que padroniza a forma como as aplicações fornecem contexto aos LLMs. Como uma interface universal, por vezes descrita como o «USB-C para IA», o MCP conecta os LLMs a fontes de dados e lógica externas, eliminando a necessidade de codificação personalizada e integrações personalizadas. Aqui, um LLM é conectado a um ou mais servidores MCP que facilitam a validação em tempo real das consultas recebidas.
Entre as duas técnicas, a RAG tem mais história. Com raízes na recuperação inicial de informações, a RAG foi discutida pela primeira vez como um processo para conectar dinamicamente LLMs a repositórios de conhecimento externos em 2020.
Em termos simples, o RAG permite que os LLMs consultem informações fora dos seus dados de treino antes de responder a uma consulta do utilizador. Com o RAG, os LLMs não precisam de ser constantemente retreinados para se manterem atualizados. Em vez disso, atualizações periódicas da base de conhecimento externa mantêm as respostas do LLM atualizadas e relevantes.

Embora o RAG melhore drasticamente a precisão e a relevância dos resultados do LLM, ele tem algumas limitações:
Disponibilizado no final de 2024 como um protocolo de código aberto, o MCP resolve o desafio de desenvolver integrações personalizadas entre fontes de dados e modelos de IA. Como um conector universal, o MCP cria uma interface entre um LLM e fontes de dados externas. Com uma API de baixa latência e uma interface uniforme e abstrata, o MCP permite que os LLMs obtenham informações atuais em tempo real de um ou mais serviços específicos do domínio e permite que os LLMs invoquem ferramentas específicas que lhes permitem fornecer a melhor resposta possível.
Com o MCP, os LLMs podem ser conectados a várias fontes de dados de forma integrada, permitindo acesso e ações em tempo real. Dada essa arquitetura, o MCP baseia as suas respostas em bases de conhecimento externas após uma consulta do utilizador, tornando-o ideal para cenários que exigem as informações mais atualizadas disponíveis, como resultados desportivos ou variações nos preços das ações.

O RAG e o MCP são inerentemente concebidos para fazer a mesma coisa: enriquecer as respostas do LLM com contexto externo para reduzir alucinações e fornecer relevância contextual. No entanto, eles se destacam em diferentes tipos de dados, fornecem diferentes níveis de sofisticação e os métodos que executam essa tarefa são fundamentalmente diferentes.
O RAG é ideal para recuperação de dados de documentos não estruturados, enquanto o MCP é otimizado para acesso a dados estruturados em tempo real. Embora os LLMs ofereçam experiências de pesquisa e descoberta significativamente melhores do que as infraestruturas tecnológicas tradicionais, o MCP é a solução ideal para experiências que priorizam o conteúdo, aproveitam dados estruturados e dependem do raciocínio melhor fornecido fora do próprio LLM.
A atualidade dos dados é fundamental neste caso. Os ficheiros de documentos estáticos podem satisfazer uma consulta do utilizador sobre o histórico de como um filme ou programa de TV específico foi desenvolvido, mas não podem ajudar os utilizadores a identificar quando ou onde esse programa ou filme será transmitido. Os dados de treino do LLM são fixos no tempo, portanto, o grounding fornece aos LLMs não apenas dados corretos, mas também dados oportunos e atualizados que permitem que os LLMs acessem o mundo real fora do seu modelo de "conhecimento bloqueado".
Mas a disponibilidade do programa é apenas a ponta do iceberg. O MCP inaugura uma nova era de experiências de entretenimento devido à sua capacidade de criar experiências extremamente ricas e personalizadas. Veja um exemplo:
O uso de LLMs será transformador para o público, mas sem fundamentação, os LLMs ficam restritos a respostas não verificadas e limitadas no tempo. LLMs fundamentados permitirão que plataformas e serviços rompam com as limitações das infraestruturas de pesquisa tradicionais, ao mesmo tempo em que abrem as portas para uma ampla gama de consultas sofisticadas que gerarão respostas mais atuais e relevantes.
Para saber mais, faça o download do nosso white paper sobre o MCP Server.
Apesar das suas raízes nos EUA, os cinco serviços globais de SVOD monitorizados no Gracenote Data Hub mais conteúdo global do que conteúdo americano.
À medida que as bibliotecas de conteúdo crescem e os canais de distribuição se multiplicam, os desportos tornaram-se o produto mais procurado no panorama do streaming.
Os canais FAST tornar-se-ão cada vez mais dependentes de metadados para informar as compras de anúncios em sistemas programáticos.
Preencha o formulário para falar conosco!
O seu pedido foi recebido e a nossa equipe está ansiosa para ajudá-lo. Analisaremos prontamente a sua mensagem e iremos respondê-la o mais rapidamente possível.