인공지능(AI)이 일상생활에서 점차 확대되면서 소비자들의 개인화 및 즉각성에 대한 욕구가 증폭되고 있다. 엔터테인먼트 분야에서는 즉각적인 답변, 맞춤형 추천, 그리고 보고 듣는 것에 즉각 반응할 수 있는 능력을 기대한다. 어떤 이들에게는 특정 기분에 딱 맞는 영화를 찾는 것을 의미하고, 다른 이들에게는 최애 팀과 최대 라이벌 간의 스포츠 경기를 찾는 것을 의미한다.
이러한 경험을 제공하기 위해 출판사, 플랫폼 및 서비스는 점차 대규모 언어 모델(LLM)1을 활용할 것이며, 이는 차세대 엔터테인먼트 환경의 기본 엔진으로 자리매김할 것입니다.
LLM은 데이터베이스가 아닌 확률 행렬로, 완전하지만 유한한 데이터로 훈련됩니다. 이 혁신적 기술의 근본적 특성상 LLM은 데이터를 검색하지 않고 합성하므로, 그럴듯해 보이지만 잘못된 데이터를 반환하는 '환각' 현상이 발생하기 쉽습니다. LLM 응답이 정확하고 관련성 있으며 신뢰할 수 있도록 하려면, LLM을 보완적인 실제 세계 지식 소스와 연결해야 합니다. 이러한 '그라운딩(grounding)' 과정은 오류를 줄이고 결과를 풍부하게 하며 맥락적 관련성을 제공합니다. LLM 그라운딩에는 크게 두 가지 방법이 있습니다: 검색 강화 생성(RAG)과 모델 컨텍스트 프로토콜(MCP)입니다.
RAG와 MCP는 각각 대규모 언어 모델(LLM)의 한계를 해결하지만, 근본적으로 다른 방식으로 접근합니다.
매우 높은 수준입니다:
RAG는 원본 프롬프트를 관련 문서로 구성된 외부 지식베이스의 관련 데이터로 보강하는 과정을 포함합니다. 이 보강된 프롬프트를 처리하며, 그 응답은 외부 지식 보강에서 제공된 데이터의 정확성을 반영합니다.
MCP는 애플리케이션이 대규모 언어 모델(LLM)에 컨텍스트를 제공하는 방식을 표준화하는 오픈소스 프로토콜입니다. 'AI용 USB-C'로도 불리는 범용 인터페이스인 MCP는 LLM을 외부 데이터 소스 및 로직과 연결하여 맞춤형 코딩과 통합 작업의 필요성을 제거합니다. 여기서 LLM은 하나 이상의 MCP 서버에 연결되어 들어오는 쿼리에 대한 실시간 검증을 지원합니다.
두 기술 중 RAG가 가장 오랜 역사를 지녔다. 초기 정보 검색 기술에서 비롯된 RAG는 2020년 대규모 언어 모델(LLM)을 외부 지식 저장소와 동적으로 연결하는 프로세스로 처음 논의되었다.
간단히 말해, RAG는 대규모 언어 모델(LLM)이 사용자 질의에 응답하기 전에 훈련 데이터 외부 정보를 참조할 수 있게 합니다. RAG를 통해 LLM은 최신 정보를 유지하기 위해 지속적으로 재훈련될 필요가 없습니다. 대신, 외부 지식 기반에 대한 주기적인 업데이트가 LLM의 응답을 최신 상태로 유지하고 관련성을 보장합니다.

RAG는 LLM 출력의 정확성과 관련성을 획기적으로 향상시키지만, 다음과 같은 한계가 존재합니다:
2024년 말 오픈소스 프로토콜로 공개된 MCP는 데이터 소스와 AI 모델 간 맞춤형 통합 개발의 과제를 해결합니다. 범용 커넥터로서 MCP는 LLM과 외부 데이터 소스 간 인터페이스를 구축합니다. 저지연 API와 통일된 추상화 인터페이스를 통해 MCP는 LLM이 하나 이상의 도메인 특화 서비스로부터 실시간 최신 정보를 획득할 수 있게 하며, 최적의 답변을 제공할 수 있도록 특정 도구를 호출할 수 있게 합니다.
MCP를 통해 대규모 언어 모델(LLM)은 다양한 데이터 소스에 원활하게 연결되어 실시간 데이터 접근 및 처리가 가능합니다. 이러한 아키텍처를 바탕으로 MCP는 사용자 질의 후 외부 지식 기반을 활용해 응답을 생성하므로, 스포츠 경기 결과나 주가 변동과 같이 최신 정보가 필요한 시나리오에 이상적입니다.

RAG와 MCP는 본질적으로 동일한 목적을 위해 설계되었습니다: 외부 컨텍스트로 대규모 언어 모델(LLM) 응답을 보강하여 환각 현상을 줄이고 문맥적 관련성을 제공하는 것입니다. 그러나 이들은 서로 다른 데이터 유형에 탁월하며, 서로 다른 수준의 정교함을 제공하며, 이 작업을 수행하는 방식이 근본적으로 다릅니다.
RAG는 비정형 문서 데이터 검색에 가장 적합한 반면, MCP는 정형화된 실시간 데이터 접근에 최적화되어 있습니다. 대규모 언어 모델(LLM)이 기존 기술 인프라 대비 획기적으로 개선된 검색 및 발견 경험을 제공하지만, MCP는 정형화된 데이터를 활용하고 LLM 외부에서 제공하는 추론에 의존하는 콘텐츠 중심 경험에서 이상적인 기반 솔루션입니다.
데이터의 최신성이 핵심입니다. 정적 문서 파일은 특정 영화나 TV 프로그램의 제작 과정에 대한 사용자의 질의를 해소할 수는 있으나, 해당 프로그램의 방송 시점이나 채널을 파악하는 데는 도움이 되지 않습니다. LLM 훈련 데이터는 시점에 고정되어 있으므로, 그라운딩은 LLM에 정확한 데이터뿐만 아니라 시의적절하고 최신 데이터를 제공하여 LLM이 '지식 잠금' 모델 외부 현실 세계에 접근할 수 있게 합니다.
그러나 프로그램 가용성은 빙산의 일각에 불과합니다. MCP는 극도로 풍부하고 개인화된 경험을 창출할 수 있는 능력 덕분에 엔터테인먼트 경험의 새로운 시대를 열었습니다. 예를 들어:
LLM의 활용은 사용자에게 혁신적인 변화를 가져올 것이나, 근거 기반이 없다면 LLM은 검증되지 않은, 시점에 얽매인 응답에 국한될 수밖에 없다. 근거 기반 LLM은 플랫폼과 서비스가 기존 검색 인프라의 한계를 벗어나도록 하면서, 보다 시의적절하고 관련성 높은 응답을 생성할 수 있는 광범위한 정교한 질의의 문을 열어줄 것이다.
자세한 내용은 당사의 MCP 서버 백서를를 다운로드하십시오.
미국에서 시작되었음에도 불구하고,Data Hub 추적하는 5대 글로벌 SVOD 서비스는 미국 콘텐츠보다 글로벌 콘텐츠를 더 많이Data Hub .
콘텐츠 라이브러리가 확장되고 유통 채널이 다양해지면서, 스포츠는 스트리밍 시장에서 가장 뜨거운 상품이 되었다.
FAST 채널은 프로그램매틱 시스템에서 광고 구매를 안내하기 위해 메타데이터에 점점 더 의존하게 될 것이다.
양식을 채워서 문의하세요!
귀하의 문의가 접수되었으며 최선을 다해 도와드리겠습니다. 즉시 메시지를 검토하여 가능한 한 빨리 답변해 드리겠습니다.