أدى التواجد المتزايد للذكاء الاصطناعي (AI) في حياتنا اليومية إلى تضخيم رغبات المستهلكين في التخصيص والفورية. في عالم الترفيه، يتوقع الناس إجابات فورية واقتراحات مخصصة والقدرة على التصرف بناءً على ما يرونه ويسمعونه. بالنسبة للبعض، هذا يعني العثور على الفيلم المثالي لمزاج معين؛ وبالنسبة للآخرين، يعني العثور على المباراة الرياضية بين فريقهم المفضل وأكبر منافس لهم.
لتقديم هذه التجارب، سيستفيد الناشرون والمنصات والخدمات بشكل متزايد من نماذج اللغة الكبيرة (LLMs)1، التي ستصبح المحركات الافتراضية لبيئات الترفيه من الجيل التالي.
LLMs هي مصفوفات احتمالية، وليست قواعد بيانات، يتم تدريبها على بيانات شاملة، ولكنها محدودة. الطبيعة الأساسية لهذه التكنولوجيا الجديدة تعني أن LLMs تقوم بتوليف البيانات، ولكنها لا تسترجعها، وبالتالي فهي عرضة لـ "الهلوسة"، حيث تعرض بيانات تبدو معقولة، ولكنها غير صحيحة. لضمان دقة استجابات LLM وملاءمتها وموثوقيتها، يجب أن تكون LLMs متصلة بمصادر معرفة تكميلية من العالم الحقيقي. تقلل عملية "التأصيل" هذه من الأخطاء وتثري النتائج وتوفر ملاءمة سياقية. هناك طريقتان أساسيتان لتأصيل LLMs: التوليد المعزز بالاسترجاع (RAG) وبروتوكول سياق النموذج (MCP).
يعالج كل من RAG وMCP قيود LLMs، لكنهما يتعاملان مع هذه المسألة بطرق مختلفة تمامًا.
على مستوى عال جدا:
يتضمن RAG عملية يتم فيها إثراء الموجه الأصلي ببيانات ذات صلة من قاعدة معرفية خارجية من الوثائق ذات الصلة. يقوم بمعالجة هذا الموجه المثري، وتعكس استجابته دقة البيانات من زيادة المعرفة الخارجية.
MCP هو بروتوكول مفتوح المصدر يعمل على توحيد الطريقة التي توفر بها التطبيقات السياق لـ LLM. باعتباره واجهة عالمية، يوصف أحيانًا بـ "USB-C للذكاء الاصطناعي"، يربط MCP LLM بمصادر البيانات والمنطق الخارجية، مما يلغي الحاجة إلى الترميز المخصص والتكامل المخصص. هنا، يتم توصيل LLM بخادم MCP واحد أو أكثر لتسهيل التحقق في الوقت الفعلي من صحة الاستفسارات الواردة.
من بين هاتين التقنيتين، تتمتع RAG بأطول تاريخ. تعود جذور RAG إلى أوائل عمليات استرجاع المعلومات، وقد نوقشت لأول مرة في عام 2020 كعملية لربط نماذج اللغة الكبيرة (LLM) بشكل ديناميكي بمستودعات المعرفة الخارجية.
ببساطة، تسمح RAG لـ LLM بالرجوع إلى معلومات خارج بيانات التدريب الخاصة بها قبل الرد على استفسار المستخدم. مع RAG، لا تحتاج LLM إلى إعادة التدريب باستمرار لتبقى محدثة. بدلاً من ذلك، تحافظ التحديثات الدورية لقاعدة المعرفة الخارجية على استجابات LLM محدثة وذات صلة.

على الرغم من أن RAG يحسن بشكل كبير من دقة وملاءمة مخرجات LLM، إلا أنه ينطوي على بعض القيود:
سيتم توفير MCP في أواخر عام 2024 كبروتوكول مفتوح المصدر، وهو يحل مشكلة تطوير تكاملات مخصصة بين مصادر البيانات ونماذج الذكاء الاصطناعي. بصفته موصلًا عالميًا، ينشئ MCP واجهة بين LLM ومصادر البيانات الخارجية. بفضل واجهة برمجة تطبيقات منخفضة الاستجابة وواجهة موحدة ومجردة، يتيح MCP لـ LLM الحصول على معلومات حالية في الوقت الفعلي من خدمة واحدة أو أكثر خاصة بمجال معين، ويسمح لـ LLM باستدعاء أدوات محددة تتيح له تقديم أفضل إجابة ممكنة.
مع MCP، يمكن توصيل LLMs بالعديد من مصادر البيانات بسلاسة، مما يتيح الوصول إلى البيانات واتخاذ الإجراءات في الوقت الفعلي. وبفضل هذه البنية، يستند MCP في ردوده إلى قواعد المعرفة الخارجية بعد استفسار المستخدم، مما يجعله مثاليًا للسيناريوهات التي تتطلب أحدث المعلومات المتاحة، مثل نتائج المباريات الرياضية أو تغيرات أسعار الأسهم.

تم تصميم RAG وMCP بطبيعتهما للقيام بنفس الشيء: إثراء استجابات LLM بالسياق الخارجي لتقليل الهلوسة وتوفير الصلة السياقية. مع ذلك، فإنهما يتفوقان في أنواع مختلفة من البيانات ويوفران مستويات مختلفة من التعقيد، كما أن الطرق التي ينفذان بها هذه المهمة تختلف اختلافًا جوهريًا.
يعد RAG هو الأفضل لاسترجاع البيانات غير المنظمة والمستندات، في حين أن MCP مُحسّن للوصول إلى البيانات المنظمة في الوقت الفعلي. في حين توفر نماذج اللغة الكبيرة (LLM) تجارب بحث واكتشاف محسّنة بشكل كبير مقارنة بالبنى التحتية التقنية التقليدية، فإن MCP هو الحل الأساسي المثالي في التجارب التي تركز على المحتوى أولاً والتي تستفيد من البيانات المنظمة وتعتمد على أفضل طرق الاستدلال المتوفرة خارج نموذج اللغة الكبيرة (LLM) نفسه.
تعد حداثة البيانات عاملاً أساسياً في هذا الصدد. قد ترضي الملفات الثابتة استفسارات المستخدمين حول تاريخ تطور فيلم أو برنامج تلفزيوني معين، ولكنها لا تساعد المستخدمين في تحديد موعد أو مكان بث ذلك البرنامج أو الفيلم. بيانات تدريب LLM ثابتة زمنياً، لذا فإن التأسيس يزود LLM ليس فقط بالبيانات الصحيحة، بل أيضاً بالبيانات الحديثة والمحدثة التي تسمح لـ LLM بالوصول إلى العالم الحقيقي خارج نموذج "المعرفة المقفلة".
لكن توفر البرامج ليس سوى غيض من فيض. يفتح MCP عهدًا جديدًا من تجارب الترفيه بفضل قدرته على توفير تجارب غنية للغاية ومخصصة حسب رغبات المستخدم. وإليك مثال على ذلك:
سيصبح استخدام نماذج اللغة الكبيرة (LLM) تحولياً بالنسبة للجمهور، ولكن بدون أساس، تقتصر نماذج اللغة الكبيرة (LLM) على ردود غير مؤكدة ومحددة زمنياً. ستسمح نماذج اللغة الكبيرة (LLM) ذات الأساس للمنصات والخدمات بالخروج من قيود البنى التحتية التقليدية للبحث، مع فتح الباب أمام مجموعة واسعة من الاستفسارات المعقدة التي ستولد ردوداً أكثر صلة بالموضوع وأكثر ملاءمة.
لمزيد من المعلومات، قم بتنزيل ورقة معلومات MCP Server.
على الرغم من جذورها في الولايات المتحدة، فإن الخدمات الخمس العالمية للفيديو حسب الطلب (SVOD) التي يتم تتبعها في Gracenote Data Hub محتوى عالميًا أكثر من المحتوى الأمريكي.
مع نمو مكتبات المحتوى وتكاثر قنوات التوزيع، أصبحت الرياضة أكثر السلع رواجًا في عالم البث المباشر.
ستصبح قنوات FAST أكثر اعتمادًا على البيانات الوصفية لتوجيه عمليات شراء الإعلانات في الأنظمة البرمجية.
املأ النموذج للاتصال بنا!
لقد تم استلام استفسارك، وفريقنا حريص على مساعدتك. سنقوم بمراجعة رسالتك على الفور والرد عليك في أقرب وقت ممكن.