هل يقرر الذكاء الاصطناعي ما نشاهده على يوتيوب؟
| من المشاهد الحر إلى المشاهد الموجّه |
![]() |
| هل يقرر الذكاء الاصطناعي ما نشاهده على يوتيوب؟ |
في كل مرة تفتح فيها يوتيوب، وتجد فيديو مثيرًا للاهتمام يظهر أمامك في اللحظة المناسبة، فاعلم أن ذلك ليس صدفة. إنها الخوارزميات — الذكاء الاصطناعي الذي يتعلم منك أكثر مما تتخيل. فهل أنت من يختار ما يشاهد، أم أن يوتيوب هو من يختار لك؟ هذا السؤال يكشف عمق التحول الذي يشهده الإعلام المرئي في عصر الذكاء الاصطناعي، حيث لم يعد المشاهد هو الملك، بل أصبح جزءًا من معادلة برمجية ضخمة تتحكم في سلوكه وتوجه اهتمامه.
منصة بدأت بالحرية وانتهت بالتحكم الذكي
عندما تأسس يوتيوب عام 2005، كان شعاره "Broadcast Yourself" — أي “ابث نفسك”، في دلالة على الحرية المطلقة في التعبير. لكن بعد استحواذ جوجل على المنصة، تحولت الحرية إلى نظام ذكي معقد يعتمد على تحليل كل تفاعل وكل ثانية من وقت المشاهدة لتخصيص التجربة. لم يعد الهدف أن تشاهد ما تريد، بل أن تبقى تشاهد لأطول فترة ممكنة.
هذه الخوارزميات لا تكتفي بتقديم اقتراحات، بل تُعيد تشكيل تصورنا عن الواقع. فهي تختار المواضيع التي تراها “مناسبة”، وتُقصي ما تعتبره “غير مربحًا” أو “حساسًا”. وهنا يبدأ السؤال الأخلاقي: هل ما نشاهده يعكس اهتماماتنا الحقيقية، أم أنه انعكاس لما يريد النظام منا أن نؤمن به؟
كيف تعمل خوارزمية التوصية؟
تستند خوارزميات يوتيوب على مئات الإشارات (Signals) مثل مدة المشاهدة، التفاعل، نوع الجهاز، الوقت، اللغة، والموقع الجغرافي. ثم يستخدم النظام الذكاء الاصطناعي العميق (Deep Learning) للتنبؤ بما “قد يعجبك” لاحقًا. هذه العملية تتم خلال أجزاء من الثانية، لكنها تُبنى على تراكم بيانات ضخمة تمتد لسنوات من نشاطك على الإنترنت.
وفقًا لتقرير Google AI Research (2024)، فإن 70% من إجمالي المشاهدات اليومية على يوتيوب تأتي من الفيديوهات المقترحة، وليس من البحث المباشر. وهذا يعني أن الخوارزمية هي من تقود المشاهدة، لا المستخدم.
التحيّز الخوارزمي: حين يُعاد تشكيل الوعي
الذكاء الاصطناعي، رغم كفاءته، ليس محايدًا. فهو يتعلم من بياناتنا، وبياناتنا بدورها تعكس تحيزاتنا الثقافية والسياسية. بالتالي، يصبح النظام مرآة مضخّمة لما هو سائد، مما يعزز الانحياز بدلاً من تصحيحه.
على سبيل المثال، أظهرت دراسة Harvard Kennedy School (2025) أن يوتيوب يروّج تلقائيًا لمحتويات أكثر تطرفًا كلما بحث المستخدم عن مواضيع مثيرة للجدل، في محاولة لإطالة زمن المشاهدة. هذا يعني أن الخوارزمية لا تسعى للحقيقة، بل للاحتفاظ بانتباهك.
التحكم النفسي عبر الذكاء الاصطناعي
تستخدم خوارزميات يوتيوب مفاهيم من علم النفس السلوكي، خصوصًا ما يُعرف بـ "حلقة الدوبامين الرقمية". فكل مرة يظهر فيديو ممتع أو صادم، يفرز الدماغ دفعة صغيرة من الدوبامين، ما يشجع المستخدم على الاستمرار في المشاهدة. الذكاء الاصطناعي يستغل هذه الحلقة بذكاء ليجعل التجربة إدمانية في جوهرها.
وبذلك يتحول المشاهد من متلقي حر إلى مستخدم مبرمج. هو يظن أنه يختار بحرية، بينما هو يتحرك داخل إطار مرسوم بدقة.
من يملك السيطرة: المستخدم أم النظام؟
عندما نقارن سلوك المستخدم قبل ظهور الذكاء الاصطناعي وبعده، نجد تحولًا جذريًا. في السابق، كان المشاهد يبحث عن الفيديو بنفسه، أما اليوم فالمنصة تبحث نيابة عنه، وتقرر ما يراه. الخطر هنا أن المستخدم يظن أنه ما زال المتحكم، بينما الواقع يقول عكس ذلك تمامًا.
وتشير بيانات Pew Research (2025) إلى أن 81% من المستخدمين لا يدركون كيف تعمل خوارزميات يوتيوب، أو أنها مسؤولة عن اختيار معظم ما يشاهدونه يوميًا.
الذكاء الاصطناعي وصناعة الاتجاهات
الترند أو الاتجاه (Trend) على يوتيوب لم يعد عفويًا. إنه نتاج مباشر لتحليل ضخم للبيانات، حيث يتم تحديد ما يُعرض في القوائم الرائجة بناءً على تفاعل معين، لا على جودة المحتوى. بالتالي، تُدفن الفيديوهات المستقلة أو النقدية، بينما تُرفع أخرى تلائم معايير الانتشار والإعلانات.
بهذه الطريقة، يتحول يوتيوب من منصة عرض مفتوح إلى نظام تلفزيوني ذكي يقرر مسبقًا ما يجب أن ينتشر، وما يجب أن يُنسى.
التأثير الثقافي والاجتماعي
من خلال الخوارزميات، أعاد الذكاء الاصطناعي رسم الخريطة الثقافية العالمية. المحتوى الموجّه بلغة معينة أو من دولة معينة يحصل على أفضلية لأن النظام يدعم المناطق ذات العائد الإعلاني الأعلى. وهكذا، يتراجع المحتوى المحلي أو المستقل في مواجهة سيل من الفيديوهات “المعولمة”.
تقرير UNESCO (2025) أشار إلى أن خوارزميات يوتيوب تُسهم في تقليص التنوع الثقافي بنسبة 30%، إذ تفضل المحتوى السائد والموحد عالميًا.
هل يمكن إصلاح النظام؟
بدأت أصوات الخبراء والمشرّعين تطالب بمزيد من الشفافية في كيفية عمل خوارزميات التوصية. بعضهم يقترح إنشاء “وضع خالٍ من الخوارزميات” يتيح للمستخدم اختيار المحتوى يدويًا. لكن الشركات ترى أن ذلك سيؤدي إلى انخفاض كبير في التفاعل والإيرادات، ما يجعل الحل صعبًا من الناحية الاقتصادية.
الحل الوسط قد يكون في تطوير أدوات تمنح المستخدمين سيطرة جزئية على ما يُقترح لهم، أو توضيح أسباب التوصيات بشكل شفاف.
المستقبل: عندما يفكر يوتيوب قبلك
مع تطور الذكاء الاصطناعي التنبؤي (Predictive AI)، يسعى يوتيوب إلى معرفة ما تريد مشاهدته حتى قبل أن تبحث عنه. سيستخدم النظام تحليل الصوت والمزاج وتاريخ التفاعل لتقديم محتوى “مزاجي” مصمم لك خصيصًا.
لكن هذه الراحة الذكية قد تتحول إلى فخ نفسي. فحين تُحدد الآلة تفضيلاتنا المستقبلية، يصبح الاختيار الإنساني نفسه مهددًا بالزوال.
الأسئلة الشائعة (FAQ)
هل يوتيوب يتحكم فعلاً فيما نراه؟
إلى حد كبير، نعم. حوالي 70% من المحتوى الذي نشاهده مصدره توصيات الذكاء الاصطناعي، لا بحثنا المباشر.
هل الخوارزميات محايدة؟
لا، لأنها تتعلم من بياناتنا، وبالتالي تعكس تحيزاتنا الثقافية والسياسية وتضخمها أحيانًا.
هل يمكن تعطيل خوارزمية التوصية؟
ليس كليًا، لكن يمكن تقليل تأثيرها عبر حذف سجل المشاهدة أو استخدام وضع التصفح الخفي.
هل التخصيص مفيد للمستخدم؟
نعم جزئيًا، لأنه يوفر الوقت ويقترح محتوى مناسبًا، لكنه أيضًا يحد من تنوع الأفكار ويقود المستخدم إلى فقاعة معرفية مغلقة.
هل هناك جهود لتنظيم عمل خوارزميات يوتيوب؟
نعم، تسعى منظمات مثل الاتحاد الأوروبي وUNESCO إلى فرض معايير شفافية وتفسير آلية عمل الذكاء الاصطناعي للمستخدمين.
المصادر
- Google AI Research – "How YouTube’s Recommendation System Works", 2024
- Harvard Kennedy School – "Algorithmic Influence and Public Opinion", 2025
- Pew Research Center – "Understanding AI-driven Platforms", 2025
- UNESCO – "Cultural Diversity in the Age of Algorithms", 2025
- MIT Media Lab – "Digital Psychology and the Dopamine Loop", 2024
