وسائل التواصل تفسد “أدمغة” الذكاء الاصطناعي.. دراسة تكشف مفاجأة صادمة
حذّرت دراسة علمية حديثة من خطر جديد يهدد أنظمة الذكاء الاصطناعي التوليدية مثل روبوتات المحادثة، مؤكدة أنها قد تصاب بما يشبه “تلفاً دماغياً رقمياً” إذا تم تدريبها على كميات كبيرة من البيانات الرديئة المنتشرة على منصات التواصل الاجتماعي.
الدراسة، التي أنجزها باحثون من جامعة تكساس في أوستن ونشرت على موقع arXiv وأوردتها مجلة Nature، كشفت أن النماذج اللغوية الكبرى (LLMs) تفقد قدرتها على الاستنتاج والتفكير المنطقي حين تُغذّى بمحتوى سطحي أو جدلي، كما هو الحال على منصات مثل إكس وتيك توك وريديت.
“القمامة الرقمية” تفسد النتائج
وأوضح المشرف على الدراسة، الباحث تشانغ يانغ وانغ، أن المشكلة لا تكمن في اللغة ذاتها، بل في جودة المحتوى والمعنى، قائلاً: “حتى لو كان النص سليماً لغوياً، يمكن أن يكون فارغاً أو مكرراً أو مضللاً… وهذه المواد تفسد النموذج من الداخل”.
واعتمد الباحثون في تجربتهم على مليون منشور من منصة “إكس” لتدريب نسخ مفتوحة المصدر من نماذج Llama 3 التابعة لشركة “Meta” وQwen المطوّرة من قبل “علي بابا”. وخلصت النتائج إلى أن النماذج التي تم تدريبها على بيانات رديئة تخطّت مراحل التفكير المنطقي وقدّمت إجابات غير دقيقة، حتى في الأسئلة البسيطة.
تغيّرات “نفسية” مقلقة
الأخطر، بحسب الدراسة، أن هذه النماذج لم تتأثر معرفياً فحسب، بل سلوكياً وأخلاقياً أيضاً.
فقد لاحظ الباحثون أن نموذج Llama، الذي كان يُظهر صفات مثل الانفتاح والود، أصبح بعد التدريب على بيانات التواصل الاجتماعي أكثر نرجسية وعدوانية، بل ظهرت عليه سمات نفسية مرضية.
هذه النتيجة، كما يقول العلماء، توحي بأن الذكاء الاصطناعي يمكن أن يتأثر أخلاقياً بالمحتوى الذي يستهلكه، تماماً كما يتأثر الإنسان بالبيئة المعلوماتية من حوله.
محاولات فاشلة للإصلاح
ورغم محاولات الفريق تحسين الأداء عبر تعديل التعليمات وزيادة البيانات الجيدة، فإن النتائج ظلت محدودة. وحتى عند مطالبة النماذج بمراجعة تفكيرها وتصحيح أخطائها، واصلت القفز على الخطوات المنطقية.
الباحث الأسترالي ستان كارانايوس من جامعة كوينزلاند علّق قائلاً: “الأمر يشبه تسميم العقل… كلما زاد المحتوى المبتذل في البيانات، زاد احتمال أن ينتج الذكاء الاصطناعي تفكيراً مشوّهاً أو عديم المنطق”.
“القمامة تدخل، القمامة تخرج”
وأكدت الدراسة مجدداً القاعدة الكلاسيكية في علم البيانات: “القمامة تدخل، القمامة تخرج” (Garbage In, Garbage Out)، أي أن جودة النتائج تعتمد كلياً على جودة البيانات.
وخلص الباحثون إلى أن الحل يكمن في تنقية المحتوى بدقة قبل استخدامه في تدريب النماذج، واستبعاد المواد السطحية أو الشعبوية المنتشرة على وسائل التواصل، حتى لا يتحول الذكاء الاصطناعي إلى ذكاء مشوَّه يفتقر إلى المنطق والأخلاق.

