تحذيرات من ضمور معرفي بفعل شات جي بي تي وأخواته

الأربعاء 24 ديسمبر 2025 - 04:52 م

تحذيرات من ضمور معرفي بفعل شات جي بي تي وأخواته

راشد مطر

أبرزت دراسات حديثة قلقاً متزايداً حول تأثير استخدام أدوات الذكاء الاصطناعي التوليدي، مثل روبوتات المحادثة، على المهارات البشرية المعرفية. وقد أظهرت نتائج هذه الأبحاث أهمية الحذر من التبعات المحتملة التي قد تضر بالتفكير النقدي وحل المشكلات، خاصة في ظل انتشار هذه الأدوات بصورة واسعة في الأوساط التعليمية والمهنية.

في دراسة أجرتها معهد ماساتشوستس للتكنولوجيا، تبين أن المشاركين الذين استعانوا بـ"شات جي بي تي" لكتابة مقالاتهم أظهروا نشاطا دماغياً أقل في المناطق المرتبطة بالمعالجة المعرفية. هؤلاء المشاركون واجهوا صعوبات في تذكر واستعادة محتوى مقالاتهم مقارنة بمن قاموا بكتابتها بأنفسهم. استخدمت الدراسة تخطيط كهربية الدماغ لرصد نشاط الأدمغة، ما أثار مخاوف الباحثين بشأن تراجع مهارات التعلم.

من جهتها، أشارت دراسة أخرى نفذتها جامعة كارنيجي ميلون بالتعاون مع مايكروسوفت إلى تراجع مهارات حل المشكلات بشكل مستقل جراء الاعتماد المفرط على تقنيات الذكاء الاصطناعي. إذ بينت النتائج ارتباط الثقة الزائدة في أدوات الذكاء الاصطناعي بانخفاض التفكير النقدي لدى الموظفين، مما قد يؤدي إلى اعتماد مفرط طويل الأمد.

بحسب استطلاع أجرته دار نشر جامعة أكسفورد، فإن ستة من كل عشرة طلاب في المملكة المتحدة يرون أن الذكاء الاصطناعي أثر سلباً على مهاراتهم الدراسية. في المقابل، أثبت استطلاع آخر أن تسعة من كل عشرة طلاب أقروا بفائدته في تطوير مهارة واحدة على الأقل، مما يشير إلى تأثير معقد لهذه الأدوات وفقاً لـ"بي بي سي".

تعترف الشركات المطورة لهذه التقنيات بهذه المخاوف، حيث تؤكد مسئولون في شركة "أوبن أيه أي" على ضرورة استخدام الذكاء الاصطناعي كأداة لتحفيز الفهم وليس كمنصة للإجابات السهلة. وتحث جاينا ديفاني من الشركة الطلاب على تجنب الاعتماد عليه في تنفيذ مهام خارجية.

المختصون مثل البروفيسور واين هولمز من جامعة كوليدج لندن ينادون بضرورة إجراء بحوث مستقلة حول تأثير هذه التقنيات قبل اعتمادها على نطاق واسع في التعليم. ويحذرون من ظاهرة "الضمور المعرفي"، مشددين على أن النتائج الأفضل التي تتحقق باستخدام الذكاء الاصطناعي لا تعني بالضرورة تعليماً أفضل.

تظهر تجربة أطباء الأشعة أن مساعدة الذكاء الاصطناعي قد تكون مفيدة للبعض، بينما قد تضر آخرين، وفقاً لدراسة أجرتها جامعة هارفارد. هذا الاكتشاف يستدعي فهماً أعمق لكيفية تفاعل البشر مع هذه التقنيات.

يتفق الخبراء على ضرورة وضع إرشادات واضحة لاستخدام الذكاء الاصطناعي بمسؤولية. ويؤكدون على الحاجة الملحة لتحقيق توازن بين الاستفادة من الذكاء الاصطناعي في تعزيز الكفاءة، والحفاظ في الوقت ذاته على المهارات البشرية الأساسية والتفكير النقدي المستقل.


مواد متعلقة