لا، لا ينبغي أن يكون الذكاء الاصطناعي مساعدًا للطالب

إن اعتبار الذكاء الاصطناعي مساعدًا هو أمر مغري، ولكن في مجال التعلم، فإن الإغراء الأكبر هو أن يستخدمه الطلاب كمقاول فرعي، وهذا ليس جيدًا.

بقلم جون وارنر

لدي صديق يعمل في مجال التعليم (ليس كمعلم) وكان قد أرجأ استكشافاته للذكاء الاصطناعي التوليدي والنماذج اللغوية الكبيرة حتى نهاية الفصل الدراسي عندما كان لديه الوقت الكافي للاستكشاف.

قال هذا الصديق شيئًا مثيرًا للاهتمام لي عبر البريد الإلكتروني: “ChatGPT يعرف أكثر مما كنت أعتقد.”

قام صديقي بما فعله الكثير منا عند التفاعل لأول مرة مع روبوت الدردشة الذكي. بدأوا بطرح أسئلة عليه حول أمور يعرفونها جيدًا. لم يكن ChatGPT يصيب كل شيء، ولكنه أصاب الكثير، وهذا مثير للإعجاب. من هناك، انتقل صديقي إلى مواضيع يعرف عنها أقل بكثير، إن وجدت. هذا الصديق لديه طفل كان يدرس مسرحية لشكسبير في المدرسة وكان يشعر بالإحباط بسبب عدم قدرته على فهم بعض معاني اللغة كما كان متوقعًا في بعض الأسئلة القصيرة.

توجه صديقي إلى ChatGPT، اقتبس المقاطع وسأل: “ماذا يعني هذا، بلغة بسيطة؟” أجاب ChatGPT بالطبع، وعلى الرغم من أنني لست خبيرًا في شكسبير – لقد قضيت وقتي اللازم كمن لديه ماجستير في الأدب، ولكن لا أكثر – لم أجد أي شيء خاطئ بشكل واضح فيما رأيته.

كان حماس صديقي يتزايد، وترددت في إطفاء هذا الحماس، ولكن بما أنني انتهيت للتو من مخطوطة كتابي التالي (أكثر من كلمات: كيف نفكر في الكتابة في عصر الذكاء الاصطناعي)، وقد قضيت شهورًا في التفكير في هذه القضايا، لم أستطع المقاومة.

قلت لصديقي، ChatGPT لا “يعرف” أي شيء. قلت لهم إنهم ينظرون إلى نتائج تطبيق مذهل للاحتمالات، وأنهم يمكن أن يطرحوا نفس السؤال مرارًا وتكرارًا ويحصلوا على نتائج مختلفة. قلت إن ردوده على شكسبير من المرجح أن تكون دقيقة لأن مجموعة الكتابات عن شكسبير واسعة جدًا، ولكن لا يوجد طريقة للتأكد.

كما ذكرتهم أنه لا يوجد تفسير واحد لشكسبير (أو لأي نص آخر في هذا الصدد)، وأن اعتبار مخرجات ChatGPT كمصدر موثوق كان خطأ على عدة مستويات.

أرسلت رابطًا لمقالة لبالدور بيارناسون حول “وهم الذكاء” عند العمل مع النماذج اللغوية الكبيرة، حيث يستعرض بيارناسون التسلسل الدقيق الذي فعله صديقي، بدءًا من الاستفسار في مجالات الخبرة، ثم “تصحيح” النموذج عندما يخطئ، واعتراف النموذج بالخطأ واعتقاد المستخدم أنهم علموا الآلة شيئًا. بوضوح، هذا الشيء لديه ذكاء.

لقد تعلم!

الانتقال إلى المواد غير المألوفة، يجعلنا أكثر إعجابًا. يبدو أنه يعرف شيئًا عن كل شيء. ولأن المادة غير مألوفة، كيف سنعرف إذا كانت خاطئة؟

إنه ذكي!

تبادلنا بعض الرسائل الإلكترونية الأخرى حيث أثرت قضايا إضافية حول الفروق بين “ممارسة المدرسة” و”التعلم”، وأنه إذا كنت ستذهب فقط لطلب تفسير من LLM لشكسبير، فلن تكون قد مررت بأي تجربة مع التفسير بنفسك، وأن التعلم يحدث من خلال التجارب. رد صديقي، “لماذا يجب على الأطفال معرفة ذلك بأي حال؟” واعترفت أنها كانت سؤالًا جيدًا، سؤالًا يجب أن نطرحه باستمرار الآن في ظل وجود هذه الأدوات.

لا يجب فقط أن نسأل، “لماذا يجب على الأطفال معرفة ذلك؟”، يجب أن نسأل “لماذا يجب على الأطفال فعل ذلك؟” هناك بعض “الأنشطة” الأكاديمية (خاصة حول الكتابة) التي جادلت منذ فترة طويلة بأنها ليست ذات علاقة كبيرة بتعلم الطلاب، ولكنها ظلت موجودة في السياقات المدرسية، وقد جعل الذكاء الاصطناعي التوليدي هذه الأمور أكثر وضوحًا.

المشكلة هي أن LLMs تجعل من الممكن تجاوز الأنشطة التي نعلم أن الطلاب يجب أن يقوموا بها: القراءة، التفكير، الكتابة. لم يكن صديقي، الذي يعمل في التعليم، يرفض بشكل تلقائي فكرة كيف جعل دمج الذكاء الاصطناعي التوليدي في التعليم من السهل تجاوز تلك الأشياء – كما أظهر لنا في مثال شكسبير. “ربما هذا هو المستقبل”، قال صديقي.

ما هو نوع هذا المستقبل؟ إذا واصلنا طرح الأسئلة التي يمكن للذكاء الاصطناعي الإجابة عنها، وجعل الطلاب يقومون بالأشياء التي يمكن للذكاء الاصطناعي القيام بها، ماذا يتبقى لنا؟

كتبت مؤخراً في The Chronicle، بيث مكمرتر تسأل، “هل هذه هي نهاية القراءة؟” بعد التحدث إلى العديد من المدرسين حول الصعوبات التي يبدو أن الطلاب يواجهونها في التعامل مع النصوص الطويلة والحجج المعقدة. هؤلاء الطلاب الذين، وفقًا للمعايير المهمة في اختيار الجاهزية الجامعية، هم مستعدون بشكل جيد للغاية، ومع ذلك يتم الإبلاغ عن أنهم يكافحون مع أمور قد يقول البعض إنها أساسية.

يعكس هؤلاء الطلاب تجاربهم السابقة حيث أن الاختبارات الموحدة – بما في ذلك امتحانات AP – تفضل الفهم السطحي، وتكون الكتابة أداءً تمليه القوالب (مقالة الفقرات الخمس)، لذا ليس من المستغرب أن قدراتهم ومواقفهم تعكس تلك التجارب.

ماذا يحدث عندما يقضي الجيل القادم من الطلاب سنواتهم في القيام بنفس التجارب التي نعلم بالفعل أنها ليست مرتبطة بالتعلم، والآن يستخدمون مساعدة الذكاء الاصطناعي فقط لتجاوز الخطوات المطلوبة للحصول على الدرجة. ماذا يُفقد أيضًا؟

كيف يبدو ذلك المستقبل؟

أنا من المعسكر الذي يعتقد أننا لا يمكننا أن ندير ظهورنا لوجود الذكاء الاصطناعي التوليدي لأنه موجود وسيُستخدم، لكن فكرة أننا يجب أن نسلم أنفسنا لهذه التكنولوجيا كنوع من “المساعد المساعد”، حيث يكون حاضرًا باستمرار، يراقب أو يساعد في العمل، خاصة في التجارب المصممة لغرض التعلم، هو شيء أرفضه.

وفي الحقيقة، الطريقة التي تُستخدم بها هذه الأشياء ليست كمساعدين، ولكن كوكلاء للتعاقد الخارجي، مقاولين فرعيين لتجنب القيام بالعمل نفسه.

أخشى أننا نسير في نومنا نحو ديستوبيا.

ربما نحن نعيش فيها بالفعل.

المصدر: insidehighered

مواضيع ذات صلة