الذكاء الاصطناعي يغزو التعليم العالي

سارة هادلستون،

كل مقال أو دراسة جديدة تقريبًا يحمل التحذير نفسه للتعليم العالي: الذكاء الاصطناعي موجود في كل مكان. فهو حاضر في مشاركات النقاش التي يسلّمها الطلاب قبل دقائق من الموعد النهائي، وفي الواجبات الأسبوعية، وفي الامتحانات المنزلية. بل إنه موجود حتى في نظام إدارة التعلّم. ونتيجة لذلك، أصبح الذكاء الاصطناعي حاضرًا أيضًا في الخطط الدراسية للعديد من المقررات.

سياسات الأساتذة

طلبت ذا كرونيكل من عدد من المدرسين والخبراء (نحو 12 شخصًا) أن يصفوا سياساتهم المتعلقة باستخدام الذكاء الاصطناعي هذا الخريف، وكيف تظهر هذه الإرشادات في الخطط الدراسية — وهي فرصة أساسية لتحديد نبرة الفصل الدراسي. تراوحت أساليبهم بين تعليمات مقتضبة تقتصر على التشديد على إنتاج أعمال أصلية، وجداول تفصيلية تتضمن سيناريوهات افتراضية توضّح متى يكون استخدام الذكاء الاصطناعي مقبولًا ومتى لا يكون كذلك.

ومعظم الكليات لا تملك سياسات موحّدة على مستوى الجامعة تتعلق بالذكاء الاصطناعي داخل الصفوف. ففي حين أن بعض المؤسسات تحتضن التقنية انطلاقًا من أن خريجي الجامعات يدخلون سوق عمل يتطلب كفاءات متزايدة في هذا المجال، لا تزال مؤسسات أخرى تحاول تحديد الكيفية التي يمكن — أو ينبغي — استخدام التقنية بها.

وغالبًا ما يُترك القرار للأستاذ نفسه ليحدد ما يجب فعله بشأن الذكاء الاصطناعي. ويقول أعضاء هيئة التدريس إن هذه المهمة قد تبدو مرهقة.

قال بيتر شيا، العميد المساعد للابتكار الرقمي ودمج الذكاء الاصطناعي في كلية ميدلسكس بولاية ماساتشوستس:
أعتقد أننا نعيش تحولًا شبيهًا بما حدث عندما انتقل اقتصاد البلاد من النموذج الزراعي إلى النموذج الصناعي. كيف يمكن تنظيم ما يبدو غير قابل للتنظيم؟

مواقف متباينة

اختار بعض أعضاء هيئة التدريس فرض قيود صارمة على استخدام الذكاء الاصطناعي وأوضحوا ذلك صراحة في خططهم الدراسية. فيما أضاف آخرون مكوّنات خاصة بالتقنية إلى واجباتهم. أما الغالبية، فاتخذوا موقفًا وسطيًا بين الطرفين.

وبغض النظر عن الموقف، يؤكد خبراء التدريس أن وجود سياسة واضحة تحدد ما هو مسموح وما هو محظور — وكيف سيتم تطبيقها — أمر أساسي.

صياغة السياسات

بدأت جامعة ولاية جورجيا مؤخرًا بتزويد الأساتذة ببيانات نموذجية يمكن إدراجها في الخطط الدراسية حول الذكاء الاصطناعي، بما يتماشى مع سياسات النزاهة الأكاديمية بالجامعة. وتنقسم اللغة النموذجية إلى ثلاث فئات:

  • مسموح بالذكاء الاصطناعي ما لم يُذكر خلاف ذلك.

  • مسموح فقط في حالات معينة.

  • محظور تمامًا.

كما أعدّت جامعة ولاية أوهايو وجامعة واشنطن في سانت لويس موارد مشابهة.

لكن جينيفر دنكان، أستاذة اللغة الإنجليزية المساعدة في جامعة ولاية جورجيا، رأت أن طلابها بحاجة إلى توجيه أكثر تخصيصًا. بالنسبة إليها، كان إعداد سياسة أمرًا عاجلًا، خصوصًا أنها تدرّس عبر الإنترنت بالكامل وتدرك أن طلابها سيستخدمون الذكاء الاصطناعي بطريقة ما.

لذلك لجأت إلى الذكاء الاصطناعي التوليدي نفسه، فأدخلت معاييرها الشخصية وسياسة نزاهة أكاديمية سابقة، ثم عدّلت ما حصلت عليه.

تطلب دنكان من طلابها توثيق استخدامهم للذكاء الاصطناعي كما يفعلون مع أي مصدر آخر، وأن يتضمن كل واجب بيانًا بالإفصاح عن ذلك. بعض واجباتها تدمج التقنية مباشرة: فقد يستخدم الطلاب الذكاء الاصطناعي لإنشاء صور أو كشريك في مقابلة، بحيث يتظاهر الطالب أن برنامج المحادثة هو مقدم برامج حوارية أو شخصية الدكتور فرانكشتاين.

ودنكان ليست وحدها؛ فقد استعان أساتذة آخرون بالذكاء الاصطناعي التوليدي لصياغة سياسات تتعلق باستخدامه.

براين لي، أستاذ مشارك في قسم نظم المعلومات الحاسوبية بكلية بيرس وفي كلية الأعمال بجامعة واشنطن في تاكوما، قال إنه أدرك الحاجة إلى سياسة مساق حول الذكاء الاصطناعي في أوائل 2023، عندما أصبح لدى الجميع فجأة نحو لغوي مثالي في مشاركات النقاش.”

أخذ لي عدة سياسات منشورة على الإنترنت، وطلب من ChatGPT دمجها، ثم حرر النتيجة بما يناسبه. وهو يحدّث السياسة كل صيف لتواكب التطورات التقنية، وقد وصل الآن إلى الإصدار الثالث. على سبيل المثال، يطلب من الطلاب الذين يستخدمون الذكاء الاصطناعي في واجباتهم أن يرفقوا رابطًا لسجل محادثاتهم مع ChatGPT، حتى يتمكن من مراجعة التعليمات التي أوصلتهم إلى إجاباتهم.

نظام الضوء الأحمر والأخضر

اعتمدت أبريل رايت، طالبة دكتوراه في دراسات الاتصال بجامعة وست فرجينيا، نظام إشارة المرور لمساقها في التواصل التجاري:

  • الضوء الأخضر: استخدام الذكاء الاصطناعي للعصف الذهني أو تحرير عمل أصلي.

  • الضوء الأصفر: استخدام الذكاء الاصطناعي لتوليد أفكار للسيرة الذاتية أو خطابات التغطية أو تحسين العرض الشخصي أو التدريب على مقابلة أو صياغة ملخصات وظيفية على لينكدإن، بشرط إعادة صياغة المحتوى بكلمات الطالب نفسه.

  • الضوء الأحمر: النسخ واللصق المباشر لمحتوى مولّد دون مراجعة أو تعديل.

وفي خطتها الدراسية، تشرح رايت أمثلة على ما هو مسموح في مهام محددة. فعند كتابة السيرة الذاتية، يمكن للطلاب الاستعانة بالذكاء الاصطناعي لتوليد أفعال أو كلمات مفتاحية خاصة بالصناعة، أو لجعل النقاط أكثر إيجازًا، لكن لا يجوز لهم النسخ المباشر دون مراجعة.

وكما هو الحال مع أي سياسة، فإن وضعها ليس سوى نصف المعركة — إذ يجب على الأساتذة أن يكونوا واضحين بشأن كيفية تطبيقها.

الإقرار بالثغرات

قال الأساتذة إنهم يستخدمون بياناتهم في الخطط الدراسية لتوعية الطلاب أيضًا بحدود الذكاء الاصطناعي.

توضح بيرسيفون براهم، أستاذة الدراسات الإسبانية واللاتينية والإيبيرية في جامعة ديلاوير، في سياستها أن الطلاب لا ينبغي أن يطلبوا من الذكاء الاصطناعي معلومات:
الذكاء الاصطناعي مولّد نصوص، لا مولّد حقائق. إنه ينظر فقط إلى الكلمات ويتنبأ بالكلمة التالية. لا يملك أي وعي بما هو صحيح أو خاطئ، جيد أو سيئ.”

بدلًا من ذلك، توجّههم لاستخدام ويكيبيديا.

وتخصص براهم وقتًا في الصف لعرض أمثلة على هذه النواقص ضمن فقرة بعنوان إخفاقات الذكاء الاصطناعي اليومية.” طلبت مثلًا من الذكاء الاصطناعي أن يولّد صورة لـ”عذراء الحديد”، أداة تعذيب من العصور الوسطى يُعتقد أنها مجرد أسطورة. النتيجة؟ امرأة شقراء شبه عارية ترتدي درعًا معدنيًا. وتعلّق: أي صورة لامرأة يولّدها الذكاء الاصطناعي تُفرط في الطابع الجنسي بشكل افتراضي. إنه أشبه بكرادشيان متواصلة بلا نهاية.”

يمكن لنماذج الذكاء الاصطناعي أيضًا أن تهذي أو تفبرك معلومات بالكامل. يوضح ماركوس بيركنكراهي، أستاذ علوم البيانات المساعد في كلية ليون بولاية أركنساس، ذلك بجلاء في سياسته:
استخدم الذكاء الاصطناعي لأمور لا تكترث بها، وإذا لم تهتم بكمية الوقت الذي قد تهدره، لأنه رغم إمكانية تصحيح الشيفرة التي ينتجها، فلن تعرف متى وأين يهذي الذكاء الاصطناعي ويخرج هراء.”

ويشير بيركنكراهي إلى أن الشيفرة التي يولّدها الذكاء الاصطناعي غالبًا ما تكون معيبة ومعقدة. ويقر بأنه يستخدمه أحيانًا في مهام بسيطة أو عندما لا يكون الوقت ضاغطًا، لكنه قادر على تجاوز الأخطاء بفضل خبرته الطويلة.

ويقول في خطته الدراسية:
في مرحلتكم، استخدام الذكاء الاصطناعي إهدار للوقت في أحسن الأحوال، وجريمة بحق قدرتكم على التعلّم في أسوئها. التعلّم لا يأتي دون ألم ويأس مؤقت. الذكاء الاصطناعي مثل حبة دواء، لكنه دواء لا يعمل دائمًا، ولن تعرف متى يعمل.”

ثم يقدّم بديلًا:
انضموا بدلًا من ذلك إلى نادي برمجة الطلاب في كلية ليون، وعيشوا تجربة المعاناة من عدم المعرفة بأنفسكم كل أسبوع!”

ويقول دانيال فروست، أستاذ اللغة الإسبانية في كلية هولي كروس، إن جزءًا من عملية التعلم يتمثل في ارتكاب الأخطاء وتصحيحها. لذلك، لا يسمح لطلابه باستخدام الذكاء الاصطناعي التوليدي أو ترجمة غوغل أو تطبيق الترجمة من آبل.

وبدلاً من ذلك، يشجع طلابه على استخدام القواميس الإلكترونية، التي توفر خيارات متعددة وتضمن أن الطلاب يشاركون بفاعلية في عملية التعلّم. كما أن هذه القواميس تقدّم فروقًا لغوية وثقافية، بينما يميل الذكاء الاصطناعي إلى طمس هذه الفروق. وهذه الاختلافات العابرة للثقافات أساسية في نهجه التربوي.

وضرب مثالًا بكلمة “زبدة”: في إسبانيا يقولون mantequilla، بينما في الأرجنتين يقولون manteca. والأخيرة تُفهم في إسبانيا على أنها “شحم الخنزير”. السبب أن إسبانيا تضم الكثير من الخنازير، بينما الأرجنتين يغلب عليها تربية الماشية.

في إحدى المرات، سأل فروست برنامج Gemini عن الفرق بين الكلمتين. فأعطاه التعريفات، لكن دون السياق الثقافي. وقال:
لقد قدّم المعلومة، لكن الترجمة كانت تفتقد شيئًا جوهريًا. أريد من طلابي أن يسألوا عن الفرق بين manteca وmantequilla.”

المصدر: The Chronicle

مواضيع ذات صلة