مهن تختفي في المستقبل ذكر أحد المحامين المعروفين في الخارج أن حياته المهنية في خطر بسبب الاعتماد غير المتوقع على تقنية الذكاء الاصطناعي لروبوت المحادثة AI. وذكر المحامي أن برنامج الدردشة الآلي الشهير ChatGPT، الذي تم تطويره بواسطة OpenAI، قام بتصنيع سلسلة من القضايا القانونية الخيالية التي استشهد بها في حديثه.
مهن تختفي في المستقبل
ووفقًا لتقرير موقع جيز مو شينا التقني، تُعتبر هذه الحادثة، التي يمكن أن تعرقل مسيرة المحامي البالغة 30 عامًا، قصة تحذيرية حول الجوانب السلبية المحتملة للاعتماد الكامل على تكنولوجيا الذكاء الاصطناعي في المهنة القانونية.

القضية المثارة في هذا النقاش
أن القضية المثارة في هذا النقاش هي قضية “ماتا ضد شركة الطيران أفيانكا”، حيث قام العميل روبرتو ماتا برفع دعوى قضائية ضد الشركة بعد تعرضه لإصابة في ركبته جراء عربة خدمة خلال رحلة. وفي حين سعى محامو ماتا لمواجهة محاولة أفيانكا لرفض القضية، قدموا مذكرة استنادًا إلى العديد من الأحكام السابقة. ولكن بدلاً من ذلك، استخدم شوارتز، الذي يمثل ماتا، برنامج الدردشة ChatGPT لمساعدته في استكمال بحثه وتقديم أمثلة إضافية.
قائمة بالقضايا الوهمية
مهن تختفي في المستقبل وبدلاً من ذلك، أنشأ ChatGPT قائمة بالقضايا الوهمية، بما في ذلك قضية “فارغيز ضد شركة الطيران الصينية الجنوبية”، و”شابون ضد مصر للطيران”، و”بيترسن ضد إيران اير”، و”مارتينيز ضد شركة دلتا للطيران”، و”ميرا ضد شركة الطيران الهولندية الرئيسية KLM”، و”ميلر ضد شركة الطيران المتحدة”، وتم اختراع كل هذه الحالات بالكامل بواسطة برنامج الدردشة AI.
تبين بسرعة للفريق القانوني لشركة Avianca والقاضي المشرف على الجلسة أن القضايا المذكورة لم تكن موجودة على الواقع. وفي إفادة خطية، اعترف شوارتز بأنه اعتمد غير مقصود على المعلومات الخاطئة التي تم توفيرها من قبل برنامج الدردشة الآلي ChatGPT. تم تقديم لقطات من تفاعلاته مع البرنامج حيث طلب تأكيدًا على صحة القضية وتلقى إجابات مضللة.

لمخاطر تكنولوجيا الذكاء الاصطناعي
تسلط هذه الحادثة الضوء على المخاطر المحتملة المرتبطة بالاعتماد العمياء على تكنولوجيا الذكاء الاصطناعي في المجال القانوني. بينما يمكن لأدوات الذكاء الاصطناعي تعزيز البحث والكفاءة بلا شك، إلا أن التحكم البشري والتفكير النقدي لا يزالان أمورًا حاسمة لضمان دقة وموثوقية المعلومات.

عندما تُكشف مثل هذه القضايا، فإنها تكون دعوة للمحترفين القانونيين ليكونوا حذرين عند دمج تكنولوجيا الذكاء الاصطناعي في ممارساتهم. يجب دائمًا استكمال الاعتماد على التكنولوجيا بالتحقق البشري والفهم الشامل للقيود والتحيزات المحتملة لأنظمة الذكاء الاصطناعي. قد يكون عدم القيام بذلك له عواقب وخيمة، كما يتضح من المأزق المؤسف الذي واجهه ستيفن شوارتز.