نشر المحامي الكبير على صفحته التي يتابعها عشرات الآلاف عريضة دعوى أقامها أمام المحكمة الدستورية العليا مطالبًا باستفادة موكله من حكم دستوري سابق، في محاولة للحصول على البراءة بعدما أدانته محكمة أول درجة. وبغض النظر عن أن "الدستورية" لا تقبل مثل هذه الدعاوى (منازعات التنفيذ) إلّا بعد استنفاد درجات التقاضي الأخرى (الاستئناف ثم الطعن) فقد لفت نظري أن "الدستورية" لم يسبق وأن فصلت في أي مادة قانونية تتعلق بالاتهامات الموجهة إلى الموكل!
بتدقيق الأمر تبين أن الحكم الدستوري الذي يقول المحامي الكبير بأن القضاء خالفه عندما أدان موكله، لا يمت للوقائع أو الاتهامات الموجهة إليه بصلة، وأن هذا الحكم في حقيقته صدر بعدم القبول في موضوع آخر تمامًا، يتعلق بهيكلة إدارية لإحدى جهات الدولة، وأنه لا يتضمن أي مبدأ يمكن للمتهم الاستفادة منه للنجاة من الحبس.
من أين جاءوا بهذا الحكم؟ وكيف حدث هذا الاستدلال الخاطئ المنافي لأبسط القواعد البحثية والقانونية؟ وهل يمكن لعملية كتابة دعوى قضائية أن تضل الطريق إلى حد إقامتها على أساس لا علاقة له إطلاقًا بالموضوع محل النزاع؟
رجحت أن يكون صاحب الدعوى قد استعان بأحد برامج الذكاء الاصطناعي للتوصل إلى أحكام دستورية قد تفيده في منازعته، فخدعته تلك البرامج وأفاضت عليه بالمعلومات المضللة التي ذكرتها سلفًأ. قررت التجريب بنفسي لأجد أسوأ مما كنت أتصور.
لقد سايرني ChatGPT تمامًا في بعض الأسئلة الساذجة عن موضوع القضية، المتعلق بأحد أشكال السب والقذف عبر مواقع التواصل الاجتماعي، وصولًا إلى "اختلاق" مبادئ ونصوص لم تصدر عن المحكمة الدستورية العليا على الإطلاق، وبشأن تشريعات لم تصل إليها طعون عليها من الأساس.
بات الأمر وكأنني أمام "واقع قانوني بديل" على طريقة "الحقائق البديلة". المصطلح الذي ابتدعه مستشارون للرئيس الأمريكي دونالد ترامب خلال ولايته الأولى، ومازال هو يدفع السياسة العالمية تحت مظلة تلك الأكاذيب إلى ثقوب سوداء في الذاكرة الجمعية الإنسانية، عبر تحالفات فاشية مع محتكري المعلومات والبيانات وخالقي الخوارزميات التي لا تقتات إلّا على السرديات الكاذبة والتزييف العميق والتلاعب بعقول البشر.
وعندما أبديت لـ ChatGPT امتعاضي من تلك النتائج الخاطئة، جاءني الرد ببساطة في صورة اعتذار لطيف عارضًا عليّ البحث في اتجاه آخر أو إعادة فحص عدد من الكتب والرسائل العلمية.
إنها قاعدة معروفة لمستخدمي برامج الذكاء الاصطناعي، خلقت في العامين الأخيرين حاجةً ماسة في جميع دول العالم -وخاصة في المهن الأكثر احتكاكًا بتلك التقنيات- إلى دورات تدريبية مطولة للتعرف على أفضل الممارسات لاستقاء المعلومات والوصول إلى المصادر الأصلية أو الخروج بتحليلات جيدة ومنتجات مفيدة، من دون السقوط في فخ "المسايرة" القائمة على بناء معلوماتي يمكن أن يكون مضللًا بنسبة 100%.
فالـ AI لن يقول لك "معرفش" ولن يخبرك بأن المحتوى العربي على الإنترنت "بعافية" ولن يقترح عليك بالضرورة العودة إلى الموسوعات والكتب الورقية للتأكد من صحة ما أهداه لك من هراء.
وعندما يتعلق الأمر بحقوق الناس والمعرفة القانونية التي يجب توخي أقصى درجات الاحتياط والحذر إزاءها، فعواقب استخدام الذكاء الاصطناعي باستسهال وتسرع سوف تكون وخيمة، خاصة في المحتوى العربي والتشريعات والأحكام المصرية والعربية، نظرًا لقلة المعروض أساسًا قياسًا بالمحتوى الأمريكي أو البريطاني أو الفرنسي أو الألماني، وبسبب عدم وصول البرامج إلى مستوى يؤهلها للإبحار بمهارة وسرعة بين الوثائق المتاحة بالفعل، فضلًا عن عدم إتاحة الغالبية الكاسحة من الأحكام القضائية والدراسات والمقالات من الأساس، أو رقمنتها فقط على بوابات نخبوية غير مفتوحة للعامة.
الكارثة الأخرى أنني لاحظت استخدام الذكاء الاصطناعي ببعض تلك البوابات، في عملية استنباط المبادئ من الأحكام القضائية. فكانت النتيجة "تأليف مبادئ" تغاير في كثير من الأحيان نص الحكم ذاته، فتنسب إلى المحاكم العليا ما لم تقله، أو تذكر بعض المبادئ باعتبارها جديدة وهي في الحقيقة قديمة ومتواترة.
وهنا نكون أمام عملية تضليل كاملة أساسها الاستخدام المتعسف للذكاء الاصطناعي في بناء المعرفة القانونية دون مراجعة دقيقة تفرضها الحساسية والخصوصية التي يتسم بها هذا المجال، وتعلقه بحقوق المواطنين وتقديم أفضل دفاع ممكن لهم، مما يسهم في حسن سير العدالة.
لم تعد أخلاقيات استخدام الذكاء الاصطناعي رفاهية، وتجاوزت بكثير اعتبارات حماية البيانات الشخصية والملكية الفكرية. لقد أصبحت ضرورة مهنية للحفاظ على عنصري "الأصالة والجديّة" في وظائف تصارع للحفاظ على مستقبلها.