المسؤولية القانونية للذكاء الاصطناعي بين تمايز المجالات وحدود الإعفاء المهني
لم يعد الذكاء الاصطناعي مجرد أداة تقنية مكمّلة للعمل البشري، بل أصبح عنصرًا أساسيًا في صنع القرار وإنتاج المعرفة وتحليل البيانات في مجالات تمس الحياة اليومية، بل وتصل إلى حد تقرير مصير الإنسان ذاته. فهو يدخل اليوم في الطب والجراحة، وإدارة الحروب والأسلحة الذكية، وكذلك في تقييم الموظفين وترقياتهم وإنهاء عقودهم.
المسؤولية القانونية للذكاء الاصطناعي بين تمايز المجالات وحدود الإعفاء المهني
هذا التطور المتسارع يفرض إعادة النظر في القواعد القانونية التقليدية، خصوصًا في مجال المسؤولية. ويثور التساؤل للمشرّع: هل يمكن سن قانون واحد ينظم قواعد المسؤولية للذكاء الاصطناعي، أم أن تمايز القطاعات التي يعمل فيها يقتضي بالضرورة اختلافًا جوهريًا في نطاق المسؤولية وأساسها؟ وهل يمكن أصلًا القبول بفكرة «قانون موحد للذكاء الاصطناعي» رغم اختلاف المخاطر، وطبيعة العلاقة المهنية، ودرجة تدخل الإنسان من قطاع لآخر.
نرى أن تمايز القطاعات التي يعمل فيها الذكاء الاصطناعي يقود بالضرورة إلى رفض فكرة «القالب القانوني الواحد»، فالمخاطر المحتملة، وطبيعة العلاقة المهنية، وحدود التدخل البشري تختلف جذريًا من مجال لآخر. وبالتالي يجب أن تعكس قواعد المسؤولية هذه الخصوصية، سواء في تحديد عناصر الخطأ، أو في تقدير رابطة السببية، أو في مدى إمكان الإعفاء استنادًا إلى السبب الأجنبي. ولتوضيح ذلك التباين، سنعرض نموذجين متباينين: قطاع النقل والمواصلات، والقطاع الطبي.
تمايز المسؤولية بين قطاعي النقل الذكي والتطبيب الذكي
تتباين قواعد المسؤولية التقصيرية في استخدام الذكاء الاصطناعي بين مجال النقل والمواصلات والمجال الطبي، إلى حد يستحيل معه جمعهما تحت مظلة تشريعية واحدة.
أولًا: قطاع النقل الذكي – حدود رقابة المشغّل/ المستخدم للمركبة ذاتية القيادة
لا تزال المنظومة القانونية للمركبات ذاتية القيادة تواجه غموضًا كبيرًا؛ بدءًا من مدى قدرة أنظمة القيادة الذاتية على التكيف مع لوائح المرور، وانتهاءً بتحديد من يعدّ “سائقًا” في تشريعات المرور: هل هو الشخص، أم النظام الذكي، أم الشركة المشغلة، أم مصمم برامج الذكاء الاصطناعي ؟ وتتفرع عن ذلك أسئلة أخرى حول المسؤولية الجنائية والمدنية والتعاقدية عند وقوع حادث: من يتحمل المسؤولية؟ السائق؟ الشركة المشغلة؟ الشركة المالكة؟ أم مطوّر البرنامج؟ وهل يمكن توزيع المسؤولية بينهم بالتضامن؟ وكيف تُعالج قضايا التأمين، والأمن السيبراني، وحماية البيانات الشخصية للمستخدمين ؟ بل وكيف يتعامل القانون مع الإشكالات الأخلاقية التي ظهرت بالفعل في بعض الدول خلال التشغيل التجريبي لهذا النوع من المركبات ؟
هذه التحديات تفرض وجود إطار تشريعي جاهز قبل الوصول إلى التشغيل الكامل، لضمان حماية جميع الأطراف، ومواكبة التطور المتسارع للذكاء الاصطناعي في قطاع النقل.
وفي المركبات ذاتية القيادة يتقلّص دور السائق تدريجيًا لصالح الخوارزم، الذي يصبح العنصر الأكثر تأثيرًا في اتخاذ القرار خلال عملية القيادة، وهنا تتأكد ضرورة التمييز بين مستويات الذكاء الصناعي الخمسة التي يعمل الذكاء الاصطناعي بها في المركبات ذاتية القيادة. ففي المستويين الرابع الخامس، حيث ينعدم التدخل البشري كليًا، نرى أن المسؤولية يجب أن تكون مفترضة على مصمّم البرنامج، لأن المشغل أو المستخدم لا يملك القدرة التقنية على تقييم صحة القرارات الآلية أو التحقق من سلامة الخوارزميات.
أما في المستويات الأقل ذكاءً، التي يتوافر فيها تدخل بشري من قرب أو سيطرة عن بعد، فإن المسؤولية تكون مفترضة على المشغل/ المستخدم، مع إمكانية إعفائه أو الرجوع بالمسؤولية على مصمّم البرنامج الذكي إذا ثبت أن التدخل البشري لم يكن مؤثرًا، أو أن الخوارزم اتخذ قراره بصورة مستقلة بالكامل عن السائق.
ثانيًا: القطاع الطبي – حدود رقابة الطبيب على أدوات الذكاء الاصطناعي
يختلف الوضع جذريًا في المجال الطبي؛ فمع توسّع الاعتماد على الأنظمة الذكية في التشخيص وتحليل البيانات ودعم القرار العلاجي، يظل الطبيب هو الفاعل المهني الأصلي وصاحب السيطرة القانونية والأخلاقية على العملية العلاجية. فمسؤولية الطبيب مسؤولية شخصية ومهنية مباشرة، ويُلزمه القانون بواجبات محددة في مقدمتها واجب الحيطة واليقظة والتحقق من المعلومات الطبية قبل الاعتماد عليها، وهي واجبات لا يمكن نقلها إلى الخوارزم أو تفويضها للذكاء الاصطناعي.
ومهما بلغت دقة الخوارزميات الطبية، فإنها لا تملك – في الوقت الراهن – القدرة على تقدير الحالة النفسية أو البدنية للمريض، ولا وزن الظروف السريرية غير الرقمية، ولا اتخاذ قرار علاجي متكامل دون رقابة بشرية. ومن ثمّ نرى أن اعتماد الطبيب اعتمادًا كليًا على النظام الذكي يُعد إخلالًا بواجب الحيطة، ويجعل خطأ الخوارزم مفترضًا في جانب الطبيب نفسه.
وعلى خلاف قطاع المركبات ذاتية القيادة – حيث قد تُفترض المسؤولية على مصمّم البرنامج في غياب التدخل البشري – فإن المسؤولية في المجال الطبي تبقى مفترضة على الطبيب دون غيره؛ لأنه هو من يقرر استخدام النظام الذكي والبرنامج والمُصنِّع، وهو من يحدد درجة الاعتماد عليه، وهو من يملك سلطة تقدير ملاءمة توصية الذكاء الاصطناعي للحالة السريرية المريض، وهو من يُفترض به كشف أي تناقض أو انحراف في مخرجات الخوارزم إن وجدت.
وعليه، فإن خطأ الخوارزم لا يُعد سببًا أجنبيًا معفيًا من المسؤولية؛ إذ يظل الطبيب مسؤولًا لأنه لم يتحقق من دقة المعلومة أو منح الخوارزم وزنًا يتجاوز حدود الأمان المهني.










