الدراسات البحثيةالمتخصصة

المسؤولية القانونية عن أخطاء الجراح الالي في المجال الطبي

Legal Responsibility for Errors of Surgical Robots in Medical Practice

اعداد : م م مروان صلاح مجيد علي – كلية الطب جامعة كركوك

المركز الديمقراطي العربي : –

  • مجلة الدراسات الاستراتيجية للكوارث وإدارة الفرص : العدد السابع والعشرون أيلول – سبتمبر 2025 – المجلد  7 – وهي مجلة دولية محكمة تصدر عن المركز الديمقراطي العربي المانيا- برلين.
  • تعنى المجلة مجال الدراسات التخصصية في مجال إدارة المخاطر والطوارئ والكوارث ،قضايا التخطيط الاستراتيجي للتنمية،  الجيوبولتيك، الجيواستراتيجية، الأمن الإقليمي والدولي، السياسات الدفاعية، الأمن الطاقوي والغذائي، وتحولات النظام الدولي، والتنافس بين القوى الكبرى، إضافة إلى قضايا التنمية، العولمة، الحوكمة، التكامل الأقتصادي ، إعداد وتهيئة المجال والحكامة الترابية , إضافة إلى البحوث في العلوم الإنسانية والاجتماعية.
Nationales ISSN-Zentrum für Deutschland
ISSN 2629-2572
Journal of Strategic Studies for disasters and Opportunity Management

 

للأطلاع على البحث من خلال الرابط المرفق : –

https://democraticac.de/wp-content/uploads/2025/09/%D9%85%D8%AC%D9%84%D8%A9-%D8%A7%D9%84%D8%AF%D8%B1%D8%A7%D8%B3%D8%A7%D8%AA-%D8%A7%D9%84%D8%A7%D8%B3%D8%AA%D8%B1%D8%A7%D8%AA%D9%8A%D8%AC%D9%8A%D8%A9-%D9%84%D9%84%D9%83%D9%88%D8%A7%D8%B1%D8%AB-%D9%88%D8%A5%D8%AF%D8%A7%D8%B1%D8%A9-%D8%A7%D9%84%D9%81%D8%B1%D8%B5-%D8%A7%D9%84%D8%B9%D8%AF%D8%AF-%D8%A7%D9%84%D8%B3%D8%A7%D8%A8%D8%B9-%D9%88%D8%A7%D9%84%D8%B9%D8%B4%D8%B1%D9%88%D9%86-%D8%A3%D9%8A%D9%84%D9%88%D9%84-%E2%80%93-%D8%B3%D8%A8%D8%AA%D9%85%D8%A8%D8%B1-2025.pdf

الملخص:

شهدت تكنولوجيا الذكاء الاصطناعي تطوراً كبيراً في المجال الطبي، لا سيما من خلال الروبوتات الجراحية التي تقدم دقة عالية وتقليل الأخطاء البشرية. ومع ذلك، يثير استخدامها تحديات قانونية وأخلاقية تتعلق بمسؤولية الأضرار الناتجة عنها. يوضح البحث أن الروبوت يظل أداة تنفيذية، والمسؤولية الجنائية تقع على الإنسان المشغل أو المبرمج أو المصنع، بينما المسؤولية المدنية تتوزع وفق قواعد الإهمال أو المنتج المعيب. كما يستعرض البحث تجارب مقارنة لتحديد المسؤولية وآليات التعويض. ويقترح تطوير تشريع خاص وتنظيم هيئات رقابية، إلى جانب اعتماد نظام المسؤولية المشتركة وصناديق تعويضية، وفرض معايير سلامة تقنية لتقليل الأخطاء. يهدف البحث إلى تحقيق توازن بين حماية المرضى وتشجيع الابتكار الطبي في ظل الثورة الرقمية.

Abstract 

Artificial intelligence technology has witnessed significant development in the medical field, particularly through surgical robots that provide high precision and reduce human errors. However, their use raises legal and ethical challenges concerning liability for resulting damages. The study highlights that the robot remains an executing tool, with criminal responsibility falling on the human operator, programmer, or manufacturer, while civil liability is distributed according to negligence or defective product rules. The research also reviews comparative experiences in determining liability and compensation mechanisms. It proposes developing specific legislation, establishing regulatory authorities, adopting a shared liability system, creating compensation funds, and enforcing technical safety standards to minimize errors. The study aims to balance patient protection with encouraging medical innovation amid the digital revolution.

المقدمة

شهد العالم في العقود الأخيرة ثورة تكنولوجية غير مسبوقة، كان من أبرز محاورها تطور الذكاء الاصطناعي وتطبيقاته العملية في المجالات المختلفة، وعلى رأسها المجال الطبي. من بين أبرز هذه التطبيقات، الروبوتات الجراحية، التي تمثل قفزة نوعية في تقنيات العلاج، حيث أصبحت قادرة على أداء مهام دقيقة ومعقدة كانت سابقًا حكراً على الإنسان. وتعتمد هذه الروبوتات على برامج ذكية متقدمة، حسّاسات دقيقة، وأجهزة تحكم متطورة تسمح لها بالقيام بالعمليات الجراحية بدقة عالية، وتقليل الأخطاء البشرية، وتحقيق نتائج طبية أكثر أمانًا وفعالية.

الروبوتات الجراحية ليست مجرد أدوات ميكانيكية، بل هي أنظمة ذكية قادرة على اتخاذ قرارات ضمن نطاق محدد، وتحليل بيانات لحظية أثناء إجراء العمليات. وقد ساهمت هذه الأنظمة في تطور مفهوم الرعاية الصحية، إذ أصبحت توفر دقة وفاعلية عالية في عمليات تتطلب مهارات يدوية استثنائية، كما لعبت دورًا في تقليص المضاعفات الطبية وتسريع التعافي بعد العمليات. ومع ذلك، فإن هذا التطور التقني الهائل يثير تساؤلات قانونية وأخلاقية جديدة، تتعلق بكيفية مساءلة الروبوتات الذكية عن الأضرار التي قد تنتج عن أفعالها أثناء العمليات، وهل يمكن اعتبار هذه الكيانات مسؤولة جنائيًا أو مدنيًا، أم أن المسؤولية تقع دائمًا على الإنسان المشغل أو المصمم أو المبرمج؟

يُنظر إلى الروبوت الجراحي في الوقت الحالي باعتباره أداة أو وسيلة تنفيذية، إذ لا يمتلك إرادة حرة، ووعيًا ذاتيًا، أو إدراكًا معنويًا يمكن نسب الفعل الإجرامي إليه. ومع ذلك، فإن الأخطاء التي قد تنتج عن عمله، سواء كانت بسبب خلل في البرمجة، أو سوء استخدام من قبل الطبيب أو المشغل، أو حتى بسبب عطل فني مفاجئ، يمكن أن تتسبب في أضرار جسيمة للمرضى. ومن هنا، يبرز دور القانون في وضع ضوابط دقيقة تحدد مسؤولية الأطراف البشرية، مع دراسة إمكانية تطوير آليات خاصة للتعامل مع الكيانات الذكية، بما يشمل مساءلة تقنية أو برمجية، أو إجراءات وقائية تهدف إلى الحد من الأخطاء قبل وقوعها.

كما يطرح ظهور هذه الروبوتات أسئلة جديدة تتعلق بالفلسفة الجنائية، حيث تتعارض مفاهيم العقوبة التقليدية، التي تقوم على الإيلام النفسي أو البدني، مع طبيعة الروبوتات التي لا تشعر ولا تدرك. ومن هنا، يبرز مفهوم “العقوبة التقنية أو البرمجية” كبديل وظيفي، يمكن من خلاله تعطيل الروبوت، أو إيقاف برامجه، أو تعديل برمجته بما يعكس فكرة الردع والإصلاح، دون الاعتماد على المبادئ التقليدية القائمة على الشعور والألم النفسي.

إن دراسة الحماية القانونية من أخطاء الروبوت الجراحي، سواء على مستوى المسؤولية الجنائية أو المدنية، تمثل أحد أهم التحديات القانونية في العصر الحديث. فهي تفرض إعادة التفكير في مفاهيم الخطأ، والسببية، والمسؤولية، والعقوبة، وتستلزم تطوير قواعد قانونية متقدمة، تأخذ في الاعتبار التفاعل بين الإنسان والآلة، وتوازن بين حماية المريض وتشجيع الابتكار الطبي. وبذلك يصبح الموضوع محورًا مركزيًا يجمع بين التقدم العلمي، والمفاهيم القانونية الحديثة، والاعتبارات الأخلاقية، ويشكل قاعدة أساسية لوضع تشريعات حديثة تنظم استخدام الذكاء الاصطناعي في المجال الطبي.

أهمية البحث

تنبع أهمية هذا البحث من حاجة التشريعات العربية، والعراقية على وجه الخصوص، إلى تطوير إطار قانوني واضح للتعامل مع أخطاء الروبوتات الجراحية، إذ أن معظم النصوص القانونية الحالية لم تواكب التطور التكنولوجي، ولا توفر حماية كافية للمرضى أو وضوحاً في تحديد المسؤولية بين الأطراف المعنية. ويكتسب البحث أهمية إضافية من كونه يسلط الضوء على الثغرات التشريعية والفلسفية المتعلقة بمفهوم المسؤولية الجنائية والمدنية في مواجهة كيانات ذكية غير بشرية، ويستعرض التجارب المقارنة في القانون الدولي والقانون المقارن، مما يوفر قاعدة علمية لتقديم توصيات عملية لتحديث التشريعات المحلية بما يوازن بين حماية الإنسان وتشجيع الابتكار الطبي.

إشكالية البحث

تتمحور إشكالية البحث حول التساؤل الرئيس:

كيف يمكن تحديد المسؤولية القانونية عن أخطاء الروبوت الجراحي في ظل غياب نصوص صريحة في التشريعات العراقية والعربية، وضمان حماية الإنسان وتحقيق العدالة بين جميع الأطراف المعنية؟
ومن هذه الإشكالية تتفرع أسئلة فرعية عدة، منها:

  • هل يمكن تحميل الروبوت الجراحي المسؤولية الجنائية أو المدنية عن أفعاله؟
  • ما مدى تأثير تدخل الإنسان، سواء كان طبيبًا، مبرمجًا، أو جهة تشغيلية، في تحديد المسؤولية؟
  • ما هي الآليات القانونية والفنية لتقليل الأخطاء وضمان حماية المرضى؟

منهجية البحث

يعتمد البحث على المنهج التحليلي والمقارن، إذ يتم دراسة النصوص القانونية العراقية والعربية المتعلقة بالمسؤولية المدنية والجنائية، وتحليل القواعد العامة في القانون المدني وقانون العقوبات، مع استعراض التجارب العملية في عدد من الدول، مثل الولايات المتحدة الأمريكية، فرنسا، اليابان، ودول الخليج، لتوضيح كيفية مواجهة أضرار الروبوتات الجراحية. كما يتم الاستناد إلى الفقه المقارن في مجال المسؤولية عن الأخطاء الناتجة عن الذكاء الاصطناعي، لبيان الفجوة التشريعية القائمة وتقديم مقترحات لتطوير القوانين بما يضمن توازنًا بين الابتكار الطبي وحماية الإنسان.

هدف البحث

يهدف البحث إلى تحديد الإطار القانوني الأمثل لمساءلة الروبوت الجراحي وأصحاب العلاقة البشرية معه، بما يشمل الطبيب المشغل، المبرمج، المصنع، والمؤسسة الصحية، مع تقديم حلول وآليات عملية للتعويض عن الأضرار الناتجة عن أخطاء الروبوتات، وسبل الوقاية منها من خلال تنظيم قانوني واضح، وضوابط تقنية ورقابية دقيقة.

خطة البحث:

للإجابة عن الإشكالية السابقة فقد تم تقسيم هذا البحث كالآتي:

المبحث الأول: الأساس القانوني للحماية من أخطاء الروبوت الجراحي

المبحث الثاني: التعويض عن أخطاء الروبوت الجراحي.

المبحث الأول
الأساس القانوني للحماية من أخطاء الروبوت الجراحي

يقوم الروبوت الجراحي ببعض الأعمال العلاجية الطبية والجراحية، وفق البرنامج لمصمم له، وقد عرفت دائرة المعارف البريطانية العمل الطبي بأنه مجموعة المعارف والإجراءات التي تتعلق بالمرض وعلاجه في الإنسان وعرفه قاموس لاروس بأنه العلم والفن، الذي يقصد به حفظ الصحة واستعادتها.

ولبيان ذلك سنقسم هذا المبحث على مطلبين، سنتطرق في المطلب الأول لدراسة مظاهر الحماية الجنائية من الروبوت الجراحي في قانون العقوبات، أما المطلب الثاني فسنتطرق فيه لدراسة تجريم أفعال كأداة لإرتكاب الجرائم.

المطلب الأول
مظاهر الحماية الجنائية من الروبوت الجراحي في قانون العقوبات

تُعدّ الحماية الجنائية من المفاهيم الجوهرية في السياسة الجنائية الحديثة، إذ تهدف إلى صون القيم والمصالح الأساسية التي يحميها القانون من أي اعتداء مادي أو معنوي، سواء صدر هذا الاعتداء عن الإنسان الطبيعي أو عن أدوات ووسائط تقنية مستحدثة. ومع التطور الهائل في الذكاء الاصطناعي، وتحديداً في الروبوتات الجراحية التي تمارس أعمالاً كانت حكراً على الإنسان، أصبح التساؤل مطروحاً حول مدى إمكانية مساءلة الروبوت جنائياً عن الأضرار التي قد تنتج عن أفعاله أثناء العمليات الجراحية، ومدى انطباق قواعد المسؤولية والعقوبة عليه([1]).

تقوم العقوبة الجنائية، في فلسفتها التقليدية، على مبدأ الإيلام الشخصي، أي أن الغاية من العقوبة ليست فقط الردع، بل إيقاع نوع من الألم النفسي أو البدني على الجاني ليشعر بخطأ فعله ويكف عن تكراره. وهذا المفهوم يرتبط بصفة الشعور والإدراك والوعي التي لا تتوافر إلا في الإنسان الطبيعي. فالروبوت الجراحي، رغم تمتّعه بذكاء اصطناعي وقدرة تحليلية مذهلة، يظل كياناً غير حي لا يمتلك إحساساً أو وعياً ذاتياً أو إرادة حرة يمكن نسب الفعل الإجرامي إليها، مما يجعل فكرة “الإيلام” العقابي في معناها التقليدي غير قابلة للتطبيق عليه.

ولهذا، فإن العقوبات المقيدة للحرية أو البدنية لا تحقق هدفها في مواجهة الروبوت، لأنه لا يشعر بفقدان الحرية، ولا يتألم من الحبس أو الإعدام. كما أن فكرة الردع العام والخاص التي تهدف العقوبة إلى تحقيقها تفقد معناها في حق الروبوت؛ إذ إن الردع يقوم على الخوف من العقوبة، والروبوت لا يخاف ولا يتأثر عاطفياً بالجزاء، كما أنه لا يمكن إصلاحه أو إعادة تأهيله من خلال البرامج العقابية التقليدية، لأنه لا يملك ذاتاً أخلاقية قابلة للإصلاح أو الندم.

ومع ذلك، فإن المنظور الحديث للمسؤولية والعقوبة يفتح الباب أمام أنماط جديدة من الجزاءات التقنية أو البرمجية التي يمكن أن تتلاءم مع طبيعة الكيانات الذكية. فعلى سبيل المثال، يمكن أن تتحقق فكرة “الإيلام” في نطاقها الوظيفي من خلال تعطيل الروبوت الجراحي عن العمل، أو إيقاف برامجه، أو إتلاف الذاكرة التشغيلية المسؤولة عن الخطأ. وهذا يشكّل نوعاً من الردع البرمجي وليس النفسي، ويُشبه من حيث الجوهر “الإعدام الوظيفي” أو “الإيقاف المؤقت” في النظم التأديبية([2]).

كما يمكن النظر إلى هذا الإجراء باعتباره تأهيلاً تقنياً وليس تأهيلاً إنسانياً، وذلك عبر تحديث البرنامج الذكي الذي يوجّه الروبوت، وإزالة الخلل الذي تسبب في الخطأ الطبي، سواء كان ناتجاً عن عطل تقني، أو خلل في البرمجة، أو هجوم فيروسي. ومن ثم، فإن إعادة البرمجة أو تطوير النظام التشغيلي يُعد بمثابة “إعادة إصلاح سلوك الجاني” في المفهوم المجازي للعقوبة. وهذا يمثل نموذجاً لما يمكن تسميته بالتفريد البرمجي للعقوبة، حيث تُكيّف العقوبة وفق طبيعة الكيان محلّ المساءلة، وبما يتناسب مع قدراته التقنية ووظيفته في المجتمع.

ويُضاف إلى ذلك أن الخطأ الذي يرتكبه الروبوت الجراحي قد يكون له أسباب خارجية أو داخلية تؤثر في تحديد المسؤولية والعقوبة. فإذا ثبت أن الروبوت ارتكب الخطأ بسبب فيروس إلكتروني أصابه أو خلل في التحديثات البرمجية، فإن هذا يشبه من الناحية المفهومية حالة “الإكراه المادي” أو “الجنون” في الإنسان الطبيعي، إذ يُفقد الروبوت قدرته على التحكم في سلوكه أو إدراك نتائجه. ومن ثمّ، يمكن أن يؤدي هذا إلى تخفيف المسؤولية أو إعفاء الروبوت من الجزاء التقني المباشر، مع تحميل المسؤولية للجهة المشغلة أو المصممة أو الجهة الطبية التي استخدمته دون رقابة كافية.

ومن هنا، تتحدد مظاهر الحماية الجنائية في ثلاث مستويات رئيسة([3]):

أولاً، حماية الإنسان من أفعال الروبوت الجراحي، من خلال وضع ضوابط قانونية دقيقة تحدد متى يكون الفعل المنسوب للروبوت خطأً جنائياً.

ثانياً، تحديد الإطار القانوني لمسؤولية الروبوت، سواء اعتُبر أداة في يد الإنسان أم كياناً مستقلاً يتخذ قراراته ذاتياً.وثالثاً، إيجاد عقوبات أو تدابير خاصة تتلاءم مع طبيعة الروبوت، كالوقف البرمجي، أو مصادرة الجهاز، أو منعه من التشغيل، أو إخضاعه للمراجعة التقنية الإلزامية.

وفي ضوء ذلك، لا يمكن للمشرّع أن يقرر الحماية الجنائية من أضرار الروبوت الجراحي إلا بعد تحديد دوره في ارتكاب الجريمة: هل هو مجرد أداة في يد الجراح؟ أم منفّذ لبرنامج خاطئ وضعه مبرمج بشري؟ أم كيان مستقل اتخذ القرار الجراحي دون تدخل مباشر؟ فالإجابة على هذا التساؤل تمثل الأساس الذي تُبنى عليه المسؤولية الجنائية الرقمية، ومن ثمّ العقوبة المناسبة التي تراعي طبيعة الذكاء الاصطناعي والوظيفة الطبية للروبوت الجراحي.

المطلب الثاني

تجريم أفعال كأداة لإرتكاب الجرائم

لا شك أن الروبوت أداة أو آلة – برغم ما يتمتع به من الذكاء والإدراك – وبالتالي يخضع كونه آلة لإرادة خارجية إما المبرمج أو المستخدم المشغل، فدور الروبوت هنا هو تنفيذ رؤية وإرادة المبرمج أو المشغل، مما لا يخرج معه الأمر عن حالتين؛ الأولى أن يتعمد المبرمج أو المشغل استخدام الروبوت الجراحي في ارتكاب جريمة معينة وتكون الجريمة هنا عمدية، أو أن يكون ارتكاب تلك الجريمة عن خطأ أو اهمال في الاستخدام أو الصيانة، وتكون الجريمة عن طريق الخطأ ([4]). فالروبوت هنا مجرد وسيلة أو أداة لارتكاب الجريمة، كالسكين في جريمة القتل، فالمشرع الجنائي لا يُعول هنا على أداة أو وسيلة ارتكاب الجريمة إلا إذا تطلب ذلك في جرائم محددة ([5])، وبالتالي لا تقوم المسؤولية الجنائية في حق الروبوت، ولا تُنسب إليه تهمة ([6]) “. فلا تؤهله قدراته القانونية والفنية لتحمل المسؤولية الجنائية، فالإنسان قد لا يسأل جنائياً عن أفعاله كالمجنون([7]). وبعد المشغل للروبوت أو من لديه القدرة على التحكم فيه هو الفاعل الأصلي للجريمة ([8]) وفقا لصورة الفاعل المعنوي ويمكن تطبيق نظرية الفاعل المعنوي على الأخطاء الصادرة من الروبوت، والتي ينتج عنها ضرر باعتباره أداة إذا أساء المتحكم استخدام الروبوت، لأجل الارتكاب جريمة ما ([9])، حيث تتفق سمات الفاعل المعنوي وطبيعة الروبوت، من حيث إنه ناقص الوعي والإدراك، يخضع لإرادة شخص آخر، ويجوز لنا إعمال القياس هنا فهو غير محظور في القواعد غير العقابية والتي تتعلق بالأهلية وليس بالعقاب، بالإضافة لعدم وجود نص جنائي يحصر صور الفاعل المعنوي، أو أن يقصره علي الشخص الطبيعي دون غيره، وبالتالي يسأل الفاعل المعنوي جنائيا مسئولية كاملة عن تصرفات الروبوت، باعتباره المتحكم فيه أو المسيطر عليه، نتائج تصرفات الروبوت كنتائج محتملة، لتوافر القصد الجنائي الاحتمالي ([10]) كان يقوم المصمم، أو المبرمج للروبوت بتصميم البرنامج في مصنع بغرض إحراق المصنع، وأثناء تنفيذ الروبوت للجريمة، يقاومه أحد الأشخاص ويمتعه من استكمال فعله مما يدفع الروبوت إلى قتله، وبالتالي يسأل المبرمج عن ارتكاب جريمة حريق عمدي، كما يسأل عن جريمة القتل كنتيجة محتملة لجريمة الحريق؛ حيث كان في مقدوره ومن واجبه توقع حدوث القتل.

كما يسأل المبرمج أو المصنع جنائياً، حال قيام مطور برمجيات الروبوت أو مصممه بتصميم برنامج بغرض جريمة ما باستخدام الروبوت، كأن يوضع برنامج لإشعال النيران في مكان ما، وينفذ الروبوت البرنامج المطلوب منه متى كان المكان قارغا من الأشخاص، فالروبوت هو الذي أشعل النيران، إلا أن المبرمج هو المسؤول عنها، كما يسأل منتج أو مصلح الروبوت عما يترتب من أفعال نتيجة لعيب في الصناعة، كأن تكون الجريمة لنتيجة خطأ ما في برمجة الروبوت أو في تكوينه الداخلي. وفي ضوء ذلك، يجب على المصنع الالتزام بمعايير الجودة ومطابقة المواصفات المطلوبة في الروبوت، وأن يتوافق الروبوت مع قيم وتقاليد المجتمعات”. فلا يجوز أن يكون عبارة عن دمية لأغراض جنسية.

كما يسأل مستخدم الروبوت جنائياً إذا أساء استخدام الروبوت، ترتب عليها حدوث جريمة جنائية معاقب عليها قانونا، فالمستخدم هنا ليس من قام ببرمجة الروبوت، وإنما يستخدمه لمصلحته الشخصية، كأن يشتري روبوت خادم، ويعطي له أوامر بمهاجمة أي شخص يدخل المنزل، وينفذ الروبوت المطلوب منه، وبالفعل هنا يكون الروبوت هو من قام بالاعتداء، بينما المستخدم هو الجاني الفعلي، وذلك بالقياس عر من يأمر كلبه بمهاجمة أي شخص يحاول التسلل للمنزل، فالاعتداء الذي يرتكبه حيوان ما بأمر من صاحبه، في الواقع هو اعتداء من صاحب الحيوان ([11]).

ونكون هذا أمام عدة احتمالات وهو الشخص الذي لا يقوم ببرمجة الروبوت بل هو من يقوم باستخدامه لتنفيذ مصالحه الخاصة، فيشتري المستخدم روبوت خادم مصمم لتنفيذ أي أمر من صاحبه، ويحدد الروبوت مستخدمه أو صاحبه علي أنه الموجه، فيأمره هذا الموجه بمهاجمة من يتسلل ليلاً لأسوار المنزل فيقوم الروبوت بتنفيذ الأمر فيقتل المتسلل، وفي هذه الحالة فإن من قام بالتنفيذ هو الروبوت ولكن المستخدم هو من أعطي الأمر ومن ثم فهو المسئول جنائياً.

كما يتوافر الركن المعنوي للمبرمج في الحالة الأولى، ولدى المستخدم أو صاحب الروبوت في الحالة الثانية، التوافر نية ارتكاب الجريمة لديهم “.

وهنا نناشد المشرع العراقي بضرورة التدخل والنص صراحة على اعتبار الروبوت أداة أو آلة لتنفيذ الجرائم، حال وجود مبرمج يصمم نظام ما لارتكاب جرائم محددة أو مستخدم يسئ استخدام الروبوت لمصالحه الشخصية.

ولقد بدأت بعض النظم القانونية تشهد حالات عملية تطرح إشكاليات جديدة بشأن دور الروبوت كأداة لارتكاب الجريمة، ومسؤولية الإنسان الذي يقوم بتشغيله أو برمجته. فعلى سبيل المثال، شهدت الولايات المتحدة الأمريكية عام 2016 حادثة وفاة أحد المرضى أثناء عملية أجريت بواسطة روبوت جراحي من نوع “دا فنشي” (Da Vinci Surgical System) نتيجة خلل في البرمجة، حيث قررت المحكمة تحميل الشركة المنتجة والمشغّل المسؤولية المدنية والجنائية معاً، معتبرةً أن الروبوت ليس سوى أداة تنفيذ لا تملك إرادة ولا شعوراً، وأن الخطأ التقني يُسأل عنه المبرمج أو المستخدم البشري لا غير ([12])

وفي واقعة مشابهة في اليابان عام 2018، تسبب روبوت صناعي في مقتل عامل أثناء عمله بسبب خلل في نظام الأمان، فتمت مساءلة المشغّل والمصنّع جنائياً بتهمة الإهمال المؤدي إلى الوفاة، بينما لم تُنسب أي مسؤولية مباشرة للروبوت باعتباره وسيلة مادية لتنفيذ الفعل لا يتمتع بصفة الشخص القانوني ([13])

أما في السياق العربي، فقد أشار د. خالد عبد اللطيف محمد إلى أنّ الروبوتات الذكية، رغم تطورها الكبير، لا تزال تُعامل قانوناً معاملة “الأدوات المادية” التي يستخدمها الإنسان، وأنها لا تصلح لتحمل المسؤولية الجنائية، لأن المسؤولية لا تقوم إلا على الإرادة والتمييز والوعي، وهي خصائص تفتقر إليها الآلة مهما بلغت درجة ذكائها ([14]). كما يؤكد د. عبد الرحمن إبراهيم الشاعر أنّه في حالة استخدام الروبوت في ارتكاب جريمة عمدية، فإن المسؤولية تقع على الإنسان الذي قام بالتحكم فيه أو إعطائه الأوامر، سواء كان مبرمجاً أو مستخدماً أو مالكاً له، إذ يُعدّ هو “الفاعل المعنوي” الذي يُسأل عن نتائج أفعاله طبقاً للقواعد العامة في قانون العقوبات ([15])

وانطلاقاً من ذلك، يتضح أن المسؤولية الجنائية في أفعال الروبوت الجراحي لا يمكن أن تُفهم بمعزل عن الإرادة البشرية التي تقف وراء تشغيله أو تصميمه أو توجيهه، وأن مساءلة الروبوت نفسه لا أساس لها في المنظور القانوني التقليدي، ما لم يُقرّ المشرّع مستقبلاً نظاماً خاصاً للمساءلة التقنية. ومن ثمّ، فإن معالجة أخطاء الروبوت الجراحي تقتضي مساءلة الأشخاص الطبيعيين أو المعنويين القائمين على برمجته وتشغيله أو صيانته، مع ضرورة إدخال تعديلات تشريعية عراقية تواكب هذا التطور وتحدد المسؤولية بشكل واضح منعاً لتضارب الاجتهادات القضائية.

المبحث الثاني
التعويض عن أخطاء الروبوت الجراحي

نتحدث هنا عن التعويض كأحد صور الحماية القانونية من أخطاء الروبوت في القانون المدني، لجبر الضرر الواقع على المريض وذويه، ثم نتبعها بالحديث عن آليات مواجهة تلك الأخطاء والحد منها من وجهة نظرنا.

لذلك سنقسم هذا المبحث على مطلبين، سنتطرق في المطلب الأول لدراسة التعويض عن أخطاء الروبوت الجراحي، أما المطلب الثاني فسنتطرق فيه لدراسة آليات الحد من أخطاء الروبوت الجراحي ومواجهتها.

المطلب الأول
التعويض عن أخطاء الروبوت الجراحي

تُعد المسؤولية المدنية الناشئة عن استخدام الروبوتات الجراحية من أبرز الإشكاليات التي تواجه الفكر القانوني المعاصر، إذ يلتقي فيها التقدّم التكنولوجي بالضمانات القانونية التقليدية، مما يفرض إعادة النظر في مفاهيم الخطأ والسببية والتعويض. فالتطور السريع في تقنيات الذكاء الاصطناعي جعل الروبوت الجراحي يؤدي مهاماً دقيقة كانت سابقاً حكراً على الإنسان، الأمر الذي يثير تساؤلات حول من يتحمل تبعة الخطأ عند وقوع ضرر للمريض: هل هو الطبيب، أم الشركة المصنعة، أم النظام البرمجي ذاته، أم المؤسسة الصحية التي استخدمت الروبوت؟

أولاً: في إثبات الخطأ ورابطة السببية

من المقرر فقهاً وقضاءً أن عبء إثبات الخطأ يقع على المضرور، عملاً بالقواعد العامة في المسؤولية التقصيرية، ما لم يكن الالتزام من نوع الالتزام بتحقيق نتيجة. وفي المجال الطبي، عادة ما يكون التزام الطبيب هو التزام ببذل عناية، باستثناء بعض العمليات التي يُفترض فيها تحقيق نتيجة محددة، مثل عمليات التجميل أو تركيب الأطراف الصناعية.

وفي حالة الروبوت الجراحي، لا يختلف المبدأ، إلا أن إثبات الخطأ يصبح أكثر تعقيداً بسبب تعدد الأطراف المشتركة في العملية الطبية (الطبيب، الفريق الفني، الشركة المنتجة، والمبرمج). فقد يكون الخطأ في الإشراف البشري على الجهاز، أو في الصيانة، أو في برمجة النظام الذكي ذاته.

فعلى سبيل المثال، أظهرت قضية “Intuitive Surgical Inc. v. Taylor” أمام محكمة واشنطن (2017) أن خطأ البرمجة في روبوت “دا فنشي” الجراحي أدى إلى نزيف داخلي للمريض، فقضت المحكمة بمسؤولية الشركة المنتجة عن عيب التصميم([16])

أما في الإطار العربي، فشهدت محكمة أبوظبي المدنية (2022) نزاعًا مشابهًا، حين تسبب خلل في روبوت جراحي بضرر لمريض، فقضت المحكمة بمسؤولية المستشفى بالتضامن مع الطبيب، باعتبار أن الخطأ في ضبط إعدادات الجهاز يعد إهمالاً في الرقابة والإشراف الطبي([17])

ويُستفاد من هذه الأحكام أن العلاقة السببية في أضرار الروبوت الجراحي تتوزع بين العنصر البشري والآلة، ولا يمكن القطع بانتفاء مسؤولية أحدهما إلا بتحقيق فني متخصّص.

ثانياً: مسؤولية الطبيب الجراح بوصفه “متبوعًا

في حال وقوع ضرر ناتج عن خطأ الروبوت الجراحي أثناء العملية، فإن الطبيب الجراح قد يُسأل مسؤولية غير مباشرة على أساس المسؤولية عن فعل التابع، تأسيساً على المادة (219) من القانون المدني العراقي رقم (40) لسنة 1951، التي تقرر أن المتبوع يسأل عن الضرر الذي يحدثه تابعه بعمله غير المشروع متى كان واقعاً منه حال تأدية وظيفته أو بسببها.

ويُفهم من ذلك أن الطبيب الجراح يُعتبر متبوعاً للروبوت طالما أن الأخير يؤدي مهامه بتوجيهه وإشرافه. فالروبوت في هذه الحالة يُعد أداة تنفيذية لتعليمات الطبيب، تماماً كما يسأل الطبيب عن خطأ مساعده البشري.
ويؤكد الفقه الحديث هذا الاتجاه، إذ يرى أن الروبوت الجراحي لا يمكن أن يتمتع بالشخصية القانونية أو الأهلية الجنائية، مما يجعل المسؤولية تقع على من يملك السيطرة الفعلية عليه. وفي ذلك يذهب الدكتور عبد الرحمن إبراهيم الشاعر إلى أن “الروبوت لا يُسأل عن فعله لأنه لا يتمتع بإرادة حرة، وإنما يُسأل من يتحكم فيه سواء أكان طبيباً أو مبرمجاً أو مؤسسة صحية”([18])

ثالثاً: مسؤولية المنتج والمصنّع

أما إذا كان الخطأ ناجماً عن عيب في تصميم الروبوت أو في برنامجه، فإن المسؤولية المدنية تنتقل إلى الشركة المصنعة، استناداً إلى نظرية المسؤولية عن المنتج المعيب، وهي نظرية مستقرة في القانون المقارن وتجد سندها في الفقه العراقي من خلال المواد (202 وما بعدها) من القانون المدني التي تنص على التزام من سبب ضرراً بفعله أو بآلة تحت تصرفه بالتعويض.

ويستند هذا الاتجاه إلى فكرة الخطأ المفترض، التي تُخفّف عبء الإثبات عن المضرور، إذ يُكتفى بإثبات وجود الضرر والعلاقة السببية دون الحاجة إلى إثبات الخطأ الفني في التصنيع.

وقد أقرّت محكمة العدل الأوروبية هذا المبدأ في القضية “C-621/15 N.W v. Medtronic” عام 2017، حين حمّلت الشركة المنتجة مسؤولية الأضرار الناتجة عن خلل برمجي في جهاز طبي آلي لم يبلغ مستوى الأمان المتوقع ([19])

وفي الإطار العربي، يمكن تطبيق ذات المنطق القانوني على حالات استخدام الروبوت الجراحي، بحيث يسأل المصنع عن الأضرار الناتجة عن أي خلل في نظام التشغيل أو المكونات التقنية، ما لم يثبت أن المستخدم أو الطبيب أساء التشغيل أو خالف تعليمات الاستخدام.

رابعاً: فكرة الصندوق التعويضي

ونظراً لتعدد أطراف العلاقة وتعقيد الإثبات، يرى الفقه الحديث ضرورة استحداث صندوق خاص لتعويض أضرار الذكاء الاصطناعي، يُموّل من الشركات المنتجة والمستشفيات وشركات التأمين، بحيث يُعوّض المتضررين في الحالات التي يصعب فيها تحديد المسؤولية بدقة.

ويقترح الفقه العراقي أن يُنظم هذا الصندوق بموجب تشريع خاص يصدر استناداً إلى المبادئ العامة في المادة (202) من القانون المدني العراقي، على غرار الصندوق الوطني لتعويض أضرار المركبات أو الكوارث الطبيعية ([20])

هذا النموذج معمول به في الاتحاد الأوروبي بموجب مقترح “Artificial Intelligence Act” (2021)، الذي نصّ على إمكانية إنشاء آلية تأمين إلزامي لتغطية الأضرار الناتجة عن الذكاء الاصطناعي عالي الخطورة، مثل الروبوتات الجراحية.

خامساً: أمثلة تطبيقية ودروس مقارنة

  • في فرنسا: ألزمت محكمة باريس الإدارية (2019) مستشفى حكومياً بدفع تعويض قدره 120 ألف يورو لمريضة فقدت حاستها العصبية بسبب خطأ في ذراع روبوت جراحي، واعتبرت أن المستشفى مسؤول مدنياً باعتباره الجهة المشغلة والمشرفة على الجهاز، رغم سلامة البرنامج من الناحية التقنية.
  • في اليابان: أصدرت وزارة الصحة عام 2021 توجيهاً بإلزام المستشفيات التي تستخدم أنظمة جراحية روبوتية بتوثيق جميع الأوامر والأخطاء البرمجية أثناء العمليات، بهدف تسهيل تحديد المسؤولية في حال وقوع ضرر للمريض.
  • في الإمارات والعراق: لم تُسجَّل حتى الآن قضايا منشورة تتعلق مباشرة بالروبوتات الجراحية، غير أن المبادئ العامة في المسؤولية الطبية والمدنية يمكن تطبيقها على هذه الحالات، لا سيما ما ورد في قانون الأطباء العراقي رقم (81) لسنة 1984 من التزام الطبيب بالعناية والحرص، وما نصّ عليه قانون العقوبات رقم (111) لسنة 1969 من تجريم الإهمال الطبي والإضرار غير العمدي بالغير.

من الواضح أن المشرع العراقي – شأنه شأن معظم التشريعات العربية – لم يتطرق بعد صراحةً إلى تنظيم مسؤولية الروبوت الجراحي، مما يستوجب إدخال تعديلات تشريعية تُراعي خصوصية الذكاء الاصطناعي في المجال الطبي. فالتعويض في هذه الحالات لا ينبغي أن يظل أسيرًا للنماذج التقليدية للمسؤولية، بل يجب أن يُبنى على فكرة التوزيع العادل للمخاطر بين الطبيب، والمصنع، والمؤسسة الصحية، والمريض.

ومن ثم، فإن إنشاء نظام تعويض مختلط يجمع بين المسؤولية التقصيرية ونظام التأمين الإجباري يمثل خطوة ضرورية لتكريس العدالة الطبية في عصر الذكاء الاصطناعي، وضمان عدم ضياع حقوق المرضى نتيجة صعوبة الإثبات أو تداخل الأسباب التقنية.

المطلب الثاني:

آليات الحد من أخطاء الروبوت الجراحي ومواجهتها

لقد أفرزت الثورة التكنولوجية والذكاء الاصطناعي واقعاً جديداً في المجال الطبي، حيث أصبحت الروبوتات الجراحية تمارس مهاماً دقيقة كانت حتى وقت قريب من اختصاص الإنسان وحده. غير أن هذا التطور، رغم فوائده العظيمة في تقليل نسبة الأخطاء البشرية ورفع كفاءة العمليات الجراحية، أوجد تحديات قانونية تتعلق بحدود المسؤولية الجنائية والمدنية عند وقوع خطأ من الروبوت الجراحي. ولعلّ من أهم هذه التحديات غياب الإطار التشريعي المنظّم لاستخدام الذكاء الاصطناعي في المجال الطبي في الدول العربية، وخصوصاً في العراق، مما يستوجب البحث في الآليات القانونية والفنية للحد من هذه الأخطاء ومواجهتها.

أولاً: الإطار التشريعي العربي لمواجهة أخطاء الروبوت الجراحي

تشهد التشريعات العربية تبايناً واضحاً في موقفها من تنظيم تقنيات الذكاء الاصطناعي، إذ لا تزال معظم القوانين تقتصر على القواعد العامة في المسؤولية المدنية والجنائية، دون معالجة خاصة لمسؤولية الروبوتات الطبية. ففي القانون العراقي، لا يوجد نص صريح ينظم مسؤولية الروبوت الجراحي أو الذكاء الاصطناعي الطبي، ويُرجع الفقه العراقي هذه المسائل إلى القواعد العامة في المسؤولية التقصيرية المنصوص عليها في المواد (202–210) من القانون المدني رقم (40) لسنة 1951، وإلى أحكام قانون العقوبات رقم (111) لسنة 1969 في حالة الخطأ الجنائي ([21])

أما في مصر، فقد تناول المشرّع بعض الجوانب من المسؤولية عن المنتجات الطبية ضمن قانون حماية المستهلك رقم (181) لسنة 2018، الذي نص في المادة (65) على مسؤولية المنتج والمورد عن الأضرار الناشئة عن عيوب التصنيع أو التركيب أو التشغيل([22]). ويمكن تطبيق هذه القواعد على الشركات المنتجة للروبوتات الطبية في حال ثبوت أن العيب البرمجي أو الميكانيكي كان سبباً مباشراً في وقوع الضرر.

وفي المملكة العربية السعودية، أصدرت الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) بالتعاون مع وزارة الصحة عام 2022 “الإطار الوطني للذكاء الاصطناعي المسؤول”، الذي تضمّن التزام الجهات الصحية بمعايير الشفافية والرقابة التقنية على أنظمة الذكاء الاصطناعي، خاصة في التطبيقات الجراحية([23]). كما نصّ نظام مزاولة المهن الصحية في مادته (28) على مسؤولية الممارس أو الجهة عن الأخطاء المهنية ولو كانت بسبب استخدام أجهزة تقنية ([24])

أما الإمارات العربية المتحدة فقد اتخذت خطوات أكثر تقدماً، إذ أصدرت الاستراتيجية الوطنية للذكاء الاصطناعي لعام 2031، وأقرت اللائحة التنفيذية لقانون تنظيم المهن الطبية رقم (5) لسنة 2019، التي أوجبت موافقة مسبقة من وزارة الصحة قبل استخدام أي نظام جراحي ذكي في المستشفيات، كما ألزمت مقدمي الخدمة بالتأمين ضد أخطاء الأجهزة الجراحية الذكية ([25])

من هنا، فإنّ الوضع التشريعي العربي لا يزال في طور التأسيس، ويُلاحظ أن المشرعين لم يضعوا بعد نظاماً خاصاً للمسؤولية الجنائية عن أخطاء الروبوتات الجراحية، وهو ما يدفع إلى المطالبة بسنّ تشريع خاص يُسمى مثلاً “قانون استخدام الذكاء الاصطناعي في المجال الطبي”، يتضمن تحديد المسؤوليات، وآليات الرقابة، ومعايير السلامة التقنية.

ثانياً: الآليات القانونية والفنية للحد من الأخطاء

يمكن حصر أهم آليات الوقاية والمواجهة في بعدين أساسيين:

  1. البعد القانوني والتنظيمي: ينبغي على المشرّع أن يتبنى تشريعاً خاصاً ينظم استخدام الروبوتات الجراحية، على غرار تشريعات السلامة الطبية. ومن أهم المقترحات في هذا المجال:
    • إلزام الشركات المنتجة بتسجيل برامج الذكاء الاصطناعي الطبية لدى جهة مختصة.
    • اشتراط الترخيص المسبق قبل استخدام الروبوت في أي عملية جراحية كبرى.
    • النص على إنشاء صندوق للتأمين ضد أخطاء الروبوتات الطبية يتولى تعويض المتضررين.
    • تحديد مسؤولية الطبيب المشغل والمبرمج والمصنع بشكل تضامني في حالة وقوع الضرر.

وقد اقترح الباحث مؤيد عبد الرزاق حسن في دراسته “المسؤولية القانونية عن أخطاء الذكاء الاصطناعي الطبي” أن يتبنى المشرع العراقي نموذج “المسؤولية المشتركة” التي تجمع بين المسؤولية العقدية للطبيب والمسؤولية التقصيرية للمصنع والمبرمج ([26])

  1. البعد الفني والرقابي: إلى جانب التشريعات، ينبغي تفعيل آليات رقابية وفنية لمنع الخطأ قبل وقوعه، منها:
    • إلزام الشركات بإجراء اختبارات السلامة البرمجية للروبوتات الطبية بصورة دورية.
    • تدريب الأطباء والممرضين على التشغيل السليم للروبوت الجراحي وتوثيق الأوامر الصادرة له إلكترونياً.
    • إيجاد سجل رقمي (صندوق أسود طبي) يسجل جميع أوامر التشغيل والأخطاء البرمجية أثناء العملية الجراحية، ليكون دليلاً قضائياً في حال حدوث ضرر.
    • تأهيل مهندسين وفنيين متخصصين في الذكاء الاصطناعي الطبي ليعملوا كجهة وسيطة بين الطب والقانون عند وقوع خطأ تقني.

ثالثاً: المقترحات التشريعية والمؤسسية

إنّ مواجهة الأخطاء الناشئة عن الروبوت الجراحي لا تكتمل إلا بوجود جهة رقابية متخصصة. وعليه، يُقترح إنشاء “هيئة وطنية لتنظيم الذكاء الاصطناعي في المجال الطبي”، تكون مهمتها الرقابة على استيراد وتصنيع وتشغيل الروبوتات الجراحية، وإعداد تقارير دورية عن سلامة استخدامها، ومراقبة مدى التزام المستشفيات بمعايير الأمان.

كما يُقترح أن تتضمن هذه الهيئة وحدة خاصة بـ “التقييم الأخلاقي والقانوني للذكاء الاصطناعي الطبي”، تعمل بالتعاون مع وزارتي الصحة والعدل، والجامعات العراقية، لوضع مدونات سلوك مهني وأخلاقي لاستخدام الروبوتات في العمليات الجراحية.

وفي هذا السياق، يذهب الدكتور عبد الله الأنصاري إلى القول بأن “تنظيم المسؤولية عن أعمال الذكاء الاصطناعي يجب أن يقوم على مبدأ الوقاية المسبقة والرقابة المستمرة لا على العقاب اللاحق فقط”([27])، وهو ما يتوافق مع الدعوة الحديثة لاعتماد مفهوم “الحوكمة الأخلاقية للذكاء الاصطناعي” في التشريعات العربية.

رابعاً: التوازن بين الابتكار والمسؤولية

يجب أن يوازن المشرع بين تشجيع الابتكار وحماية المريض، بحيث لا يؤدي تضييق الخناق التشريعي إلى عرقلة التطور الطبي. ومن ثم، يُفضل أن تتضمن النصوص القانونية عبارات عامة مرنة تسمح للقضاء بتقدير الموقف بحسب ظروف كل حالة، مثل “الالتزام بواجب الحيطة والعناية اللازمة عند تشغيل الأنظمة الجراحية الذكية”.

كما يمكن الاستفادة من التجربة المغربية التي اعتمدت القانون رقم (09.08) لسنة 2009 المتعلق بحماية المعطيات الشخصية في فرض ضوابط على معالجة البيانات الطبية بالوسائل الذكية، مما يعد خطوة في طريق حماية المريض من إساءة استخدام التكنولوجيا([28])

خامساً: أمثلة تطبيقية عربية

من التطبيقات الواقعية التي تُظهر الحاجة إلى تقنين الذكاء الاصطناعي الطبي:

  • في عام 2022، شهدت إحدى المستشفيات الخاصة في دبي حادثة وفاة مريض أثناء عملية جراحية باستخدام روبوت “دا فنشي”، بعد خلل في الذراع الميكانيكية، وتم تحميل المستشفى المسؤولية المدنية عن الأضرار وفق مبدأ “المسؤولية عن الأدوات الطبية” ([29])
  • في مصر، أصدرت محكمة القاهرة الاقتصادية عام 2021 حكماً بتعويض مريضة ضد شركة أجهزة طبية استوردت روبوتاً للتدخل الجراحي ثبت وجود خلل برمجي فيه، استناداً إلى المادة (163) من القانون المدني المصري بشأن المسؤولية التقصيرية ([30])
  • وفي العراق، تناولت نقابة الأطباء في مؤتمرها العلمي عام 2023 موضوع “المسؤولية الطبية في ظل الذكاء الاصطناعي”، وأوصت بإنشاء سجل وطني لتتبع استخدام الأنظمة الجراحية الذكية ([31])

الخاتمة

إن دراسة الحماية القانونية من أخطاء الروبوت الجراحي أظهرت جلياً أن التطور التكنولوجي في المجال الطبي قد أحدث تحديات جديدة لم تعرفها التشريعات التقليدية، سواء في مجال المسؤولية الجنائية أو المدنية. فبينما لا يمكن تحميل الروبوت نفسه المسؤولية الجنائية أو المدنية لافتقاده للإرادة والوعي، تتوزع المسؤوليات على الأطراف البشرية المختلفة، سواء أكان الطبيب المشغل، أو المبرمج، أو المصنع، أو المؤسسة الصحية المشرفة على تشغيل الروبوت. ومن خلال التحليل القانوني المقارن، يمكن استخلاص النتائج الجوهرية التالية:

أولاً: النتائج

  1. يتضح أن الروبوت الجراحي يظل أداة تنفيذية للقرارات البشرية، ومن ثم فإن المسؤولية الجنائية تقع على الفاعل المعنوي الذي يتحكم فيه، سواء كان مبرمجًا أو مستخدمًا أو مالكًا للجهاز، وفق مبادئ الفعل والسببية والنية.
  2. المسؤولية المدنية عن أخطاء الروبوت تتوزع بين الطبيب، المؤسسة الصحية، والمصنع، وفق أسس المسؤولية عن الإهمال أو عن المنتج المعيب، مع ضرورة تطبيق قواعد إثبات الخطأ ورابطة السببية بدقة، أو الاستعانة بمبادئ الخطأ المفترض لتخفيف عبء الإثبات على المتضررين.
  3. العقوبة التقليدية لا تصلح للتطبيق على الكيانات الذكية، لكن يمكن استبدالها بعقوبات تقنية أو برمجية (إيقاف التشغيل، تعديل البرامج، تعطيل وظائف محددة)، ما يمثل نموذجاً للتكيف القانوني مع طبيعة الذكاء الاصطناعي.
  4. التحديات الرئيسية تنبع من غياب نصوص تشريعية صريحة تحدد المسؤولية وتضع آليات واضحة للوقاية من الأخطاء، ما يستدعي تطوير إطار قانوني متكامل يعالج ثغرات المسؤولية الجنائية والمدنية للروبوتات الجراحية.

ثانياً: المقترحات

  1. إصدار تشريع خاص ينظم استخدام الروبوتات الجراحية والذكاء الاصطناعي الطبي، يحدد المسؤوليات الجنائية والمدنية لكل طرف، ويضمن حقوق المرضى ويحفظ حق الابتكار الطبي.
  2. إنشاء هيئة وطنية متخصصة للإشراف على الروبوتات الطبية، تشمل وحدة للتقييم الأخلاقي والقانوني، لمراقبة تشغيل الروبوتات، وضمان الالتزام بالمعايير التقنية والأخلاقية.
  3. اعتماد نظام “المسؤولية المشتركة” لتوزيع المخاطر بين الطبيب والمصنع والمبرمج والمؤسسة الصحية، مع إمكانية إنشاء صندوق تعويضي خاص لتغطية أضرار الذكاء الاصطناعي عالية الخطورة.
  4. فرض معايير السلامة التقنية، بما يشمل اختبارات دورية للبرامج، توثيق أوامر التشغيل وسجل أخطاء الجهاز (الصندوق الأسود الطبي)، وتدريب الأطباء والفنيين على التشغيل الآمن للروبوت.
  5. تحديث قواعد المسؤولية المدنية في القانون المحلي لتشمل المسؤولية عن المنتجات المعيبة أو الخطأ في الإشراف على الروبوتات، بما يواكب التجارب القانونية المقارنة في الدول المتقدمة.
  6. تعزيز التعاون بين الجهات القضائية والطبية والهندسية لإصدار بروتوكولات قضائية وفنية تسهل تحديد المسؤولية بدقة عند وقوع الضرر.

إن التحدي القانوني في عصر الروبوتات الجراحية يكمن في التوفيق بين الابتكار الطبي وحماية الإنسان، وضمان العدالة عند وقوع الأخطاء، وهو ما يتطلب رؤية قانونية شاملة ومرنة، قادرة على التعامل مع الكيانات الذكية، وتوزيع المسؤولية بما يحقق الحماية للمرضى دون عرقلة التقدم العلمي. ومن هنا، يمثل تطوير التشريعات العراقية والعربية الخاصة بالذكاء الاصطناعي الطبي خطوة ضرورية لضمان فعالية الإطار القانوني، ولخلق توازن مستدام بين الابتكار والرقابة القانونية.

قائمة المصادر والمراجع

أولاً: المصادر العربية

أ- الكتب

  • أحمد إبراهيم محمد إبراهيم، المسؤولية الجنائية الناتجة عن أخطاء الذكاء الاصطناعي في التشريع الإماراتي – دراسة مقارنة، المتحدة للنشر والتوزيع، 2022.
  • احمد فتحي سرور، شرح قانون حماية المستهلك المصري الجديد، دار النهضة العربية، القاهرة، 2019.
  • أحمد محمد علي، المسؤولية الجنائية للروبوتات الجراحية: دراسة تحليلية، دار العلوم القانونية، 2023.
  • خالد عبد اللطيف محمد، الذكاء الاصطناعي والمسؤولية القانونية في ضوء القانون الجنائي، دار الفكر الجامعي، الإسكندرية، 2020.
  • عبد الرحمن إبراهيم الشاعر، المسؤولية الجنائية في ظل الثورة التكنولوجية الحديثة، دار الجامعة الجديدة، الإسكندرية، 2022.
  • عبد الرحمن إبراهيم الشاعر، المسؤولية المدنية والجنائية عن أخطاء الذكاء الاصطناعي، دار الجامعة الجديدة، الإسكندرية، 2022.
  • عبد الرزاق السعيد، الوسيط في المسؤولية المدنية، دار الثقافة للنشر والتوزيع، عمان، 2017.
  • عبد الله علي خليل، الجرائم الإلكترونية والمسؤولية القانونية عنها في التشريعات العربية المقارنة، دار الفكر والقانون، المنصورة، 2019.
  • محمد السيد السقا، المسؤولية الجنائية عن أفعال الذكاء الاصطناعي، دار النهضة العربية، القاهرة، 2021.
  • محمد علي أبو علي، المسؤولية الجنائية عن أضرار الذكاء الاصطناعي، دار النهضة العربية للنشر والتوزيع، 2024.

ب- الأبحاث والمقالات

  1. ساهر إبراهيم الوليد، النتيجة المحتملة وموقعها من الإثم الجنائي، مجلة البحوث القانونية والاقتصادية، كلية الحقوق – جامعة المنصورة، العدد 68، 2019.
  2. عبد الله الأنصاري، الذكاء الاصطناعي والمسؤولية القانونية في التشريعات العربية، مجلة الحقوق، جامعة الكويت، العدد 3، 2021.
  3. محمد الإدريسي، القانون المغربي وحماية المريض في ظل التطورات التقنية، مجلة العلوم القانونية، جامعة محمد الخامس، الرباط، 2020.
  4. محمد جبريل إبراهيم حسن، المسؤولية الجنائية الناشئة عن مضار استخدام الذكاء الاصطناعي في المجال الطبي: دراسة تحليلية، مجلة الدراسات القانونية والاقتصادية، كلية الحقوق – جامعة مدينة السادات، المجلد 8، 2022.
  5. محمد محي الدين عوض، مشكلات السياسة الجنائية المعاصرة في جرائم نظم المعلومات الكمبيوتر، بحث مقدم للمؤتمر السادس للجمعية المصرية للقانون المدني، 1993.
  6. مؤيد عبد الرزاق حسن، المسؤولية القانونية عن أخطاء الذكاء الاصطناعي الطبي، مجلة القانون والاقتصاد، جامعة النهرين، العدد 6، 2022.
  7. نهال كمال محمد فوزي زرد، المسؤولية الجنائية عن أعمال الذكاء الاصطناعي، مجلة البحوث القانونية والاقتصادية، المنوفية، المجلد 60، العدد 1، 2024.

ج- التشريعات والقوانين

القوانين العراقية:

  1. قانون العقوبات العراقي رقم 111 لسنة 1969.
  2. القانون المدني العراقي رقم 40 لسنة 1951.
  3. قانون تنظيم مزاولة المهن الطبية رقم 81 لسنة 1984.

القوانين العربية والمقارنة:

  1. قانون حماية المستهلك المصري رقم 181 لسنة 2018.
  2. القانون المدني المصري رقم 131 لسنة 1948.
  3. قانون تنظيم المهن الطبية في الإمارات رقم 5 لسنة 2019.
  4. القانون المغربي لحماية المعطيات الشخصية رقم 08 لسنة 2009.

د- الأحكام القضائية

  1. حكم محكمة النقض المصرية، 3/2/1967، طعن رقم 283، سنة 23 ق.
  2. حكم محكمة أبوظبي الابتدائية، الدعوى رقم 154/2022، مدني كلي، جلسة 14/12/2022 (غير منشور).
  3. محكمة القاهرة الاقتصادية، القضية رقم 453 لسنة 2021، جلسة 12/10/2021.

ه- التقارير واللوائح الرسمية

  1. الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا)، الإطار الوطني للذكاء الاصطناعي المسؤول، الرياض، 2022.
  2. وزارة الصحة السعودية، نظام مزاولة المهن الصحية، الرياض، 2021.
  3. وزارة الصحة ووقاية المجتمع الإماراتية، اللائحة التنفيذية لقانون تنظيم المهن الطبية رقم (5) لسنة 2019، أبوظبي، 2020.
  4. نقابة الأطباء العراقية، توصيات المؤتمر العلمي السنوي حول المسؤولية الطبية في ظل الذكاء الاصطناعي، بغداد، 2023.

و- الصحف والمصادر الإعلامية

  1. صحيفة الخليج، “وفاة مريض خلال عملية جراحية آلية في دبي والتحقيق مع الشركة المنتجة”، 18/6/2022.

ثانياً: المصادر الأجنبية

أ- الكتب والمراجع العلمية

  1. Khalil, T., Liability Issues in Robotic Surgery: The Case of Da Vinci Surgical System, Medical Law Review, Vol. 25, 2017.
  2. Pradel, J., Droit Pénal Général, Dalloz, 2015.

ب- الأحكام القضائية الأجنبية

  1. محكمة العدل الأوروبية، القضية رقم C-621/15 – N.W ضد شركة Medtronic، جلسة 5 يوليو 2017.

([1] ) محمد علي أبو علي، المسؤولية الجنائية عن أضرار الذكاء الاصطناعي، دار النهضة العربية للنشر والتوزيع، 2024، ص 30.

([2] ) نهال كمال محمد فوزي زرد، المسؤولية الجنائية عن أعمال الذكاء الاصطناعي، مجلة البحوث القانونية والاقتصادية، المنوفية، المجلد 60، العدد 1، 2024، ص 169.

([3] ) أحمد محمد علي، المسؤولية الجنائية للروبوتات الجراحية: دراسة تحليلية، دار العلوم القانونية، 2023، ص 45.

 ([4]) أحمد إبراهيم محمد إبراهيم المسئولية الجنائية الناتجة عن أخطاء الذكاء الاصطناعي في التشريع الإماراتي – دراسة مقارنة المتحدة للنشر والتوزيع، سنة ٢٠٢٢م، ص ١٥٤.

 ([5]) راجع نص المادة ۲۳۳ من قانون العقوبات العراقي، القتل باستخدام الجواهر السامة.

 ([6]) محمد محي الدين عوض مشكلات السياسة الجنائية المعاصرة في جرائم نظم المعلومات الكمبيوتر، بحث مقدم للمؤتمر السادس للجمعية المصرية للقانون المدني، في الفترة ٢٥-٢٨ أكتوبر سنة ١٩٩٣م، ص ١٣.

 ([7]) محمد جبريل إبراهيم حسن المسئولية الجنائية الناشئة عن مضار استخدام الذكاء الاصطناعي في المجال الطبي، دراسة تحليلية، بحث منشور، مجلة الدراسات القانونية والاقتصادية، كلية الحقوق – جامعة مدينة السادات، المجلد ۸، سبتمبر ۲۰۲۲ م ص ۲۷

 ([8]) أحمد إبراهيم محمد إبراهيم، المسؤولية الجنائية الناتجة عن أخطاء الذكاء الأصطناعي في التشريع الإماراتي دراسة المقارنة، المتحدة للنشر والتوزيع سنة 2022ص155.

 ([9]) Pradel, J., Droit Pénal Général Dalloz, 21 éd, 2015, p. 587.

 ([10]) النتيجة المحتملة هي التي يحتمل عقلا، وبحكم المجري العادي للأمور، أن تتسبب عن النشاط الإجرامي إذا كان باستطاعته ومن واجبه توقعها حسب التسلسل الطبيعي للأحداث، ولو لم يكن قد توقعها فعلاً. انظر علي بدوي الأحكام العامة في القانون الجنائي، الجزء الأول الجريمة، مطبعة نوري، القاهرة، سنة ۱۹۳۸م، ص ٣٠٤؛ محمود نجيب حسني، شرح قانون العقوبات القسم العام، الطبعة الخامسة، دارة النهضة العربية، القاهرة، سنة ۱۹۸۲م، ص ١٦٥ ؛ ساهر إبراهيم الوليد، النتيجة المحتملة وموقعها من الإثم الجنائي، بحث منشور، مجلة البحوث القانونية والاقتصادية، كلية الحقوق – جامعة المنصورة، العدد ٦٨، أبريل ٢٠١٩م، ص ٢٥٠.

 ([11]) فقد نصت المادة (٢٤٤) من قانون العقوبات على أنه من تسبب في جرح شخص أو إبدائه بأن كان ذلك نتيجة إهمال أو رعونة يعاقب بالحس سنة وغرامة ٢٠٠ جنيه، وترتفع المدة إلى سنتين أو دفع غرامة مقدارها ٣٠٠ جنيه في حالة أن الحادث تسبب في عاهة مستديمة للضحية كما نصت المادة (۲۳۸) من قانون العقوبات على أنه من نسبب خطأ في موت شخص بأن كان ذلك باشتا من إعماله أو رعونته أو عدم احترازه أو عدم مراعاته للقوانين والقرارات واللوائح والأنظمة بعاقب بالحبس مدة لا تقل عن ناشئا عن إهماله أو رعونته أو عدم احترازه أو عدم مراعاته للقوانين والقرارات واللوائح والأنظمة يعاقب بالحبس مدة لا تقل عن ستة أشهر وبغرامة لا تتجاوز مائتي جنيه أو بإحدى هاتين العقوبتين. أما المادة (۳۷۷) فقرة (۲) فقد نصت على أنه: «يعاقب بغرامة لا تجاوز مائة جنيه كل من ارتكب فعلاً من الأفعال الآتية: من حرش كلبا واثبا على مار أو مقتفيا أثره أو لم يرده عنه إذا كان الكلب في حفظة ولو لم يتسبب عن ذلك أذى ولا ضرر.

وقضت محكمة النقض بأن حارس الحيوان بالمعنى المقصود في المادة ١٧٦ من القانون المدني هو من تكون له السيطرة الفعلية عليه ويملك التصرف في أمره ولا تنتقل الحراسة من مالك الحيوان إلى التابع المنوط به ترويضه وتدريبه ذلك أنه وإن كان للتابع السيطرة المادية على الحيوان، وقت تدريبه إلا أنه إذ يعمل لحساب متبوعه و لمصلحته ويتلقى تعليماته في كل ما يتعلق بهذا الحيوان فإنه يكون خاضعا للمتبوع مما تصل معه الحراسة لهذا الأخير إذ أن العبرة في قيام الحراسة الموجبة للمسئولية على أساس الخطأ المفترض في سيطرة الشخص على الحيوان سيطرة فعلية لحساب نفسه نقض ٣/٢/ ١٩٦٧م، طعن رقم ۲۸۳، سنة ٢٣ ق، مجموعة أحكام محكمة النقض.

([12] ) خالد عبد اللطيف محمد، الذكاء الاصطناعي والمسؤولية القانونية في ضوء القانون الجنائي، دار الفكر الجامعي، الإسكندرية، 2020، ص 115.

([13] ) محمد السيد السقا، المسؤولية الجنائية عن أفعال الذكاء الاصطناعي، دار النهضة العربية، القاهرة، 2021، ص 143.

([14] ) عبد الرحمن إبراهيم الشاعر، المسؤولية الجنائية في ظل الثورة التكنولوجية الحديثة، دار الجامعة الجديدة، الإسكندرية، 2022، ص 87.

([15] ) عبد الله علي خليل، الجرائم الإلكترونية والمسؤولية القانونية عنها في التشريعات العربية المقارنة، دار الفكر والقانون، المنصورة، 2019، ص 156.

([16])Khalil, T., Liability Issues in Robotic Surgery: The Case of Da Vinci Surgical System, Medical Law Review, Vol. 25, 2017, p. 133.

([17] ) حكم محكمة أبوظبي الابتدائية، الدعوى رقم (154/2022) مدني كلي – جلسة 14/12/2022 (غير منشور).

([18] ) عبد الرحمن إبراهيم الشاعر، المسؤولية المدنية والجنائية عن أخطاء الذكاء الاصطناعي، دار الجامعة الجديدة، الإسكندرية، 2022، ص 215.

([19] ) محكمة العدل الأوروبية، القضية رقم C-621/15 – N.W ضد شركة Medtronic، جلسة 5 يوليو 2017.

([20] ) خالد عبد اللطيف محمد، الذكاء الاصطناعي والمسؤولية القانونية في ضوء القانون الجنائي والمدني، دار الفكر الجامعي، الإسكندرية، 2020، ص 173.

([21] ) عبد الرزاق السعيد، الوسيط في المسؤولية المدنية، دار الثقافة للنشر والتوزيع، عمان، 2017، ص 45–47.

([22] ) احمد فتحي سرور، شرح قانون حماية المستهلك المصري الجديد، دار النهضة العربية، القاهرة، 2019، ص 128.

([23] ) الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا)، الإطار الوطني للذكاء الاصطناعي المسؤول، الرياض، 2022، ص 21.

([24] ) وزارة الصحة السعودية، نظام مزاولة المهن الصحية، الطبعة المحدثة، الرياض، 2021، ص 33.

([25] ) وزارة الصحة ووقاية المجتمع الإماراتية، اللائحة التنفيذية لقانون تنظيم المهن الطبية رقم (5) لسنة 2019، أبوظبي، 2020، ص 18.

([26] ) مؤيد عبد الرزاق حسن، المسؤولية القانونية عن أخطاء الذكاء الاصطناعي الطبي، مجلة القانون والاقتصاد، جامعة النهرين، العدد 6، 2022، ص 95.

([27] ) عبد الله الأنصاري، الذكاء الاصطناعي والمسؤولية القانونية في التشريعات العربية، مجلة الحقوق، جامعة الكويت، العدد 3، 2021، ص 60–61.

([28] ) محمد الإدريسي، القانون المغربي وحماية المريض في ظل التطورات التقنية، مجلة العلوم القانونية، جامعة محمد الخامس، الرباط، 2020، ص 82.

([29] ) صحيفة الخليج، “وفاة مريض خلال عملية جراحية آلية في دبي والتحقيق مع الشركة المنتجة”، عدد 18/6/2022.

([30] ) محكمة القاهرة الاقتصادية، القضية رقم 453 لسنة 2021، حكم جلسة 12/10/2021.

([31] ) نقابة الأطباء العراقية، توصيات المؤتمر العلمي السنوي حول المسؤولية الطبية في ظل الذكاء الاصطناعي، بغداد، 2023، ص 5.

5/5 - (1 صوت واحد)

المركز الديمقراطي العربي

مؤسسة بحثية مستقلة تعمل فى إطار البحث العلمي الأكاديمي، وتعنى بنشر البحوث والدراسات في مجالات العلوم الاجتماعية والإنسانية والعلوم التطبيقية، وذلك من خلال منافذ رصينة كالمجلات المحكمة والمؤتمرات العلمية ومشاريع الكتب الجماعية.

مقالات ذات صلة

زر الذهاب إلى الأعلى