تخطى إلى المحتوى
الصفحة الرئيسية » الإصدار 4، العدد 5 ـــــ مايو 2025 ـــــ Vol. 4, No. 5 » المسؤولية الإدارية عن أخطاء تطبيقات الذكاء الاصطناعي

المسؤولية الإدارية عن أخطاء تطبيقات الذكاء الاصطناعي

    بيانات الباحث

    طالب دكتوراة، كلية الدراسات العليا، جامعة النجاح الوطنية، نابلس، فلسطين

    [email protected]

    ملخص البحث

    الهدف: هدفت الدراسة إلى فحص مدى وجاهة تدخل المشرع بالنص على أحكام تنظم استخدام تطبيقات الذكاء الاصطناعي في المهام الإدارية. كما هدفت إلى بيان من هو المسؤول إدارياً عن الأخطاء التي ترتكبها هذه التطبيقات، وهدفت أيضاً لمعرفة مدى مواكبة التشريع الإداري الساري في فلسطين للواقع الخاص بالذكاء الاصطناعي. المنهج: استخدم الباحث في الدراسة المنهج الاستقرائي التحليلي، حيث بدأت الدراسة بنبذة تاريخية عن الذكاء الاصطناعي، ومن ثم وضحت مفهومه وتطبيقاته. ثم قامت باستقراء عناصر المسؤولية الإدارية وفقاً للفقه الإداري وتحليلها بما يتناسب مع استخدام تطبيقات الذكاء الاصطناعي في العمل الإداري النتائج: خلصت الدراسة إلى أن تطبيقات الذكاء الاصطناعي قد تصل مستقبلاً لمرحلة لا يمكن معها لصانعها أو مبرمجها السيطرة عليها، الأمر الذي سيؤدي إلى إمكانية ارتكابها للأخطاء الإدارية. وكذلك لا يوجد في القرار بقانون بشأن المحاكم الإدارية الفلسطيني رقم (41) لسنة 2020 وتعديلاته أية أحكام تنظم استخدام تطبيقات الذكاء الاصطناعي في العمل الإداري، كما أن النظام القانوني الفلسطيني يخلو من أي نص ينظم أحكام الذكاء الاصطناعي. وأيضاً يمكن أن تكون المسؤولية الإدارية الناجمة عن أخطاء تطبيقات الذكاء الاصطناعي على الإدارة، ويمكن أن تكون على المبرمج، كما يمكن أن تكون على المشغل. وفي حال الاعتراف بالشخصية القانونية لتطبيقات الذكاء الاصطناعي يمكن أن تكون هنالك مسؤولية إدارية على هذه التطبيقات. التوصيات: توصي الدراسة بضرورة سن تشريعات في فلسطين تتضمن أحكامها تنظيم عمل تطبيقات الذكاء الاصطناعي في المجال الإداري، وكافة المجالات الأخرى مع ضرورة الاعتراف بالشخصية القانونية لهذه التطبيقات كخطوة استباقية لما قد يحدث لها من تطور مستقبلاً يجعل من الصعب السيطرة عليها. ضرورة تكثيف الجهود الرامية إلى تدريب الموظفين العامين على كيفية التعامل مع تطبيقات الذكاء الاصطناعي في العمل الإداري. بالإضافة إلى توجيه الاهتمام للذكاء الاصطناعي، والحذو حذو الدول التي اهتمت بموضوعه ليتم استعماله في كافة المجالات مع ضرورة التقيد بأخلاقيات الذكاء الاصطناعي من قبل الشركات المصنعة والمبرمجة لتطبيقاته.

    Purpose: The study aimed to examine the validity of the legislator’s intervention by stipulating provisions regulating the use of artificial intelligence applications in administrative tasks. It also aimed to clarify who is administratively responsible for errors committed by these applications, and to determine the extent to which the administrative legislation in force in Palestine keeps pace with the reality of artificial intelligence. Methodology: The researcher used the analytical inductive approach in the study, beginning with a historical overview of artificial intelligence, then clarifying its concept and applications. It then extrapolated the elements of administrative liability according to administrative jurisprudence and analyzed them in a manner consistent with the use of artificial intelligence applications in administrative work. Findings: The study concluded that artificial intelligence applications may, in the future, reach a stage where their creators or programmers cannot control them, which will lead to the possibility of them committing administrative errors. Furthermore, the Palestinian Administrative Courts Law by Decree No. (41) of 2020 and its amendments do not contain any provisions regulating the use of artificial intelligence applications in administrative work, and the Palestinian legal system is devoid of any text regulating the provisions of artificial intelligence. Administrative liability for errors in AI applications could also fall on the administration, the programmer, or the operator. If the legal personality of AI applications is recognized, there could be administrative liability for these applications. Recommendations: The study recommends the enactment of legislation in Palestine that includes provisions regulating the operation of AI applications in the administrative field and all other fields. It is necessary to recognize the legal personality of these applications as a proactive step against any future developments that may make them difficult to control. It is also necessary to intensify efforts aimed at training public employees on how to handle AI applications in administrative work. In addition, attention should be given to AI, following the example of countries that have shown interest in its use in all fields, while ensuring adherence to AI ethics by companies that manufacture and program its applications.