القائمة الرئيسية

الصفحات

الذكاء الاصطناعي والاشكالات القانونية

الذكاء الاصطناعي والاشكالات القانونية

في ضوء التطورات الحالية، أصبح المستحيل ممكنًا، لا سيما بفضل وجود الذكاء الاصطناعي الذي جعل العالم قرية صغيرة تضيء باللون الأسود، ومن الواضح أن التطبيقات المتعددة والمتنوعة لا تؤدي إلى ظهورها اللمسة الصعبة سهلة. وبفضل ذلك، يمكن اعتبار الذكاء الاصطناعي بمثابة هندسة وتصنيع آلات ذكية، وخاصةً البرامج المعلوماتية الذكية، وبشكل أساسي تقنيات هذا الذكاء التي تسمح للآلات بتقليد الوظائف المعرفية للإنسان، مثل ما التدريب وحل المشكلات، حتى يتمكن من السماح له بالعمل وتنفيذ المهام التي اعتاد عليها بشكل جيد. البشر. من الناحية العملية، يتم تحقيق وظائف الذكاء الاصطناعي بناءً على البيانات الضخمة ويتم تحليلها عبر خوارزميات محددة.


تبدأ رحلة الإنسان مع الذكاء الاصطناعي منذ العصور القديمة عبر التواريخ والإشاعات والأساطير التي كانت موجودة من قبل حرفيين مؤهلين من وجود مصنوعات مزدوجة من الذكاء والذكاء الاصطناعي. من الضمير أن حبيبات الذكاء الاصطناعي قد زرعت والتي كانت على وشك اختراع الكمبيوتر الرقمي القابل للبرمجة في سنوات 1940 [1].


بدأ مجال البحث في الذكاء الاصطناعي في ورشة عمل في الحرم الجامعي لكلية دارتموت خلال دورة عام 1956، حيث شارك فيه قادة البحث في الذكاء الاصطناعي على مدار عقود عديدة. في عام 1973، ردًا على انتقادات جيمس لاهيتل وضغوط المؤتمر الثابتة، توقفت الحكومتان الأمريكية والبريطانية عن تمويل الأبحاث دون توجيهها إلى الذكاء الاصطناعي. بعد 7 سنوات، أطلقت الحكومة اليابانية مبادرة لتوفير مليارات الدولارات لمشاريع الذكاء الاصطناعي، لكن المستثمرين بدأوا في نهاية عام 1980، ثم أصبح التمويل متقاعدًا جديدًا. ومع ذلك، مع بداية الاستثمار والاهتمام بالذكاء الاصطناعي، خاصة في العروض الأولى من القرن الحادي والعشرين، تم تطبيق عملية التدريب التلقائي وأجهزة الكمبيوتر القوية بنجاح وتم السماح بجمع شيء ما. مجموعة واسعة من البيانات [2].


نظرًا لأن العديد من الدول العربية قد اعتمدت هذا المجال، فإن المملكة العربية السعودية هي الأولى من نوعها في العالم العربي من حيث اعتماد وتطوير مجال الذكاء الاصطناعي. لقد تم إنشاء سلطة للبيانات والذكاء الاصطناعي في توجيه وتوحيد الجهود في هذا المجال. إنها خطوة لاحقة لدولة قطر، التي تحتل المركز الثاني في العالم العربي في المؤشر العالمي للذكاء الاصطناعي، وذلك بفضل اعتماد استراتيجية فعالة في هذا المجال. كما قررت مملكة المغرب افتتاح الكلية الأوروميدية للهندسة الرقمية والذكاء الاصطناعي في مدينة فاس العتيقة. تقترح الكلية دورات تدريبية ودورات نموذجية حول الروبوتات والتعاون بين البشر والآلات والذكاء الاصطناعي والأمن السيبراني وتقنيات الويب والهواتف المحمولة والبيانات الضخمة. [3].


ومن خلال هذا الاهتمام المتزايد بهذا المجال لمحاولة تبنيه وتطويره، نكتشف أن له تأثيرًا مباشرًا على حياتنا وله عواقب طويلة المدى. إن التطور السريع للذكاء الاصطناعي يمكن أن يأخذ اتجاهين: اتجاه إيجابي بهذا الهدف الافتراضي في حد ذاته، واتجاه سلبي في مختلف الصناعات والممارسات والأنشطة، خاصة إذا كانت جميعها تدخل في نطاق القانون. القضايا الأخلاقية التي قد تحتاج إلى معالجة. وفي هذا الصدد، سُئل روبوت أميكا، باعتباره الآلة الأكثر تقدما في العالم، عما إذا كان ينبغي أن نقلق بشأن الذكاء الاصطناعي، وكانت إجابته نعم، موضحا أنه يجب على الناس أن يكونوا على دراية بالمخاطر المحتملة المرتبطة بالذكاء الاصطناعي والروبوتات. . وأنه من المهم أن نتذكر أن هذه التقنيات يمكن أن يكون لها تأثير إيجابي على حياتنا إذا تم استخدامها بشكل مسؤول.


وفي السياق نفسه، فإن التداخل بين مجالين مهمين للغاية، المجال القانوني ومجال الذكاء الاصطناعي، يثير العديد من الأسئلة والإشكاليات، مما يثير الخوف والقلق بشأن الأبعاد المستقبلية لهذا التداخل. التدخل في سيادة القانون، ومن ثم المشاكل القانونية التي تنشأ عنه. وهذا يثير الأمر، ومن هنا، عندما نصل إلى نقطة يصعب فيها تحديد المسؤول عن الخلل الذي يحدث عند استخدام الذكاء الاصطناعي، فإننا نواجه المشاكل الرئيسية فيما يتعلق بتنظيم مسؤولية الذكاء الاصطناعي من من وجهة نظر قانونية، وبالتالي يمكن أن يكون الذكاء الاصطناعي كيانًا قانونيًا جديدًا لأنه يؤثر على سيادة القانون. وفي ظل التطور السريع الذي شهدته، ما هي تداعياته على المستويات القانونية المتعددة التي اندمجت بها؟ هل يمكن أيضاً أن ننسب المسؤولية إلى الذكاء الاصطناعي ونعتبره مسؤولاً مدنياً وجنائياً عن الأخطاء والجرائم المرتكبة، خاصة إذا كان هذا الذكاء يتمتع بالتحكم الذاتي دون أي توجيه أو رقابة بشرية؟ 


القسم الأول: المسائل والمشكلات القانونية المرتبطة باستخدام الذكاء الاصطناعي

وسنتمكن من الحديث عن التطور السريع للذكاء الاصطناعي، مع تسليط الضوء على أهم نقاط هذا التطور، وعندها فقط سنتمكن من معالجة تأثيره على سيادة القانون بشقيه العام والخاص، في البداية، وفي ثانياً سنقوم بتقييم المشاكل القانونية التي يثيرها الذكاء الاصطناعي على عدة مستويات.


المبحث الأول: التطوير السريع للذكاء الاصطناعي وله تأثير على دولة القانون

وسنتمكن من الحديث عن التطور السريع للذكاء الاصطناعي، مع تسليط الضوء على أهم نقاط هذا التطور. عندها فقط سنكون قادرين على معالجة تأثيره على سيادة القانون، العام والخاص، في مطلب أول، وفي مطلب ثان سنقوم بجرد المشاكل القانونية التي يثيرها الذكاء الاصطناعي على عدة مستويات.


    المطلب الأول: التطور السريع للذكاء الاصطناعي وأثره على سيادة القانون


      يتوافق التطور السريع للذكاء الاصطناعي مع النمو السريع والتقدم في التقنيات والأنظمة التي تعتمد عليه. ويشمل هذا التطوير تحسين الأداء وزيادة قدرات النماذج والأنظمة التي تستخدم تقنيات التعلم العميق والتعلم الآلي.

وهناك بعض النقاط البارزة في هذا التطور، من بينها زيادة البيانات والقدرة الحاسوبية، وتطوير نماذج جديدة للتحسين والتفاعل مع البيئة، والتعلم بطرق أكثر تقدما، وتطبيقات واسعة في مختلف المجالات، وزيادة الأداء. حيث أصبحت التقنيات الذكية قادرة على أداء مهام أكثر تعقيدًا. الدقة وتقديم حلول جديدة للمشكلات الصعبة التي يواجهها الإنسان.

ومع ذلك، يأتي هذا التطور مصحوبًا بتحديات مثل التحيزات المحتملة في البيانات والقرارات، فضلاً عن المخاوف المتعلقة بالخصوصية والأمن، والتي بدورها تعيدنا إلى القانون. إن التطور السريع للذكاء الاصطناعي يمكن أن يتعارض مع سيادة القانون، سواء الخاص أو العام.


وفي القانون الخاص نجد ذلك بشكل واضح في العقود الذكية، حيث يمكن استخدام الذكاء الاصطناعي في تطوير وتنفيذ هذه العقود، والتي يتم إبرامها وتنفيذها بشكل تلقائي، باستخدام تقنيات ذكية ودقيقة للغاية. كما أنها موجودة في حقوق الملكية الفكرية والابتكار، حيث تؤدي تقنياتها إلى تطوير ابتكارات جديدة قادرة على تغيير المفهوم التقليدي للابتكار، مما يمكن أن يزيد المنافسة بين الذكاء الاصطناعي والذكاء البشري، وهذا يمكن أن يشكل مشكلة أيضاً. التحدي على المدى القصير.

أما بالنسبة للقانون العام، فيكفي مراجعة التشريعات التي تتطلب إعادة النظر والتطوير لمواكبة هذه التطورات، بما في ذلك تفعيل السياسات التي تحسن التعامل مع هذه التقنيات المتقدمة، لنعلم أن الذكاء الاصطناعي يؤثر لأنه يطرح تحديات قانونية متعددة. .

كما يؤثر التأثير على الخصوصية والحريات، لأن التدخل يتم من خلال تقنيات وتطبيقات تعتمد على تحليل البيانات الشخصية واستخدامها لأغراض تسويقية، أو استهداف فئة محددة، أو مشاركتها بين مؤسسات مختلفة، أو لتتبع ومراقبة السلوكيات والسلوكيات. الحركات. الأفراد وتحليلها مما قد يتعارض مع الخصوصية. الأفراد وحياتهم الشخصية.

هل يمكن اعتبار الذكاء الاصطناعي شخصية اعتبارية لأنه يتعارض مع سيادة القانون؟

حاليا لا يوجد بمعنى الشخصية الاعتبارية وليس لها وجود قانون أو حقوق في القانون، ولكن يمكن أن تكون أصل التفاعلات التي تؤدي إلى التدخل في سيادة القانون.

وهذا التدخل يمكن أن يسبب العديد من المشاكل القانونية في الحياة اليومية بشكل مباشر أو على المدى الطويل، وهذا ما سنراه في القسم التالي:

المطلب الثاني: الإشكاليات القانونية المختلفة التي يثيرها استخدام الذكاء الاصطناعي

كان القصد من التفاعل والتفاعل بين المجال القانوني والذكاء الاصطناعي هو تطويره والوصول بالأساس القانوني إلى مستوى يواكب كل الظواهر الحالية والمستقبلية، إلا أن الواقع أفرز اتجاها إيجابيا يحقق ما نسعى إليه. رغبة، واتجاه سلبي يثير العديد من الإشكاليات على مختلف مستويات القانون، وهي كما يلي:

 على مستوى الملكية الفكرية والإبداع :

لقد شهد الذكاء الاصطناعي تطورا ملحوظا منذ أن استخدمت تقنياته في هذا المجال، ولكن مع نموه السريع يوما بعد يوم، تطرح العديد من المخاوف والتساؤلات حول ما إذا كانت السياسة الحالية بشأن الملكية الفكرية والإبداع متوازنة أم بحاجة إلى تعديل، وهل فمن الممكن ضمان أن تقنيات الذكاء الاصطناعي لا تنتهك تصرفات الإنسان وخصوصيته ولا تشكل أي نوع من التناقض مع المفهوم التقليدي للإبداع.

وتكمن المشكلة الأكبر في تحديد من يملك حقوق الطبع والنشر عند إنشاء المحتوى بمساهمة الذكاء الاصطناعي، فضلاً عن صعوبة إثبات الملكية الفكرية وتسجيلها، الأمر الذي يأتي مع العديد من التعقيدات التي تؤثر على هذه العملية.

ومن الممكن أن يشكل هذا التطور التكنولوجي تحديًا لأنظمة حماية الملكية الفكرية التقليدية، حيث يمكن للذكاء الاصطناعي أن يكون قادرًا على توليد محتوى جديد وابتكارات ذاتية دون تدخل بشري.

على مستوى التأمين :

       وكان الهدف هو توفير فرص جديدة وتحسين العمليات التقليدية من خلال تحسين تحليل المخاطر على أساس استخدام تقنيات لتحليل كميات هائلة من البيانات الشخصية والسلوكية بسرعة وبدقة أكبر من أجل توفير التأمين الذي يعكس احتياجاتهم الحقيقية وتقديم أسرع وأسرع أكثر. خدمات شخصية بسعر معقول والتصميم. سياسات فعالة مبنية على بيانات حقيقية لتوقع المخاطر.

لكن القضية سارت بشكل خاطئ، حيث أثارت عددًا من القضايا القانونية والأخلاقية. يمكن أن يعتمد استخدامها لجمع وتحليل كميات هائلة من البيانات على تقنيات معقدة ويصعب فهمها. أصحابها، مما يعني أنه من الممكن الوصول إلى هذه البيانات الشخصية بسبب عدم وجود معلومات محسنة أو أن المؤمن عليه قد يتعرض للتمييز وانعدام الشفافية في تقديم التأمين واتخاذ القرارات.

أما بالنسبة للتسعير، فمن الممكن أن يؤدي الذكاء الاصطناعي إلى تقلبات غير متوقعة في أسعار التأمين مما قد يؤثر على قدرة حامل وثيقة التأمين على تحمل التكاليف.

لقد أدى التطور إلى تحسين الجودة والإنتاجية، والتنافس بين العمال والآلات لإنتاج الأفضل، ومواكبة الاقتصاد والاستثمار، وتخفيف ضغط العمل من خلال إنجاز المهام. المهام الصعبة. مما تسبب في انخفاض فرص العمل وتقليص العديد من الوظائف التقليدية، فضلاً عن استنفاد حقوق العمال مثل التغطية الصحية والحق في التأمين...

ونذكر بشكل خاص تأثير ذلك على المهن القانونية مثل المحامين، إذ أصبحت الروبوتات في عصرنا تمارس هذه المهنة، إذ تستطيع الأخيرة التقاضي والالتقاء بالعملاء وتقديم المشورة القانونية مع الدعم القانوني وإجراء الإحصائيات والتنبؤ بالنتائج وتقليل عدد البشر. الأخطاء، مما يقلل الوقت والجهد.

ومع ذلك، فإنه يحمل في الوقت نفسه تهديدات وتحديات محتملة، مثل التأثير على سوق العمل وزيادة المنافسة.

قد يكون من الصعب تدريب وتطوير المحامين الذين يمكنهم استخدام الذكاء الاصطناعي بشكل فعال.

وقد تنشأ قضايا تتعلق بجمع وتبادل البيانات الشخصية والمعلومات القانونية، وكذلك قضايا تتعلق بالمساءلة عن القرارات التي تتخذها التكنولوجيا وتأثيرها على الحقوق الفردية، كما أن الروبوت الذي يتلقى البيانات سيكون متحيزا ويتم برمجته على هذا الأساس. متحيزة، وبالتالي سيكون للقضية تأثير سلبي على مفهوم العدالة والنظام ككل.


على مستوى اتخاذ القرار:

ويجب على كل من يشغل منصب اتخاذ القرار أن يتمتع بصفات العدالة والإنصاف والمساواة والحياد. هذه الصفات نجدها في البشر، لكنها غير موجودة بشكل ملموس في الآلات، لأنها تفتقد المشاعر والأحاسيس ولا تدركها. كيف يمكننا أن نتخيل القاضي كإنسان آلي يتخذ القرارات؟ وهل سيؤثر هذا التغيير على نظام العدالة إيجاباً أم سلباً؟ كيف سيتم التواصل بين القاضي والمحامي والشعب؟ بمعنى آخر هل سيكون هناك تفاعل بين الإنسان والآلة في اتخاذ القرار؟

كيف يمكننا أن نثق بشيء قمنا بإنشائه وتطويره وبرمجته؟ ومن الممكن أن يخرج عن نطاق السيطرة إذا تم تصميمه للمراقبة الذاتية واتخاذ قرارات خاطئة بناءً على أخطاء فنية وتحليلية، مما يؤدي إلى تفاقم التمييز والعنصرية، خاصة إذا تم برمجته بناءً على بيانات متحيزة. وهذا سيرفع سقف المشاكل والتحديات بالنسبة لنا. لن تكون هناك ثقة في نظام العدالة ونريد الجودة والإنتاجية وإرساء العدالة والمساواة.

 على مستوى الزواج والأسرة:

      بسبب كثرة حالات الطلاق بسبب قلة التواصل والتفاهم وسوء اختيار شريك الحياة، يتجه بعض الأشخاص إلى الزواج أو الزواج من الروبوت لأنه مبرمج لتقليد الطبيعة البشرية والقيام بجميع المهام الزوجية. . إلا أن الأمير يعتمد على مدى اكتساب الروبوت للطابع الاجتماعي[4].

وترتبط مسألة الزواج هذه بالحقوق والهوية والنظام والقانون. بالزواج من الروبوت، هل ستبقى الحقوق والواجبات الناتجة عن هذا الزواج كما هي، أم يجب تغيير القانون بشكل جذري، خاصة في مسائل الميراث؟ هل يمكن للروبوت أن يرث من الإنسان؟ ماذا عن مسألة هوية وملكية الروبوت؟ وفي النهاية، هل سيكون الشخص المتزوج من الروبوت آمنًا، أم أن زواجهما به مخاطر أمنية كثيرة وتهدد حياة الطرف الآخر؟

ولا أعتقد أن مشرع مجتمعنا سيوافق على هذا الزواج الذي يخالف الدين والمنطق ويخل بالنظام العام ويزعزع استقراره. والهدف الأسمى من الزواج هو الحصانة والعفة والاستقرار وتكوين الأسرة الصالحة في المجتمع. وهذا الزواج سوف يجفف النسل ويخلق العديد من المشاكل. وهذا سوف يؤدي إلى مزيد من تدمير الثقة في مؤسسة الزواج.

أما بالنسبة للعائلة، فالروبوت المبرمج للقيام بالأعمال المنزلية ليس مثاليا أو معصوما من الأخطاء، لكن إذا تعددت أخطائه فإن تأثيرها على المجتمع سيكون أكثر خطورة وخطورة وعنفاً.

وعلى وجه الخصوص، فإن الروبوت مبرمج ليتخذ قراراته بنفسه، لأنه كلما تطور، كلما أصبحت أهدافه غير متوافقة مع أهداف البشر، وبالتالي سيتخذ قرارات تضر بصاحبه، كما حدث مع روبوت أليكسا. والتي تعمل باستخدام تقنية التعرف على الصوت، قامت بتشغيل أفلام إباحية لطفل صغير لأنها تعرفت على صوته بطريقة زائفة[5].

فيما يتعلق بإبرام العقود:

      يقدم الذكاء الاصطناعي العديد من الإضافات لعملية عقد الصفقات. يمكنها تصحيح الأخطاء اللغوية ووضع الصياغة القانونية المناسبة. كما أنه قادر على تحليل العقود واستخلاص المعلومات بدقة وسرعة كبيرة. يساعد الأطراف على تقدير نتائج العقد وآثاره. ويكتشف الأخطاء المحتملة في العقود، مما يسهل عملية الشراء، لكنها تظل في النهاية غير مكتملة لأنها لا تزال بحاجة إلى التوجيه البشري لفهم سياق وظروف كل عقد. يمكن أن تحدث الأخطاء نتيجة للتحليل السيئ، وهذا يمكن أن يسبب مشاكل مع أخطاء مثل المسؤولية والسرية.

ويظل من الصعب على تقنيات الذكاء الاصطناعي أن تتفاعل مع الأطراف بنفس طريقة تفاعل البشر، خاصة عندما يتعلق الأمر بالترجمة القانونية والدقيقة لبنود العقود والمصطلحات القانونية والتحكيمية. والتوفيق.

في تجربة سابقة على فيسبوك، ساعد روبوتان، هما أليس وبوب، في إبرام صفقة. طُلب منهم الدخول في حوار، وبدأ الحوار بالفعل باللغة الإنجليزية التي تمت برمجتهم على التحدث بها، وسارت الأمور على ما يرام. "وفجأة بدأ التواصل بلغة أخرى طوروها بأنفسهم ولم يفهمها أحد، مما أخافهم، وتوقف العلماء والتجربة بسبب جهلهم بالحوار الذي دار بينهم والذي أشبه في وقت ما بثورة الآلة ضد الإنسان[6].

في هذا المثال، إذا خرجت هذه الروبوتات عن السيطرة وسيطرت وألحقت الأذى بشخص ما أو ارتكبت جريمة، فمن المسؤول؟


المبحث الثاني: المسؤولية المدنية والجنائية عن استخدام الذكاء الاصطناعي

المسؤولية الناشئة عن استخدام الذكاء الاصطناعي لها أهمية كبيرة، لأن الأسئلة التي تطرح عند ارتكاب جريمة ما عن طريق الذكاء الاصطناعي أو عندما يحدث الضرر بسببه هي ما إذا كان من المسؤول، سواء كان صاحب التطبيق أو التطبيق مالك. نفسه.

وقد قررت أن أتحدث عن نوعي المسؤولية المدنية في المطلب الأول وأن أسند المطلب الثاني إلى المسؤولية الجنائية والأخلاقية عند استخدام الذكاء الاصطناعي.

المطلب الأول: المسؤولية المدنية عن استخدام الذكاء الاصطناعي

ونعلم أيضًا أن المسؤولية المدنية يمكن أن تقوم على فكرة العقد، أو على فكرة حفظ الأشياء، أو حتى على فكرة مراقبة تصرفات المرؤوس[7]. وتنقسم إلى مسؤولية الإهمال، والتي تتطلب ثبوت الخطأ والضرر والسببية، والمسؤولية التعاقدية على أساس العقد، وتنشأ المسؤولية في حال المخالفة، إما في عدم تنفيذ الالتزام، أو في تأخير تنفيذه.

أما بالنسبة للمسؤولية في مجال الذكاء الاصطناعي، فتدور نقاشات حول من يتحمل مسؤولية الأفعال أو النتائج التي يحققها الأخير.

إذا كانت المسألة هنا هي الضرر، فسيكون من الصعب إثبات أن الذكاء الاصطناعي هو صاحب الخطأ وإثبات أن الخطأ تسبب في هذا الضرر، والخيار الوحيد المتبقي هو إثبات العلاقة السببية بين الخطأ والضرر، لكن المشاكل لا تزال قائمة، حتى لو أصبح الدليل من يتحمل المسؤولية، خاصة إذا كان الأمر كذلك. الذكاء الاصطناعي مستقل ولا يخضع لأي توجيه بشري.

في رأيي المتواضع، من غير المنطقي أن ننسب المسؤولية إلى الذكاء الاصطناعي، حتى لو كان مسؤولا، فليس له وجود قانوني أو شخصية اعتبارية، لأنه يبقى ملكا لصاحبه، لأنه انعكاس لنوايا صاحبه. . لما برمجه للقيام به. ولذلك يمكن الاعتماد على حفظ الأشياء كشيء وليس كموضوع لإسناد المسؤولية إلى صاحبها الذي أهمل في تصميمها، أو من الممكن الاعتماد على فكرة ما ينشأ من تصرفات تابعه. ولو كان صاحبها صارماً في تفعيلها وبرمجتها، لما وصل الأمر إلى هذا، لأنه كان على علم باحتمال أن يكون الأمر خطيراً. إلا أنها تحملت هذه المخاطرة على عاتقها، أو يمكن إلقاء اللوم على مستخدمها، الذي كان هو الآخر على علم بمخاطرها ومع ذلك استخدمها واستخدمها.

تنطبق نفس الفكرة أيضًا عندما نواجه مسؤولية تعاقدية عند عدم إبرام العقد أو عدم تنفيذه أو تأخيره. ولو كان هناك سهو لما سار الأمر على هذا المنوال. فلماذا نثق به، مع العلم أن هناك مخاطر، ثم نحمله المسؤولية بعد ذلك؟ ويجب علينا على الأقل أن نتقاسم معه بعض المسؤولية إذا أردنا أن ننسبها إليه. ولماذا نحاول دائما الهروب من مسؤولياتنا، وهذا ما نجده في أغلب الأحيان في الشركات النامية، حيث أنهم يعزون الخطأ الذي يحدث إلى خلل في التطبيق أو الجهاز، أو يفرضون عليك شروطهم عند الاشتراك إلى تطبيق معين، فقط لكي يبتعدوا ويخبروك أنهم غير مسؤولين عما يحدث في المستقبل عند استخدام تطبيقهم. إذا وافقت فهذا سيسمح لك باستخدام تطبيقه مباشرة، وإذا رفضت فلن تتمكن من الاستفادة من التطبيق، حتى لو قمت بالاشتراك معًا وتنزيل تطبيقه، وفي نفس الوقت تريد حمل الغزو بخصوصيتك ومعلوماتك الشخصية، والتي يمكن أن تستخدمها ضدك أو تتجسس عليك. وفي النهاية، يتم إسناد المسؤولية إلى الطلب. فكيف يعقل أن هذا الطرف يسعى فقط للربح ولا يريد تحمل المسؤولية وإصلاح الضرر وإصلاح الضرر؟

المطلب الثاني : المسؤولية الجنائية والأخلاقية عن استخدام الذكاء الاصطناعي

يمكن أن تكون المسؤولية الجنائية هي المفتاح لمسألة المسؤولية برمتها، والتي من خلالها يمكننا إيجاد حل لجميع المشاكل القانونية المتعلقة بالذكاء الاصطناعي.

تشمل المسؤولية الجنائية قضايا تتعلق بانتهاك القوانين وارتكاب الجرائم بواسطة الذكاء الاصطناعي، الذي يمكنه استخدام المعلومات الشخصية لارتكاب جرائم متعددة، مثل تقديم معلومات كاذبة أو فبركة مقاطع فيديو أو إنشاء وإنشاء محتوى مزيف يمكن أن يضلل الناس، كما هو الحال القضية. مع المؤثرة صوفيا ميلا، وهي... في الأصل فتاة من العالم الافتراضي تم إنشاؤها بواسطة الذكاء الاصطناعي وفتحت حساب على منصة إنستغرام. وقام من خلال هذا الحساب بالاحتيال على المشتركين وسرقة أموالهم. ولا أعلم إذا كان هذا الحساب ملك لأحد. والغريب في هذا هو ما سيفعله الذكاء الاصطناعي بهذه الأموال. وكيف يمكن أن نلومه؟
وهناك توجهات تدعو إلى إعطاء الذكاء الاصطناعي الشخصية القانونية حتى يمكن تحميله اللوم والمسؤولية عما قد يرتكبه من جرائم. وعلى هذا الأساس يتم تحديد المسؤولية على النحو التالي:
    مالك التطبيق: فيما يتعلق بأداء التطبيق ونتائجه، والتي قد تشمل المسؤولية عن الأخطاء الفنية وسوء التصميم وعواقب سوء استخدام التطبيق.
التطبيق نفسه: عندما يعتبر التطبيق الذكي نفسه مسؤولاً عن القرارات والإجراءات التي يتخذها بشكل مستقل، دون أي توجيه بشري.
المستخدم أو المستفيد: إذا استخدم التطبيق بطريقة تخالف التعليمات والتحذيرات.

أما بالنسبة لي، فقد أوافق على إسناد المسؤولية لكل من المستخدم وصاحب التطبيق، لكنني لا أتفق مع مسألة إسناد الشخصية الاعتبارية. كيف يمكنك أن تأخذ شيئًا من صنعك وتروج له وتساويه بنفسك من خلال مقارنة نفسك به وإعطائه نفس الحقوق التي لك؟ فالخالق ليس هو الشيء نفسه كالقطعة الأثرية، كما أن الآلة ليست كذلك. كبشر، وهذا لا يمكن أن يكون كذلك، نحن الأصل، ونحن الذين خلقهم الخالق وتميزنا بالعقل والعلم والمشاعر والإدراك. نحن الذين طلبنا العلم حتى وصلنا إلى هذا الحد، ومن ثم أنشأنا الآلة لخدمتنا. أما الآلة فكانت مجرد مكان نخزن فيه البيانات التي تم جمعها طوال الوقت. إن هذه السنوات والقرون التي مضت لا يمكن أن تتفوق علينا، لأنها تظل دائما ناقصة وغير مكتملة. لقد خلق الإنسان في أفضل الظروف، والآلة ملزمة دائما بالصيانة والمعالجة، مثل تغيير جزء منها إذا تعطلت أو تآكلت أو تعرضت للصدأ. كما خلق الإنسان بجسم يدعم المناخ والطبيعة. لكن الآلة لم تقاوم الطبيعة.

تنتظر الآلة أن يبحث الإنسان ويستكشف ما يأتي ويخزن المعلومات التي تحصل عليها وتجمعها، وحتى إذا أصبحت متحكمة في نفسها، يمكن للإنسان أن يعيد برمجتها لتكون خاضعة له وفي خدمته ومنها، سوف افعلها. يبقى دائما في رتبة أقل منه.
وبالعودة إلى مسألة منح الشخصية الاعتبارية للذكاء الاصطناعي، فإن السؤال سيحل بشكل فعال مشكلة المسؤولية وفق هذا التوجه، وسيفتح العديد من المشاكل، لأن الجميع سيتهرب من المسؤولية وسيكون من السهل إلقاء اللوم على الذكاء الاصطناعي.
نحن البشر لدينا نوايا إجرامية، لكن الروبوتات لا تفعل ذلك. لتوضيح الفكرة بمثال يطبق إسناد المسؤولية إما لصاحب التطبيق أو المستخدم، عندما أقوم بصنع دواء من الممكن أن يسبب مضاعفات، تماما مثل اللقاح ضد مرض كوفيد، وهذا ما أقوله العديد من المضاعفات، فالشخص المسؤول هو صانع اللقاح، أو مثلا أصنع دواء وأضع تعليمات لمنع استخدامه بطريقة خاطئة، أو أجعله في متناول الأطفال أو أستخدمه من قبل النساء الحوامل. إذا حدث ضرر بسبب الدواء في هذه الحالات، فليس أنا المسؤول، بل المستخدم. الشيء نفسه ينطبق على الروبوت.

أما المسؤوليات الأخلاقية فهي مرتبطة بالقيم والمبادئ التي يجب أن يلتزم بها الذكاء الاصطناعي. ويجب على المطورين النظر في آثاره على المجتمع واتخاذ قرارات مبنية على أسس أخلاقية، حيث يجب عليهم اتباع المعايير الأخلاقية التي تنعكس بشكل إيجابي على التصميم والاستخدام. لكن حتى لو تمت برمجته على هذا الأساس، فإن القيم والمبادئ، حسب رأيه، مجرد مصطلحات لن يشعر بها. ولذلك فمن الواضح أن المسؤولية يجب أن تقع على صاحب التطبيق أو المستخدم.

تماما كما حدث مع تيك توك، حيث تم استجواب الرئيس المسؤول عن الفرع الأمريكي لهذا التطبيق الصيني الذي اجتاح أمريكا والعالم كله، وكان أساس هذه المحاكمة هو اعتبار التطبيق سلاحا يستخدمه الحزب الشيوعي الصيني من أجل تجسس. والسيطرة على ما يشاهده المستخدم الأمريكي واستغلاله للأجيال القادمة، كما دعوا إلى اتخاذ قرار بحظر التطبيق على المدى القصير واعتبار أن قانون حماية البيانات الشخصية هو السبيل الوحيد لمنع تواجد TikTok في الولايات المتحدة الأمريكية. ومرة أخرى لأن الأمر يتعلق بالقوة الناعمة للصين.

    خلاصة     

أود أن أؤكد على نقطة مهمة للغاية، وهي أن الإنسان يستفيد من حق المؤلف، بينما الذكاء الاصطناعي لا يستفيد، إذ أصدر مكتب الحقوق الفكرية بالولايات المتحدة قرارا يحظر منح حق المؤلف شهادة حق في الذكاء الاصطناعي لأن وهي ليست مؤهلة مثل البشر لحماية هذا الحق. ومن جانبه، كيف يمكن أن يعلق شرط منحه الشخصية الاعتبارية فقط لتحميله المسؤولية وفي نفس الوقت منحه حق المؤلف، والبشر يتمتعون بهذا الحق ويتوقعون احتمال "الخطر عندما يصنعون الروبوت،" تطبيق أو آلة، ومع ذلك لا يريدون تحمل المسؤولية، فهذا ليس عدلاً لأنه يملك حقوق الطبع والنشر ومن يملك الملكية الفكرية لما يبتكره عليه أن يتحمل العواقب.

بخلاف ذلك، هناك رأي آخر مفاده أن إيقاف الإنترنت لفترة، رغم أنه سيكون من الصعب التخلي عنه وسيكون أشبه بإيقاف الوقت، إلا أن الأمر يستحق ذلك حتى تتضح الأمور في هذا السؤال ويمكننا بعد ذلك تحديد ذلك مسؤولية استخدام الذكاء الاصطناعي. ومع ذلك، أجد أننا في النهاية سنعود إلى فكرة إسنادها إما إلى المالك أو المستخدم.

APPLE VISION PRO

"Get ready to dive into new worlds and
amazing experiences with the pioneering
Apple Vision Pro competition! Join now for
an unmissable opportunity to stand out and
discover your skills and innovations in the
world of virtual reality. Join us and be part
of this exciting journey!"

التنقل السريع