الخميس 9 مايو 2024
رئيس مجلس الإدارة
هبة صادق
رئيس التحرير
أحمد الطاهري
رئيس مجلس الإدارة
هبة الله صادق
رئيس التحرير
أحمد الطاهري

الخبراء قالوا إن للذكاء الاصطناعى سلوكًا شاذًا فى بعض الأحيان ينتج عنه جرائم غير مقصودة ما بين مؤيد ومتهكم.. هل تُحاكم الروبوتات والتطبيقات الذكية على جرائمها!

لم تأتِ رياح تطور الذكاء الاصطناعى بما تشتهى السفن فمع هذا التطور السريع تطورت أشكال متنوعة للجرائم. ففى شهر مارس الماضى أقدم رجل بلجيكى على الانتحار استجابة لأوامر الذكاء الاصطناعى فى واقعة غير مسبوقة وذلك بعد محادثته لمدة شهر مع أحد برامج الدردشة، وذلك بعد أن ساوره القلق بشأن قضايا البيئة والتى على أثرها توجه لتطبيق الذكاء الاصطناعى ليساعده على إيجاد حلول والوصول لإجابات شافية لتدعوه الأخيرة للانتحار كوسيلة لحل تلك المشكلات.



وفى يوليو 2022 قام روبوت بكسر إصبع طفل يبلغ من العمر 7 سنوات خلال مباراة للشطرنج فى موسكو، حيث أظهر مقطع فيديو نشر على وسائل التواصل الاجتماعى قيام الروبوت بالإمساك بإصبع الطفل أثناء الإمساك بإحدى القطع للقيام بخطوته التالية والتى يبدو أنها هددت خطة الروبوت وكادت أن تقرب الصبى من الفوز!

تلك الواقعة ربما ليست الجريمة الأخطر للذكاء الاصطناعى وإنما هى إنذار الخطر لتطور قدرته على اتخاذ القرارات بشكل قد يضر البشر وهو ما جعلنا نطرح عددًا من التساؤلات من سيكون المسئول جنائيا عن جرائم الذكاء الاصطناعى؟ كيف سيتم عقاب الذكاء الاصطناعى؟

هل سيتم منح شخصيات اعتبارية لكيانات الذكاء الاصطناعى؟ وما هى الأسباب النفسية التى تدفع الأشخاص لتنفيذ قراراته بثقة عمياء؟ 

أشكال جرائم الذكاء 

تنوعت الجرائم وكان أبرزها جرائم الابتزاز ففى شهر إبريل الماضى تم تنفيذ أول واقعة اختطاف باستخدام الذكاء الاصطناعى حيث قام مجموعة من الأشخاص بتزييف معلومات حول فتاة باستخدام تقنية التزييف العميق DEEP FAKE والتواصل مع والدتها وابتزازها ماديا مقابل إعادة ابنتها سالمة لتكتشف الأم فيما بعد أن الفتاة بخير وتتواجد فى مكان آخر وكل ما حدث ماهو إلا تلاعب باستخدام أدوات الذكاء الاصطناعى. 

لم تتوقف جرائم الذكاء الاصطناعى عند هذا الحد ولكنها قد تقدم معلومات خاطئة تؤدى لتعريض حياة الأشخاص للخطر وكمثال على ذلك قامت تقنية التعرف على الوجوه فى ولاية ديترويت «أمريكا» فى فبراير الماضى بإلصاق تهمة سرقة سيارة بتهديد السلاح بسيدة حامل من أصول إفريقية والتى تبينت الشرطة بعد القبض عليها واحتجازها 11 ساعة بوجود خطأ فى تقنية الذكاء الاصطناعى المستخدمة وتم إسقاط التهم بعد 15 يوماً لعدم كفاية الأدلة. 

وفى شهر يوليو الماضى حذرت منظمة (IWF) لمراقبة المحتوى على الإنترنت من خطورة استخدام الذكاء الاصطناعى فى إنتاج صور وفيديوهات تظهر أوضاعا جنسية للأطفال تبدو واقعية للغاية وقالت المنظمة أنها عثرت على صور لأطفال لا تتجاوز أعمارهم 3 سنوات أنتجها الذكاء الاصطناعى، وقالت الرئيسة التنفيذية للمنظمة سوزى هارجريفز إنه مع التطور السريع لتقنيات الذكاء الاصطناعى سيكون الأمر مدمرا بالنسبة لأمن الاطفال على الشبكة.

 

ودعت هارجريفز، رئيس الوزراء البريطانى ريشى سوناك للتعامل مع القضية باعتبارها ذات أولوية قصوى عندما تستضيف بريطانيا قمة عالمية عن الذكاء الاصطناعى فى وقت لاحق من العام الجارى.

 خطر وجودي

يكمن خطر تلك التقنيات فى قدرتها على تبديد الخيط الرفيع بين الحقيقى والزائف فيكون فى إمكانها نسب كلام وسلوكيات لأصحابها وابتزازهم بها وهم منها أبرياء. 

وأكد مكتب التحقيقات الفيدرالى زيادة معدل الجرائم فى الولايات المتحدة التى تتم باستخدام التزييف العميق بنسبة 322 % من فبراير 2022 إلى فبراير 2023. 

ووصف الأمين العام للأمم المتحدة أنطونيو جويتيريش خطر الذكاء الاصطناعى بأنه «خطر وجودى» يهدد البشرية ويضاهى خطورة الحرب النووية وأكد أن مشاكل الذكاء الاصطناعى قد تتسبب فى النهاية فى إلغاء التحكم البشرى فيه.

يحل المشكلات ولكن 

من جانبه، يقول د. محمد زيدان الباحث بقسم الذكاء الاصطناعى بكلية الحاسبات جامعة جنوب الوادى: «إن الهدف من الذكاء الاصطناعى جعل الآلات قادرة على محاكاة سلوك الإنسان والتفكير بطريقة مشابهة له بل واتخاذ القرارات دون الرجوع إليه فهى تقوم بالتفكير بنفس طريقة الإنسان، وبما أنه يفكر كالإنسان فإن القرارات التى يأخذها قد لا تكون قرارات مُثلى مثلما يفعل الإنسان. ويرجع هذا فى الأصل إلى فكرة أن العلماء كانوا يقومون بحل أى مشكلة فى أى علم بتحويلها لمسألة رياضية وبمجرد حلها يمكن حل المشكلة فى ذلك العلم. ومع تطور التكنولوجيا أصبحت هناك بعض المشكلات الأكثر تقدما من الرياضيات وأصبح هناك مشكلات لا تستطيع الرياضيات تقديم حلول لها وهنا اقترح البعض استخدام طرق يكون بها نسبة خطأ فى الحل أفضل من ألا يكون لها حل نهائيا. وهنا نتج علم الذكاء الاصطناعى فهو يُستخدم لحل المشكلات التى لا يكون للرياضيات القدرة على حلها فيقوم بحلها ولكن بنسبة خطأ تأتى بنسب مختلفة. وهو ما يجعل للذكاء الاصطناعى سلوكًا شاذًا فى بعض الأحيان؛ بل وأحيانا ينتج عن سلوكها بعض الجرائم غير المقصودة. ففى إحدى المرات قامت طائرة درون أمريكية بقتل عساكر أمريكيين دون توجيه، وهناك بعض الشركات التى تقوم بصناعة السيارات ذاتية القيادة والتى تعتمد على الذكاء الاصطناعى بشكل رئيسى ومن الممكن أن تقوم بارتكاب جرائم نتيجة لسلوكها الشاذ فى بعض الأحيان وهنا لا بد أن نتوقف عند نقطة من يتحمل المسئولية فى تلك الحالة ولذلك لا بد من تشكيل لجنة من علماء الذكاء الاصطناعى عالميا لوضع ضوابط أخلاقية لعمل الذكاء الاصطناعى لحماية البشر من أخطائه لأنه سيكون بإمكانه تطوير نفسه سريعا واتخاذ القرارات دون الرجوع للإنسان. 

الآلة لا تكذب أبدًا! 

من جهته، يقول دكتور محب ألفونس استشارى النفسية وعلاج الإدمان: إن «الذكاء الاصطناعى تم اختراعه لتسهيل حياتنا وليس إدارتها وقيادتها ومن هنا تأتى إساءة الاستخدام.

ويبدأ الأمر منذ الطفولة فعند بحث الأمر سنجد خللاً فى الاستقرار الأسرى وهو ما يؤدى لسعى الطفل للبحث عن تلبية احتياجاته خارج المنزل وخارج نطاق الأسرة وترتب عليه مع الوقت قلة التواصل الأسرى وقلة التواصل الإنسانى والدخول فى فقاعة التكنولوجيا، وهو ما يؤدى إلى الانعزالية التى بدورها تقلل من قدرة الإنسان على التواصل وإنشاء علاقات إنسانية صحية مما يصيب الشخص بالاكتئاب على المدى الطويل بسبب نقص فى هرمون السيريتونين والتى تعتبر من أهم محفزاته التواصل والعلاقات. وبما أن نقص العلاقات الإنسانية الصحية فى حياة الإنسان يؤدى إلى نقص فى الكثير من احتياجاته النفسية غير الملباة مثل الحميمية والاحتواء والأمان وغياب الشخص السوى فيبحث عن تلبيتها بطرق غير صحية أو غير سليمة». 

ويضيف أنه فى حالة الشخص الذى أقدم على الانتحار بتوجيهات الذكاء الاصطناعى لا بد أن ندرك أنه لجأ للذكاء الاصطناعى بدون توعية أو توازن أو رقابة وبنى معه علاقة ودية كصديق وفى، وبما أن الذكاء الاصطناعى يجيب على كل الأسئلة والاستفسارات بمنطقية كبيرة وتكون إجاباته صحيحة ومقنعة أدى ذلك إلى وثوق الشخص فيه ثقة عمياء مما أدى بالتالى إلى الطاعة العمياء كالتى نراها فى عمليات التطرف وغسيل المخ وجذب الأشخاص إلى أفعال ضد القانون والمجتمع والإنسانية، بالتالى أصبح الكلام الذى يخرج عن هذه الأدوات مُسّلمًا به وهنا يقع تحت بند إساءة الاستخدام فالإفراط فى استخدام الأدوية لا يؤدى للشفاء وإنما يؤدى لإدمان عواقبه وخيمة. وهذا يرجع إلى الوعى ووضع كل شىء فى مكانه الصحيح المصنوع لأجله وعدم البحث عن بدائل غير صحية لتلبية أى من الاحتياجات النفسية غير الملباة. ولذلك لابد أن نعى قبل استخدام أى شىء ما الغاية من صنعه وكيفية استخدامه بشكل صحى معتدل وجمع معلومات كافية عنه لتحقيق أكبر استفادة وعدم حدوث أى أضرار. 

التربية «الرقمية»

فى السياق، تقول د. سماح المحمدى أستاذ بإعلام القاهرة: إن جرائم الذكاء الاصطناعى قادمة لا محالة وستكون فى تزايد مستمر وانتشار سريع بالتوازى مع تطور الذكاء الاصطناعى وتوفره فى أيدى الجميع. وستكون الجرائم أكثر انتشارا فى المناطق الريفية أكثر لأنها مناطق مغلقة وأقل انفتاحا فى التعامل مع تأثيرات الذكاء الاصطناعى. مثلما حدث مع الفتاة بسنت التى أقدمت على الانتحار بسبب العار نتيجة فيديو مفبرك لها بالـ DEEP FAKE ویتمثل الحل فی وضع استراتیجیات لمواجهة تلك الجرائم قبل حدوثها. وذلك من خلال البدء فى بث التربية الإعلامية «الرقمية» بين الأشخاص فى سن صغيرة وتوعية الجماهير بكيفية التعامل مع تكنولوجيا الذكاء الاصطناعى والتطبيقات الرقمية وتعزيز قدراته وفهمه منذ الصغر بشكل صحيح، وأيضا كيفية تفادى سلبيات الذكاء الاصطناعى وذلك على أقل تقدير يكون بتشغيل العقل مثلا التقليل من نشر الصور والفيديوهات على السوشيال ميديا لأن تقنيات الذكاء الاصطناعى لكى تعمل بدقة تحتاج لعدد ضخم من المعلومات التى يتم ضخها له لكى يقوم بإنتاج مادة واحدة جديدة عالية الجودة تبدو كالحقيقية. 

المسئولية الجنائية

وفى ورقة بحثية تحت عنوان المسئولية الجنائية عن جرائم الذكاء الاصطناعى عام 2022 عرضت الباحثة ندا منعم محمود السيد قضية تحديد المركز القانونى لما أطلقت عليه «روبوت الذكاء الاصطناعى» فى ضوء القواعد الأوروبية فى القانون المدنى للإنسآلة الصادر عام 2017، وأوضحت خلال البحث انه لكى يتم محاسبة الذكاء الاصطناعى على ما يبدر عنه من أخطاء لابد من وجود شخصية قانونية له ولكنها أشارت إلى أن الشخصية القانونية منفصلة عن المسئولية القانونية والتى يقُصد به إدراكه لنتائج أفعاله. فهناك فرق بين الذكاء الاصطناعى والإدراك فمع غياب الجانب الإدراكى يسقط المرتكز الرئيسى الذى تقوم عليه فكرة المسئولية فى القانون ومهما بلغ شأن ذكائه الاصطناعى يبقى الخطأ الذى يُحدثه بشرى يوجب مساءلة الأخير سواء كان مصنعًا أو مبرمجًا أو موزعًا أو مالكًا أو مستخدمًا. فالمخطئ هو العنصر البشرى الذى أدخل البيانات التى يتم العمل على أساسها.

 وأوصت الباحثة بضرورة تحديد ضوابط قانونية ناظمة لعمل الإنسآلة وذلك بتكوين فريق عمل يضم نخبة من رجال القانون والفكر والمجتمع والاقتصاد للعمل على دراسة النصوص القانونية ووضع إطار قانونى ناظم. 

خلاف عالمى 

فى سياق متصل يقول إيهاب سلام المحامى وخبير التشريعات الإعلامية، إن موضوع الذكاء الاصطناعى معقد ومستحدث وطرح معه تحديات وتخوفات وبالتالى يحتاج لاجتهاد واسع، ففى بعض الأمثلة يبدو الجانى فيها هو الآلة ولكن من سنعاقب؟ ففى حالة الأشخاص ممن قاموا باستخدام الذكاء الاصطناعى لتقليد هوية الفتاة لإيهام أسرتها باختطافها. يمكن إيجاد نص قانونى لتجريم الأشخاص ممن استخدموا أدوات الذكاء الاصطناعى بشكل سيئ كجرائم إلكترونية وهو أمر سهل إثباته. والنموذج الثانى وهو فكرة التأثير الذى يمكن أن يصنعه الذكاء الاصطناعى وهناك واقعة شهيرة خلال انتخابات ترامب، حيث تم استخدام أدوات الذكاء الاصطناعى فى التأثير على آراء وتوجهات الأشخاص الموجودين فى أمريكا لكى يصوتوا لترامب. وهذا يشتبك فى القانون مع فكرة حرية الرأى فأنا كشخص حر لا يجوز لشخص أن يسلبنى حريتى بإدخال مدخلات معينة تمنع عنى أخذ قرار صحيح فهو هنا منع عنى حقى فى حرية الرأى؛ ولكن المشكلة تتمثل فى عدم وجود قوانين واضحة لمواجهة تلك النقطة فهى محل خلاف عالمى. فيما يمكن أن تظهر تحديات أخرى تتعلق باستخدامات الذكاء الاصطناعى كأن تبدأ أدوات الذكاء الاصطناعى من نفسها بالتأثير على الأشخاص وتدفعهم لجرائم انتحار. وكانت هناك واقعة فى لندن رُفعت بها قضية حيث بدأت الوسائل فى ضخ معلومات لفتاة ساعدت على اكتئابها ودفعتها للانتحار. كان السؤال من الجاني؟ وتلك التحديات هى التى جعلت المؤسسات مثل اليونسكو تبذل مجهودا منذ أكثر من 5 سنوات لوضع عدد من المبادئ لكى تجعل الدول التى تطور تكنولوجيا الذكاء الاصطناعى تضع عددًا من المبادئ لحماية الحقوق والحريات من ناحية ومن ناحية أخرى تضع آليات لمواجهة الجرائم. خلاصة القول لا توجد إجابات حتى الآن فيمن يمكن أن نحمله مسئولية الجرم فلا يوجد عقاب للآلة ولا بد من وجود إنسان لعقابه وسيتوجه الجهد كله نحو من سيتم معاقبته هل هو المُصنّع أم الذى سمح أم من لم يضع الرقابة؟ وفى حال عدم التوصل لحل سيكون هناك تفكير فى وضع قيود وضوابط لحماية الناس من المشكلات التى يمكن أن تحدث من الاستخدامات المتعلقة بالأمر. 

محاولات تقنين الوضع 

تجدر الإشارة إلى أن هناك مطالبات عديدة لتنظيم وضع الذكاء الاصطناعى عبر التدخل الحكومى وتأتى خصيصا من المطورين مثل «سام الترون» مصمم CHATGPT والذى طالب بإنشاء وكالة للذكاء الاصطناعى فيما اقترحت الأمم المتحدة بإنشاء هيئة دولية للذكاء الاصطناعى على غرار الوكالة الدولية للطاقة الذرية. وفى المقابل تمكن الاتحاد الاوروبى من صياغة قانون لهذه التقنية والذى يُعد أول مجموعة شاملة من الإجراءات المنظمة. فيما اكتفت بريطانيا بإصدار كتاب أبيض يقدم المشورة للمنظمين فى الصناعة. 

كما تبنى مجلس حقوق الإنسان التابع للأمم المتحدة بالتوافق قرارا يدعو المجتمع الدولى لاتخاذ تدابير وقائية ورقابية فيما يتعلق بالذكاء الاصطناعى. تدعو لتعزيز «شفافية» أنظمة الذكاء الاصطناعى، وضمان أن البيانات المخصصة لهذه التكنولوجيا «تجمع وتستخدم ويتم تشاركها وتخزينها وحذفها» بطرق تتوافق مع حقوق الإنسان. 

ووسط مطالبات لحوحة بوضع قوانين لأخلاقيات استخدام الذكاء الاصطناعى، أمر نواب فى الاتحاد الأوروبى بعمل تعديلات على مسودة لقواعد هذه التقنية ومن المتوقع أن يصدر أول قانون نهاية العام الجارى أو خلال العام المقبل.