ينعكس التحيز في قرارات الذكاء الاصطناعي على سبيل المثال، في الأنظمة القضائية أو في التوظيف
من الأضرار الواضحة للذكاء الاصطناعي انتهاك الخصوصية حيث لا تعرف الآلة متى وأين تقف ولماذا؟
يمكن أن يقضي الذكاء الاصطناعي في رمشة عين على حقوق الملكية الفكرية وجهود منظمة “الوايبو”
الذكاء الاصطناعي (AI) أصبح في السنوات الأخيرة محط اهتمام كبير على الأصعدة المختلفة، سواء أكان ذلك في مجال البحث العلمي أم التكنولوجيا أم حتى في النقاشات الأخلاقية. ومن بين أبرز القضايا التي تثير الجدل حول الذكاء الاصطناعي هي المخاوف من سوء استخدامه، وخصوصًا في قضايا أخلاقية وقانونية، مثل التعدي على الملكية الفكرية، والمخاوف المتعلقة بالتحكم في هذه التقنيات. وفي المقابل نشأت هناك أفكار وجهود تشريعية محلية وإقليمية ودولية لإيجاد حلول ناجعة لهذه التحديات قبل أن تتفاقم المشكلات.
أولًا: المخاوف الأخلاقية من الذكاء الاصطناعي:
الذكاء الاصطناعي يحمل في طياته إمكانيات هائلة، لكنه يثير قضايا أخلاقية معقدة تتعلق باستخدامه في مجالات مثل:
التمييز والتحيز (Bias): الذكاء الاصطناعي يعتمد على البيانات التي يتدرب عليها. إذا كانت هذه البيانات تحتوي على تحيزات (مثل تحيزات عرقية أو جنسانية)، فقد ينعكس هذا التحيز في قرارات الذكاء الاصطناعي. على سبيل المثال، في الأنظمة القضائية أو في التوظيف، قد يؤدي ذلك إلى تمييز ضد فئات معينة من الناس.
الخصوصية: الذكاء الاصطناعي يعتمد على جمع وتحليل كميات ضخمة من البيانات. هذه البيانات يمكن أن تحتوي على معلومات حساسة، مما يثير قلقًا بشأن كيفية استخدامها وحمايتها، وكيفية تفادي انتهاك خصوصية الأفراد.
اتخاذ القرارات: عندما يستخدم الذكاء الاصطناعي في اتخاذ قرارات هامة (مثل الرعاية الصحية أو تحديد العقوبات القضائية)، هناك مخاوف من أن هذه الأنظمة قد تفتقر إلى الوعي الأخلاقي والتفكير العميق الذي يمتلكه البشر، مما قد يؤدي إلى قرارات غير عادلة أو غير إنسانية.
ثانيًا: المخاوف المتعلقة بسوء الاستخدام
التعدي على الملكية الفكرية: يمكن للذكاء الاصطناعي أن يولد محتوى جديدًا مثل النصوص، الصور، أو حتى الموسيقى بناءً على البيانات التي تم تدريبه عليها. في بعض الحالات، قد ينتج هذا المحتوى بشكل يشبه أعمالًا محمية بحقوق الملكية الفكرية، مما يثير قلقًا حول حقوق المؤلف وكيفية حماية الأعمال الإبداعية من الاستنساخ أو التعديل دون إذن.
الهجمات السيبرانية: يمكن استخدام الذكاء الاصطناعي في تحسين الهجمات السيبرانية، مثل الفيروسات الذكية أو برامج الفدية. هذه الأنظمة يمكنها تعلم تكتيكات متقدمة للتهرب من الدفاعات الرقمية، مما يجعلها تهديدًا أكبر للأمن الإلكتروني.
الذكاء الاصطناعي العميق (Deepfake): يمكن استخدام الذكاء الاصطناعي لإنشاء مقاطع فيديو أو صوت مزيف بطريقة تبدو واقعية للغاية، مما قد يؤدي إلى نشر معلومات خاطئة أو تلاعب بالصورة العامة للأفراد. هذا يمكن أن يستخدم في التلاعب السياسي أو التشهير.
استخدامه في الحروب: هناك أيضًا مخاوف بشأن استخدام الذكاء الاصطناعي في تطوير الأسلحة الفتاكة، مثل الطائرات المسيرة التي تعمل بالذكاء الاصطناعي، مما يثير تساؤلات حول ما إذا كان ينبغي منح هذه الأنظمة القدرة على اتخاذ قرارات مستقلة بشأن الحياة والموت.
ثالثًا: التحديات القانونية
بجانب المخاوف الأخلاقية، هناك تحديات قانونية كبيرة بشأن الذكاء الاصطناعي:
حقوق الملكية الفكرية: هل يمكن اعتبار المحتوى الذي أنشأه الذكاء الاصطناعي ملكًا لأحد؟ من هو المسؤول عن استخدام هذه الأنظمة في حالة حدوث انتهاك لحقوق الملكية الفكرية؟
الحاجة إلى تنظيم عالمي: لا تزال العديد من البلدان تتعامل مع الذكاء الاصطناعي بطرق مختلفة. في حين أن بعض الدول قد تبنت قوانين لتنظيم استخدام الذكاء الاصطناعي (مثل الاتحاد الأوروبي الذي وضع لوائح لحماية البيانات والخصوصية)، لا يزال هناك نقص في التنسيق العالمي بشأن كيفية تنظيم هذه التقنيات.
رابعًا: كيف يمكن التعامل مع هذه المخاوف؟
هناك العديد من المقترحات التي تهدف إلى الحد من المخاوف الأخلاقية والقانونية المتعلقة بالذكاء الاصطناعي:
وضع قوانين وتشريعات واضحة: يجب وضع أطر قانونية تنظّم استخدام الذكاء الاصطناعي، بحيث تشمل مسائل مثل حماية الملكية الفكرية، منع التمييز، وضمان الشفافية والمساءلة.
مبادئ أخلاقية في تصميم الذكاء الاصطناعي: يجب على الشركات والمطورين اتباع معايير أخلاقية عند تطوير تقنيات الذكاء الاصطناعي. على سبيل المثال، يمكن أن تركز المعايير على الشفافية، العدالة، وتجنب التحيز.
التعاون الدولي: نظرًا للطابع العابر للحدود للتقنيات الحديثة، يجب أن يكون هناك تعاون دولي لتنظيم الذكاء الاصطناعي، بحيث يتم تحديد إطار عمل عالمي متسق.
التعليم والتوعية: من المهم زيادة الوعي حول الذكاء الاصطناعي، ليس فقط في الأوساط الأكاديمية والتقنية، ولكن أيضًا بين الجمهور العريض، لضمان فهم المخاطر والمزايا المرتبطة بهذه التقنية.
الإنسان وتطور مناحي الحياة
وفي هذا السياق، علق المستشار والخبير القانوني، د. عبد القادر ورسمه غالب، قائلًا: “يعتمد الإنسان من بداية الخليقة على يديه في كل مناحي الحياة. وهذا يشمل، الأكل والشرب والملبس والدفاع عن النفس وغير ذلك من ضروب الحياة اليومية. وتطور الإنسان، وبدلًا من الاعتماد على يديه حافيتين، بدا يستعمل الحجارة مع بداية العصر الحجري في الصيد والبناء والدفاع عن النفس وخلافه. ومع المباني الحجرية بدأ نوع من الاستقرار المكاني. ومع هذه المرحلة الجديدة، تطور الإنسان وانتقل إلى عصر الزراعة وتربية الحيوان، وهذا قاد لحياة جديدة مملوءة بالإنتاج وتطور الحياة اليومية والمزيد من الاستقرار، مما أدى بدوره لبداية الصناعة في الآلات التي تساعد الإنسان في حياته. وكانت الثورة الصناعية قفزة كبيرة جدًّا وتغيرت كل مناحي الحياة وازدهر التعليم وتطور الإنتاج، وهذا بدوره قاد إلى الثورة الصناعية الرابعة التي أتت بفضل استخدام التقنية الحديثة”.
وأضاف د.ورسمه: “التقنية الحديثة، أصبح التعامل معها أمرًا ضروريًّا جدًّا بل لازمًا حيث نجدها وراء كل خطوة وكل عمل للإنسان على مدار الساعة. وتطورت التقنية الحديثة حتى وصلت لمرحلة الذكاء الاصطناعي، أي ذكاء الآلة بدلًا عن ذكاء الإنسان الطبيعي. والإنسان ظل يصنع الآلة لاستخدامها حسب حاجته، ولكن تطور الأمر وأصبح استخدام الآلة يتم بواسطة برمجة الذكاء الاصطناعي، وهذا قد يتم على حساب الإنسان لإحلال الآلة مكانه لتعمل بنفسها وفق البرمجة التي تتم لها. وهكذا يحتل الذكاء الاصطناعي مكان الذكاء البشري الطبيعي خلق الله.. وهنا تبرز المشكلة”.
واستطرد الخبير القانوني قائلًا: ”انبهر العالم بالذكاء الاصطناعي، وأصبح الجميع لا همّ لهم سوى الذكاء الاصطناعي والجميع يقول نحن نستخدم الذكاء الاصطناعي وما لهذا إلا الذكاء الاصطناعي؟ وهكذا يستمر الانبهار، بدون ترتيب أو فهم أو إدراك لمدى الذكاء الاصطناعي وإلى أين يقودنا هذا الذكاء الاصطناعي الآلي عديم الإحساس عديم المشاعر”.
وردا على سؤال هل تقف البشرية ضد الذكاء الاصطناعي ومعادته ، أوضح الخبير القانوني: “من دون شك، فإن التقنية مطلوبة بل ضرورة حتمية من ضرورات الحياة اليومية. ومن دون شك، أن تقنية الذكاء الاصطناعي مطلوبة بل أيضا هي ضرورة حتمية لاستمرار الحياة وفق المعايير التقنية والحياة التقنية التي نعيشها. ويجب ألا يفهم أننا ضد التقنية أو ضد مخرجاتها بما في ذلك الذكاء الاصطناعي. بل على العكس، نحن نرحب بالتقنية في كل أشكالها وكل مخرجاتها. ولكن، وفق الضوابط الأخلاقية والقانونية والممارسات التقنية الفنية السليمة”.
وبشأن المخاوف الماثلة من تقنيات الذكاء الاصطناعي، قال د. ورسمه: “من الأضرار الواضحة للذكاء الاصطناعي، نجد انتهاك الخصوصية حيث لا تعرف الآلة متى تقف وأين تقف ولماذا تقف؟ وفي هذا انتهاك للخصوصية الشخصية والخاصة وانتهاك للقانون مما يسبب أضرارًا للغير، بدون شعور الآلة عديمة الشعور. وهذا قد يحدث عند استخدام الروبوت أو الدرون أو السيارة بدون سائق أو غيرها من الآلات المستخدمة في الذكاء الاصطناعي، وقد تنقلب السيطرة على الآلة وهنا مكمن الخطر على الإنسان بل على البشرية جمعاء.
ومن الأضرار والمخالفات القانونية أيضًا، نلاحظ بوضوح أنه عندما تتم المحادثة والنقاش والأسئلة والأجوبة عبر الذكاء الاصطناعي التوليدي “جنريتف أرتفيشيال انتلجنس”، تتم الإجابة الفورية بالاستعانة مما كتبه الآخرون، وفي هذا تعد واضح وصارخ لحقوق الملكية الفكرية دون الإشارة للكاتب أو الباحث الأصلي”.
حقوق الملكية الفكرية
ومضى الخبير القانوني بالقول: ”لقد اجتهد القانون والعالم بضراوة لخلق حقوق الملكية الفكرية والحفاظ عليها لدعم الفكر الثاقب والابتكار المبدع، وهكذا، تأتي موجة الذكاء الاصطناعي وتقضي في رمشة عين وبدون شعور على كل حقوق الملكية الفكرية ومنتجات منظمة “الوايبو” التي أنشأت للحفاظ على الملكية الفكرية. من الانتهاكات القانونية للذكاء الاصطناعي، نلاحظ جليًّا أن الآلة تنطق وفق أفكار المبرمجين ومنهم دعاة العنصرية والتفرقة وبث الأفكار غير السليمة. وجميعنا يعلم، أن الذكاء الاصطناعي عندما يسأل مثلًا عن (الإرهاب) يقول مباشرة (.....) ويشير إلى جنس معين. وهذا يربي أفكارًا عنصرية في عالمنا بدون مبرر.
إضافة لهذا، ونحن في عصر “البيانات” والحماية القانونية لجميع البيانات الشخصية في جميع أشكالها، وهذه الحماية يهددها الذكاء الاصطناعي ولا يتقيد بها وفي هذا مضار قانونية عديدة. فكيف نلزم أنفسنا بحماية البيانات بينما نترك الساحة للذكاء الاصطناعي ليعمل كما يحلو له دون رادع أو كابح.
انتباهة دولية
واستطرد د. ورسمه قائلًا :”الأمين العام للأمم المتحدة، أنطونيو غوتيريش، ذكر قبل فترة بسيطة أن الذكاء الاصطناعي أخطر من القنبلة الذرية إذا لم يتم السيطرة عليه. وهذه الفكرة أيضًا أيدها قبل أيام حائزو جائزة نوبل للعلوم نظير أعمالهم فيما بتعلق بالذكاء الاصطناعي، وقالوا إنه خطير جدًّا وقد يهدّد البشرية إذا لم يتم وضعه تحت السيطرة الكاملة.
والجميع الآن يتحدث عن ضرورة، وضع معايير أخلاقية للسيطرة على الذكاء الاصطناعي ومخرجاته. ولكن هل المعايير الأخلاقية تعتبر “قانونًا” ولها الصفة الإلزامية وفرض العقوبة عند الفشل أو ارتكاب الخطأ. إن وضع معايير أخلاقية سيكون له مردود ولكن محدود جدًّا لأنها بلا أسنان تعض. ونحتاج لوضع قوانين تعرف الذكاء الاصطناعي وكنهه وتحكم ممارساته وتعاقب المخالف، وهذا مطلوب لوضع العربة في خط السير السليم للوصول للهدف السليم.
وتابع: “كل التقنية عندما ظهرت بدأت بعض فوائدها، ولكن الفائدة الجلية ظهرت بوضوح بعد تقنين الممارسات التقنية واجازة قانون المعاملات الإلكترونية الذي منح التقنية الروح والحياة في حياتنا، ولولا هذا القانون لظلت التقنية بدون فائدة. وكذلك، تم وضع قوانين الجرائم الإلكترونية والسيبرانية، وهذا وضع صمام الأمان للتعاملات الإلكترونية ومعاقبة كل مجرم يتجوّل داخل إطار الأعمال الإلكترونية. بهذه القوانين، ساعدنا التقنية لخدمة المجتمع وهذا يجب أن يكون المسار أيضًا لكل مخرجات التقنية وتشعباتها وتطوراتها بما في ذلك الذكاء الاصطناعي وما يأتي منه في المستقبل.
جهود بحرينية
وبشأن الجهود المحلية ذكر د. ورسمه “في مملكة البحرين، بدأت الخطوات لإصدار قانون بتنظيم تقنيات الذكاء الاصطناعي، وهو أمام مجلس الشورى حسب علمي، وهذه خطوة حميدة تجعل البحرين في مقدمة الدول في إرساء القواعد القانونية لتنظيم الذكاء الاصطناعي. وهذه خطوة عظيمة تسير في الاتجاه الصحيح، ونأمل أن يشمل القانون معالجة هدر القوى البشرية والبطالة التي ستزداد لأن الآلة أصبحت منافسًا خطيرًا لمن يصنعها وستشغر محله بدون شعور. ولنفتح كل الأبواب للاستفادة من التقنية الحديثة في كل مناحيها ودروبها ولكن ليتم هذا وفق الضوابط القانونية السليمة التي تحمي الجميع وفي نفس الوقت توفر الأرضية القانونية السليمة لتطور التقنية والحياة ونحن في عصر التقنية والحياة التقنية التي تطورت من فكر الإنسان الجامح.
في الختام، رغم أن الذكاء الاصطناعي يحمل إمكانيات هائلة في تحسين حياتنا، إلا أن هناك تحديات أخلاقية وقانونية كبيرة تتطلب اهتمامًا عاجلًا من الحكومات، الشركات، والباحثين.