الخطر المستقبلي لأسلحة الذكاء الاصطناعي يستدعي حظرها

مقال رأي

 مع الأسف، معظم الضجة الأخيرة المثارة ضد أسلحة الذكاء الاصطناعي كانت مشوشة، حيث ذكرت حلول الربوتات محل البشر. إلا أن ذلك التصور غير محتمل على المدى القريب، ولكن أسلحة الذكاء الاصطناعي تمثل بالفعل خطرا يضاهي خطر الأسلحة التقليدية الخاضعة لتحكم الإنسان، وهناك مبرر لحظرها.

لقد رأينا بالفعل لمحة عن مستقبل الذكاء الاصطناعي في سيارات جوجل ذاتية القيادة. والآن تخيل أن هيئة ما إجرامية ووحشية تمكنت من سرقة تلك السيارة، وألحقت بأعلاها مسدسا، وأعادت برمجتها لتطلق النار على أشخاص. بذلك تصبح السيارة سلاح ذكاء اصطناعي.

لم يغب ترقب تلك الأسلحة عن خيالات الحكومات. فقد شهدنا العام الحالي إعلان البحرية الأمريكية عن خطط لتطوير أسلحة درون ذاتية التحكم، بالإضافة إلى إعلان كوريا الجنوبية عن مدفعها الأتوماتيكي "سوبر إيجيس 2" والإعلان عن الآلة القتالية الأوتوماتيكية الروسية "بلاتفورم-إم".

ولكن الحكومات ليست الأطراف الوحيدة التي تصنع أسلحة ذكاء اصطناعي. تخيل درون "كوادكوبتر" تحمل كاميرا "جو برو"، إنها أشياء يستطيع أي شخص شراءها. والآن تخيل إضافة برمجية بسيطة تتيح للطائرة التحليق أوتوماتيكيا. ونفس الهيئة الإجرامية التي يمكنها تسليح سيارة بدون سائق تقف على بعد خطوات من إلحاق سلاح بالدرون وبرمجتها لقتل أشخاص في مكان عام مزدحم.

تمثل التصورات آنفة الذكر الخطر المباشر لأسلحة الذكاء الاصطناعي، حيث يمكن تحويلها بسهولة إلى آلات قتل عشوائي، وهي أكثر خطورة بكثير من ذات الأسلحة الخاضعة لتحكم البشر.

وقع ستيفن هاوكينج وماكس تيجمارك، إلى جانب إلون موسك وآخرون، عريضة مستقبل الحياة لحظر أسلحة الذكاء الاصطناعي، حيث استضافتهم المؤسسة التي حصلت على تبرع بقيمة 10 مليون دولار من موسك في يناير. أتبع ذلك اجتماع للأمم المتحدة بشأن "الروبوتات القاتلة" في أبريل، والذي لم يؤدي إلى أي محادثات مستمرة بشأن السياسات. تشير الرسالة المصاحبة للعريضة إلى أن خطر أسلحة الذكاء الاصطناعي فوري، مطالبة باتخاذ خطوات لتجنب الكوارث في السنوات القليلة القادمة على أقل تقدير. مع الأسف، لا توضح العريضة أي نوع من أسلحة الذكاء الاصطناعي تلوح في الأفق القريب.

عبر الكثيرون عن قلقهم بشأن تصورات نهاية العالم المشابهة لفيلم "ترمنيتور"، حيث طورت الروبوتات قدرات مشابهة للبشر لتتفاعل مع العالم بنفسها وحاولت غزوه. على سبيل المثال، حذر الفيزيائي وعالم الفلك رويال سير مارتن ريس من تصورات كارثية مثل أن "تمرق بعض الروبوتات الخرساء، أو أن تنجح شبكة في تطوير عقل لها". كما عبر زميله في كامبريدج الفيلسوف هو برايس عن قلق مشابه من أن البشر قد لا يصمدوا عندما "يتخطى الذكاء القيود البيولوجية". تشارك الزميلان في إنشاء مركز دراسة الأخطار الوجودية بجامعة كامبريدج لتجنب تلك التهديدات المثيرة للوجود الإنساني.

بالتأكيد تستحق تلك التصورات الدراسة، إلا أنها أقل احتمالا وأقل قربا من خطر أسلحة الذكاء الاصطناعي الملوح الآن في الأفق.

إلى أي مدى نحن قريبون من تطوير ذكاء اصطناعي ينافس الذكاء البشري؟ وفق جميع المعايير تقريبا، يمكن الإجابة بأننا لسنا قريبين جدا. أوردت عدة منصات إعلامية أن محاكي المحادثات الخاص بجامعة ريدينج، "يوجين جوستمان"، ذكي بشكل حقيقي لأنه نجح في خداع بعض البشر ودفعهم إلى التفكير في أنه بالفعل طفل عمره 13 عاما. إلا أن عالم الحواسب، سكوت آرونسون، قضى على يوجين بسؤاله الأول "أيهما أكبر، علبة حذاء أم جبل إيفريست؟" ليصدر إجابة خاطئة تماما، ثم يكشف عن سؤاله، "كم عدد أرجل الجمل؟"، لتتكشف الحقيقة العارية.

ورغم كل ذلك، وقعنا نحن، كاتبي هذا المقال، على عريضة مستقبل الحياة ضد أسلحة الذكاء الاصطناعي. لأنه على خلاف شبكات الكمبيوتر الواعية لذاتها، أصبحت السيارات ذاتية القيادة التي يلحق بها مدافع رشاشة ممكنة الآن. ليست مشكلة تلك الأسلحة أنها على وشك السيطرة على العالم. بل أنه من السهل جدا إعادة برمجتها، ما يتيح لأي شخص أن يصنع آلة قتل عشوائي فعالة مقابل تكلفة منخفضة للغاية. الآلات نفسها ليست هي مصدر الخوف. بل ما يمكن لأي قرصان شبكات وضيع المستوى أن يفعله مقابل ميزانية متواضعة نسبيا.

تخيل وجود حاكم مستبد، يتوقع له النجاح، يود أن يقضي على المعارضة، مسلحا بقاعدة بيانات عن الولاءات السياسية للمواطنين، وعناوينهم وصورهم. كان مستبدو الأمس ليحتاجوا لجيش من الجنود لإتمام هذه المهمة، وهؤلاء الجنود كان يمكن خداعهم، أو رشوتهم، أو إفقادهم هدوءهم وإطلاق النار على الأشخاص الخطأ.

سيكتفي مستبدو الغد بشراء بضع آلاف طائرات الدرون المسلحة بالرشاشات الآلية. فبفضل قانون مور، الذي يصف الزيادة الأسية في القوة الحاسوبية لكل دولار منذ اختراع الترانزيستور، سيصبح في يوم ما ثمن الدرون المزودة بقدر معقول من الذكاء الاصطناعي مقارب لثمن رشاش "إيه كيه 47". ثم يأتي دور ثلاثة أو أربعة مهندسين متعاطفين يستطيعون إعادة برمجة الطائرات لتراقب أنحاء منازل المعارضين وأماكن عملهم وتطلق عليهم النار عند رؤيتهم. سترتكب الدرونز عددا أقل من الأخطاء، ولن يمكن خداعها أو رشوتها أو اجتذاب تعاطفها، والأهم من كل ذلك، ستعمل بشكل أكثر كفاءة من الجنود البشريين، ما سيتيح للمستبدين الطموحين القضاء على المعارضين قبل أن يتمكن المجتمع الدولي من تنظيم ردة فعل.

بسبب الزيادة الهائلة في الكفاءة التي أحدثتها الأتمتة، ستؤدي أسلحة الذكاء الاصطناعي إلى خفض العوائق أمام الأفراد المختلين المتطلعين إلى ارتكاب تلك الفظائع. وما كان سابقا حكرا على المستبدين – السيطرة على جيش كامل – سوف يصل إلى متناول الأفراد متوسطي الثراء.

قد يزعم المصنعون والحكومات المهتمون بتطوير تلك الأسلحة بأنهم يستطيعون هندسة ضمانات مناسبة للتأكيد على عدم إعادة برمجتها أو اختراقها. إلا أنه يجب استقبال تلك المزاعم بالشكوك. آلات التصويت الإلكتروني، ماكينات الصراف الآلي، مشغلات أقراص بلو راي، وحتى السيارات التي تبطيء الطريق السريع جميعها تم اختراقها على الرغم من أمانها المعلن عنه. يظهر التاريخ أن أي جهاز حوسبة يمكن إخضاعه في النهاية لمحاولات الاختراق المثابرة الهادفة إلى تغيير وظيفته. ولا يرجح أن تكون أسلحة الذكاء الاصطناعي استثناء.

حظرت المعاهدات الدولية التي يعود تاريخها إلى عام 1925 استخدام الأسلحة الكيميائية والبيولوجية في الحروب. كما حظر استخدام الرصاصات المتفجرة قبل ذلك، عام 1899. يبرر ذلك بأن تلك الأسلحة تسبب معاناة شديدة وغير ضرورية. كما أنها معرضة بشكل خاص لإصابة المدنيين، مثل عندما يستنشق الضحايا غازا ساما، أو عندما يصاب الأطباء إثر محاولتهم إخراج رصاصة متفجرة. جميع تلك الأسلحة معرضة لإحداث معاناة وموت عشوائي، لذلك تم حظرها.

هل هناك نوع من ماكينات الذكاء الاصطناعي تستحق الحظر بشكل مماثل؟ الإجابة، بشكل لا لبس فيه، هي نعم. إن أمكن تحويل ماكينة ذكاء صناعي بتكلفة بسيطة وبسهولة إلى آلة قتل جماعي عشوائي، فيجب أن يكون هناك معاهدة دولية ضدها. تلك الماكينات ليست مختلفة عن المعادن المشعة. يمكن استخدامها لأغراض مناسبة. ولكن يجب أن نسيطر عليها بحذر لأنه يسهل تحويلها إلى أسلحة مدمرة. الفارق هو أن تطويع ماكينة الذكاء الاصطناعي لأغراض مدمرة سيكون أسهل كثيرا من تطويع مفاعل نووي.

يجب أن نحظر أسلحة الذكاء الاصطناعي لأنها جميعا غير أخلاقية. يجب أن نحظرها لأن البشر سيحولون أسلحة الذكاء الاصطناعي إلى وحوش بشعة متعطشة للدماء باستخدام تعديلات واختراقات يمكن الوصول إليها بسهولة عبر الإنترنت. ستؤدي سطور برمجية قليلة إلى تحويل الكثير من أسلحة الذكاء الاصطناعي إلى ماكينات قتل قادرة على إحداث أسوء ممارسات الأسلحة الكيميائية، والأسلحة البيولوجية، والرصاصات المتفجرة.

يتطلب حظر أنواع محددة من الذكاء الاصطناعي التصارع مع عدد من الأسئلة الفلسفية. هل سيؤدي حظر أسلحة الذكاء الاصطناعي إلى حظر مبادرة الدفاع الاستراتيجي الأمريكية، المعروفة باسم دفاع "ستار وورز" الصاروخي؟ يمكن استخدام السيارات كأسلحة، لذا هل سيؤدي اقتراح العريضة إلى حظر سيارات جوجل ذاتية القيادة، أو السيارات ذاتية القيادة التي يتم نشرها في مدن المملكة المتحدة؟ ماذا يفرق بين الذكاء والسلاح؟

تطرح الكثير من الأسئلة الصعبة والمهمة نفسها. إلا أنها لا تحتاج إلى إجابة قبل أن نتفق على صياغة معاهدة للتحكم في أسلحة الذكاء الاصطناعي. حدود ما هو مقبول يجب أن تدرس بجدية من قبل المجتمع الدولي، ومن خلال استشارة العلماء، والفلاسفة، ومهندسي الحواسب. تحظر وزارة الدفاع الأمريكية بالفعل الأسلحة ذاتية التحكم بشكل ما. وقد حان الوقت لتنقيح وتوسيع الحظر إلى المستوى الدولي.

بالتأكيد، لن يؤدي أي حظر دولي إلى وقف كامل لانتشار أسلحة الذكاء الاصطناعي. ولكن ذلك ليس سببا لإلغاء الحظر. إن كنا كمجتمع نظن أن هناك سبب لحظر الأسلحة الكيميائية، والأسلحة البيولوجية، والرصاصات المتفجرة، فهناك سبب لحظر أسلحة الذكاء الاصطناعي أيضا.

بريان دبليو روبيرتس أستاذ مساعد متخصص في الفلسفة، والمنطق، والمنهج العلمي بكلية لندن للاقتصاد.

زاك موسجرايف مهندس برمجيات بارز بشركة "جوجل".

 
مصدر الترجمة: 
فريق ترجمة موقع راقب