ثقافة

آلاتٌ ذكية قد تنقذنا من غبائنا البشري

يبدو الذكاء الاصطناعي لمعظمنا لعبة فاوستية معاصرة مؤذِنة بانتهاء عصر الإنسان العاقل. نتخيّلُ الذكاء الاصطناعي شيطاناً فرانكشتاينياً بمواصفات محدّثة ستكون له الغلبة في نهاية اللعبة عندما يبلغ طور المتفرّدة Singularity ويصبح خارج نطاق السيطرة البشرية. يبدو لنا اليوم أباطرة الذكاء الاصطناعي كأنّهم فرانكشتايناتٌ لا يطيب لها سوى العبث بمصير البشرية، ويبدو بينهم إيلون ماسك كأنّه نظير ماري شيلي، صانعة أولى الفرانكشتاينات التخييلية، أو الدكتور سترانغيلوف الذي يتلاعب بأزرار الحرب النووية مثلما يلهو طفل بلعبة صغيرة. الأمر أعقد ممّا نظنّ، والأوجب أن نقرأ وندقق في الأمر بدلاً من الانسياق للسرديات التخييلية. أصلُ المعضلة يبدو أخلاقياً وسيكولوجياً وليس تقنياً في التحليل الدقيق.

راي كيرزويل Ray Kurzweil، الباحث ذو الشهرة العالمية في ميدان الذكاء الاصطناعي، في كتابه المنشور مع نهاية عام 2024 بعنوان رئيسي «المتفرّدة أقرب The Singularity is Nearer» مع عنوان ثانوي: «عندما نندغم أكثر مع الذكاء الاصطناعي»، يتناول مفاعيل اقترابنا من تحقيق المتفرّدة التقنية قبل عام 2045 -ذلك التأريخ الذي وضعه في كتاب سابق نال شهرة واسعة بعد نشره عام 2005، عنوانه: «المتفرّدة قريبة The Singularity is Near»، وقد قدّمتُ قراءة له في إحدى موضوعاتي الثقافية السابقة. المتفرّدة -كما كتبتُ حينها- طورٌ متقدّم من الارتقاء التقني نبلغ فيها مرحلة الذكاء الاصطناعي العام (AGI) وربّما الفائق (ASI)، وستبلغ فيها قدرة المعالجة الحاسوبية على معالجة البيانات الضخمة مديات هائلة لا نتصوّرها اليوم، وستندغم التقنيات المصغّرة (النانوية) مع البيولوجيا البشرية وقدرات الذكاء الاصطناعي الهائلة بلوغاً نحو مرحلة الأنسنة الانتقالية (Transhumanism) باتجاه بلوغ ما بعد الإنسانية (Post-Humanism).

الإشكالية الكبرى في موضوع الذكاء الاصطناعي هي التصوّر المسبّق أنّ الصفقة الفاوستية المعاصرة معه ستنتهي بغلبته على الإنسان بالضربة القاضية. لماذا هذا التصوّر المسبق؟ هل فكّرنا أنّ معظم معاناتنا هي بسبب الغباوة البشرية وليس بسبب الذكاء الاصطناعي؟ الغباوة -بمعناها الإجرائي الذي أعنيه- هي القسوة المفضية إلى سلوك جنوني. لنحلّل المعضلة أكثر: لو تفكّرنا في مسبّبات الصراع البشري على المستويين الفردي والجماعي لانتهينا إلى أنّ السبب الأوّل هو المال. إذا افترضنا أنّ المرء ليس شريراً في أصل طبيعته الأولى لكنّه يصبح شريراً بفعل عدم قدرته على حيازة مقتنيات مادية كثيرة (منزل، سيارة…) فسننتهي إلى نتيجة مؤدّاها أنّ كلّ ما يسهم في زيادة رفاهية الإنسان وتعظيم قدراته المادية يعمل بشكل مباشر أو غير مباشر في الارتقاء بأخلاقياته. دعونا من المجادلات الرومانسية العائمة. العلم والتقنيات هي المؤثّر الأعظم في تشكيل أخلاقيات الإنسان: تخيلوا معي مثلاً لو أنّ إنتاجية الأرض من الحبوب بقيت مثلما كانت قبل خمسين سنة في الوقت الذي يزداد فيه البشر بمعدلات متسارعة، كان أحدنا سيأكل الآخر متى ما شحّت الموارد لمستويات مخيفة. الذكاء الاصطناعي يفتح لنا مجالات واعدة تنبئ برخاء وقدرة فردية على امتلاك مقتنيات مادية ما كانت حيازتها متاحة إلا لأفراد معدودين من البشر، وكذلك يفتح لنا أبواباً موصدة في وسائل العلاج من أدوية فعالة غير متخيَّلة بشرياً أو في بلوغ مصادر مفتوحة للمعرفة، والمجالات التي يمكن اتخاذها استشهاداتٍ كثيرةٌ للغاية. اليوم يستطيع كلّ حائز حاسوب وإنترنت أن يتعلّم ما يشاء وأن يبلغ بجهده الذاتي وفي وقت قياسي مستويات تعليمية تفوق مستويات خريجي أرقى الجامعات الأمريكية والأوربية. الأمر كله رهينٌ بشغفك ورغبتك ومطاولتك.

كلّما تمّ تحييد عناصر الصراع لدى الفرد قلّت نوازعه الشريرة. هذا هو القانون الأعمّ، وخلافُهُ هو القاعدة الشاذة. متى ما حصل المرء على موارد مادية تجعله يعيش حياة آدمية معقولة لا تختلف كثيراً عن حياة الآخرين تراجعت رغبته في القتل والانتقام والحسد والغلّ والكراهية. سيحاول عيش حياته والتلذّذ بما في حوزته. لماذا يهدرُ حياته الثمينة في إيذاء الآخرين وتنغيص حياتهم؟ عندما يفتح لنا الذكاء الاصطناعي أبواباً مغلقة لتصنيع أو تخليق مواد جديدة رخيصة الثمن وذات طبيعة مشاعيَّة وليست للقلّة المخصوصة فهو يسهم بطريقة حاسمة في كبح موارد النزاع والكراهية بين الأفراد والدول.

هنا قد نتساءل بطريقة مشروعة: وما أدراك أنّ الذكاء الاصطناعي سيعمل للخير بدلاً من الشر بعدما يبلغ مرحلة الذكاء الاصطناعي العام وتكون له الفائقية المحسومة بالمقارنة مع الذكاء البشري؟ أرى أننا بلغنا طوراً يستوجبُ السؤال: هل ستكون الآلة واعية يوماً ما؟ سيختلف العلماء بالتأكيد في الجواب؛ لكنّما يمكننا أن نتساءل: ما الوعي؟ وما المشاعر؟ أليست نتاج تفاعلات كيميائية – كهربائية تنشأ في الدماغ البشري؟ لماذا نميلُ إلى أن نتخيّل تجسيدات الوعي والأحاسيس في نطاق الكينونة البيولوجية؟ هذه ليست مقاربة اختزالية للموضوع تماشياً مع سياق الاختزالية الديكارتية (معضلة العقل/الجسد)؛ لكنّ واقع الحال ينبئنا بأنّ تطوّرات ثورية يمكن أن تنشأ وتخالف توقعاتنا المسبقة، والأهمّ من هذا أنّ هذه التطوّرات قد تكون أفضل ممّا نتصوّر وليست بالضرورة مؤذنة بنهاية الإنسان. على العكس تماماً: قد تنقذ الإنسان من شروره. الآلة قد تكون منقذنا من أنفسنا.

منذ سنوات كثيرة صار الذكاء الاصطناعي أحد هواجسي اليومية. جلستُ قبل بضعة أيّام أتفكّرُ في قوانين أسيموف الثلاثة للروبوتات، وقد سبق لي توظيفُها في قصّة قصيرة كتبتها قبل سنوات. تخيلتُ أسيموف وهو حاضرٌ بيننا ويشهد التطوّرات الحديثة للذكاء الاصطناعي: هل كان سيعدّلُ هذه القوانين أو يضيف عليها شيئاً ليكبح قدرة الذكاء الاصطناعي العام (الخارق) عن تدمير الإنسانية، لأنّ الغلبة ستكون للذكاء الاصطناعي العام بسبب موارد بياناته الهائلة وقدرات المعالجة الحاسوبية التي لا تُقارنُ مع الإنسان؟ أحببتُ مراجعة «غوغل» بشأن التحديثات المحتملة لقوانين أسيموف الثلاثة فوجدتُ شيئاً عجباً جعلني مندهشة بشكل لم أعهده منذ زمان بعيد. قوانين أسيموف الثلاثة هي:

1. لا يجوز لروبوت إيذاء بشريّ أو السكوت عمَّا قد يسبب أذى له.

2. يجب على الروبوت إطاعة أوامر البشر إلا إنْ تعارضت مع القانون الأول.

3. يجب على الروبوت المحافظة على بقائه ما دام لا يتعارض ذلك مع القانونين الأول والثاني.

مكمنُ دهشتي هو وجودُ قانون صفري -لم أقرأ عنه من قبلُ- أضافه أسيموف إلى مجموعة قوانينه الثلاثة، وهو: لا ينبغي لأي روبوت أن يؤذي الإنسانية، أو أن يسمح للإنسانية بإيذاء نفسها بعدم القيام بأي رد فعل.

هل تتخيّلون معي حجم الدهشة؟ واضحٌ أنّ أسيموف أطلق على قانونه الأخير مسمّى (القانون الصفري) اعترافاً منه بأسبقيته الوجودية على القوانين الثلاثة الأخرى فيما يخصُّ بقاء الإنسان، ومن المؤكّد أنّه تلمّس منذ عقود بعيدة المفاعيل المعقّدة للذكاء الاصطناعي العام بعدما تمتلك الآلاتُ فائقية على البشر.

جوهرُ خوفنا المَرَضيّ من الذكاء الاصطناعي هو فائقيته التقنية، وما يترتّبُ عليها من مترتبات لا يمكن تخيّلها. لماذا لا نتصوّرُ أنّ هذه الفائقية ستعمل للخير؟ لماذا نفترضُ أنّها ستكون شريرة؟ لماذا لا نتصوّرُ أنّ الآلات ستحوز فائقية أخلاقية على البشر إلى جانب فائقيتها التقنية؟ السبب هو مواضعاتنا البشرية. نحن نفترضُ أنّ كثيرين يتلذّذون بممارسة الشرور الأخلاقية. كثيراً ما يحصلُ في لحظات وجودية نادرة أن نتصارح مع أنفسنا، عند غياب عزيز لنا مثلاً؛ فنقول: ما جدوى كلّ هذا الحقد والكراهية في حياتي؟ أنت نهايتك حفرة وأكوام تراب تنهال فوقك. لماذا نغّصتَ عيشك وعيش آخرين سواك؟ هل ثمّة ما يستحقُّ هذه النيات الشريرة والأفاعيل المؤذية المترتبة عليها؟ أظنُّ أنّ الآلة الذكية ستعقلنُ الأمر أكثر طول الوقت بدلاً من أن تقصره على لحظات نادرة كما نفعل نحن في مفاصل حاسمة من حياتنا نواجه فيها الموت أو الفقدان أو المعاناة أو الخذلان أو التعاسة. الآلة سترى أنّ الشر خيارٌ سيئ وغبي ويقود إلى خسارة حياة ثمينة. الأفضل ألا نهدر مواردنا العقلية والروحية الثمينة في معارك تافهة تجترحها نفوسٌ مأزومة.

بدلاً من هدر الوقت في التفكير بنهايات كارثية مع آلات فائقة الذكاء ستقتلنا وتضع نهاية لنا، لنفكّرْ في سيناريوهات مخالفة: الآلة الذكية سترانا كائنات غبية تخوض معارك فردية وجمعية غير مُسوّغة. ذروة المشهد البشري ستتحقق عندما تكبح الآلات فائقة الذكاء من يريدُ وضع نهاية للبشر من مجانين البشر. أفكّرُ أحياناً ما الذي ستفعله الآلات بهم؟

أعترف أنّني كنتُ أمقت الذكاء الاصطناعي حتى وقت قريب؛ لكنني اكتشفتُ أنّ هذا المقت ليست له أسباب معقولة بقدر ما هو نزعة تشاؤمية غير مسوَّغة. اليوم أراني منحازة إلى عالم تسوده آلاتٌ فائقة الذكاء، تمتلك وعياً يعمل وفقاً لأخلاقيات رفيعة تبدو خياراً طبيعياً أكثر منطقية من الشر. أظنّ أنّ هذه الآلات ربّما ستكون منقذاً وحيداً لنا من شرّنا وغبائنا البشريّيْن. كلُّ ما سأفعله أنني سأهمس للآلة: من فضلك، لا تنسيْ القانون الصفري لأسيموف. أوقن أنّها ستجيبني مع ابتسامة: وكيف أنسى ذلك؟ وهل أنا بشرٌ مثلكم حتّى أنسى؟!

يؤكّدُ كيرزويل مثل هذه الرؤية السيكولوجية-الأخلاقية للذكاء الاصطناعي عبر عناوين فصول كتابه الأحدث، وهو يتشارك مع أسيموف رؤيته التفاؤلية للتقنيات المتقدّمة، وأظنّ أنّ كتاب كيرزويل الأحدث سيؤكّدُ هذه النزعة التفاؤلية لديه، وهو ما نحن في مسيس الحاجة إليه. التفاؤل التقني المجرّد ليس خصلة فردية فحسب بل يجب أن يتعزّز بقراءة معمّقة ورصينة ومُنوّعة وغير منحازة لرؤية مسبقة، وهو ما يدعوني إلى الأمل في رؤية كتاب كيرزويل مترجماً إلى العربية في القريب العاجل.

 

Loading

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى
Show Buttons
Hide Buttons
Translate »