تكنولوجيا

هل يجب أن نشعر بالقلق حيال الذكاء الاصطناعي؟

“لقد قضيت 13 عاماً في مجال الذكاء الاصطناعي، والتقيت بالعديد من الأشخاص الذين يشعرون بالقلق تجاهه”، يقول جورج كايلاس، الرئيس التنفيذي لشركة “بروسبيرو إيه آي”. ويضيف: “في اعتقادي، إن مخاوفهم تتعلق بأمور وجوانب غير صحيحة”.

المخاوف من الذكاء الاصطناعي

تتوزع المخاوف المتعلقة بالذكاء الاصطناعي بشكل عام إلى فئتين رئيسيتين:

1. الروبوتات القاتلة: متى ستصبح قريبة منا؟ وما مدى خطورتها؟ هل لدينا القدرة على مواجهتها؟

2. الذكاء الفائق: عقل يمتلك القدرة على رؤية كل شيء، حيث تعمل الكاميرات وأي جهاز متصل بالإنترنت كـ “عيونه وآذانه”. يمكن لهذا الذكاء إجراء اتصالات وتوقعات تتجاوز قدرتنا على الفهم.

يبدو أن هذا الذكاء الفائق مرتبط بشكل وثيق بالروبوتات القاتلة. على سبيل المثال، شخصية “Terminator” تمثل روبوتاً قاتلاً أُرسل إلى الماضي بهدف اغتيال شخص معين بواسطة “Skynet”، وهو نظام ذكاء فائق مستقبلي. كما يظهر الذكاء الفائق في الثقافة الشعبية من خلال برنامج “Person of Interest”، الذي يتضمن حاسوباً شاملاً يمتلك القدرة على رؤية كل شيء والتنبؤ بالمستقبل بطرق تفوق إدراكنا.

مخاوف غير مبررة

لا أرى أن هذه المخاوف تستحق الاهتمام، لأننا لا نملك أي دليل يدعم فكرة أن الآلات ستكون عدوانية. لماذا نُسقط أسوأ صفات البشر على الآلات؟ فهي بالتأكيد ليست مثلنا.

ومع ذلك، لا يمكننا فعلاً الاقتراب من فهم كيفية تفكير الذكاء الفائق. قد يكون أقرب إلى ما يعتبره الكثيرون كإله اصطناعي، بدلاً من كونه إنساناً.

مخاوف الذكاء الاصطناعي في مجال إنفاذ القانون

على الرغم من عدم ظهور الذكاء الاصطناعي الفائق أو الروبوتات القاتلة بعد، إلا أن هناك أمورًا يجب أن تثير قلقك في الوقت الراهن.

التنبؤ بالجرائم المستقبلية. تسعى الأرجنتين، من بين دول أخرى، إلى استخدام الذكاء الاصطناعي للتنبؤ بالجرائم قبل حدوثها. يبدو أن هذه الفكرة واعدة، حيث يمكن أن تساعدنا التكنولوجيا في تحسين توزيع الموارد بشكل مستمر.

نظام رصد إطلاق النار. في هذا السياق، استخدمت شركة “بالتيمور تكنولوجيا” نظام “ShotSpotter” الذي يحدد بسرعة موقع إطلاق النار، كجزء من استراتيجية حديثة للحد من الجريمة.

على الرغم من أن هذه التطورات تبدو إيجابية، إلا أنني أشعر بالقلق حيال مستقبل قريب قد يكون أكثر ظلمة وتعقيدًا.

الإجرام الجنسي. هو موضوع حساس يتطلب منا التفكير العميق. لدينا سجل للمجرمين الجنسيين يتيح للآباء التعرف عليهم. ولكن ماذا لو كان هناك شخص لم يرتكب جريمة بعد، لكن برنامج الذكاء الاصطناعي أشار إلى احتمال بنسبة 80% بأنه قد يصبح مجرماً جنسياً؟ هل سيؤدي ذلك إلى فقدانه بعض حقوقه الدستورية؟

لا شك أننا نعيش في عالم مليء بالتحديات، لكن هل نحن مستعدون لمواجهة عواقب المجرمين المحتملين؟ وقبل أن تتسرع في الإجابة، هل ستكون مستعداً لتغيير حياة أحد أحبائك بناءً على توقعات الكمبيوتر، حتى وإن لم يرتكب أي خطأ بعد؟ متى يمكن أن نبدأ في اتخاذ مثل هذه القرارات؟

درجة الأمانة الشخصية

تدور أحداث إحدى حلقات مسلسل “المرآة السوداء” حول امرأة تسعى لرفع درجتها الاجتماعية لتتمكن من العيش في أفضل الشقق والحصول على مزايا مثل الطيران وتأجير السيارات. يتم تقييم هذه المرأة من قبل الآخرين بعد كل تفاعل تقوم به. تخيل مستقبلاً حيث تحاول الدخول إلى متجرك المفضل، لكن يتم مسح وجهك لتكتشف أنه لم يعد مسموحًا لك بالدخول.

للأسف، هذه ليست مجرد خيال من المسلسل، بل هناك بالفعل نظام مشابه في الصين تعرض لانتقادات من قبل منظمات حقوق الإنسان. في إحدى الحالات، مُنع محامٍ من شراء تذكرة طائرة، حيث اعتبرت المحكمة أن اعتذاره عن تصرف معين كان “غير صادق”.

التزييف العميق للفيديوهات

يمكن أن تثير مقاطع الفيديو المزيفة قضايا خطيرة للمجتمع. في هونغ كونغ، تمكن المحتالون من الاستيلاء على أكثر من 25 مليون دولار من خلال إنشاء اجتماع افتراضي مزيف بالكامل، حيث كان جميع المشاركين، باستثناء الضحية، عبارة عن صور وأصوات مُفبركة لأشخاص حقيقيين. استخدم المحتالون صوراً وأصواتاً متاحة للجمهور لإنشاء مقاطع فيديو مزيفة لموظفين، بما في ذلك مقطع فيديو مزيف للمدير المالي للشركة.

في المستقبل، قد تصبح الأمور أكثر رعباً. ماذا لو تلقيت مكالمة من “والدتك” تخبرك بوجود حالة طوارئ تتطلب أموالاً، أو اعتقدت أنك رأيت أحد الساسة يتحدث إليك، لكنه كان مجرد مقطع فيديو تم إنشاؤه بواسطة الذكاء الاصطناعي؟

كما أن هناك احتمال التفاعل مع الروبوتات الحقيقية أو البشر الآليين الذين لم يصلوا بعد إلى مستوى الذكاء الفائق، لكن من المؤكد أنهم قد يتمكنون من خداعك.

القلق بشأن تطبيق الذكاء الاصطناعي

يُحدث الذكاء الاصطناعي تغييرات جذرية في عالمنا، ويتوجب علينا الانتباه لهذه التغيرات في الوقت الراهن. بينما تثير مخاوف الروبوتات القاتلة والذكاء الفائق خيالنا، إلا أن هذه ليست التهديدات المباشرة التي نواجهها.

القلق الحقيقي يكمن في كيفية استخدام الذكاء الاصطناعي اليوم، مثل التنبؤ بالجرائم قبل وقوعها، وتحديد من يُعتبر “مستحقًا” في نظام الائتمان الاجتماعي، وخلق واقع افتراضي كامل من خلال تقنيات التزييف العميق.

أسئلة أخلاقية واجتماعية

تثير هذه التطورات تساؤلات أخلاقية واجتماعية هامة. هل نحن مستعدون للعيش في عالم يمكن فيه لدرجات احتمالية الآلة أن تؤثر على حريتنا، أو مكانتنا الاجتماعية، أو حتى ثقتنا في الواقع؟

مع تقدمنا في مجال الذكاء الاصطناعي، يصبح من الضروري أن نكون أفرادًا متأملين وواعين لكيفية استخدامنا لهذه التكنولوجيا، وأن نوازن بين الابتكار والقيم والحقوق التي تحدد هويتنا كمجتمع.

إن مستقبل الذكاء الاصطناعي لا يتعلق بـ«الديستوبيا» البعيدة، بل هو حاضر بالفعل، لذا فإن اختياراتنا في كيفية التعامل معه ستحدد شكل العالم الذي سنعيش فيه غدًا.

Loading

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى
Show Buttons
Hide Buttons
Translate »