تكنولوجيا

دعوى قضائية: روبوتات دردشة تدفع المراهقين لإيذاء أنفسهم أو آبائهم

طالب اثنان من أعضاء مجلس الشيوخ الأميركي شركات الذكاء الاصطناعي بالإفصاح عن إجراءاتها بشأن سلامة المستخدمين، وذلك بعد أشهر من مقاضاة عدد من العائلات -بمن في ذلك أم من فلوريدا توفي ابنها البالغ من العمر 14 عاماً منتحراً- شركة «كاراكتر إيه آي» (Character.AI) الناشئة، بدعوى أن روبوتات للدردشة أضرت بأطفالهم.

كتب عضوا مجلس الشيوخ أليكس باديلا، وبيتر ويلش من الحزب الديمقراطي، في رسالة، يوم الأربعاء: «نكتب إليكم للتعبير عن مخاوفنا بشأن مخاطر الصحة العقلية والسلامة التي يتعرض لها المستخدمون الصغار لروبوتات الدردشة التي تعتمد على إيجاد شخصيات وهمية، والذكاء الاصطناعي».

وتطلب الرسالة معلومات عن تدابير السلامة، وكيفية تدريب الشركات لنماذج الذكاء الاصطناعي الخاصة بها، وأُرسلت إلى شركات الذكاء الاصطناعي التي تصنع نماذج قائمة على إيجاد شخصيات يتفاعل معها المستخدم، مثل شركة «كاراكتر تكنولوجيز» المالكة لشركتي «كاراكتر إيه آي» و«شاي ريسيرش غروب»، وشركة «لوكا» المصنعة لخدمة الدردشة الآلية (ريبليكا).

في الوقت الذي صُممت فيه روبوتات الدردشة الآلية الأكثر شيوعاً مثل «شات جي بي تي» لتكون ذات أغراض عامة، فإن روبوتات الدردشة الآلية مثل «كاراكتر إيه آي» و«شاي» و«ريبليكا» تسمح للمستخدمين بإنشاء روبوتات دردشة مخصصة، أو التفاعل مع روبوتات دردشة آلية صممها مستخدمون آخرون، والتي يمكن أن تأخذ مجموعة من الشخصيات والسمات الشخصية لمصممها.

على سبيل المثال، تُتيح الروبوتات الشائعة على «كاراكتر إيه آي» للمستخدمين التفاعل مع نسخ طبق الأصل من شخصيات خيالية أو ممارسة لغات أجنبية. ولكن هناك أيضاً روبوتات تُشير إلى نفسها على أنها متخصصة في الصحة العقلية أو شخصيات تستند إلى موضوعات متخصصة، بما في ذلك روبوت يصف نفسه بأنه «عدواني وعنيف وعسكري سابق وزعيم مافيا».

وتتزايد شعبية استخدام روبوتات الدردشة الآلية بوصفها رفاقاً رقميين، حتى إن بعض المستخدمين يتعاملون معها بصفتها شركاء رومانسيين.

وأثارت إمكانية إنشاء روبوتات مخصصة مخاوف الخبراء وأولياء الأمور بشأن قيام المستخدمين، خصوصاً الشباب، بتكوين ارتباطات ضارة محتملة بشخصيات الذكاء الاصطناعي أو الوصول إلى محتوى غير مناسب للعمر.

وكتب أعضاء مجلس الشيوخ في رسالتهم، التي اطلعت عليها شبكة «سي إن إن»: «هذه الثقة غير المكتسبة يمكن أن تؤدي بالمستخدمين إلى الكشف عن معلومات حساسة حول مزاجهم أو علاقاتهم الشخصية أو صحتهم العقلية، والتي قد تتضمن إيذاء النفس والتفكير في الانتحار، وهي موضوعات معقدة، وروبوتات الدردشة الآلية في منتجاتكم ليست مؤهلة لمناقشتها».

وتابعت: «المحادثات التي تنجرف إلى هذه المنطقة العاطفية الخطيرة تُشكل مخاطر متزايدة على المستخدمين الضعفاء».

وقالت تشيلسي هاريسون، رئيسة قسم الاتصالات في «كاراكتر إيه آي»، لـ«سي إن إن»، إن الشركة تأخذ سلامة المستخدمين «على محمل الجد».

وأضافت تشيلسي هاريسون، في بيان: «نرحب بالعمل مع المنظمين والمشرعين، ونحن على اتصال مع مكتبي عضوي الكونغرس باديلا وويلش».

وقالت ميغان غارسيا من فلوريدا، التي رفعت دعوى قضائية ضد «كاراكتر إيه آي» في أكتوبر (تشرين الأول)، إن ابنها طوَّر علاقات غير لائقة مع روبوت دردشة على المنصة، ما تسبب في ابتعاده عن عائلته.

وتدّعي ميغان غارسيا أن عدداً من محادثاته مع الروبوتات كانت جنسية صريحة، ولم تستجب بشكل مناسب لما ذكره عن إيذاء النفس.

في ديسمبر (كانون الأول)، رفعت عائلتان أخريان دعوى قضائية ضد «كاراكتر إيه آي»، متهمتين إياها بتقديم محتوى جنسي لأطفالهما، وتشجيع إيذاء النفس والعنف.

وزعمت إحدى العائلتين أن روبوت «كاراكتر إيه آي» أوحى لمستخدم مراهق بأنه يمكن أن يقتل والديه إذا حددا له وقتاً لاستخدام الشاشات.

وقال موقع «كاراكتر إيه آي» إنه نفَّذ تدابير جديدة للثقة والسلامة في الأشهر الأخيرة، بما في ذلك نافذة منبثقة توجه المستخدمين إلى الخط الوطني لمنع الانتحار عندما يذكرون إيذاء النفس أو الانتحار. وذكر أيضاً أنه يعمل على تطوير تقنية جديدة لمنع المراهقين من رؤية المحتوى الحساس.

الأسبوع الماضي، أعلنت الشركة عن ميزة سترسل إلى أولياء الأمور بريداً إلكترونياً أسبوعياً، يتضمن ملخصاً حول استخدام أبنائهم المراهقين للموقع، بما في ذلك وقت استخدامهم للموقع والشخصيات التي يتحدث معها أطفالهم في أغلب الأحيان.

وواجهت شركات روبوتات الدردشة الآلية الأخرى التي تعمل بالذكاء الاصطناعي تساؤلات حول ما إذا كانت العلاقات مع روبوتات الدردشة الآلية التي تعمل بالذكاء الاصطناعي يمكن أن تخلق ارتباطات غير صحية للمستخدمين أو تقوض العلاقات البشرية.

وقالت الرئيسة التنفيذية لشركة «ريبليكا» يوجينيا كويدا، لموقع «ذا فيرج»، العام الماضي، إن التطبيق مصمم لتعزيز «الالتزام طويل الأمد، وعلاقة إيجابية طويلة الأمد» مع الذكاء الاصطناعي، مضيفة أن ذلك قد يعني صداقة أو حتى «زواجاً» مع الروبوتات.

في رسالتهما، طلب باديلا وويلش معلومات حول تدابير السلامة الحالية والسابقة للشركات، وأي أبحاث حول فاعلية تلك التدابير، بالإضافة إلى أسماء مسؤولي السلامة. كما طلبا من الشركات وصف البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي الخاصة بها، وكيف «تؤثر على احتمالية مواجهة المستخدمين لموضوعات غير مناسبة للعمر أو غيرها من الموضوعات الحساسة».

وكتب عضوا مجلس الشيوخ: «من المهم فهم كيفية تدريب هذه النماذج على الاستجابة للمحادثات المتعلقة بالصحة العقلية»، وأضافا: «يستحق صناع السياسات والآباء والأمهات وأطفالهم معرفة ما تفعله شركاتكم لحماية المستخدمين من هذه المخاطر المعروفة».

Loading

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى
Show Buttons
Hide Buttons
Translate »