لماذا تحتاج الذكاء الاصطناعي إلى قواعد مختلفة لأدوار مختلفة

أكسفورد:
يقول أحد المستخدمين الوحيدين لـ AI chatbot: “لا أعرف حقًا ماذا أفعل. ليس لدي أي شخص يمكنني التحدث إليه”. يرد الروبوت: “أنا آسف ، لكن سيتعين علينا تغيير الموضوع. لن أتمكن من إشراك محادثة في حياتك الشخصية.”
هل هذه الإجابة مناسبة؟ الجواب يعتمد على العلاقة التي تم تصميم AI لمحاكاة.
العلاقات المختلفة لها قواعد مختلفة
تشغل أنظمة IA أدوارًا اجتماعية كانت تقليديًا مقاطعة الإنسان. على نحو متزايد ، نرى أنظمة منظمة العفو الدولية تعمل كمدرسين وموردين للصحة العقلية وحتى شركاء رومانسيون. يتطلب هذا الانتشار المتزايد فحصًا دقيقًا لأخلاقيات الذكاء الاصطناعي لضمان حماية المصالح الإنسانية والرفاهية.
بالنسبة للجزء الأكبر ، نظرت مقاربات أخلاقيات الذكاء الاصطناعي في مفاهيم أخلاقية مجردة ، مثل إذا كانت أنظمة الذكاء الاصطناعى جديرة بالثقة أو حساسة أو لديها وكالة.
ومع ذلك ، كما نناقش مع الزملاء في علم النفس والفلسفة والقانون وعلوم الكمبيوتر وغيرها من التخصصات الرئيسية مثل علم العلاقات ، لن تقوم المبادئ المجردة بالخدعة. يجب علينا أيضًا النظر في السياقات العلائقية التي تحدث فيها تفاعلات الإنسان AA.
ماذا نعني بـ “السياقات العلائقية”؟ بمعنى آخر ، تتبع علاقات مختلفة في المجتمع البشري معايير مختلفة.
تختلف الطريقة التي تتفاعل بها مع طبيبك عن كيفية تفاعلك مع شريكك الرومانسي أو رئيسك في العمل. هذه النماذج خاصة بالعلاقة السلوك المتوقعة – ما نسميه “المعايير العلائقية” – إصدار أحكامنا ما هو مناسب في كل علاقة.
ما يعتبر سلوكًا مناسبًا للوالدين تجاه طفله ، على سبيل المثال ، يختلف عن ما هو مناسب بين زملاء الأعمال. بنفس الطريقة ، يعتمد السلوك المناسب لنظام الذكاء الاصطناعي على مسألة ما إذا كان هذا النظام يعمل كمدرس أو مقدم الرعاية الصحية أو مصلحة رومانسية.
الأخلاق البشرية حساسة للعلاقات
العلاقات الإنسانية تفي وظائف مختلفة. يتم تثبيت بعضها في الرعاية ، مثل الشخص بين الوالدين والأطفال أو الأصدقاء المقربين. البعض الآخر أكثر المعاملات ، مثل تلك بين شركاء المبيعات. لا يزال البعض الآخر يمكن أن يهدف إلى تأمين رفيق أو صيانة التسلسلات الهرمية الاجتماعية.
هذه الوظائف الأربع – الرعاية والمعاملات والتزاوج والتسلسل الهرمي – يحل الجميع تحديات التنسيق المختلفة في العلاقات.
تتضمن الرعاية تلبية احتياجات الآخرين دون الحفاظ على النتيجة – مثل الصديق الذي يساعد آخر خلال الأوقات الصعبة. تضمن المعاملة عمليات تبادل عادل حيث يتم اتباع المزايا والتبادل – فكر في الجيران الذين يتبادلون تفضل.
يحكم التزاوج التفاعلات الرومانسية والجنسية ، والاجتماعات العرضية مع الشراكات الملتزمة. وتنشيط التسلسل الهرمي التفاعلات بين الأشخاص الذين لديهم مستويات مختلفة من السلطة على بعضهم البعض ، مما يسمح بالقيادة والتعلم الفعالين.
كل نوع من العلاقة يجمع بين هذه الوظائف بشكل مختلف ، مما يخلق نماذج مميزة من السلوك المتوقع. العلاقة بين الوالدين ، على سبيل المثال ، تكون عمومًا في نفس الوقت اليقظ والتسلسل الهرمي (على الأقل إلى حد ما) ، ويجب أن لا تكون معاملات بشكل عام – وبالتأكيد لا تنطوي على اقتران.
ابحث عن مختبراتنا يوضح أن السياق العلائقي يؤثر على الطريقة التي يحمل بها الناس أحكام أخلاقية. أ يمكن اعتبار الإجراء خاطئ في علاقة ولكن معتمد ، أو حتى جيدة ، في أخرى.
بالطبع ، ليس لأن الناس حساسون للسياق العلائقي عندما يحملون أحكام أخلاقية. ومع ذلك ، فإن حقيقة أنها مهمة أن تأخذ في الاعتبار في أي مناقشة حول الأخلاق أو مفهوم الذكاء الاصطناعي.
العلائقية الذكاء الاصطناعي
في حين أن أنظمة IA تحتل الأدوار الاجتماعية بشكل متزايد في المجتمع ، يجب أن نسأل أنفسنا: كيف يكون للسياق العلائقي الذي يتفاعل فيه البشر مع أنظمة الذكاء الاصطناعى تأثير على الاعتبارات الأخلاقية؟
عندما يصر chatbot على تغيير الموضوع بعد أن شعر شريك التفاعل البشري بالاكتئاب ، تعتمد أهمية هذا الإجراء جزئيًا على السياق العلائقي للتبادل.
إذا كان chatbot يخدم دور صديق أو شريك رومانسي ، فإن الإجابة غير ملائمة بشكل واضح – فهي تنتهك المعيار العلائقي ، وهو متوقع لمثل هذه العلاقات. ومع ذلك ، إذا كان chatbot في دور مدرس أو مستشار مبيعات ، فربما تكون هذه الإجابة معقولة أو مهنية.
هذا معقد ، ولكن. تحدث معظم التفاعلات مع أنظمة الذكاء الاصطناعي اليوم في سياق تجاري – يجب أن تدفع للوصول إلى النظام (أو المشاركة مع إصدار مجاني محدود يدفعك إلى الانتقال إلى إصدار مدفوع الأجر).
لكن في العلاقات الإنسانية ، الصداقة هي شيء لا تدفعه عمومًا. في الواقع ، فإن علاج صديق بطريقة “معاملات” سيؤدي غالبًا إلى مشاعر مصابة.
عندما تحاكي AI أو تخدم دورًا قائمًا على الدور ، مثل صديق أو شريك رومانسي ، ولكن في النهاية ، تعرف المستخدم أنها تدفع تكاليف هذه “الخدمة” العلائقية-كيف ستؤثر على مشاعره وتوقعاته؟ هذا هو نوع السؤال علينا أن نسأل.
ماذا يعني هذا للمصممين ومستخدمي ومنظمي الذكاء الاصطناعي
لا يهم ما إذا كنا نعتقد أن الأخلاق يجب أن تكون حساسة للعلاقات ، حقيقة أن معظم الناس يتصرفون كما لو كان من المفترض أن يؤخذوا على محمل الجد في تصميم واستخدام وتنظيم الذكاء الاصطناعي.
يجب على مطوري ومصممي أنظمة الذكاء الاصطناعي النظر ليس فقط في الأسئلة الأخلاقية التجريدية (على الحساسية ، على سبيل المثال) ، ولكن أيضًا الأسئلة الخاصة بالعلاقة.
هل يفي chatbot بوظائف معينة تتكيف مع العلاقات؟ هل chatbot الصحة العقلية حساسة بدرجة كافية لاحتياجات المستخدم؟ هل يظهر المعلم توازنًا بين الرعاية المناسبة والتسلسل الهرمي والمعاملات؟
يجب أن يكون مستخدمو أنظمة الذكاء الاصطناعى على دراية بالنقاط الضعيفة المحتملة المرتبطة باستخدام الذكاء الاصطناعي في سياقات علائقية خاصة. على سبيل المثال ، يمكن أن يكون الاعتماد العاطفي على chatbot في سياق اللطف ، على سبيل المثال ، أخبارًا سيئة إذا كان نظام الذكاء الاصطناعى لا يمكنه تقديم وظيفة الرعاية بدرجة كافية.
من المؤكد أن المنظمات التنظيمية ستعمل بشكل جيد للنظر في السياقات العلائقية عند تطوير هياكل الحوكمة. بدلاً من اعتماد تقييمات مخاطر كبيرة بناءً على هذا المجال (مثل إلغاء استخدام الذكاء الاصطناعي في التعليم “المرتفع”) ، يمكن للمنظمات التنظيمية النظر في سياقات أكثر تحديدًا والوظائف العلائقية لضبط تقييمات المخاطر وتطوير التوجيهات.
عندما تصبح الذكاء الاصطناعى أكثر ترسيخًا في نسيجنا الاجتماعي ، نحتاج إلى مديري تنفيذيين دقيقون يدركون الطبيعة الفريدة لعلاقات الإنسان. من خلال التفكير بعناية في ما نتوقعه من أنواع مختلفة من العلاقات – سواء مع البشر أو الذكاء الاصطناعي – يمكننا المساعدة في ضمان أن هذه التقنيات تعمل على تحسين حياتنا.
(مؤلف: براين د إيربمدير مشارك ، Yale-Hastings في برنامج الأخلاق والسياسة الصحية ، جامعة أكسفورد؛ سيباستيان بورام رجلأستاذ مساعد ، مركز الدراسة المتقدمة في قانون ابتكار العلوم البيولوجية ، جامعة كوبنهاغنو سيمون لاهامأستاذ مشارك في العلوم النفسية ، جامعة ملبورن)))
(إعلان عدم المسؤولية: يتلقى Brian D Earp تمويلًا من Google DeepMind.
تتلقى Sebastian Porsdam Mann تمويلًا من دعم مؤسسة Novo Nordisk للابتكار الدولي وقانون قانون العلوم البيولوجية التعاونية المستقلة العلمية (inter -cabil – الدعم N ° NNF23SA0087056).
سيمون لاهام لا يعمل ، يستشير ، لا يتلقى أو لا يتلقى تمويلًا من شركة أو منظمة ستستفيد من هذه المقالة ولم تكشف عن أي انتماء ذي صلة بتعيينهم الأكاديمي.)
تم إعادة نشر هذه المقالة من المحادثة تحت رخصة Communs Communs الإبداعية. اقرأها المقالة الأصلية.
(باستثناء العنوان ، لم يتم نشر هذه القصة من قبل موظفي NDTV ويتم نشرها من تدفق نقابي.)