يصعب علي البشر قتل الروبوتات خصوصاً عندما يتوسل الروبوت
في بحث أخير في مجلة PLOS ONE ، طلب باحثون ألمان من 89 من طلاب الكليات التعاون مع روبوت صغير العينين يدعى ناو للإجابة على الأسئلة وإكمال المهام الوضيعة. إنها شراكة روبوت جديرة بالكوميديا الصديقة. ولكن ، كما هو معتاد في علم النفس التجريبي ، كانت هذه المهام تشتيتًا عن السؤال الحقيقي قيد التحقيق: ماذا يحدث عندما يضطر البشر إلى إيقاف الروبوت؟
في 43 حالة ، ذكرت The Verge في وقت سابق من هذا الشهر ، "احتج الروبوت ، وقال للمشاركين أنه كان خائفا من الظلام:" لا! من فضلك لا تبعد عني! "كما تنبأ الباحثون ، كافح المشاركون لتبديل الروبوت - التي كانوا قد عملوا معها سابقًا كشريك -. استغرق ثلاثون من البشر ضعف الوقت في المتوسط لإيقاف الروبوتات مقارنة مع المجموعة التي لا يقول روبوتاتها أي شيء على الإطلاق. ورفض 13 شخصا الامتثال تماما ، وترك ناو على.
كتب كريستوف بارتينيك ، وهو باحث بارز في التفاعل بين الإنسان والآلة الروبوتية ، في رسالة بالبريد الإلكتروني: "يرى الناس أن الروبوتات على قيد الحياة إلى حد ما". هذه الظاهرة مثل الأفلام والروبوتات كما لو كانت تسمى البشر "المعادلة الإعلامية". ويمكن أن تخلق بعض المآزق الأخلاقية الخطيرة.
في عام 2007 ، أجرى بارتنك تجربة مماثلة ، حيث كان يتكلم بوت يشبه القطط يتحدث عن حياته ، ولكن جميع المشاركين أجبروا على إيقاف تشغيل الآلة من قبل عالم مراقبة. في تلك الدراسة ، امتثل 100٪ من الأشخاص في النهاية ، ولكن لم يكن الأمر سهلاً. يقول بارتنيك: بالنسبة إلى الروبوت وكأنه كان حياً حقاً ، يعني أننا "نتردد في إيقاف تشغيله ، خاصة إذا كان هذا يعني أن الروبوت سيفقد ذاكرته أو شخصيته."
لقد كان العمل على فهم الإدراك البشري وسلوكيات سلوك الإنسان هي محور علماء النفس التجريبي وأقرانهم لأكثر من 50 عامًا - وكانت الطرق دائمًا ... مثيرة للقلق.
في الستينيات ، ابتكر عالم النفس بجامعة ييل طريقة لاختبار المسألة الوجودية الأكثر إلحاحًا للعصر: هل يمكن أن تكون طاعة السلطة كافية لإقناع الناس الجيدين ظاهريًا بارتكاب أفعال تعتبر شريرة بشكل عام؟
قام الباحث ستانلي ميلجرام بدعوة المشاركين في الدراسة إلى المختبر ، وخصص لهم دور المعلم ، وطلب منهم إدارة الصدمات الكهربائية المتزايدة باستمرار على "طالبهم" تحت ستار دراسة التعلم والذاكرة. مع تصاعد الصدمات ، توسل الطالب - سراً وهو عضو في فريق البحث وآمن من أي ضرر حقيقي - إلى الإفراج عنه وعرض علامات الألم والضيق. بعض المشاركين رفضوا الاستمرار. لكن حوالي 65 في المئة كانوا يديرون أشد الجهد على أي حال.
يقول ميلغرام في دراسته الأصلية عام 1963: إن هذا الإجراء أثار جدلاً منذ ظهوره ، "لقد أوجد هذا الإجراء مستويات قصوى من التوتر العصبي". "التعرق الغزير ، والارتجاف ، والتلعثم كانت تعبيرات نموذجية عن هذا الاضطراب العاطفي. أحد علامات التوتر غير المتوقعة - التي لم يتم تفسيرها بعد - هي حدوث الانفعال العصبي بشكل منتظم. "سواء استقالوا مبكرا ، أو وصلوا إلى خط النهاية ، كان المشاهدون غاضبين.
في حين أننا نميل إلى التعامل مع الروبوتات كما لو أنها تشبه البشر - وتواجه علامات متشابهة من الضيق إلى ما لاحظه Milgram منذ عقود - فقد حدد الباحثون بعض العوامل المعقدة. قد يتأثر قرارنا بإيقاف تشغيل الروبوتات المرافقة بنقطة السعر أو الجودة للروبوت ، ومدى صلاحيته (مقارنة بمنتفعه) - وهو عامل تلاعبت به دراسة ألمانية حديثة - بل وحتى تلوين الماكينة ، والذي يمكن اعتباره العرق ، وتشكيل تفاعلنا مع هذه الآلات من خلقنا. وكما قال مؤلفو ورقة PLOS ONE بإيجاز ، "عندما يتفاعل الناس مع وسائل الإعلام المختلفة ، فإنهم غالبا ما يتصرفون كما لو أنهم يتفاعلون مع شخص آخر ويطبقون مجموعة واسعة من القواعد الاجتماعية دون وعي".
قد تبدو ردود الفعل هذه سخيفة أو غير مهمة. لكن الباحثين في مجال الذكاء الاصطناعي يقلقون من عواقب احترامنا لهذه الروبوتات ، خاصة عندما ينتقلون إلى بيوتنا وحتى إلى الحياة العامة. "إن روبوتات اليوم لا تملك معلومات تبرر إبقائها قيد التشغيل. روبوتات اليوم لا تهتم "، كتب بارتينك. "نحن بحاجة إلى احترام إبداعاتنا ، لكننا نحتاج أيضًا إلى تجنب الوقوع في خيال علمي". أما أمازون إكو فهو ليس Westworld كما يقول. و Nao ليس Blade Runner.
في نهاية المطاف ، الشعور بالذنب الذي نشعر به عندما يصدم الإنسان هو أمر جيد. ولكن عندما يتعلق الأمر بالرجل الآلي ، يقول بارتينك أنه لا يستطيع إغلاقها.
اعداد وترجمة / فادي طارق
المصدر
ليست هناك تعليقات: