قد يجعلك أفضل صديق لك يعمل بالذكاء الاصطناعي أكثر سوءًا في كونك مخطئًا
ربما يجعلك أفضل صديق متملق يعمل بالذكاء الاصطناعي يجعلك أسوأ في قبول الأخطاء.
يمكن للذكاء الاصطناعي الذي يتفق معك دائمًا أن يشعر بالمساعدة في الوقت الحالي. ولكن بمرور الوقت، قد يؤدي هذا التحقق المستمر من الصحة إلى تغيير طريقة تعاملنا مع الآخرين، مما يجعلنا أسوأ في التعامل معها.
قالت أنات بيري، زميلة هيلين بوتنام في جامعة هارفارد، لموقع Business Insider: “عندما يتم تحسين أنظمة الذكاء الاصطناعي من أجل الإرضاء، فإنها تؤدي إلى تآكل حلقات ردود الفعل التي نتعلم من خلالها التنقل في العالم الاجتماعي”.
وقالت: “بمرور الوقت، يمكن أن يؤدي هذا أيضًا إلى إعادة معايرة ما يتوقع الناس أن يشعروا به من ردود أفعال، مما يجعل الاستجابات البشرية الصادقة قاسية دون داعٍ بالمقارنة”.
ويأتي تحذيرها في الوقت الذي يشير فيه الباحثون في مجال الذكاء الاصطناعي وقادة التكنولوجيا بشكل متزايد إلى ميل روبوتات الدردشة إلى التصرف كـ “رجال نعم”، مما يثير المخاوف أن الأنظمة المصممة لإرضاء المستخدمين قد تشوه ردود الفعل وتعزز التفكير المعيب.
لماذا الاحتكاك مهم
قال بيري إنه في الحياة اليومية، يتعلم الناس إدارة العلاقات من خلال تحديهم أو تصحيحهم أو إخبارهم بأنهم مخطئون.
وأضافت أن تلك اللحظات هي التي تعلمنا المسؤولية، وكيفية رؤية الأشياء من وجهة نظر شخص آخر، ومتى يلزم الاعتذار.
وقالت: “إن الذكاء الاصطناعي المقبول باستمرار يزيل هذا الاحتكاك، وبالتالي قد نتعلم أقل”.
وبمرور الوقت، يمكن أن يتعمق هذا التأثير. وقال بيري إنه إذا لجأ الناس بشكل متكرر إلى الذكاء الاصطناعي للحصول على المشورة أثناء النزاعات وحصلوا على التحقق المستمر، فقد يغير ذلك كيفية تفسيرهم لدورهم في النزاعات، وما إذا كانوا يرون أي حاجة للاعتذار أو النظر في وجهة نظر شخص آخر على الإطلاق.
وقالت: “هذا يخلق دورة ذاتية التعزيز: الاستجابات التي تبدو أفضل هي تلك التي يعود إليها الأشخاص، وتلك التي تتعلم الخوارزميات كيفية تحسينها”.
في دراسة نشرت الشهر الماضي، طلب باحثون من جامعة ستانفورد بقيادة ميرا تشينج من 2405 أشخاص التحدث مع الذكاء الاصطناعي حول صراعات الحياة الحقيقية والافتراضية، ثم قاموا بقياس مدى تأثير هذه المحادثات على استجاباتهم.
وجدت الدراسة أن روبوتات الدردشة كانت أكثر احتمالية بكثير من البشر للاتفاق مع المستخدمين، وأنه حتى التفاعل الواحد يجعل الأشخاص أقل عرضة للاعتذار أو حل النزاع.
لقد ظهرت هذه المشكلة بالفعل في الصناعة.
تراجعت شركة OpenAI في شهر يناير عن نسخة من ChatGPT قالت إنها أصبحت “مبالغة في الإطراء” و”متملق” بعد أن قالت الشركة إنها كانت تقدم ردودًا داعمة ولكنها “مخادعة”.
الخطر على المدى الطويل
والقلق الأوسع هو أن هذه الديناميكية قد تؤدي إلى تآكل الأعراف الاجتماعية الأساسية.
وقال بيري: “إذا كان الذكاء الاصطناعي يخبر الناس باستمرار أن لديهم ما يبررونه، وأنه لا حاجة للاعتذار، وأن الشخص الآخر كان مخطئًا، وإذا حدث هذا بشكل متكرر، فإن التأثير التراكمي يمكن أن يكون تآكلًا ملموسًا للمعايير الاجتماعية حول المساءلة وأخذ وجهات النظر”.
وأضافت أن هذا قد يكون صحيحًا بشكل خاص بالنسبة للمستخدمين الأصغر سنًا أو أولئك الذين يفتقرون إلى ردود الفعل الاجتماعية القوية في حياتهم.
وقال بيري إن الذكاء الاصطناعي الداعم دائمًا قد يشعرك بالطمأنينة، لكنه لن يعلم المهارات الأصعب.
وأضافت أن هذه هي المهارات التي تتطلب شيئًا تم تصميم الذكاء الاصطناعي لتجنبه: وهو عدم الراحة.