التخطي إلى المحتوى

أضافت أن جوجل وضعت أحد مهندسيها في إجازة إدارية مدفوعة الأجر بزعم انتهاكه لسياسات السرية الخاصة بها بعد أن أصبح قلقًا من أن روبوت محادثة الذكاء الاصطناعي الخاص بها أصبح واعيًا. المشار واشنطن بوست.

قال المهندس إنه يعتقد أن البرنامج قد حقق مستوى من الوعي بعد مئات التفاعلات مع أحدث نظام ذكاء اصطناعي لم يتم إصداره يسمى LaMDA.

تعمل شركات التكنولوجيا باستمرار على زيادة قدرات الذكاء الاصطناعي المتطور باستمرار. لكن Google سارعت إلى رفض الادعاءات بأن أحد برامجها قد تقدم كثيرًا لدرجة أنه أصبح على علم بذلك.

يعمل المهندس Blake Lemoine في منظمة الذكاء الاصطناعي المسؤولة في Google. كان يختبر ما إذا كان نموذج لامدا يولد لغة تمييزية أو خطاب كراهية.

نشأت مخاوف المهندس من الاستجابات المقنعة التي رآها عندما أنشأ نظام الذكاء الاصطناعي حقوقه وأخلاقيات الروبوتات.

في أبريل، شارك وثيقة مع المديرين التنفيذيين بعنوان “هل Lambda واعية” يحتوي على نسخة من محادثاته مع نموذج الذكاء الاصطناعي.

نشر Lemoine بعد وضعه في إجازة نص عبر حسابه على موقع Medium، والذي يقول إنه يوضح أن النموذج يجادل بأنه حساس لأنه يحتوي على مشاعر وعواطف وتجربة ذاتية.

تعتقد Google أن إجراءات Lemoine المتعلقة بعمله في Lambda قد انتهكت سياسات السرية الخاصة بها. دعا Lemoine محامياً لتمثيل نظام الذكاء الاصطناعي وتحدث إلى ممثل من اللجنة القضائية بمجلس النواب حول الأنشطة غير الأخلاقية المزعومة للشركة.

في 6 يونيو عبر ميديوم، وهو اليوم الذي وضع فيه ليموين في إجازة إدارية، قال المهندس إنه طلب قدرًا ضئيلًا من الاستشارات الخارجية للمساعدة في توجيهه في تحقيقه بشأن المخاوف الأخلاقية لمنظمة العفو الدولية التي أثارها داخل الشركة. وشملت قائمة الأشخاص الذين أجرى مناقشات معهم موظفين حكوميين أميركيين.

أعلن عملاق البحث عن lambda علنًا في Google I / O 2022. وتأمل Google أن تساعد lambda في تحسين مساعدي الذكاء الاصطناعي للمحادثة وجعل المحادثات أكثر طبيعية.

تستخدم الشركة تقنية نموذج اللغة المشابهة لميزة الكتابة الذكية في Gmail، أو لاستعلامات محرك البحث.

وقال بريان جابرييل المتحدث باسم جوجل “لا يوجد دليل على أن لامدا واعية.” راجع فريقنا مخاوف بليك وفقًا لمبادئ منظمة العفو الدولية وأبلغه أن الأدلة لا تدعم مزاعمه. قيل له إنه لا يوجد دليل على أن لامدا كان واعيًا (وهناك الكثير من الأدلة ضده.

تدعي Google أن المهندس انتهك سياسات السرية

وأضاف غابرييل يدرس البعض في مجتمع الذكاء الاصطناعي الأوسع الإمكانات طويلة المدى للذكاء الاصطناعي الواعي أو العام. لكن ليس من المنطقي القيام بذلك من خلال تجسيد نماذج المحادثة اللاواعية اليوم. تحاكي هذه الأنظمة أنواع التبادلات الموجودة في ملايين الجمل، ويمكنها الخوض في أي موضوع خيالي. لقد تحدث المئات من الباحثين والمهندسين مع لامدا ولا نعلم بوجود أي شخص آخر يقدم مثل هذه التأكيدات المكثفة، أو يجسد لامدا كما فعل بليك.

رفض الكثيرون في مجتمع الذكاء الاصطناعي مزاعم المهندس في المقابلات والبيانات العامة. بينما أشار البعض إلى أن حسابه يسلط الضوء على كيف يمكن للتكنولوجيا أن تقود الناس إلى تخصيص سمات بشرية لها.

ولكن يمكن القول إن الاعتقاد بأن الذكاء الاصطناعي يمكن أن يكون واعيًا يسلط الضوء على المخاوف بشأن ما يمكن أن تفعله هذه التكنولوجيا.

اتفق أستاذ اللسانيات على أنه من الخطأ ربط الاستجابات المكتوبة المقنعة بالحس. قالت الأستاذة بجامعة واشنطن إميلي إم بيندر “لدينا الآن آلات يمكنها توليد الكلمات دون تفكير”. لكننا لم نتعلم كيف نتوقف عن تخيل العقل وراء ذلك.

قال Timnit Gebru، خبير أخلاقيات الذكاء الاصطناعي البارز الذي أوقفته شركة Google في عام 2022، إن النقاش حول الوعي بالذكاء الاصطناعي قد يعرقل المحادثات الأخلاقية الأكثر أهمية المتعلقة باستخدام الذكاء الاصطناعي.

على الرغم من مخاوفه، قال ليموين إنه يخطط لمواصلة العمل على الذكاء الاصطناعي في المستقبل. وكتب في تغريدة أنوي البقاء في مجال الذكاء الاصطناعي سواء مع جوجل أو غيرها.