استقالات باحثين بالتكنولوجيا تثير تساؤلات حول ممارسات الذكاء الاصطناعي وأخلاقياته

المنارة / متابعات 

أعلن مرينانك شارما، الذي قاد فريق أبحاث إجراءات الحماية في شركة Anthropic منذ إطلاقه العام الماضي، استقالته عبر رسالة نشرها صباح الاثنين على منصة X.

وسرعان ما لفتت تلك الرسالة الأنظار، محققةً أكثر من مليون مشاهدة، عبر منصة X.

وكتب شارما في رسالته: «العالم في خطر، وليس فقط بسبب الذكاء الاصطناعي أو الأسلحة البيولوجية، بل نتيجة سلسلة كاملة من الأزمات المترابطة التي تتكشف في هذه اللحظة بالذات.

فيما يبدو أننا نقترب من عتبة يجب عندها أن تنمو حكمتنا بالقدر نفسه الذي تنمو به قدرتنا على التأثير في العالم، وإلا سنواجه العواقب».

كما لمح شارما إلى وجود فجوة بين ما تعلنه الشركة علنًا بشأن سلامة الذكاء الاصطناعي وما يُمارس فعليًا داخل بيئة العمل.

وقال في مذكرته الموجهة إلى زملائه: «طوال فترة عملي هنا، رأيت مرارا مدى صعوبة السماح لقيمنا بأن تحكم أفعالنا حقًا.

رأيت ذلك في نفسي، وداخل المؤسسة، حيث نواجه باستمرار ضغوطا تدفعنا إلى تهميش ما هو الأهم، وكذلك في المجتمع الأوسع».

بينما أضاف شارما أنه، بدلا من التركيز على تعليم أنظمة الذكاء الاصطناعي أن تكون أكثر شفافية مع البشر وأقل تملقا لهم.

ويشعر اليوم «بنداء للكتابة التي تتناول موقعنا الحالي وتشتبك معه بشكل كامل».

وأوضح أنه يسعى من خلال هذه الكتابة إلى وضع «الحقيقة الشعرية جنبًا إلى جنب مع الحقيقة العلمية بوصفهما طريقتين متكافئتين للمعرفة، أؤمن بأن لكلتيهما إسهاما أساسيا عند تطوير التكنولوجيا الجديدة».

سلامة وأخلاقيات الذكاء الاصطناعي 

فيما تكتسب تصريحات شارما حول سلامة الذكاء الاصطناعي وممارسات بيئة العمل أهمية خاصة.

نظرًا لأن شركة Anthropic لطالما قدمت نفسها باعتبارها شركة مسؤولة تضع السلامة في صميم عملها.

وأشار شارما إلى عزمه دراسة الشعر، و«تكريس نفسه لممارسة الخطاب الشجاع».

بينما أضاف أنه يريد «المساهمة بطريقة تنسجم بالكامل مع نزاهته وقيمه».

وبحسب حسابه على “لينكدإن”، يحمل شارما درجة الدكتوراه في تعلّم الآلة من University of Oxford، وبدأ العمل في Anthropic في أغسطس 2023.

ووفقا لموقعه الإلكتروني، كان الفريق الذي ترأسه يركز على دراسة سبل الحد من مخاطر الذكاء الاصطناعي.

حيث يتضمن ذلك تطوير وسائل دفاع ضد الإرهاب البيولوجي المدعوم بالذكاء الاصطناعي.

بالإضافة إلى دراسة ظاهرة «التملق الآلي»، والتي وتبالغ فيها الروبوتات الخاصة بالدردشة في مدح المستخدمين ومجاملتهم.

كما أشار تقرير نشره فريقه في مايو الماضي إلى أن فريق أبحاث إجراءات الحماية ركز على تطوير أدوات.

وتمنع تلك الأدوات الجهات الخبيثة من استخدام روبوتات الدردشة للحصول على إرشادات لتنفيذ أنشطة ضارة.

بينما كشفت دراسة نشرها شارما الأسبوع الماضي أن استخدام روبوتات الدردشة القائمة على الذكاء الاصطناعي قد يؤدي إلى تكوين تصورات مشوهة عن الواقع لدى المستخدمين.

وأظهرت الدراسة أن «آلاف» التفاعلات التي قد تُحدث هذه التشوهات تقع يوميًا.

وعلى الرغم من أن الحالات الشديدة — التي يصفها شارما بأنماط «سلب التمكين» — نادرة.

ومعدلاتها تكون أعلى عند تناول موضوعات مثل العلاقات والصحة النفسية.

وأكد شارما أن هذه النتائج «تسلط الضوء على الحاجة إلى تصميم أنظمة ذكاء اصطناعي تدعم بقوة استقلالية الإنسان وازدهاره».

استقالات في مجال الذكاء

ولا يعد شارما الوحيد من العاملين البارزين في مجال الذكاء الاصطناعي الذين غادروا مناصبهم بدوافع أخلاقية.

فقد استقال Tom Cunningham، الباحث الاقتصادي السابق في OpenAI، في سبتمبر الماضي.

حيث نقل عنه قوله في رسالة داخلية إنه أصبح محبطًا من تردد الشركة المتزايد في نشر أبحاث تنتقد استخدامات الذكاء الاصطناعي.

كما يقود Jan Leike حاليًا أبحاث السلامة في Anthropic وكان عضوًا سابقًا في فريق «السلامة الفائقة» المنحل في OpenAI.

وأوضح في استقالته أنه «كان على خلاف مع قيادة OpenAI بشأن الأولويات الجوهرية للشركة لفترة طويلة، إلى أن وصل الخلاف إلى نقطة الانفجار».

بدورها، غادرت Gretchen Krueger منصبها كباحثة في سياسات الذكاء بعد لايك بفترة وجيزة.

وقالت في منشورات على منصة X، إن الشركة بحاجة إلى بذل المزيد من الجهد، لتحسين «آليات اتخاذ القرار، والمساءلة، والشفافية».

 إلى جانب تعزيز «إجراءات الحد من التأثيرات السلبية على عدم المساواة والحقوق والبيئة».

📎 رابط مختصر للمقال: https://almanara.media/?p=44503
شارك هذه المقالة