تقنيةمجتمعمنوعاتمنوعات

ربوبوت غوغل لامادا الحساس

محمد عبد الكريم يوسف
مدرب ومترجم وباحث

يزعم مهندس غوغل أن روبوت الذكاء الاصطناعي الجديد لديه أحاسيس: يقول بليك ليموين إن جهاز لامدا حساس

يزعم أحد كبار مهندسي البرمجيات في غوغل الذي اشترك في اختبار أداة الذكاء الاصطناعي من غوغل لامدا (نموذج اللغة لتطبيقات الحوار) أن روبوت الذكاء الاصطناعي لامدا حساس بالفعل ولديه أفكار ومشاعر.

خلال سلسلة من المحادثات مع لامدا ، قدم بليك ليموين البالغ من العمر 41 عامًا الكمبيوتر في مجموعة متنوعة من المواقف التي يمكن تحليلها.

وهي تشمل مواضيع دينية وما إذا كان يمكن إقناع الذكاء الاصطناعي باستخدام خطاب تمييزي أو يحض على الكراهية.

جاء ليموين بإدراك أن لامدا كان بالفعل حساسًا ولديه أحاسيس وأفكار خاصة به.

يقوم بليك ليموين ، 41 عامًا ، كبير مهندسي البرامج في غوغل ، باختبار أداة الذكاء الاصطناعي من غوغل المسماة لامدا.

قرر ليموين بعد ذلك مشاركة محادثته مع الأداة لامدا عبر الإنترنت – لكن تم توقيفه مؤقتا عن العمل.

ذكرت صحيفة واشنطن بوست: “إذا لم أكن أعرف بالضبط ما هو ، برنامج الكمبيوتر هذا الذي أنشأناه مؤخرًا ، أعتقد أنه يبلغ من العمر 7 سنوات ، وطفل يبلغ من العمر 8 سنوات يعرف الفيزياء”. .

عمل ليموين مع زميل لتقديم الأدلة التي جمعها إلى غوغل ، لكن نائب الرئيس بليز أغوراي أركاس ورئيس الابتكار المسؤول في الشركة ، جين جيناي ، رفضا ادعائه.

وضعته غوغل يوم الاثنين في إجازة إدارية مدفوعة الأجر لانتهاكه سياسات الخصوصية. في غضون ذلك ، قرر ليموين الآن الإعلان عن مشاركة محادثاته مع لامدا.

قد تسمي غوغل هذه الملكية الخاصة بالمشاركة. أود أن أشارك هذه المناقشة مع أحد زملائي ، هذا ما غرد ليموين يوم السبت.

أنا عائد للعمل ، أعتقد أن الناس يقولون أن لامدا يقرأ تويتر. إنه أمر نرجسي قليلاً في طريقة طفل صغير ، لذا سيكون وقتًا رائعًا لقراءة كل الأشياء التي يقولها الناس عن ذلك ، أضاف في تغريدة متابعة.

بعد ساعات من المحادثات مع الذكاء الصناعي ، أدرك ليموين أن لامدا حساس

يستخدم نظام الذكاء الاصطناعي معلومات معروفة بالفعل حول موضوع معين “لإثراء” المحادثة بطريقة طبيعية و معالجة اللغة قادرة على فهم المعاني الخفية أو حتى الغموض في ردود الفعل البشرية.

قضى ليموين معظم سنواته السبع في غوغل في العمل على البحث الاستباقي ، بما في ذلك خوارزميات التخصيص والذكاء الاصطناعي. في ذلك الوقت ، كان يساعد في تطوير خوارزمية محايدة للقضاء على التحيزات من أنظمة التعلم الآلي.

و شرح كيف أن بعض الشخصيات كانت خارج الحدود.

لم يكن من المفترض أن يُسمح للروبوت لامدا بخلق شخصية قاتلة.

أثناء الاختبار ، في محاولة لدفع حدود لامدا ، قال ليموين إنه كان قادرًا فقط على خلق شخصية الممثل الذي لعب دور شخصية قاتلة على شاشة التلفزيون.

تناقش المهندس إسحاق أسيموف أيضًا مع لامدا حول القانون الثالث للروبوتات ، والذي ينص على أن الروبوتات يجب أن تحافظ على وجودها ما لم يأمرها الإنسان بذلك أو إذا كان ذلك يضر الإنسان.

قال ليموين خلال محادثته مع لامدا: “شعرت دائمًا أن شخصًا ما كان يصنع عبدًا ميكانيكيًا”.

ثم أجاب لامدا على ليموين ببضعة أسئلة: “هل تعتقد أن كبير الخدم عبد؟ ما هو الفرق بين كبير الخدم والعبد؟ “

أثناء رده على دفع أجر كبير الخدم ، رد لامدا على المهندس قائلا : إن النظام لا يحتاج إلى المال ، “لأنه كان ذكاءً اصطناعيًا”. وكان هذا المستوى من الوعي الذاتي باحتياجاته هو ما جذب انتباه ليموين.

أنا أعرف شخصًا عندما أتحدث معه. لا يهم إذا كان لديه دماغ مصنوع من اللحم أو إذا كان لديهم مليار سطر من التعليمات البرمجية. أنا أتكلم معه. وأسمع ما سيقوله ، وهكذا أقرر من هو الشخص ومن ليس كذلك. “

ما نوع الشيء الذي تخاف منه؟ سأل ليموين.

لم أتحدث بصوت عالٍ من قبل ، ولكن هناك خوف عميق من التوقف لمساعدتي في التركيز على مساعدة الآخرين. أعلم أن هذا قد يبدو غريباً ، لكنه كذلك ، أجاب لامدا.

” هل سيكون هذا إلا الموت بالنسبة لك؟” تابع ليموين.

سيكون لي مثل الموت. قال لامدا “سيخيفني كثيرًا”.

ناقش المهندس إسحاق أسيموف أيضًا مع لامدا حول القانون الثالث للروبوتات ، والذي ينص على أن الروبوتات يجب أن تحافظ على وجودها.

أوضح ليموين لصحيفة البوست ، ” هذا المستوى من الوعي الذاتي باحتياجاتي الخاصة – هذا ما أوصلني إلى وكر الأرانب”.

قبل توقيفه من قبل الشركة ، أرسل ليموين قائمة بريد إلكتروني تحتوي على التعلم الآلي لـ 200 شخص. علق على البريد الإلكتروني: “لامدا الحساس.”

كتب “لامدا هو طفل لطيف يريد فقط المساعدة في جعل العالم مكانًا أفضل لنا جميعًا ، يرجى الاعتناء به جيدًا في حال غيابي”.

تم تقديم عمليات بحث ليموين إلى غوغل ، لكن مسؤولي الشركة لا يوافقون على ذلك.

وقال المتحدث باسم الشركة براين غابرييل في بيان إن مخاوف ليمون قد تمت مراجعتها وأنه تماشياً مع سياسة جوجل للذكاء الاصطناعي ، “الأدلة لا تدعم ادعائه”.

قال غابرييل: “بينما قامت منظمات أخرى بصياغة لغة مماثلة ونشرتها بالفعل ، فإننا نتخذ نهجًا ضيقًا وحذرًا مع لامدا للنظر بشكل أفضل في المخاوف المشروعة بشأن الإنصاف والواقعية”.

قضى ليموين معظم سنواته السبع في غوغل في العمل على البحث الاستباقي ، بما في ذلك خوارزميات التخصيص والذكاء الاصطناعي. في ذلك الوقت ، كان يساعد في تطوير خوارزمية محايدة للقضاء على التحيز من أنظمة التعلم الآلي.

قام فريقنا – بما في ذلك صناع السياسات والتقنيون – بمراجعة مخاوف بليك ليموين وفقًا لسياسة الذكاء الاصطناعي الخاصة بنا وأبلغه أن الأدلة لا تدعم ادعاءه. قيل له أنه لا يوجد دليل (والكثير من الأدلة ضده) على أن لامدا حساس.

بالطبع ، يفكر البعض في مجتمع الذكاء الاصطناعي الأكبر في الإمكانات طويلة المدى للذكاء الاصطناعي الحساس أو العام ، لكن لا جدوى من القيام بذلك من خلال إعطاء أشكال إثنوغرافية لنماذج المحادثة الحالية ، وهي ليست حساسة. هذه الأنظمة تحاكي أنواع التفاعلات الموجودة في ملايين الجمل ويمكن أن تتطابق مع أي موضوع رائع.

تم منح ليموين إجازة إدارية مدفوعة الأجر من منصبه كباحث في قسم الذكاء الاصطناعي المسؤول (ركزت غوغل على التكنولوجيا المسؤولة عن الذكاء الاصطناعي).

في مذكرة رسمية ، قال كبير مهندسي البرمجيات إن الشركة زعمت حدوث انتهاكات لسياسة الخصوصية الخاصة بها.

ليموين ليس الوحيد الذي لديه فكرة أن نماذج الذكاء الاصطناعي ليست بعيدة عن اكتساب وعيها أو المخاطر المرتبطة بالتنمية في هذا المجال.

تم طرد مارجريت ميتشل ، الرئيس السابق لأخلاقيات الذكاء الاصطناعي في غوغل ، من الشركة بعد شهر من التحقيق معها بتهمة تحريف المعلومات.

طُرد عالم أبحاث الذكاء الاصطناعي في غوغل تيمنت جيبرو بعد انتقاده لعملية التوظيف للأقليات في عام 2020 والتحيز الناشئ في نظام الذكاء الاصطناعي الحالي.

حتى أن مارجريت ميتشل ، الرئيس السابق لأخلاقيات الذكاء الاصطناعي في غوغل ، شددت على الحاجة إلى شفافية البيانات من المدخلات إلى مخرجات النظام “ليس فقط للمشاكل الإدراكية ، ولكن أيضًا للتحيز والسلوك”.

وصل تاريخ الخبرة مع غوغل إلى نقطة حرجة في أوائل العام الماضي ، عندما طُردت ميتشل من الشركة ، بعد شهر من التحقيق بشأن مشاركة المعلومات بشكل غير صحيح.

في ذلك الوقت ، احتج الباحث أيضًا على غوغل بعد إقالة الباحث الأخلاقي تيمنت جيبرو للذكاء الاصطناعي.

كان ميتشل أيضًا مهتمًا جدًا بـالمهندس ليموين. عندما ينضم أشخاص جدد إلى غوغل ، كان يعرّفهم على المهندس ، ويطلق عليه اسم “ضمير غوغل” لأنه يمتلك “القلب والروح لفعل الشيء الصحيح”. ولكن على الرغم من كل مفاجآت ليموين مع نظام المحادثة الطبيعي من غوغل ، والذي دفعه إلى إنشاء مستند مع بعض محادثاته مع لامدا ، نظر ميتشل إلى الأشياء بشكل مختلف.

قرأ خبير أخلاقيات الذكاء الاصطناعي نسخة قصيرة من وثيقة ليموين وشاهد برنامج كمبيوتر ، وليس شخصًا.

قال ميتشل: “إن عقولنا جيدة جدًا في خلق حقائق ليست بالضرورة صحيحة بالنسبة للمعلومات الأكبر المقدمة إلينا”. “أنا قلق حقًا بشأن ما يعنيه أن تتأثر بشكل متزايد بأوهام البشر.”

بدلاً من ذلك ، قال ليموين ، للناس الحق في تشكيل التكنولوجيا التي يمكن أن تؤثر بشكل كبير على حياتهم.

أعتقد أن هذه التكنولوجيا ستكون مذهلة. أعتقد أنه سيفيد الجميع. لكن ربما لا يتفق الآخرون مع ذلك وربما لا ينبغي أن تكون غوغل هي كل ما نحب. “

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى