الفيزياء

يجب على الفيزيائيين التفاعل مع أخلاقيات الذكاء الاصطناعي ، الآن

 

يستخدم الفيزيائيون بشكل متزايد الذكاء الاصطناعي ، وحتى يقودون تطوره ، ولكن لا يمكننا فصل أنفسنا عن الآثار الأخلاقية ومردود هذه التكنولوجيا.

غالبًا ما تتضمن صور وسائل الإعلام الشهيرة للذكاء الاصطناعي رؤى مروعة للروبوتات القاتلة ، أو البشر الملغمين ، أو القضاء على الجنس البشري تمامًا. حتى الرؤى الأكثر وضوحا لعالم يحركه الذكاء الاصطناعي تتخيل معظم الجهود والسلوكيات البشرية التقليدية التي يتم استبدالها بالآلات. غالبًا ما تركز مخيلتنا الجماعية للذكاء الاصطناعي على هذا "التفرد" - وهي نقطة لا رجعة فيها عندما تتجاوز التكنولوجيا البشرية.

ومع ذلك ، فإن تحقيق هذا النوع من الذكاء العام الاصطناعي (AGI) ، حيث يمكن للآلة أداء أي مهمة معرفية يمكن للإنسان القيام بها ، لا يزال بعيدًا. صحيح أن هناك تقدمًا مثيرًا للإعجاب في التعلم الآلي (ML) وأن الخوارزميات يمكنها الآن تنفيذ مهام أفضل البشر في مختلف المهام. ومع ذلك ، من نواح عديدة ، نحن لسنا أقرب كثيرًا إلى تحقيق AGI مما كنا عليه في عام 1951 عندما توقع باحث علوم الكمبيوتر الرائد آلان تورينج أن الآلات "ستتفوق على قدراتنا الضعيفة" و "تسيطر عليها".

في حين أنه من المهم التفكير في الآثار الأخلاقية لـ AGI ، إلا أن الانغماس في التفرد غالبًا ما يحجب حقيقة أننا نعيش بالفعل في الواقع المرير. تعتمد الحكومات والمنظمات في جميع أنحاء العالم بالفعل على خوارزميات لجهات خارجية غير قابلة للتفسير ولا تخضع للاختبار بشكل كافٍ لاتخاذ قرارات حاسمة حول إعداد الكفالة والعمالة والوصول إلى الرعاية الصحية والمزيد. تقوم الشركات الخاصة والحكومات وحتى الأفراد بنشر تقنيات التعرف على الوجوه وتقنيات المراقبة الآلية الأخرى لتتبع المواطنين الأفراد وقمع مجموعات الأقليات. غالبًا ما تكشف عمليات التدقيق النادرة لهذه الخوارزميات أن تنبؤاتها تظهر تحيزات على أساس العرق والجنس وعوامل أخرى أو أنها غير دقيقة ببساطة.

وقد حدثت هذه الآثار الضارة للذكاء الاصطناعي ، جزئياً ، لأن معدل الابتكار تجاوز بكثير تطوير الرقابة التشريعية ولأن شركات التكنولوجيا كانت مترددة في (أو رفضت) التنظيم الذاتي. ومع ذلك ، قد يكون التغيير قادم. يطالب النشطاء والباحثون بشكل متزايد الحكومات بتقييد أو حظر صريح لبعض التقنيات ، وتقوم العديد من الدول بتطوير معايير لنشر الذكاء الاصطناعي ، وتقوم شركات التكنولوجيا الكبيرة والصغيرة بإنشاء أو تطوير فرق الأخلاق والعدالة الخاصة بها. منذ أن بدأت حضور مؤتمرات الذكاء الاصطناعي في عام 2016 ، رأيت عدد ورش العمل والأوراق والمحادثات حول الأخلاقيات في الذكاء الاصطناعي الحالي ينمو. في هذا العام ، سيتطلب اجتماع أنظمة معالجة المعلومات العصبية (NeurIPS) - وهو أحد أكبر المؤتمرات البحثية في مجال الذكاء الاصطناعي في العالم - أن تتضمن جميع التقديمات بيان تأثير يناقش "الجوانب الأخلاقية والنتائج المجتمعية المستقبلية" والاعتراف بتضارب المصالح المحتمل.

فلماذا أكتب عن هذا في منشور في الفيزياء؟ حسنًا ، ليس سراً أن الذكاء الاصطناعي و ML هما عنصران أساسيان بشكل متزايد في برامج أبحاث الفيزياء. ركز حوالي نصف الدورات التعليمية والدروس التمهيدية المخطط لها لاجتماع مارس للجمعية الفيزيائية الأمريكية لهذا العام على الذكاء الاصطناعي. بالإضافة إلى ذلك ، تتعامل العديد من ورش العمل ، وسلسلة المحاضرات ، والمدارس الصيفية بشكل حصري مع تقاطع هذه المجالات.

ومع ذلك ، لا يقوم الفيزيائيون فقط بإعادة تدوير طرق ML الموجودة وتطبيقها على أسئلة الفيزياء. يغادر العديد من طلاب الدراسات العليا في الفيزياء المجال ليصبحوا باحثين أو مهندسين في الذكاء الاصطناعي في شركات التكنولوجيا ومعاهد البحوث. يقوم علماء فيزيائيون آخرون بإجراء أبحاث متعددة التخصصات تقدم كلا المجالين ؛ حتى أن البعض لديهم مواعيد مشتركة عبر الفيزياء وعلوم الكمبيوتر. في الواقع ، أدرجت مؤسسة العلوم الوطنية الأمريكية "الذكاء الاصطناعي لاكتشافه في الفيزياء" كواحد من ستة مواضيع في دعوتها لمعاهد أبحاث الذكاء الاصطناعي الوطنية متعددة التخصصات.

لدى الفيزيائيين الفرصة للعب دور حاسم في فهم وتنظيم الذكاء الاصطناعي. غالبًا ما يتطلب البحث الفيزيائي تحليلًا دقيقًا للتحيز الخوارزمي أو التفسير ، وهي طرق مهمة لتحسين عدالة أنظمة الذكاء الاصطناعي. لقد أصبحنا مؤثرين بشكل متزايد في المساحات البحثية الأساسية للذكاء الاصطناعي ولدينا فرص لإحداث تغيير حقيقي. لدينا المعرفة التقنية للمساعدة في جعل فهم الذكاء الاصطناعي في متناول الجمهور. علاوة على ذلك ، كأعضاء في المجتمع ، من واجبنا المشاركة في هذه المحادثات والجهود. لا يمكننا فصل أنفسنا عن الآثار الأخلاقية العالمية للخوارزميات التي نبنيها ببساطة لأن هدفنا الأساسي هو استخدامها لتمكين البحث في الفيزياء.

إذا كنت تتعامل مع أخلاقيات الذكاء الاصطناعي للمرة الأولى (أو حتى إذا كنت فكرت في هذه القضايا عدة مرات من قبل) ، فأنا أشجعك على البدء بقراءات لعلماء بارزين في هذا المجال. ينشر معهد ستانفورد للذكاء الاصطناعي الذي يركز على الإنسان ، ومعهد AI Now في جامعة نيويورك ، ومركز بيركمان كلاين التابع لجامعة هارفارد ، ومعهد مستقبل الإنسانية في أوكسفورد ، ومعهد آلان تورينج أبحاثًا ممتازة ويستضيفون محادثات وأحداث يسهل الوصول إليها ومتعددة التخصصات. إذا كان يمكنك حضور مؤتمرات الذكاء الاصطناعي مثل NeurIPS أو المؤتمر الدولي حول تمثيلات التعلم (ICLR) ، فشارك في جلسات حول أخلاقيات الذكاء الاصطناعي وحقوق البيانات وقابلية التفسير. تعرف على طرق استخدام الذكاء الاصطناعي في مجتمعك المحلي وتأثيراته على من حولك ، لا سيما على الفئات السكانية الضعيفة.

ثم اجعل صوتك مسموعًا. ساهم في المناقشات في مؤسستك أو في المؤتمرات. ابحث عن الحالات التي يمكن أن يكون للبحث فيها آثار أخلاقية مشكوك فيها والدفع من خلال بدء المحادثات مع المؤلفين ومجتمع البحث. شجع زملائك والطلاب والمتعاونين على التعرف على كيفية استخدام هذه التقنيات خارج المختبر والدعوة لصانعي السياسات عندما تكون هذه الاستخدامات ضارة. قدم مهاراتك التقنية لدعم الجهود المبذولة ضد التطبيقات المسبقة للتحكيم للذكاء الاصطناعي أو المراقبة غير المبررة على مستوى المجتمع. تعزيز البحث متعدد التخصصات واستخدام موقفك لرفع الأصوات الأخرى. زود الأشخاص في مجتمعاتك بمعلومات حول كيفية تأثير الذكاء الاصطناعي على حياتهم والإجراءات التي يمكنهم اتخاذها لمكافحة التطبيقات غير الأخلاقية للذكاء الاصطناعي.

 

تعمل منظمة العفو الدولية على تشكيل عالمنا وحياتنا وحقوقنا ومستقبلنا كل يوم. بصفتنا علماء ومواطنين ، يجب أن نشارك بنشاط لضمان تطور الذكاء الاصطناعي واستخدامه بطريقة أخلاقية ومنصفة.

المصدر

النشرة البريدية

الرجاء تعبئة التفاصيل ادناه لتلقي نشرتنا البريدية