أكسفورد تقود مشروعا لتطوير أنظمة الذكاء الاصطناعي
تعمل جامعة أكسفورد على أبحاث جديدة عن أنظمة الذكاء الاصطناعي لتصبح أكثر شفافية بالتعاون مع جامعتي أبردين وكامبريدج، وتعمل أكسفورد على تطوير أنظمة تدقيق تشبه أجهزة تسجيل الطيران "الصندوق الأسود" لأنظمة الذكاء الاصطناعي.
تعتبر الأبحاث ضمن مشروع الإنجاز الذكي للمساءلة (RAINS) هو مبادرة متعددة التخصصات تعمل بالتعاون بين الجامعات الثلاث، بتمويل 1.1 مليون جنيه إسترليني لتمويل أبحاث العلوم والهندسة الفيزيائية لإجراء الأبحاث لتعزيز فهم قضايا الثقة، الهوية، الخصوصية والأمن (TIPS) في الاقتصاد الرقمي.
تهدف الأبحاث إلى منع التلاعب بخصائص وسلوكيات الأنظمة الذكية، وفي حالة وقوع حوادث أو شكاوى حيث يتم تحليل البيانات لضمان الشفافية والمساءلة في أنظمة الذكاء الاصطناعي المستقبلية.
قالت البروفيسورة ريبيكا ويليامز، أستاذة القانون العام والقانون الجنائي بكلية الحقوق بجامعة أكسفورد، ومشاركة بالمشروع، إنها متحمسة للغاية للمشاركة في هذا المشروع، حيث تعتبر الشفافية والمساءلة في هذه الأنظمة أمرًا حيويًا ومتماسكًا في أي مفهوم.
أضافت ويليامز، أن دورها هو تحديد التحديات التي تواجه القانون الحالي الذي تفرضه التكنولوجيا الجديدة من هذا النوع، والتفكير في الكيفية التي يمكن أن يستجيب بها القانون.
أوضحت ويليامز، أنها تعمل لإيجاد الكيفية التي يمكن من خلالها للقانون أن يحفز الاستخدام الأمثل لهذه الأنظمة حتى نتمكن من جني الفوائد التي تقدمها، مع الحفاظ أيضًا على الشفافية.
من جانبه، قال البروفيسور بيت إدواردز من جامعة أبردين، إنه يتم استخدام تقنيات الذكاء الاصطناعي في سيناريوهات أكثر مثل الأجهزة المنزلية الذكية، والخدمات العامة، وتجارة التجزئة والتصنيع، لكن ما الذي يحدث عندما تفشل مثل هذه الأنظمة.
أضاف إدواردز، أنه كيف يمكننا محاسبة الأنظمة والمطورين إذا تبين أنهم يتخذون قرارات متحيزة أو غير عادلة؟ هذه كلها تحديات حقيقية ستؤثر بشكل متزايد على العديد من جوانب الحياة اليومية
وقال الدكتور جات سينغ من جامعة كامبردج، إن عملهم يزيد من شفافية أنظمة الذكاء الاصطناعي، بطريقة تسمح بالاستجواب والتدقيق في وقت مبكر، وهذا بدوره قد يساعد في منع أو تخفيف الضرر.