إليك اثني عشر ’’ 12 ’’ تهديدا محتملا للذكاء الاصطناعي على حياة البشر
وهدا كما حذرت لجنة العلوم والابتكار والتكنولوجيا في البرلمان البريطاني، من 12 تهديدا محتملا للذكاء الاصطناعي على حياة البشر في المستقبل القريب.
بحيث طالبت اللجنة المختصة أن تكون مخاطر الذكاء الاصطناعي محور ومدروس أي تنظيم حكومي مستقبلا وأن توضع ضوابط لاستخدام هذه التقنية الحديثة لها إيجابيات وطبعا لها سلبيات على المستخدمين بل على الناس جميعا.
وقال رئيس لجنة العلوم والابتكار والتكنولوجيا،’’ جريج كلارك ’’، في مقال على صفحة اللجنة بالبرلمان البريطاني الرسمية: “لقد غيّر الذكاء الاصطناعي بالفعل الطريقة التي نعيش بها حياتنا اليومية العادية لم تعد كالسابق تغيرت الروابط الاجتماعية وتغلبت الالة على ميداين الشغل وغيرها من تطورات رهيبة غيرت نمط وحياة الناس عبر العالم، ويبدو من المؤكد أنه سيشهد نموًا هائلاً طبعا سيؤثر علينا من الناحية الاجتماعية والاقتصادية لامحالة.
وأضاف المتحدث “إن الذكاء الاصطناعي مليء بالفرص، ولكنه يحتوي أيضًا على العديد من المخاطر المهمة التي تهدد الحقوق الراسخة والعزيزة للأفراد والمجتمعات – بدءًا من الخصوصية الشخصية إلى الأمن القومي – والتي يتوقع الناس من صناع السياسات الحذر منها وأخدها بمحمل الجد ودراسة ايجابياتها وخطورتها المحتمل وقوعها.”
بحيث عالج التقرير الحديث 12 تحديًا يجب على صناع السياسات معالجتها إذا أردنا تأمين ثقة الناس او البشر جمعاء في الذكاء الاصطناعي ويحق للأشخاص معرفة كل الجوانب بالتفصيل ولكن هدا امر صعب ”
وشخصت اللجنة البريطانية إثني عشر تحديا يشكلها الذكاء الاصطناعي، مشيرة إلى ضرورة معالجة هذه التحديات لمقاربة مشتركة بين الدول للحد من مخاطر التقنية الحديثة المحتمل وقعوها طبعا.
وأوضحت اللجنة أن التهديدات المحتملة للذكاء الاصطناعي على البشر تتمثل في هذه النقاط المهمة:
رقم واحد -البيانات:
يحتاج الذكاء الاصطناعي الأقوى إلى مجموعات بيانات كبيرة جدًا، والتي يحتفظ بها عدد قليل من المنظمات
02- قوة الحوسبة:
تطلب تطوير الذكاء الاصطناعي القوي قوة حوسبة كبيرة جدا، ويقتصر الوصول إليها على عدد قليل من المؤسسات الموجودة.
03-الشفافية:
تكافح نماذج الذكاء الاصطناعي لشرح سبب بثها نتيجة معينة، أو من أين تأتي بالمعلومات لابد من وجود شفافية ووضوح في الموضوع.
04 تهديد وجودي:
يعتقد بعض الناس أن الذكاء الاصطناعي يشكل تهديدًا كبيرًا لحياة الإنسان. إذا كان هذا احتمالا، فإن الحكم يحتاج إلى توفير الحماية للأمن القومي.
05 -التحيز:
يمكن للذكاء الاصطناعي أن يقدم أو يديم التحيزات التي يعتبرها المجتمع غير مقبولة.
06-الخصوصية:
يمكن استخدام المعلومات الحساسة والخاصة التابعة للأفراد أو الشركات لتدريب نماذج الذكاء الاصطناعي.
07-التحريف:
حذرت اللجنة من احتمالية إنتاج نماذج وأدوات : “ChatGPT” مواد محرفة حول سلوك وتصرفات شخص ما ووجهات نظره الشخصية.
08-حقوق الملكية:
تستفيد بعض نماذج وأدوات الذكاء الاصطناعي من محتوى أشخاص آخرين: يجب أن تحدد السياسة حقوق منشئي هذا المحتوى، ويجب إنقاذ هذه الحقوق التابعة لملاكها الاصلين لايجب اختراق حقوق الملكية الفكرية.
09-الانفتاح:
ودعت لجعل الكود الحاسوبي وراء نماذج الذكاء الاصطناعي متاحا بشكل مفتوح، للسماح بتنظيم أكثر موثوقية وتعزيز الشفافية والابتكار للجميع.
10-التنسيق الدولي:
تطوير أي تنظيم يجب أن يكون مهمة دولية، ويجب أن ترحب قمة نوفمبر القادم حول سلامة الذكاء الاصطناعي المجمع عقدها بريطانيا بأكبر عدد ممكن من الدول المشاركة في هدا المؤتمر المنتظر.
11-المسؤولية:
إذا تم استخدام أدوات الذكاء الاصطناعي لإلحاق الضرر، فيجب أن تحدد السياسة ما إذا كان المطورون أو مقدمو الخدمة مسؤولين أم لا، وفق اللجنة لمحاسبة كل على حدي ان لحق الضرر بأفراد او مؤسسات او دول.
12-الوظائف:
طالبت لجنة العلوم والتكنولوجيا البريطانية السياسيين بأن يتوقعوا التأثير المحتمل الذي سيخلفه تبني الذكاء الاصطناعي على الوظائف الحالية والاستغناء عن البشر او اليد العاملة.
ودعت لجعل الكود الحاسوبي وراء نماذج الذكاء الاصطناعي متاحا بشكل مفتوح، للسماح بتنظيم أكثر موثوقية وتعزيز الشفافية والابتكار للجميع.
10-التنسيق الدولي:
تطوير أي تنظيم يجب أن يكون مهمة دولية، ويجب أن ترحب قمة نوفمبر القادم حول سلامة الذكاء الاصطناعي المجمع عقدها بريطانيا بأكبر عدد ممكن من الدول المشاركة في هدا المؤتمر المنتظر.
11-المسؤولية:
إذا تم استخدام أدوات الذكاء الاصطناعي لإلحاق الضرر، فيجب أن تحدد السياسة ما إذا كان المطورون أو مقدمو الخدمة مسؤولين أم لا، وفق اللجنة لمحاسبة كل على حدي ان لحق الضرر بأفراد او مؤسسات او دول.
12-الوظائف:
طالبت لجنة العلوم والتكنولوجيا البريطانية السياسيين بأن يتوقعوا التأثير المحتمل الذي سيخلفه تبني الذكاء الاصطناعي على الوظائف الحالية والاستغناء عن البشر او اليد العاملة.