وكالات - النجاح الإخباري - حذرت صحيفة غارديان البريطانية من المخاطر المترتبة على تطوير الأجهزة الذكية لتمتلك قدرات تضاهي قدرات الإنسان العقلية.

وقالت الصحيفة في افتتاحيتها إن مخاطر برمجة أجهزة الحاسوب وغيرها من الأجهزة الذكية للقيام بالأعمال كما يقوم بها البشر عديدة، في مقدمتها عدم قدرة مخترعي تلك الآلات على تفسير المعلومات التي اكتسبتها الآلات التي اخترعوها.

وأكدت الصحيفة أن على مهندسي البرمجيات والقائمين على تطوير الذكاء الاصطناعي أخذ التبعات الأخلاقية لعملهم على محمل الجد.

وأوردت تصريحا لبراد سميث، رئيس شركة مايكروسوفت، الذي قال إن على شركات التكنولوجيا التوقف عن التصرف كما لو أن كل شيء غير قانوني مقبول، وإنه إذا كان بمقدورنا اعتبار التكنولوجيا محايدة أخلاقيا فإن صناع تلك التكنولوجيا لا يمكن اعتبارهم كذلك.

المسؤولية الأخلاقية

وأشارت الصحيفة إلى أن الوعي بالمسؤولية الأخلاقية المترتبة على استخدام الذكاء الاصطناعي يكون أوضح أحيانا عندما نشاهد أثرها المباشر على الناس.

فقد كان من السهولة بمكان إدراك المشكلة الأخلاقية في بيع شركة مايكروسوفت لتقنية التعرف على الوجه لإدارة الهجرة والجمارك الأميركية، عندما عمدت إدارة ترامب إلى تفريق أطفال المهاجرين عن آبائهم عند الحدود الجنوبية للولايات المتحدة.

وأشادت الصحيفة بالموقف الأخلاقي لأكثر من 3000 موظف بشركة غوغل اعترضوا على صفقة بين الشركة ووزارة الدفاع الأميركية تتعلق باستخدام الذكاء الاصطناعي لأغراض عسكرية وتضمن تصنيع طائرات مسيرة، مما دفع الشركة للتخلي عن الصفقة.

محاكاة العقل الباطن

وبحسب الصحيفة، فإن استطلاعات الرأي تشير إلى أن الأميركيين لا يؤيدون تطوير تقنية الذكاء الاصطناعي لأغراض حربية، إلا أن هذا الرأي قد يتغير عندما يبدأ خصوم الولايات المتحدة استخدام الذكاء الاصطناعي لأغراض حربية.

كما أشارت إلى أن العقل الباطن يعتبر أصعب مهارات العقل البشري محاكاة وأكثرها تعقيدا، والذي هو نتيجة لآلاف السنين من التطور.

وتكمن مشكلة محاكاة العقل الباطن في عدم قدرة مهندسي تقنيات الذكاء الاصطناعي على تحديد الخلل الذي قد يصيب تلك الآلات، وهو ما يمثل مشكلة كبيرة حيث يصعب التنبؤ بقدرات اختراعاتهم.

وأضافت أن البشر بات بمقدورهم تطوير الأجهزة الذكية لتملك القدرة على التعلم، ولكن خبراء البرمجة ما زالوا غير قادرين على فهم المعارف التي تكتسبها تلك الأجهزة.