AI

في مقابلة أجريت معه مؤخرًا ، حذر أحد كبار التنفيذيين في Google من إمكانية استخدام الذكاء الاصطناعي (AI) لقتل آلاف الأشخاص وقال المسؤول التنفيذي ، الذي طلب عدم الكشف عن هويته ، إن الذكاء الاصطناعي يتم تطويره بوتيرة سريعة وأن هناك خطرًا من إمكانية استخدامه لأغراض ضارة وأشار المدير التنفيذي إلى مثال الأسلحة المستقلة ، وهي أسلحة يمكنها اختيار الأهداف والاشتباك معها دون تدخل بشري.

ولا تزال هذه الأسلحة في المراحل الأولى من التطوير ، لكن السلطة التنفيذية حذرت من أنها يمكن أن تستخدم لقتل الناس دون أي إشراف بشري كما أعرب المسؤول التنفيذي عن قلقه بشأن استخدام الذكاء الاصطناعي للمراقبة ويمكن استخدام أنظمة المراقبة التي تعمل بالذكاء الاصطناعي لتتبع تحركات الناس وأنشطتهم ، ويمكن استخدام ذلك لقمع المعارضة أو استهداف الأشخاص بالاضطهاد.

ويأتي تحذير المسؤول التنفيذي في وقت يتزايد فيه القلق بشأن المخاطر المحتملة للذكاء الاصطناعي وفي السنوات الأخيرة ، كان هناك عدد من الحوادث البارزة التي استخدم فيها الذكاء الاصطناعي لإحداث ضرر وعلى سبيل المثال ، في عام 2018 ، تم استخدام روبوت محادثة مدعوم بالذكاء الاصطناعي لنشر معلومات مضللة حول أزمة الروهينجا في ميانمار.

وتحذير المسؤول التنفيذي هو تذكير بأن الذكاء الاصطناعي هو أداة قوية يمكن استخدامها للخير أو للشر ومن المهم أن تكون على دراية بالمخاطر المحتملة للذكاء الاصطناعي وأن تتخذ خطوات للتخفيف من هذه المخاطر وفيما يلي بعض الخطوات التي يمكن اتخاذها للتخفيف من مخاطر الذكاء الاصطناعي:

وضع مبادئ توجيهية أخلاقية لتطوير واستخدام الذكاء الاصطناعي. يجب أن تستند هذه الإرشادات إلى مبادئ مثل العدالة والشفافية والمساءلة ووضع اتفاقيات دولية لتنظيم تطوير واستخدام الذكاء الاصطناعي. يجب تصميم هذه الاتفاقيات لمنع استخدام الذكاء الاصطناعي لأغراض ضارة وتوعية الجمهور بالمخاطر المحتملة للذكاء الاصطناعي وسيساعد ذلك الناس على أن يكونوا أكثر وعياً بالمخاطر وأن يتخذوا خطوات لحماية أنفسهم.



إقراء إيضاً : مستخدماً تقنية الذكاء الاصطناعي ... محتال في الصين يسرق أكثر من 600 ألف دولار ... متابعة القراءة