تقرير أمريكى يحذر: الذكاء الاصطناعى يشكل تهديدًا على مستوى الانقراض – سعوديوم

تدعو دراسة جديدة تمولها وزارة الخارجية الأمريكية إلى فرض حظر مؤقت على إنشاء ذكاء اصطناعي متقدم يتجاوز عتبة معينة من القوة الحسابية، ويزعم باحثوها أن التكنولوجيا تشكل “تهديدا على مستوى الانقراض للجنس البشري”.

وبحسب ما أورد موقع صحيفة “ديلي ميل” البريطانية، فإن الدراسة، التي تم التكليف بها كجزء من عقد فيدرالي بقيمة 250 ألف دولار، تشير إلى ضرورة تحديد صلاحيات الطوارئ للسلطة التنفيذية للحكومة الأمريكية للرد على التهديدات الخطيرة والخطيرة. حوادث سريعة تتعلق بالذكاء الاصطناعي، والتعامل مع رقائق الكمبيوتر. إن تصنيف التكنولوجيا المتطورة على أنها سلع محظورة دوليا، وحتى مراقبة كيفية استخدام الأجهزة، ليست سوى بعض من التدابير الجذرية التي تدعو إليها الدراسة الجديدة.

وينضم التقرير إلى مجموعة من الأصوات الصناعية والحكومية والأكاديمية التي تدعو إلى إيلاء اهتمام تنظيمي قوي لإمكانات الذكاء الاصطناعي التي يتم السعي وراءها بشدة.

على سبيل المثال، ربطت وكالة الأمم المتحدة للعلوم والثقافة (اليونسكو)، في يوليو/تموز الماضي، مخاوفها بشأن الذكاء الاصطناعي بمخاوف مستقبلية مماثلة بشأن تكنولوجيا شرائح الدماغ، على غرار شركة نيورالينك التي ابتكرها إيلون ماسك، وحذرت من “المراقبة العصبية” التي تنتهك “الخصوصية العقلية”. ” .

وبينما يذكر التقرير الجديد مقدمًا، في صفحته الأولى، أن توصياته “لا تعكس آراء وزارة الخارجية الأمريكية أو الحكومة الأمريكية”، إلا أن باحثيه يطلعون الحكومة على الذكاء الاصطناعي منذ عام 2021.

وقال باحثو الدراسة، وهي شركة استشارية للذكاء الاصطناعي مكونة من أربعة أشخاص تدعى Gladstone AI ويديرها الشقيقان جيريمي وإدوارد هاريس، إن عروضهم السابقة حول مخاطر الذكاء الاصطناعي كانت تُسمع في كثير من الأحيان من قبل المسؤولين الحكوميين الذين ليس لديهم سلطة التصرف.

وكتبوا أن الذكاء الاصطناعي الهجومي المتقدم “يمكن استخدامه لتصميم وحتى تنفيذ هجمات بيولوجية أو كيميائية أو إلكترونية كارثية، أو تمكين تطبيقات أسلحة غير مسبوقة في أسراب روبوتية”.

لكن التقرير يطرح سيناريو ثانيًا أكثر بؤسًا، يصفونه بأنه خطر “فقدان السيطرة” على الذكاء الاصطناعي، ويكتبون أن هناك “سببًا للاعتقاد بأنه قد لا يمكن السيطرة عليه إذا تم تطويره باستخدام التقنيات الحالية، ويمكن أن يتصرف بشكل سلبي على الذكاء الاصطناعي”. البشر افتراضيا.”

بمعنى آخر، قد تقرر الآلات من تلقاء نفسها أن الإنسانية مجرد عدو يجب القضاء عليه إلى الأبد.

قدم جيريمي هاريس، الرئيس التنفيذي لشركة Gladstone AI، سيناريوهات محفوفة بالمخاطر مماثلة قبل جلسات الاستماع التي عقدتها اللجنة الدائمة للصناعة والتكنولوجيا داخل مجلس العموم الكندي العام الماضي، في 5 ديسمبر 2023.

وقال هاريس للمشرعين الكنديين: “ليس من المبالغة القول إن المحادثات الباردة في مجتمع سلامة الذكاء الاصطناعي الحدودي تضع الذكاء الاصطناعي كسلاح للدمار الشامل في المستقبل القريب”.

وأشار هاريس وزملاؤه في تقريرهم الجديد لوزارة الخارجية إلى أن شركات الذكاء الاصطناعي الممولة بكثافة في القطاع الخاص تواجه “حافزا للتوسع” للتفوق على منافسيها أكثر من أي “حافز للاستثمار في السلامة أو الأمن”.

وينصحون بأن الوسيلة الوحيدة القابلة للتطبيق لإدخال الاختراقات في السيناريو الخاص بهم هي خارج الفضاء الإلكتروني، من خلال التنظيم الصارم لرقائق الكمبيوتر المتطورة المستخدمة لتدريب أنظمة الذكاء الاصطناعي في العالم الحقيقي.

ويصف تقرير جلادستون للذكاء الاصطناعي أعمال منع الانتشار على هذه الأجهزة بأنها “الشرط الأكثر أهمية لحماية السلامة والأمن العالميين على المدى الطويل من الذكاء الاصطناعي”.


مصدر الخبر

مقالات ذات صلة

زر الذهاب إلى الأعلى