تقنية

وثائق حكومية في قبضة الذكاء الاصطناعي.. فضيحة تهز الأمن السيبراني الأميركي

الترند بالعربي – متابعات

في واقعة وُصفت بأنها واحدة من أخطر الإخفاقات الرقمية داخل المؤسسات الحكومية الأميركية، فجّر تقرير صحفي حديث جدلًا واسعًا بعد الكشف عن تحميل وثائق حكومية حساسة على النسخة العامة من تطبيق ChatGPT، ما فتح بابًا واسعًا للتساؤلات حول أمن البيانات وحدود استخدام الذكاء الاصطناعي داخل أجهزة الدولة، خاصة في القطاعات المرتبطة مباشرة بالأمن السيبراني وحماية البنية التحتية.

القضية التي كشفتها مجلة بوليتيكو الأميركية لم تكن مجرد خطأ تقني عابر، بل تحولت سريعًا إلى فضيحة مؤسسية طالت وكالة يفترض أنها خط الدفاع الأول عن الأمن الرقمي الأميركي، وأعادت إلى الواجهة مخاوف قديمة متجددة بشأن تسريب البيانات في عصر الذكاء الاصطناعي المفتوح.

وثائق حكومية في قبضة الذكاء الاصطناعي.. فضيحة تهز الأمن السيبراني الأميركي
وثائق حكومية في قبضة الذكاء الاصطناعي.. فضيحة تهز الأمن السيبراني الأميركي

كيف بدأت القصة داخل وكالة الأمن السيبراني

بحسب تقرير بوليتيكو، تعود تفاصيل الواقعة إلى قيام مادهو غوتوموكالا، الرئيس المؤقت لوكالة الأمن السيبراني وأمن البنية التحتية الأميركية CISA، بتحميل وثائق تعاقد حكومية حساسة على النسخة العامة من تطبيق ChatGPT، رغم الحظر المفروض رسميًا على استخدام التطبيق داخل وزارة الأمن الداخلي الأميركية.

هذا السلوك، الذي وُصف داخل أروقة الوزارة بأنه غير مسبوق، أدى إلى تفعيل أنظمة التحذير الأمني المصممة خصيصًا لرصد أي تسريب محتمل لمواد حكومية مصنفة أو حساسة، ما دفع الجهات المعنية إلى دق ناقوس الخطر وبدء مراجعة داخلية عاجلة.

طبيعة الوثائق المسربة ولماذا أثارت القلق

أوضحت المجلة أن الوثائق التي جرى تحميلها لم تكن مصنفة على أنها سرية بالمعنى القانوني الصارم، لكنها كانت تحمل تصنيف «للاستخدام الرسمي فقط»، وهو تصنيف يمنع تداولها خارج الأطر الحكومية المعتمدة، نظرًا لما تحتويه من معلومات تعاقدية وإدارية حساسة.

المشكلة، وفقًا لخبراء الأمن السيبراني، لا تكمن فقط في طبيعة التصنيف، بل في حقيقة أن أي بيانات تُحمّل على النسخة العامة من ChatGPT تصبح متاحة لشركة OpenAI لاستخدامها في تحسين نماذجها، ما يعني خروج تلك المعلومات فعليًا من السيطرة الحكومية.

وثائق حكومية في قبضة الذكاء الاصطناعي.. فضيحة تهز الأمن السيبراني الأميركي
وثائق حكومية في قبضة الذكاء الاصطناعي.. فضيحة تهز الأمن السيبراني الأميركي

أنظمة الإنذار تدق والتحقيقات تبدأ

ما إن بدأت عمليات التحميل، حتى رصدت أنظمة الأمن السيبراني داخل الوزارة نشاطًا غير اعتيادي، تمثل في تحميل متكرر لوثائق رسمية خلال شهر أغسطس الماضي، الأمر الذي أدى إلى فتح مراجعة داخلية شاملة لتقييم حجم الضرر المحتمل على أمن الحكومة الأميركية.

هذه المراجعة لم تقتصر على محتوى الوثائق فقط، بل امتدت إلى آلية منح الاستثناءات، ومدى الالتزام بالسياسات الصارمة التي تحكم استخدام أدوات الذكاء الاصطناعي داخل المؤسسات الحكومية.

إذن استثنائي أم ثغرة إدارية؟

في رد رسمي، أكدت مارسي مكارثي، مديرة الشؤون العامة في وكالة الأمن السيبراني، أن مادهو غوتوموكالا حصل بالفعل على إذن قصير الأجل ومحدود لاستخدام ChatGPT، وذلك ضمن ضوابط محددة وضعتها الوزارة.

غير أن هذا التبرير لم يُنهِ الجدل، بل زاده تعقيدًا، خاصة بعدما كشف تقرير بوليتيكو عن رسالة بريد إلكتروني داخلية تشير إلى أن آخر استخدام لغوتوموكالا للتطبيق كان في يوليو 2025، ضمن استثناء مؤقت، في حين يظل التطبيق محظورًا افتراضيًا على جميع الموظفين ما لم يحصلوا على موافقة رسمية ومحددة.

تناقض الروايات داخل الوكالة

هذا التناقض بين التصريحات الرسمية والمراسلات الداخلية فتح الباب أمام تساؤلات جدية حول دقة الرقابة الداخلية، ومدى الالتزام الفعلي بالسياسات المعتمدة، خصوصًا داخل وكالة تُعد مرجعًا وطنيًا في قضايا الأمن السيبراني.

ويرى مراقبون أن منح استثناءات غير محكومة بدقة قد يحول السياسات الصارمة إلى مجرد إرشادات شكلية، لا تصمد أمام ضغوط الاستخدام العملي للتقنيات الحديثة.

وثائق حكومية في قبضة الذكاء الاصطناعي.. فضيحة تهز الأمن السيبراني الأميركي
وثائق حكومية في قبضة الذكاء الاصطناعي.. فضيحة تهز الأمن السيبراني الأميركي

ChatGPT بين الابتكار والمخاطر الأمنية

تسلط هذه الواقعة الضوء مجددًا على الإشكالية الكبرى المرتبطة باستخدام أدوات الذكاء الاصطناعي التوليدي داخل المؤسسات الحساسة، فبينما توفر هذه الأدوات إمكانات هائلة لتحليل البيانات وتسريع العمل، فإنها في الوقت نفسه تطرح تحديات غير مسبوقة تتعلق بالخصوصية وحماية المعلومات.

ويحذر خبراء من أن الاعتماد غير المنضبط على أدوات مفتوحة المصدر أو منصات عامة قد يؤدي إلى تسريبات يصعب احتواؤها أو حتى اكتشافها في مراحل مبكرة.

الأمر التنفيذي ودعم ريادة الذكاء الاصطناعي

في محاولة لاحتواء تداعيات القضية، شددت وكالة الأمن السيبراني على التزامها بتوظيف الذكاء الاصطناعي بما يتوافق مع الأمر التنفيذي الصادر عن الرئيس الأميركي دونالد ترمب، والذي يهدف إلى دعم ريادة الولايات المتحدة في هذا المجال، مع ضمان حماية الأمن القومي.

غير أن منتقدين يرون أن هذه الواقعة تكشف فجوة واضحة بين الطموح السياسي والتطبيق العملي، خاصة عندما يتعلق الأمر بإدارة المخاطر المرتبطة بالتقنيات الناشئة.

مخاوف أوسع داخل المؤسسات الحكومية

لم تقتصر ردود الفعل على وكالة الأمن السيبراني وحدها، بل امتدت إلى دوائر حكومية أوسع، حيث أعادت الحادثة فتح نقاش داخلي حول مدى جاهزية المؤسسات الأميركية للتعامل مع أدوات الذكاء الاصطناعي دون تعريض بياناتها الحساسة للخطر.

وتشير تقارير سابقة إلى أن العديد من الوكالات الحكومية لا تزال تفتقر إلى أطر واضحة تحكم استخدام الذكاء الاصطناعي التوليدي، ما يجعل القرارات الفردية مصدر خطر محتمل.

الذكاء الاصطناعي والحدود الضبابية للمسؤولية

تطرح القضية سؤالًا محوريًا حول المسؤولية، هل تقع على عاتق المستخدم الفردي، أم على الجهة التي منحت الإذن، أم على النظام المؤسسي بأكمله الذي لم يضع ضوابط كافية؟

يرى محللون أن غياب إطار حوكمة صارم وواضح لاستخدام الذكاء الاصطناعي داخل المؤسسات الحساسة يجعل من الصعب تحديد المسؤوليات، ويزيد من احتمالات تكرار مثل هذه الحوادث.

تداعيات محتملة على ثقة الجمهور

من شأن هذه الفضيحة أن تؤثر على ثقة الرأي العام في قدرة الحكومة الأميركية على حماية بياناتها، خاصة في ظل تزايد الاعتماد على الحلول الرقمية والذكاء الاصطناعي في إدارة الملفات الحساسة.

كما قد تؤدي إلى تشديد الرقابة، وربما فرض قيود أوسع على استخدام أدوات الذكاء الاصطناعي داخل المؤسسات الحكومية، وهو ما قد يبطئ وتيرة الابتكار التي تسعى واشنطن إلى تسريعها.

هل نحن أمام نموذج لأزمة عالمية؟

لا تقتصر دلالات هذه الواقعة على الولايات المتحدة وحدها، بل تعكس تحديًا عالميًا تواجهه الحكومات والمؤسسات الكبرى، في ظل الانتشار السريع لأدوات الذكاء الاصطناعي وسهولة الوصول إليها.

فمع تزايد الاعتماد على هذه التقنيات، تصبح مسألة حماية البيانات السيادية أكثر تعقيدًا، ما يتطلب تعاونًا دوليًا ووضع معايير صارمة تحكم الاستخدام المسؤول.

الخبراء يدعون إلى أطر حوكمة صارمة

يدعو خبراء الأمن السيبراني إلى ضرورة تطوير أطر حوكمة واضحة ومُلزمة لاستخدام الذكاء الاصطناعي داخل المؤسسات الحكومية، تشمل تحديد ما يمكن وما لا يمكن تحميله أو مشاركته، وتوضيح تبعات أي خرق لهذه السياسات.

كما يؤكدون أهمية التدريب المستمر للمسؤولين والموظفين، لضمان فهمهم العميق لمخاطر هذه الأدوات، وعدم التعامل معها بوصفها تطبيقات استهلاكية عادية.

دروس مستفادة من الواقعة

تكشف هذه القضية أن الخطر لا يكمن دائمًا في الهجمات الخارجية أو الاختراقات المعقدة، بل قد يأتي من قرارات داخلية غير محسوبة، حتى داخل أكثر الوكالات تخصصًا في مجال الأمن السيبراني.

كما تؤكد أن سرعة تطور التكنولوجيا تفرض على المؤسسات تحديث سياساتها بشكل مستمر، بدلًا من الاعتماد على قواعد قديمة لم تعد كافية لمواجهة تحديات العصر الرقمي.

مستقبل استخدام ChatGPT داخل الحكومة

في ضوء هذه التطورات، يُتوقع أن تخضع سياسات استخدام ChatGPT وأدوات الذكاء الاصطناعي المماثلة لمراجعة شاملة داخل المؤسسات الحكومية الأميركية، سواء عبر تشديد القيود أو تطوير نسخ داخلية مغلقة تلبي احتياجات العمل دون تعريض البيانات للخطر.

ويبقى السؤال مفتوحًا حول قدرة الحكومات على تحقيق التوازن بين الاستفادة من الذكاء الاصطناعي والحفاظ على أمن معلوماتها السيادية.

ما طبيعة الوثائق التي جرى تحميلها على ChatGPT؟
هي وثائق تعاقد حكومية مصنفة «للاستخدام الرسمي فقط»، وليست سرية رسميًا لكنها تُعد حساسة ولا يجوز تداولها علنًا.

هل كان استخدام ChatGPT مسموحًا داخل الوكالة؟
التطبيق محظور رسميًا على موظفي وزارة الأمن الداخلي، لكن مادهو غوتوموكالا حصل على إذن مؤقت ومحدود لاستخدامه.

لماذا يُعد تحميل الوثائق على النسخة العامة خطيرًا؟
لأن البيانات المحملة تصبح متاحة لشركة OpenAI لاستخدامها ضمن نماذج الذكاء الاصطناعي، ما يعني خروجها من السيطرة الحكومية.

هل ثبت وقوع تسريب فعلي للمعلومات؟
لا توجد تأكيدات على تسريب علني، لكن الواقعة أدت إلى فتح مراجعة داخلية لتقييم حجم الضرر المحتمل.

ما الدرس الأبرز من هذه القضية؟
أهمية وضع ضوابط صارمة وواضحة لاستخدام أدوات الذكاء الاصطناعي داخل المؤسسات الحساسة، وعدم التعامل معها كأدوات عادية دون تقييم المخاطر.

اقرأ أيضًا: السعودية تدخل تاريخ الطب.. أول زراعة كبد روبوتية كاملة في العالم من متبرعين أحياء

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى