وکاله آریا للأنباء - أعلن الرئیس الأمریکی دونالد ترامب عن توقف جمیع الوکالات الفیدرالیه فورا عن استخدام تکنولوجیا شرکه "أنثروبیک" Anthropic، مع منح مهله انتقالیه مدتها 6 أشهر لجهات مثل وزاره الدفاع.
فجرت القرار مواجهه غیر مسبوقه بین الإداره الأمریکیه والشرکه المطوره لنموذج الذکاء الاصطناعی "Claude"، وقد فتح أسئله کبرى حول حدود استخدام الذکاء الاصطناعی فی الأمن القومی.

داریو أمودی، الرئیس التنفیذی والمؤسس المشارک لشرکه أنثروبیک / AP تعد أنثروبیک شرکه متخصصه فی أبحاث وتطویر الذکاء الاصطناعی، وقد تأسست عام 2021 على ید مجموعه من الباحثین السابقین فی OpenAI، یتقدمهم داریو أمودی.
وترکز الشرکه على تطویر نماذج لغویه متقدمه أبرزها عائله "Claude"، مع تبنی نهج یعرف بـ"الذکاء الاصطناعی الآمن". وتتلقى الشرکه استثمارات کبرى من مؤسسات تقنیه بارزه.
وأفادت صحیفه The Wall Street Journal بأن الجیش الأمیرکی استخدم برنامج "Claude" فی عملیه احتجاز رئیس فنزویلا نیکولاس مادورو.

وزیر الدفاع الأمریکی بیت هیغسیث / AP الخلاف مع البنتاغون
جوهر الخلاف مع البنتاغون یتمحور حول حظر استخدام تقنیتها فی المراقبه الجماعیه الداخلیه للأمریکیین، وحظر تشغیل أسلحه مستقله بالکامل تخرج البشر من "حلقه القرار"، أی رفض تسلیم قرار استخدام القوه القاتله لخوارزمیه تعمل وحدها دون موافقه إنسان.
وزاره الدفاع الأمریکیه، بقیاده الوزیر بیت هیغسیث، طالبت بإتاحه استخدام النموذج "لجمیع الأغراض القانونیه"، معتبره أن من حق الجیش، بعد شراء الأداه، أن یحدد آلیات توظیفها وفق معاییره.
لکن الرئیس التنفیذی للشرکه داریو أمودی رد بأن أنظمه الیوم "لیست موثوقه بما یکفی" لإداره أسلحه ذاتیه التشغیل بالکامل، وأن قدره الذکاء الاصطناعی على تجمیع البیانات تجعل المراقبه الشامله خطرا على القیم الدیمقراطیه.
وقد أدى ذلک إلى التهدید بوضع الشرکه على قائمه "مخاطر سلسله التورید"، وفسخ عقد قد یصل إلى 200 ملیون دولار، ومنعها من تسلم أعمال حکومیه مستقبلاً.
وبناء على ذلک، أعلن ترامب فی بیان توجیها یقضی بـ"التوقف الفوری" عن استخدام تکنولوجیا أنثروبیک فی جمیع الوکالات الفیدرالیه، وذلک على خلفیه النزاع بین إدارته والشرکه بشأن شروط استخدام تقنیاتها فی العملیات العسکریه.
وقال ترامب إن الولایات المتحده "لن تسمح أبدا لشرکه یساریه رادیکالیه أن تملی على جیشنا العظیم کیف یخوض الحروب وینتصر فیها"، مؤکدا أن قرار إداره العملیات العسکریه یعود إلى "القائد الأعلى" والقیادات التی یعینها لإداره الجیش.
واتهم الرئیس الأمریکی الشرکه بمحاوله "الضغط على وزاره الحرب وإجبارها على الانصیاع لشروط الخدمه الخاصه بها بدلا من الدستور"، معتبرا أن موقفها "یضع الأرواح الأمریکیه وأمن البلاد القومی فی مأزق".

الرئیس الأمریکی دونالد ترامب / AP وبحسب البیان، ستمنح الإداره مهله انتقالیه مدتها 6 أشهر للوکالات، ومن بینها وزاره الدفاع، للتخلص تدریجیا من استخدام منتجات الشرکه، محذرا من أنه سیستخدم "کامل صلاحیات الرئاسه" لفرض الامتثال إذا لم تتعاون الشرکه خلال هذه الفتره، مع الإشاره إلى احتمال ترتّب "تبعات مدنیه وجنائیه کبرى" علیها.
ویأتی القرار فی سیاق خلاف متصاعد بین الإداره الأمریکیه وشرکه "أنثروبیک" بشأن القیود التی تضعها الأخیره على استخدام تقنیاتها فی مجالات عسکریه وأمنیه، خاصه ما یتعلق بشروط توظیف أدوات الذکاء الاصطناعی فی العملیات القتالیه.
تطوّر "أنثروبیک" نموذج "Claude"، وهو نظام لغوی متقدم یستخدم فی التحلیل الاستخباراتی واستخلاص الأنماط من بیانات ضخمه، ودعم التخطیط واللوجستیات والبرمجه والأمن السیبرانی. والعمل داخل بیئات مؤسسیه (مثل جداول البیانات والعروض التقدیمیه) کمساعد ذکی متکامل.
ما خطوره هذه المنتجات؟
الخطوره لا تکمن فی النموذج بحد ذاته، بل فی "الاستخدام" المتمثل فی "المراقبه المعززه" وقدره النماذج على دمج بیانات مشتته مثل الحرکه، الاتصالات، السلوک الرقمی فی صوره شامله عن الأفراد، بسرعه وعلى نطاق واسع.
کما یبرز خطر "الأتمته القاتله" فی حال ربط النموذج بأنظمه سلاح ذاتی بالکامل، قد تنتقل قرارات الاستهداف إلى خوارزمیات تتعلم من بیانات قد تکون منحازه أو ناقصه.
وتکمن مشکله کبرى فی تقلیص الدور البشری فی القرار العسکری بسیناریوهات حساسه مثل اعتراض صواریخ بالیستیه، حیث تقاس القرارات بالثوانی؛ ما یزید إغراء تقلیص الدور البشری.
لماذا یرفض ترامب تکنولوجیا الشرکه؟
إداره ترامب ترى أن اشتراطات "أنثروبیک" تقید حریه الجیش فی استخدام أداه یعتبرها حیویه للأمن القومی. کما أن خطاب الوزیر هیغسیث ضد ما یسمیه "الذکاء الاصطناعی المستیقظ (woke AI)" یعکس توترا أیدیولوجیا مع شرکات تضع قیودا أخلاقیه فوق متطلبات الدوله.
فی المقابل، تعتبر الشرکه أن قبولها إزاله الضوابط سیحولها إلى مزود تکنولوجیا قد تستخدم فی ممارسات تمس الحریات أو تعرض المدنیین للخطر.
وهنا یبرز خطر الذکاء الاصطناعی وآثاره المدمره على البشر، فعندما تؤتمت قرارات استخدام القوه، یتراجع عنصر المساءله البشریه. کما تتسارع دینامیات الردع والخطأ، وأی خطأ قد یترجم إلى نتائج ممیته، إضافه إلى أن توسیع نطاق جمع وتحلیل البیانات یضعف الخصوصیه ویعید تشکیل العلاقه بین الدوله والمواطن.
أزمه "أنثروبیک" لیست نزاعا تعاقدیا فحسب، بل لحظه مفصلیه فی علاقه وادی السیلیکون بالمؤسسه العسکریه الأمریکیه.
السؤال المطروح: هل یملک مطور التکنولوجیا الحق فی وضع "خطوط حمراء" على استخدامات الدوله، أم أن السیاده الأمنیه تتقدم على اعتبارات الشرکات الأخلاقیه؟.. الجواب سیحدد لیس فقط مصیر عقد، بل مسار توظیف الذکاء الاصطناعی فی الحروب المقبله وحدود الإنسان أمام الآله.
المصدر: RT