سيتعين على OpenAI وعمالقة التكنولوجيا الآخرين تحذير حكومة الولايات المتحدة عندما يبدأون مشاريع جديدة للذكاء الاصطناعي

تكلنوجيا

سيتعين على OpenAI وعمالقة التكنولوجيا الآخرين تحذير حكومة الولايات المتحدة عندما يبدأون مشاريع جديدة للذكاء الاصطناعي


عندما اجتاح برنامج ChatGPT التابع لشركة OpenAI العالم في العام الماضي، فاجأ العديد من سماسرة السلطة في كل من وادي السليكون وواشنطن العاصمة. يجب على حكومة الولايات المتحدة الآن أن تحصل على تحذير مسبق بشأن اختراقات الذكاء الاصطناعي المستقبلية التي تنطوي على نماذج لغوية كبيرة، وهي التكنولوجيا التي تقف وراء ChatGPT.

وتستعد إدارة بايدن لاستخدام قانون الإنتاج الدفاعي لإجبار شركات التكنولوجيا على إبلاغ الحكومة عندما تقوم بتدريب نموذج الذكاء الاصطناعي باستخدام قدر كبير من القوة الحاسوبية. ويمكن أن تدخل القاعدة حيز التنفيذ في أقرب وقت من الأسبوع المقبل.

سيمنح المتطلب الجديد حكومة الولايات المتحدة إمكانية الوصول إلى المعلومات الأساسية حول بعض المشاريع الأكثر حساسية داخل OpenAI وGoogle وAmazon وشركات التكنولوجيا الأخرى المتنافسة في الذكاء الاصطناعي. وسيتعين على الشركات أيضًا تقديم معلومات حول اختبارات السلامة التي يتم إجراؤها على إبداعاتها الجديدة في مجال الذكاء الاصطناعي.

لقد كانت OpenAI خجولة بشأن مقدار العمل الذي تم إنجازه على خليفة لعرضها الحالي الأفضل، جي بي تي-4. قد تكون حكومة الولايات المتحدة أول من يعرف متى يبدأ بالفعل اختبار العمل أو السلامة على GPT-5. ولم تستجب OpenAI على الفور لطلب التعليق.

“نحن نستخدم قانون الإنتاج الدفاعي، وهو السلطة التي نتمتع بها بسبب الرئيس، لإجراء مسح يطلب من الشركات أن تشاركنا في كل مرة تقوم فيها بتدريب نموذج لغة كبير جديد، وتشاركنا النتائج – السلامة قالت جينا ريموندو، وزيرة التجارة الأمريكية، يوم الجمعة، في حدث أقيم في جامعة ستانفورد: مؤسسة هوفر. ولم تذكر متى سيدخل هذا المطلب حيز التنفيذ أو الإجراء الذي قد تتخذه الحكومة بشأن المعلومات التي تلقتها حول مشاريع الذكاء الاصطناعي. ومن المتوقع الإعلان عن المزيد من التفاصيل الأسبوع المقبل.

ويتم تنفيذ القواعد الجديدة كجزء من أمر تنفيذي شامل للبيت الأبيض صدر في أكتوبر الماضي. ال أمر تنفيذي أعطت وزارة التجارة موعدًا نهائيًا في 28 يناير للتوصل إلى خطة سيُطلب بموجبها من الشركات إبلاغ المسؤولين الأمريكيين بتفاصيل حول نماذج الذكاء الاصطناعي الجديدة القوية قيد التطوير. وجاء في الأمر أن هذه التفاصيل يجب أن تتضمن مقدار قوة الحوسبة المستخدمة، ومعلومات عن ملكية البيانات التي يتم إدخالها إلى النموذج، وتفاصيل اختبار السلامة.

يدعو أمر أكتوبر إلى بدء العمل في تحديد متى يجب أن تتطلب نماذج الذكاء الاصطناعي تقديم التقارير إلى وزارة التجارة، لكنه يضع حدًا أوليًا قدره 100 سيبتيليون (مليون مليار مليار أو 1026) عمليات الفاصلة العائمة في الثانية، أو التخبط، ومستوى أقل 1000 مرة لنماذج اللغة الكبيرة التي تعمل على بيانات تسلسل الحمض النووي. لم تكشف شركة OpenAI ولا شركة Google عن مقدار قوة الحوسبة التي استخدمتها لتدريب أقوى نماذجها، GPT-4 وGemini، على التوالي، لكن خدمة أبحاث تابعة للكونجرس تقرير في الأمر التنفيذي يقترح أن 1026 يتخبط يتجاوز قليلاً ما تم استخدامه لتدريب GPT-4.

وأكد ريموندو أيضًا أن وزارة التجارة ستنفذ قريبًا متطلبًا آخر من الأمر التنفيذي الصادر في أكتوبر والذي يتطلب من موفري الحوسبة السحابية مثل أمازون ومايكروسوفت وجوجل إبلاغ الحكومة عندما تستخدم شركة أجنبية مواردها لتدريب نموذج لغوي كبير. يجب الإبلاغ عن المشاريع الأجنبية عندما تتجاوز نفس العتبة الأولية البالغة 100 سيبتيليون يتخبط.



Source link

Back To Top
H H T P E G D C H A S H F H F S F B I A U W L G R M F A M F E G U H G C F E N A C F N F C B H H A C F C D A L A D M G T 2 S F W C F F D G G S C S E N G H G M B C S F M E U H B C F H B C G G O