يريد جو بايدن اختبار خوارزميات الحكومة الأمريكية بحثًا عن أي ضرر محتمل ضد المواطنين

تكلنوجيا

يريد جو بايدن اختبار خوارزميات الحكومة الأمريكية بحثًا عن أي ضرر محتمل ضد المواطنين


يقول جيسون ميلر، نائب مدير مكتب الإدارة والميزانية: “يتيح الإطار مجموعة من المتطلبات الملزمة للوكالات الفيدرالية لوضع ضمانات لاستخدام الذكاء الاصطناعي حتى نتمكن من الاستفادة من الفوائد وتمكين الجمهور من الثقة في الخدمات التي تقدمها الحكومة الفيدرالية”. للإدارة.

تسلط مسودة المذكرة الضوء على استخدامات معينة للذكاء الاصطناعي حيث يمكن أن تضر التكنولوجيا بالحقوق أو السلامة، بما في ذلك الرعاىة الصحية, الإسكان، و تطبيق القانون– جميع المواقف التي أدت فيها الخوارزميات في الماضي إلى التمييز أو الحرمان من الخدمات.

تتضمن أمثلة مخاطر السلامة المحتملة المذكورة في مسودة مكتب الإدارة والميزانية أتمتة البنية التحتية الحيوية مثل السدود والمركبات ذاتية القيادة مثل سيارة أجرة كروز الآلية تم إغلاقه الأسبوع الماضي في كاليفورنيا ويخضعون للتحقيق من قبل الجهات التنظيمية الفيدرالية والمحلية بعد أن صدمت سيارة أحد المشاة سحب 20 قدما. تتضمن الأمثلة على كيفية انتهاك الذكاء الاصطناعي لحقوق المواطنين في مسودة المذكرة ما يلي: الشرطة التنبؤية، الذكاء الاصطناعي الذي يمكنه منع الكلام المحمي أو الانتحال أو الكشف عن المشاعر برمجة، خوارزميات فحص المستأجروالأنظمة التي يمكن أن تؤثر على الهجرة أو حضانة الأطفال.

وفقًا لمكتب الإدارة والميزانية، تستخدم الوكالات الفيدرالية حاليًا أكثر من 700 خوارزمية، على الرغم من قوائم الجرد المقدمة من الوكالات الفيدرالية غير مكتملة. يقول ميلر إن مسودة المذكرة تتطلب من الوكالات الفيدرالية مشاركة المزيد حول الخوارزميات التي تستخدمها. ويقول: “نتوقع أنه في الأسابيع والأشهر المقبلة، سنقوم بتحسين قدرات الوكالات على تحديد حالات الاستخدام الخاصة بها والإبلاغ عنها”.

ذكرت نائبة الرئيس كامالا هاريس مذكرة مكتب الإدارة والميزانية إلى جانب مبادرات الذكاء الاصطناعي المسؤولة الأخرى في تصريحاتها اليوم في سفارة الولايات المتحدة في لندن، وهي رحلة تم إجراؤها من أجل قمة سلامة الذكاء الاصطناعي في المملكة المتحدة هذا الأسبوع. وقالت إنه بينما تركز بعض الأصوات في صنع سياسات الذكاء الاصطناعي على مخاطر كارثية وكما هو الحال مع الدور الذي يمكن أن يلعبه الذكاء الاصطناعي يومًا ما في الهجمات السيبرانية أو إنشاء أسلحة بيولوجية، فإن التحيز والمعلومات المضللة يتم تضخيمها بالفعل بواسطة الذكاء الاصطناعي وتؤثر على الأفراد والمجتمعات يوميًا.

ترحب ميرفي هيكوك، مؤلفة كتاب سيصدر قريبا عن سياسة شراء الذكاء الاصطناعي والباحثة في جامعة ميشيغان، بكيفية مطالبة مذكرة مكتب الإدارة والميزانية الوكالات بتبرير استخدامها للذكاء الاصطناعي وتعيين أشخاص محددين مسؤولين عن التكنولوجيا. وتقول إن هذه طريقة فعالة محتملة لضمان عدم إدراج الذكاء الاصطناعي في كل برنامج حكومي.

لكنها تخشى أن يؤدي تقديم الإعفاءات إلى تقويض هذه الآليات. وتقول: “سأشعر بالقلق إذا بدأنا نرى الوكالات تستخدم هذا التنازل على نطاق واسع، وخاصة تطبيق القانون والأمن الداخلي والمراقبة”. “بمجرد حصولهم على التنازل، يمكن أن يكون الأمر لأجل غير مسمى.”



Source link

Back To Top