الجمعة، 31 مارس 2023

Pause Giant AI Experiments: An Open Letter أوقفوا تجارب الذكاء الصناعي العملاقة مؤقتًا : خطاب مفتوح










AI systems with human-competitive intelligence can pose profound risks to society and humanity, as shown by extensive research[1] and acknowledged by top AI labs.[2] As stated in the widely-endorsed Asilomar AI PrinciplesAdvanced AI could represent a profound change in the history of life on Earth, and should be planned for and managed with commensurate care and resources. Unfortunately, this level of planning and management is not happening, even though recent months have seen AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no one – not even their creators – can understand, predict, or reliably control

Contemporary AI systems are now becoming human-competitive at general tasks,[3] and we must ask ourselves: Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable. This confidence must be well justified and increase with the magnitude of a system's potential effects. OpenAI's recent statement regarding artificial general intelligence, states that "At some point, it may be important to get independent review before starting to train future systems, and for the most advanced efforts to agree to limit the rate of growth of compute used for creating new models." We agree. That point is now

Therefore, we call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4. This pause should be public and verifiable, and include all key actors. If such a pause cannot be enacted quickly, governments should step in and institute a moratorium

AI labs and independent experts should use this pause to jointly develop and implement a set of shared safety protocols for advanced AI design and development that are rigorously audited and overseen by independent outside experts. These protocols should ensure that systems adhering to them are safe beyond a reasonable doubt.[4] This does not mean a pause on AI development in general, merely a stepping back from the dangerous race to ever-larger unpredictable black-box models with emergent capabilities

AI research and development should be refocused on making today's powerful, state-of-the-art systems more accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal

In parallel, AI developers must work with policymakers to dramatically accelerate development of robust AI governance systems. These should at a minimum include: new and capable regulatory authorities dedicated to AI; oversight and tracking of highly capable AI systems and large pools of computational capability; provenance and watermarking systems to help distinguish real from synthetic and to track model leaks; a robust auditing and certification ecosystem; liability for AI-caused harm; robust public funding for technical AI safety research; and well-resourced institutions for coping with the dramatic economic and political disruptions (especially to democracy) that AI will cause

Humanity can enjoy a flourishing future with AI. Having succeeded in creating powerful AI systems, we can now enjoy an "AI summer" in which we reap the rewards, engineer these systems for the clear benefit of all, and give society a chance to adapt 

Society has hit pause on other technologies with potentially catastrophic effects on society.[5]  We can do so here. Let's enjoy a long AI summer, not rush unprepared into a fall



 يمكن أن تشكل أنظمة الذكاء الصناعي ذات الذكاء التنافسي البشري مخاطر جسيمة على المجتمع والإنسانية ، كما يتضح من بحث مكثف [1] ومعترف به من قبل أفضل مختبرات الذكاء الاصطناعي. [2]  كما هو مذكور في مبادئ Asilomar AI Principles المعتمدة على نطاق واسع ، يمكن أن يمثل الذكاء الاصطناعي المتقدم تغييرًا عميقًا في تاريخ الحياة على الأرض ، ويجب التخطيط له وإدارته بالعناية والموارد المناسبة.

لسوء الحظ ، لا يحدث هذا المستوى من التخطيط والإدارة ، على الرغم من أن الأشهر الأخيرة شهدت أن مختبرات الذكاء الاصطناعي تخوض سباقًا خارج نطاق السيطرة لتطوير ونشر عقول رقمية أكثر قوة لا يمكن لأحد - ولا حتى منشئوها - فهمها ،التنبؤ أو التحكم بها بشكل موثوق.

 أصبحت أنظمة الذكاء الاصطناعي المعاصرة الآن قادرة على المنافسة مع البشر في المهام العامة ، [3] وعلينا أن نسأل أنفسنا: هل يجب أن ندع الآلات تغمر قنوات المعلومات لدينا بالدعاية والكذب؟  هل يجب أن نخرج جميع الوظائف آليًا ، بما في ذلك الوظائف التي تفي بالغرض؟  هل يجب أن نطور عقولًا غير بشرية قد تفوق في النهاية عددًا ، وتتفوق ذكاء ، وتتقدم ، وتحل محلنا؟

  هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟  يجب عدم تفويض مثل هذه القرارات لقادة تقنيين غير منتخبين. 

 يجب تطوير أنظمة الذكاء الاصطناعي القوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون تحت السيطرة.  يجب أن تكون هذه الثقة مبررة جيدًا وأن تزداد مع حجم التأثيرات المحتملة للنظام.  ينص بيان OpenAI recent statement regarding artificial general intelligence,الأخير بشأن الذكاء العام الصناعي على أنه "في مرحلة ما ، قد يكون من المهم الحصول على مراجعة مستقلة قبل البدء في تدريب الأنظمة المستقبلية ، وللجهود الأكثر تقدمًا للموافقة على الحد من معدل نمو الحوسبة المستخدمة في إنشاء  نماذج " نحن نتفق مع هذه النقطة الآن.

 لذلك ، ندعو جميع مختبرات الذكاء الصناعي إلى التوقف فورًا لمدة 6 أشهر على الأقل عن تدريب أنظمة الذكاء الصناعي الأكثر قوة من GPT-4.  يجب أن يكون هذا التوقف علنيًا ، يمكن التحقق منه ، وأن يشمل جميع الجهات الفاعلة الرئيسية.

إذا لم يكن بالإمكان تفعيل مثل هذا الوقف بسرعة ، يجب على الحكومات التدخل وفرض تجميد.

 يجب على مختبرات الذكاء الاصطناعي والخبراء المستقلين استخدام هذا التوقف المؤقت لتطوير وتنفيذ مجموعة من بروتوكولات السلامة المشتركة لتصميم وتطوير ذكاء اصطناعي متقدم يتم تدقيقها بدقة والإشراف عليها من قبل خبراء خارجيين مستقلين.  يجب أن تضمن هذه البروتوكولات أن الأنظمة التي تلتزم بها آمنة بما لا يدع مجالاً للشك. [4]  هذا لا يعني التوقف مؤقتًا عن تطوير الذكاء الاصطناعي بشكل عام ، بل مجرد التراجع عن السباق الخطير إلى نماذج الصندوق الأسود الأكبر حجمًا والتي لا يمكن التنبؤ بها ذات القدرات الناشئة.

 يجب إعادة تركيز أبحاث وتطوير الذكاء الاصطناعي على جعل أنظمة اليوم القوية والحديثة أكثر دقة وأمانًا وقابلية للتفسير وشفافية وقوة ومتسقة وجديرة بالثقة وولاء.

 بالتوازي مع ذلك ، يجب على مطوري الذكاء الاصطناعي العمل مع صانعي السياسات لتسريع تطوير أنظمة حوكمة قوية للذكاء الاصطناعي.  يجب أن تشمل هذه على الأقل ما يلي: سلطات تنظيمية جديدة وقادرة مخصصة للذكاء الاصطناعي ؛  الإشراف على أنظمة الذكاء الاصطناعي عالية القدرة وتتبعها ومجموعات كبيرة من القدرات الحسابية ؛  أنظمة المصدر والعلامات المائية للمساعدة في التمييز بين الحقيقي والتركيبي ولتتبع تسربات النماذج ؛  نظام بيئي قوي للتدقيق وإصدار الشهادات ؛  المسؤولية عن الضرر الناجم عن الذكاء الاصطناعي ؛  تمويل عام قوي لأبحاث السلامة التقنية للذكاء الاصطناعي ؛  ومؤسسات ذات موارد جيدة للتعامل مع الاضطرابات الاقتصادية والسياسية الدراماتيكية (خاصة الديمقراطية) التي سيحدثها الذكاء الاصطناعي.

 يمكن للإنسانية الاستمتاع بمستقبل مزدهر مع الذكاء الاصطناعي.  بعد أن نجحنا في إنشاء أنظمة ذكاء اصطناعي قوية ، يمكننا الآن الاستمتاع بـ "صيف الذكاء الاصطناعي" الذي نحصد فيه المكافآت ، ونهندس هذه الأنظمة لتحقيق المنفعة الواضحة للجميع ، ومنح المجتمع فرصة للتكيف.  توقف المجتمع مؤقتًا عن استخدام التقنيات الأخرى ذات الآثار الكارثية المحتملة على المجتمع.  يمكننا القيام بذلك هنا.  دعونا نستمتع بصيف طويل للذكاء الاصطناعي ، وليس الاندفاع و نحن غير مستعدين ، للسقوط.

 






ENFRWC الشبكة المصرية

 أثني عشر عام مكرسة لخدمة القطاع الناشئ

 Years Devoted to serving the RE sector & Water fields Twelve

More than 131.000 Followers worldwide

اكثر من 131.000 متابع حول العالم


ليست هناك تعليقات: