Quoted From New York Times
The agreement over the A.I. Act solidifies one of the world’s first
comprehensive attempts to limit the use of artificial intelligence
Dec. 8, 2023
Adam Satariano is a technology correspondent based in Europe, where his work focuses on digital policy and the intersection of technology and world affairs. More about Adam Satariano
European Union policymakers agreed on Friday to a sweeping new law to
regulate artificial intelligence, one of the world’s first comprehensive
attempts to limit the use of a rapidly evolving technology that has
wide-ranging societal and economic implications
The law, called the A.I. Act, sets a new global benchmark for countries seeking to harness the
potential benefits of the technology, while trying to protect against its
possible risks, like automating jobs, spreading misinformation online and
endangering national security. The law still needs to go through a few final
steps for approval, but the political agreement means its key outlines have
been set
European policymakers focused on A.I.’s riskiest uses by companies and
governments, including those for law enforcement and the operation of crucial
services like water and energy. Makers of the largest general-purpose A.I.
systems, like those powering the ChatGPT chatbot, would face new transparency
requirements. Chatbots and software that creates manipulated images such as “deepfakes” would have to make clear that what people were
seeing was generated by A.I., according to E.U. officials and earlier drafts of
the law
Use of facial recognition software by police and governments would be
restricted outside of certain safety and national security exemptions.
Companies that violated the regulations could face fines of up to 7 percent of
global sales
“Europe has positioned itself as a pioneer, understanding the importance
of its role as global standard setter,” Thierry Breton, the European
commissioner who helped negotiate the deal, said in a statement
Yet even as the law was hailed as a regulatory breakthrough, questions
remained about how effective it would be. Many aspects of the policy were not
expected to take effect for 12 to 24 months, a considerable length of time for
A.I. development. And up until the last minute of negotiations, policymakers
and countries were fighting over its language and how to balance the fostering
of innovation with the need to safeguard against possible harm
The deal reached in Brussels took three days of negotiations, including
an initial 22-hour session that began Wednesday afternoon and dragged into
Thursday. The final agreement was not immediately public as talks were expected
to continue behind the scenes to complete technical details, which could delay
final passage. Votes must be held in Parliament and the European Council, which comprises
representatives from the 27 countries in the union
Regulating A.I. gained urgency after last year’s release of ChatGPT, which became a worldwide sensation by demonstrating A.I.’s advancing
abilities. In the United States, the Biden administration recently issued an executive order focused in part on A.I.’s national security effects. Britain, Japan
and other nations have taken a more hands-off approach, while China has imposed
some restrictions on data use and recommendation algorithms
At stake are trillions of dollars in estimated
value as A.I. is predicted to reshape
the global economy. “Technological dominance precedes economic dominance and
political dominance,” Jean-Noël Barrot, France’s digital minister, said this week
Europe has been one of the regions furthest ahead in regulating A.I.,
having started working on what would become the A.I. Act in 2018. In recent
years, E.U. leaders have tried to bring a new level of oversight to tech, akin
to regulation of the health care or banking industries. The bloc has
already enacted far-reaching laws related to data privacy, competition and content moderation
A first draft of the A.I. Act was released in 2021. But policymakers found
themselves rewriting the law as technological breakthroughs emerged. The initial
version made no mention of general-purpose A.I. models like those that power
ChatGPT
Policymakers agreed to what they called a “risk-based approach” to
regulating A.I., where a defined set of applications face the most oversight
and restrictions. Companies that make A.I. tools that pose the most potential
harm to individuals and society, such as in hiring and education, would need to
provide regulators with proof of risk assessments, breakdowns of what data was
used to train the systems and assurances that the software did not cause harm
like perpetuating racial biases. Human oversight would also be required in
creating and deploying the systems
Some practices, such as the indiscriminate scraping of images from the internet to create a facial recognition database, would be
banned outright
The European Union debate was contentious, a sign of how A.I. has
befuddled lawmakers. E.U. officials were divided over how deeply to regulate
the newer A.I. systems for fear of handicapping European start-ups trying to
catch up to American companies like Google and OpenAI
The law added requirements for makers of the largest A.I. models to
disclose information about how their systems work and evaluate for “systemic
risk,” Mr. Breton said
The new regulations will be closely watched globally. They will affect
not only major A.I. developers like Google, Meta, Microsoft and OpenAI, but
other businesses that are expected to use the technology in areas such as
education, health care and banking. Governments are also turning more to A.I.
in criminal justice and the allocation of public benefits
Enforcement remains unclear. The A.I. Act will involve regulators across 27 nations and require hiring new experts at a time when government budgets are tight. Legal challenges are likely as companies test the novel rules in court. Previous E.U. legislation, including the landmark digital privacy law known as the General Data Protection Regulation, has been criticized for being unevenly enforced
“The E.U.’s regulatory prowess is under question,” said Kris Shrishak, a
senior fellow at the Irish Council for Civil Liberties, who has advised
European lawmakers on the A.I. Act. “Without strong enforcement, this deal will
have no meaning”
نقلا عن نيويورك تايمز
يعزز الاتفاق على قانون
الذكاء الاصطناعي واحدة من أولى المحاولات الشاملة في العالم للحد من استخدام
الذكاء الاصطناعي.
8 ديسمبر، 2023
بقلم آدم ساتاريانو
ترجمة – محمد السيد درويش
ويضع القانون، الذي يطلق عليه قانون الذكاء الاصطناعي، معيارا عالميا جديدا للبلدان التي
تسعى إلى تسخير الفوائد المحتملة للتكنولوجيا، مع محاولة الحماية من مخاطرها
المحتملة، مثل أتمتة الوظائف ونشر المعلومات المضللة عبر الإنترنت وتعريض الأمن
القومي للخطر. ولا يزال القانون بحاجة إلى المرور ببضع خطوات نهائية للموافقة
عليه، لكن الاتفاق السياسي يعني أن الخطوط العريضة الرئيسية له قد تم تحديدها.
ركز صانعو السياسات الأوروبيون على الاستخدامات الأكثر خطورة للذكاء الاصطناعي
من قبل الشركات والحكومات ، بما في ذلك تلك الخاصة بإنفاذ القانون وتشغيل الخدمات
الحيوية مثل المياه والطاقة. سيواجه صانعو أكبر أنظمة الذكاء الاصطناعي للأغراض
العامة ، مثل أولئك الذين يقومون بتشغيل روبوت الدردشة ChatGPT ، متطلبات شفافية
جديدة. يجب على روبوتات الدردشة والبرامج التي تنشئ صورا تم التلاعب بها مثل "التزييف العميق" أن
توضح أن ما يراه الناس تم إنشاؤه بواسطة الذكاء الاصطناعي ، وفقا لمسؤولي الاتحاد
الأوروبي والمسودات السابقة للقانون.
سيتم تقييد استخدام برامج التعرف على الوجه من قبل الشرطة والحكومات خارج
بعض إعفاءات السلامة والأمن القومي. قد تواجه الشركات التي تنتهك اللوائح غرامات
تصل إلى 7 في المائة من المبيعات العالمية.
"لقد
وضعت أوروبا نفسها كرائدة، وفهمت أهمية دورها كواضع للمعايير العالمية"، قال
تييري بريتون، المفوض الأوروبي الذي ساعد في التفاوض على الصفقة، في بيان.
ولكن حتى مع الترحيب بالقانون باعتباره إنجازا تنظيميا، ظلت هناك أسئلة حول
مدى فعاليته. لم يكن من المتوقع أن تدخل العديد من جوانب السياسة حيز التنفيذ لمدة
12 إلى 24 شهرا ، وهي فترة زمنية طويلة لتطوير الذكاء الاصطناعي. وحتى اللحظة
الأخيرة من المفاوضات، كان صانعو السياسات والبلدان يتقاتلون حول لغته وكيفية
تحقيق التوازن بين تعزيز الابتكار والحاجة إلى الحماية من الضرر المحتمل.
واستغرق الاتفاق الذي تم التوصل إليه في بروكسل ثلاثة أيام من المفاوضات،
بما في ذلك جلسة أولية مدتها 22 ساعة بدأت بعد ظهر الأربعاء واستمرت حتى يوم
الخميس. ولم يعلن الاتفاق النهائي على الفور حيث من المتوقع أن تستمر المحادثات
خلف الكواليس لاستكمال التفاصيل الفنية مما قد يؤخر الموافقة النهائية. يجب إجراء التصويت في البرلمان والمجلس
الأوروبي ، الذي يضم ممثلين من 27 دولة في الاتحاد.
اكتسب تنظيم الذكاء الاصطناعي إلحاحا بعد إصدار ChatGPT العام الماضي ، والذي أصبح ضجة كبيرة في جميع أنحاء
العالم من خلال إظهار قدرات الذكاء الاصطناعي المتقدمة. في الولايات المتحدة،
أصدرت إدارة بايدن مؤخرا أمرا تنفيذيا يركز جزئيا على تأثيرات الذكاء الاصطناعي
على الأمن القومي. اتبعت بريطانيا واليابان ودول أخرى نهجا أكثر عدم التدخل ،
بينما فرضت الصين بعض القيود على استخدام البيانات وخوارزميات التوصية.
على المحك تريليونات الدولارات من القيمة المقدرة حيث من المتوقع أن يعيد الذكاء
الاصطناعي تشكيل الاقتصاد العالمي. "الهيمنة التكنولوجية تسبق الهيمنة
الاقتصادية والهيمنة السياسية" ، قال جان نويل بارو ، وزير الرقمية الفرنسي ،
هذا الأسبوع.
كانت أوروبا واحدة من أبعد المناطق تقدما في تنظيم الذكاء الاصطناعي ، بعد
أن بدأت العمل على ما سيصبح قانون الذكاء الاصطناعي في عام 2018. في السنوات
الأخيرة، حاول قادة الاتحاد الأوروبي جلب مستوى جديد من الرقابة على التكنولوجيا،
على غرار تنظيم الرعاية الصحية أو الصناعات المصرفية. وقد سنت الكتلة بالفعل قوانين بعيدة المدى تتعلق بخصوصية البيانات والمنافسة
والإشراف على المحتوى.
تم إصدار المسودة الأولى لقانون الذكاء الاصطناعي في عام 2021.
لكن صناع السياسة وجدوا أنفسهم يعيدون كتابة القانون مع ظهور اختراقات تكنولوجية.
لم تذكر النسخة الأولية نماذج الذكاء الاصطناعي للأغراض العامة مثل تلك التي تشغل
ChatGPT.
وافق صانعو السياسات على ما أسموه "النهج القائم على المخاطر"
لتنظيم الذكاء الاصطناعي ، حيث تواجه مجموعة محددة من التطبيقات أكبر قدر من
الرقابة والقيود. ستحتاج الشركات التي تصنع أدوات الذكاء الاصطناعي التي تشكل أكبر
ضرر محتمل للأفراد والمجتمع ، كما هو الحال في التوظيف والتعليم ، إلى تزويد
المنظمين بدليل على تقييمات المخاطر ، وتفاصيل البيانات التي تم استخدامها لتدريب
الأنظمة وتأكيدات بأن البرنامج لم يسبب ضررا مثل إدامة التحيزات العنصرية. وستكون
الرقابة البشرية مطلوبة أيضا في إنشاء النظم ونشرها.
سيتم حظر بعض الممارسات ، مثل الكشط العشوائي للصور من الإنترنت لإنشاء قاعدة بيانات
للتعرف على الوجه ، على الفور.
كان النقاش في الاتحاد الأوروبي مثيرا للجدل ، وهو علامة على كيفية إرباك
الذكاء الاصطناعي للمشرعين. انقسم مسؤولو الاتحاد الأوروبي حول مدى عمق تنظيم
أنظمة الذكاء الاصطناعي الأحدث خوفا من إعاقة الشركات الناشئة الأوروبية التي
تحاول اللحاق بالشركات الأمريكية مثل Google و OpenAI.
وأضاف القانون متطلبات لصانعي أكبر نماذج الذكاء الاصطناعي للكشف عن معلومات
حول كيفية عمل أنظمتهم وتقييم "المخاطر النظامية" ، كما قال السيد
بريتون.
ستتم مراقبة اللوائح الجديدة عن كثب على مستوى العالم. لن تؤثر فقط على
مطوري الذكاء الاصطناعي الرئيسيين مثل Google و Meta و Microsoft و OpenAI ، ولكن
الشركات الأخرى التي من المتوقع أن تستخدم التكنولوجيا في مجالات مثل التعليم
والرعاية الصحية والخدمات المصرفية. كما تتجه الحكومات أكثر إلى الذكاء الاصطناعي
في العدالة الجنائية وتخصيص المنافع العامة.
ولا يزال الإنفاذ غير واضح. سيشمل قانون الذكاء الاصطناعي المنظمين في 27
دولة ويتطلب توظيف خبراء جدد في وقت تكون فيه الميزانيات الحكومية ضيقة. من
المحتمل أن تواجه الشركات تحديات قانونية حيث تختبر الشركات القواعد الجديدة في
المحكمة. تم انتقاد تشريعات الاتحاد الأوروبي السابقة ، بما في ذلك قانون الخصوصية
الرقمية التاريخي المعروف باسم اللائحة العامة لحماية البيانات ، بسبب تطبيقها بشكل غير متساو.
"إن
البراعة التنظيمية للاتحاد الأوروبي موضع تساؤل" ، قال كريس شريشاك ، وهو
زميل بارز في المجلس الأيرلندي للحريات المدنية ، الذي قدم المشورة للمشرعين
الأوروبيين بشأن قانون الذكاء الاصطناعي. "بدون تطبيق قوي ، لن يكون لهذه
الصفقة أي معنى".
ثلاثة عشر عام مكرسة لخدمة القطاع الناشئ
Years Devoted to serving the RE sector & Water fields Thirteen
More than 158.000 Followers worldwide
ليست هناك تعليقات:
إرسال تعليق