Quoted From New York times
The sweeping order is a first step as the Biden administration seeks to
put guardrails on a global technology that offers great promise but also
carries significant dangers
Oct. 30, 2023
By Cecilia Kang and David E. Sanger
Cecilia Kang, who reported from the White House, and
David E. Sanger have written extensively on the threats new technologies can
pose
Cecilia Kang covers technology
and regulation and joined The Times in 2015. She is a co-author, along with
Sheera Frenkel of The Times, of “An Ugly Truth: Inside Facebook's Battle for
Domination.” More about Cecilia Kang
David E. Sanger is a White House
and national security correspondent. In a 38-year reporting career for The
Times, he has been on three teams that have won Pulitzer Prizes, most recently
in 2017 for international reporting. His newest book is “The Perfect Weapon: War,
Sabotage and Fear in the Cyber Age.” More about David E. Sanger
President Biden signed a far-reaching executive order on artificial
intelligence on Monday, requiring that companies report to the federal
government about the risks that their systems could aid countries or terrorists
to make weapons of mass destruction. The order also seeks to lessen the dangers
of “deep fakes” that could swing elections or swindle consumers
“Deep fakes use A.I.-generated audio and video to smear reputations,
spread fake news and commit fraud,” Mr. Biden said at the signing of the order
at the White House. He described his concern that fraudsters could take three
seconds of a person’s voice and manipulate its content, turning an innocent
comment into something more sinister that would quickly go viral
“I’ve watched one of me,” Mr. Biden said, referring to an experiment his
staff showed him to make the point that a well-constructed artificial
intelligence system could convincingly create a presidential statement that
never happened — and thus touch off a political or national security crisis? “I
said, ‘When the hell did I say that
The order is an effort by the president to demonstrate that the United States,
considered the leading power in fast-moving artificial intelligence technology,
will also take the lead in its regulation. Already, Europe is moving ahead with
rules of its own, and Vice President Kamala Harris is traveling to Britain this
week to represent the United States at an international conference organized by
that country’s prime minister, Rishi Sunak
“We have a moral, ethical and societal duty to make sure that A.I. is
adopted and advanced in a way that protects the public from potential harm,”
Ms. Harris said at the White House. She added, “We intend that the actions we
are taking domestically will serve as a model for international action
But the order issued by Mr. Biden, the result of more than a year of work
by several government departments, is limited in its scope. While Mr. Biden has
broad powers to regulate how the federal government uses artificial
intelligence, he is less able to reach into the private sector. Though he said
that his order “represents bold action,” he acknowledged that “we still need
Congress to act”
Still, Mr. Biden made it clear that he intended the order to be the first
step in a new era of regulation for the United States, as it seeks to put
guardrails on a global technology that offers great promise — diagnosing
diseases, predicting floods and other effects of climate change, improving
safety in the air and at sea — but also carries significant dangers
“One thing is clear: To realize the promise of A.I. and avoid the risks,
we need to govern this technology,” Mr. Biden said. “There’s no other way
around it, in my view
The order centers on safety and security mandates, but it also contains
provisions to encourage the development of A.I. in the United States, including
attracting foreign talent to American companies and laboratories. Mr. Biden
acknowledged that another element of his strategy is to slow China’s advances.
He specifically referred to new regulations — bolstered two weeks ago — to deny Beijing access to the most powerful computer chips needed
to produce so-called large language models, the mass of information on which
artificial intelligence systems are trained
While businesses often chafe at new federal regulation, executives at
companies like Microsoft, Google, OpenAI and Meta have all said that they fully
expect the United States to regulate the technology — and some executives,
surprisingly, have seemed a bit relieved. Companies say they are worried about
corporate liability if the more powerful systems they use are abused. And they
are hoping that putting a government imprimatur on some of their A.I.-based
products may alleviate concerns among consumers
The chief executives of Microsoft, Google, OpenAI and another A.I.
start-up, Anthropic, met with Ms. Harris in May, and in July they and three
other companies voluntarily committed to safety and
security testing of their systems
“We like the focus on innovation, the steps the U.S. government is taking
to build an A.I. work force and the capability for smaller businesses to get
the compute power they need to develop their own models,” Robert L. Strayer, an
executive vice president at the Information Technology Industry Council, a
trade group that represents large technology companies, said on Monday
At the same time, several companies have warned against mandates for
federal agencies to step up policing anticompetitive conduct and consumer
harms. The U.S. Chamber of Commerce raised concerns on Monday about new
directives on consumer protection, saying that the Federal Trade Commission and
the Consumer Financial Protection Bureau “should not view this as a license to
do as they please
The executive order’s security mandates on companies were created by
invoking a Korean War-era law, the Defense Production Act, which the federal
government uses in what Mr. Biden called “the most urgent moments.” The order
requires that companies deploying the most advanced A.I. tools test their
systems to ensure they cannot be used to produce biological or nuclear weapons.
The companies must report their findings from those tests to the federal government
— though the findings do not have to be made public
The order also requires that cloud service providers report foreign
customers to the federal government. It also recommends the watermarking of
photos, videos and audio developed by A.I. tools. Watermarking helps track down
the origin of content online and is used to fight deep fakes and manipulated
images and text used to spread disinformation
Mr. Biden, trying to make watermarking sound useful to Americans, said,
“When your loved ones hear your voice on a phone, they’ll know it’s really
you
In a speech on Wednesday at the U.S. Embassy in London, Ms. Harris will
announce new initiatives that build on the executive order, according to the
White House. And at the British summit the next day, she will urge global
leaders to consider potentially calamitous risks of A.I. in the future as well
as present dangers with bias, discrimination and misinformation
Many of the directives in the order will be difficult to carry out, said
Sarah Kreps, a professor at the Tech Policy Institute at Cornell University. It
calls for the rapid hiring of A.I. experts in government, but federal agencies
will be challenged to match salaries offered in the private sector. The order
urges privacy legislation, though more than a dozen bills have stalled in the
divided Congress, she said
“It’s calling for a lot of action that’s not likely to receive a response, ”Ms. Kreps said
نقلا عن نيو يورك تايمز
يعد الأمر الشامل خطوة
أولى حيث تسعى إدارة بايدن إلى وضع حواجز حماية على تكنولوجيا عالمية تقدم وعدا
كبيرا ولكنها تنطوي أيضا على مخاطر كبيرة.
30 أكتوبر، 2023
بقلم سيسيليا كانغ وديفيد إي سانجر
كتبت سيسيليا كانغ ، التي قدمت تقريرا من البيت الأبيض ،
وديفيد إي سانجر على نطاق واسع عن التهديدات التي يمكن أن تشكلها التقنيات
الجديدة.
ديفيد إي سانجر هو مراسل البيت الأبيض والأمن القومي.
خلال مسيرته المهنية التي استمرت 38 عاما في صحيفة التايمز ، كان في ثلاثة فرق
فازت بجوائز بوليتزر ، كان آخرها في عام 2017 للتقارير الدولية. أحدث كتاب له هو
"السلاح المثالي: الحرب والتخريب والخوف في عصر الإنترنت". المزيد حول ديفيد إي سانجر
وقع الرئيس بايدن أمرا تنفيذيا بعيد المدى بشأن الذكاء الاصطناعي يوم الاثنين ، يتطلب من الشركات إبلاغ الحكومة الفيدرالية حول المخاطر التي يمكن أن تساعد أنظمتها الدول أو الإرهابيين في صنع أسلحة الدمار الشامل. ويسعى الأمر أيضا إلى تقليل مخاطر "التزييف العميق" الذي يمكن أن يتأرجح في الانتخابات أو يخدع المستهلكين.
"تستخدم
المنتجات المزيفة العميقة الصوت والفيديو الذي تم إنشاؤه بواسطة الذكاء الاصطناعي
لتشويه السمعة ونشر الأخبار المزيفة وارتكاب الاحتيال" ، قال السيد بايدن عند
توقيع الأمر في البيت الأبيض. ووصف قلقه من أن المحتالين يمكن أن يأخذوا ثلاث ثوان
من صوت الشخص ويتلاعبون بمحتواه ، ويحولون تعليقا بريئا إلى شيء أكثر شرا من شأنه
أن ينتشر بسرعة.
قال السيد بايدن: "لقد شاهدت أحدهم" ، في إشارة إلى تجربة عرضها
عليه موظفوه لتوضيح نقطة مفادها أن نظام الذكاء الاصطناعي جيد البناء يمكن أن يخلق
بشكل مقنع بيانا رئاسيا لم يحدث أبدا - وبالتالي لمس أزمة سياسية أو أمنية قومية.
"قلت: متى بحق الجحيم قلت ذلك؟"
الأمر هو محاولة من قبل الرئيس لإثبات أن الولايات المتحدة ، التي تعتبر
القوة الرائدة في تكنولوجيا الذكاء الاصطناعي سريعة الحركة ، ستأخذ زمام المبادرة
في تنظيمها. وبالفعل، تمضي أوروبا قدما في وضع قواعد خاصة بها، وتسافر نائبة
الرئيس كامالا هاريس إلى بريطانيا هذا الأسبوع لتمثيل الولايات المتحدة في مؤتمر
دولي ينظمه رئيس وزراء ذلك البلد ريشي سوناك.
"لدينا
واجب أخلاقي وأخلاقي ومجتمعي للتأكد من تبني الذكاء الاصطناعي وتطويره بطريقة تحمي
الجمهور من الأذى المحتمل" ، قالت السيدة هاريس في البيت الأبيض. وأضافت:
"نعتزم أن تكون الإجراءات التي نتخذها محليا بمثابة نموذج للعمل
الدولي".
لكن الأمر الذي أصدره بايدن، وهو نتيجة لأكثر من عام من العمل من قبل العديد
من الإدارات الحكومية، محدود في نطاقه. في حين أن السيد بايدن يتمتع بسلطات واسعة
لتنظيم كيفية استخدام الحكومة الفيدرالية للذكاء الاصطناعي ، إلا أنه أقل قدرة على
الوصول إلى القطاع الخاص. على الرغم من أنه قال إن أمره "يمثل عملا
جريئا" ، إلا أنه أقر بأنه "ما زلنا بحاجة إلى الكونغرس للتصرف".
ومع ذلك، أوضح بايدن أنه يعتزم أن يكون الأمر التنفيذي الخطوة الأولى في
حقبة جديدة من التنظيم للولايات المتحدة، حيث يسعى إلى وضع حواجز حماية على
تكنولوجيا عالمية تقدم وعدا كبيرا - تشخيص الأمراض، والتنبؤ بالفيضانات وغيرها من
آثار تغير المناخ، وتحسين السلامة في الجو والبحر - ولكنه يحمل أيضا مخاطر كبيرة.
قال السيد بايدن: "هناك شيء واحد واضح: لتحقيق وعد الذكاء الاصطناعي
وتجنب المخاطر ، نحتاج إلى إدارة هذه التكنولوجيا". لا توجد طريقة أخرى
للتغلب عليها ، من وجهة نظري ".
يركز الأمر على تفويضات السلامة والأمن ، لكنه يحتوي أيضا على أحكام لتشجيع
تطوير الذكاء الاصطناعي في الولايات المتحدة ، بما في ذلك جذب المواهب الأجنبية
إلى الشركات والمختبرات الأمريكية. وأقر بايدن بأن عنصرا آخر في استراتيجيته هو
إبطاء تقدم الصين. وأشار على وجه التحديد إلى اللوائح الجديدة - التي تم تعزيزها قبل أسبوعين - لحرمان بكين من الوصول إلى أقوى
رقائق الكمبيوتر اللازمة لإنتاج ما يسمى بنماذج اللغة الكبيرة ، وهي كتلة
المعلومات التي يتم تدريب أنظمة الذكاء الاصطناعي عليها.
في حين أن الشركات غالبا ما تغضب من اللوائح الفيدرالية الجديدة ، قال
المسؤولون التنفيذيون في شركات مثل Microsoft و Google و OpenAI و Meta إنهم
يتوقعون تماما أن تقوم الولايات المتحدة بتنظيم التكنولوجيا - ومن المدهش أن بعض
المديرين التنفيذيين بدوا مرتاحين بعض الشيء. وتقول الشركات إنها قلقة بشأن
مسؤولية الشركات إذا تم إساءة استخدام الأنظمة الأكثر قوة التي تستخدمها. وهم يأملون
في أن يؤدي وضع تصريح حكومي على بعض منتجاتهم القائمة على الذكاء الاصطناعي إلى
تخفيف المخاوف بين المستهلكين.
التقى الرؤساء التنفيذيون لمايكروسوفت وجوجل وأوبن إيه آي وشركة ناشئة أخرى
للذكاء الاصطناعي ، أنثروبيك ، مع السيدة هاريس في مايو ، وفي يوليو التزموا هم
وثلاث شركات أخرى طواعية باختبار السلامة والأمن لأنظمتهم.
"نحن
نحب التركيز على الابتكار ، والخطوات التي تتخذها الحكومة الأمريكية لبناء قوة
عاملة في مجال الذكاء الاصطناعي والقدرة للشركات الصغيرة على الحصول على قوة
الحوسبة التي تحتاجها لتطوير نماذجها الخاصة" ، روبرت إل ستراير ، نائب
الرئيس التنفيذي في مجلس صناعة تكنولوجيا المعلومات ، وهي مجموعة تجارية تمثل
شركات التكنولوجيا الكبيرة ، قال يوم
الاثنين.
في الوقت نفسه ، حذرت العديد من الشركات من تفويض الوكالات الفيدرالية
لتكثيف مراقبة السلوك المانع للمنافسة والأضرار التي تلحق بالمستهلك. أثارت غرفة
التجارة الأمريكية مخاوف يوم الاثنين بشأن التوجيهات الجديدة بشأن حماية المستهلك
، قائلة إن لجنة التجارة الفيدرالية ومكتب الحماية المالية للمستهلك "لا
ينبغي أن ينظروا إلى هذا على أنه ترخيص للقيام بما يحلو لهم".
تم إنشاء التفويضات الأمنية للأمر التنفيذي على الشركات من خلال استدعاء
قانون حقبة الحرب الكورية ، قانون الإنتاج الدفاعي ، والذي تستخدمه الحكومة
الفيدرالية فيما وصفه السيد بايدن بأنه "أكثر اللحظات إلحاحا". يتطلب
الأمر من الشركات التي تنشر أدوات الذكاء الاصطناعي الأكثر تقدما اختبار أنظمتها
لضمان عدم استخدامها لإنتاج أسلحة بيولوجية أو نووية. يجب على الشركات الإبلاغ عن
النتائج التي توصلت إليها من تلك الاختبارات إلى الحكومة الفيدرالية - على الرغم
من أنه لا يجب نشر النتائج على الملأ.
يتطلب الأمر أيضا أن يقوم مقدمو الخدمات السحابية بإبلاغ الحكومة الفيدرالية
عن العملاء الأجانب. كما توصي بوضع علامة مائية على الصور ومقاطع الفيديو والصوت
التي طورتها أدوات الذكاء الاصطناعي. تساعد العلامات المائية في تعقب أصل المحتوى
عبر الإنترنت وتستخدم لمحاربة التزييف العميق والصور والنصوص التي يتم التلاعب بها
والمستخدمة لنشر المعلومات المضللة.
وقال بايدن، في محاولة لجعل العلامة المائية تبدو مفيدة للأميركيين:
"عندما يسمع أحباؤك صوتك على الهاتف، سيعرفون أنك أنت حقا".
وفي خطاب يوم الأربعاء في السفارة الأمريكية في لندن، ستعلن هاريس عن
مبادرات جديدة تبني على الأمر التنفيذي، وفقا للبيت الأبيض. وفي القمة البريطانية
في اليوم التالي، ستحث قادة العالم على النظر في المخاطر الكارثية المحتملة للذكاء
الاصطناعي في المستقبل وكذلك المخاطر الحالية مع التحيز والتمييز والمعلومات
المضللة.
سيكون من الصعب تنفيذ العديد من التوجيهات الواردة في الأمر ، كما قالت سارة
كريبس ، الأستاذة في معهد السياسة التقنية بجامعة كورنيل. ويدعو إلى التوظيف
السريع لخبراء الذكاء الاصطناعي في الحكومة ، لكن الوكالات الفيدرالية ستواجه
تحديا لمطابقة الرواتب المقدمة في القطاع الخاص. وقالت إن الأمر يحث على تشريع
الخصوصية ، على الرغم من توقف أكثر من عشرة مشاريع قوانين في الكونجرس المنقسم.
قالت السيدة كريبس: "إنه يدعو إلى
الكثير من الإجراءات التي من غير المحتمل أن تتلقى ردا".
ثلاثة عشر عام مكرسة لخدمة القطاع الناشئ
Years Devoted to serving the RE sector & Water fields Thirteen
More than 158.000 Followers worldwide
ليست هناك تعليقات:
إرسال تعليق