اتحادیه اروپا در حال حاضر به توافق اولیه در مورد تنظیم مدلهای پیشرفته هوش مصنوعی مانند ChatGPT رسیده است.
توسعه دهندگان سیستمهای هوش مصنوعی با هدفهای گستردهای که شامل کاربردهای مختلفی هستند، باید الزامات شفافیت پایه ای را رعایت کنند.
این موارد شامل داشتن سیاستهایی در مورد استفاده قابل قبول دادها و اطلاعات مدل، رعایت حقوق نشر و گزارش دادن در مورد حوادث است.
مدلهایی که به دلیل مقیاس خود به عنوان “ریسک سیستماتیک” در نظر گرفته میشوند، با قوانین اضافی مواجه خواهند شد.
این مدلها از توان محاسباتی بیش از ۱۰ تریلیون عملیات در ثانیه در آموزش استفاده میکنند.
الزامات برای مدلهای پرخطر شامل گزارش مصرف انرژی، آزمونهای خصمانه، ارزیابی خطرات و انطباق با استانداردهای بهره وری است.
هدف از این مقررات افزایش شفافیت و به همراه آن اجازه دادن به تحقیقات اما با اعمال قوانین سخت گیرانهتر بر روی مدلهایی که به دلیل قدرت و مقیاس خود میتوانند تهدیدهای اجتماعی گستردهای ایجاد کنند است.
به طور خلاصه، این پست درباره توافق اولیه اتحادیه اروپا برای تعهدات شفافیت پایه در سیستمهای هوش مصنوعی عمومی و در عین حال اعمال قوانین سخت گیرانهتر بر روی مدلهایی که به دلیل تواناییهای پردازشی گسترده، به عنوان تهدید “ریسک سیستماتیک” محسوب میشوند، صحبت میکند.
منبع: bloomberg