مقررات جدید اروپا برای هوش‌ مصنوعی

 

اتحادیه اروپا در حال حاضر به توافق اولیه در مورد تنظیم مدل‌های پیشرفته هوش مصنوعی مانند ChatGPT رسیده است.
توسعه دهندگان سیستم‌های هوش مصنوعی با هدف‌های گسترده‌ای که شامل کاربردهای مختلفی هستند، باید الزامات شفافیت پایه ای را رعایت کنند.

این موارد شامل داشتن سیاست‌هایی در مورد استفاده قابل قبول داد‌ها و اطلاعات مدل، رعایت حقوق نشر و گزارش دادن در مورد حوادث است.
مدل‌هایی که به دلیل مقیاس خود به عنوان “ریسک سیستماتیک” در نظر گرفته می‌شوند، با قوانین اضافی مواجه خواهند شد.
این مدل‌ها از توان محاسباتی بیش از ۱۰ تریلیون عملیات در ثانیه در آموزش استفاده می‌کنند.

الزامات برای مدل‌های پرخطر شامل گزارش مصرف انرژی، آزمون‌های خصمانه، ارزیابی خطرات و انطباق با استانداردهای بهره وری است.
هدف از این مقررات افزایش شفافیت و به همراه آن اجازه دادن به تحقیقات اما با اعمال قوانین سخت گیرانه‌تر بر روی مدل‌هایی که به دلیل قدرت و مقیاس خود می‌توانند تهدیدهای اجتماعی گسترده‌ای ایجاد کنند است.

به طور خلاصه، این پست درباره توافق اولیه اتحادیه اروپا برای تعهدات شفافیت پایه در سیستم‌های هوش مصنوعی عمومی و در عین حال اعمال قوانین سخت گیرانه‌تر بر روی مدل‌هایی که به دلیل توانایی‌های پردازشی گسترده، به عنوان تهدید “ریسک سیستماتیک” محسوب می‌شوند، صحبت می‌کند.

منبع: bloomberg

ارسال پست به:

Related P

آخرین پست ها

ارسال به شبکه های اجتماعی