ممنوعیت های هوش مصنوعی در قانون اتحادیه اروپا تنش با آمریکا در عرصه فناوری بیشتر می شود
توسعه نرم افزار: قانون هوش مصنوعی اتحادیه اروپا وارد مرحله اجرائی شد. این قانون از طرف خیلی از کارشناسان، به عنوان یک نقطه عطف راهبردی در راه حکمرانی تکنولوژی های جدید و هوشمند تلقی می شود.
به گزارش توسعه نرم افزار به نقل از مهر؛ قانون هوش مصنوعی اتحادیه اروپا (EU AI Act)، از تاریخ سوم فوریه ۲۰۲۵ وارد مرحله اجرائی شد. این قانون از طرف خیلی از کارشناسان به عنوان یک نقطه عطف راهبردی در راه حکمرانی تکنولوژی های جدید و هوشمند تلقی می شود. متخصصان اعتقاد دارند که اتحادیه اروپا در قانون جامع هوش مصنوعی خود با تاکید بر اصول بنیادین حکمرانی داده محور، هدفی دوگانه را دنبال می کند: نخست، تسریع روند نوآوری های فناورانه بوسیله ایجاد شفافیت و الزامات عملیاتی مشخص دوم، پیشرفت ملاحظات اخلاقی و امنیتی در بستر فناوری بررسی های انجام شده نشان داده است که این چارچوب نظارتی فراگیر، زمینه ای برای کنترل و نظارت جامع بر استفاده از هوش مصنوعی در بخش های مختلف صنعتی، اجتماعی و دولتی فراهم آورده و بدنبال کاهش مخاطرات بالقوه در کنار پشتیبانی از پیشرفت پایدار می باشد. این در شرایطی است که به نظر می آید اجرای الزامات تعیین شده در این سند حقوقی، تبعات و تأثیرات بنیادین بر آینده هوش مصنوعی خواهد داشت. مهر در این نوشتار کوتاه به مرور تعدادی از دیدگاه های مطرح شده در این حوزه می پردازد. سیستم طبقه بندی مبتنی بر ریسک و چالش های نظارتی این قانون با اتخاذ نگاهی مبتنی بر ارزیابی مخاطرات، کاربردهای هوش مصنوعی را به سه دسته کلیدی تفکیک می کند: کاربردهای ممنوعه کاربردهای پرخطر کاربردهای کم خطر دسته بندی مذکور بمنظور مدیریت ریسک های در رابطه با فناوری و صیانت از منافع عمومی طراحی شده است. بر همین اساس، کاربردهای ممنوعه شامل سیستم هایی هستند که به علت نقض آشکار حقوق اساسی انسان ها، مانند نظارت بی رویه یا دست کاری شناختی، بطور کامل ممنوع اعلام شده اند. بر همین اساس، تمامی سیستم های هوش مصنوعی که تهدیدی آشکار برای ایمنی، معیشت و حقوق افراد محسوب می شوند، ممنوع هستند. قانون هوش مصنوعی (AI Act) هشت رویه را به عنوان اقدامات ممنوعه تعریف کرده است که عبارت اند از: دست کاری و فریب مبتنی بر هوش مصنوعی به کارگیری از هوش مصنوعی در امتداد سوءاستفاده از لطمه پذیری ها سیستم های امتیازدهی اجتماعی (Social Scoring) ارزیابی یا پیش بینی ریسک ارتکاب جرم توسط افراد استخراج اطلاعات (Scraping) بدون هدف مشخص از اینترنت یا داده های دوربین های مدار بسته بمنظور ایجاد یا گسترش پایگاه های داده تشخیص چهره شناسایی احساسات در محیط های کاری و موسسات آموزشی طبقه بندی زیست سنجی (Biometric Categorisation) برای استنباط خاصیت های حساس (مانند جنسیت، نژاد یا مذهب) سیستم های شناسایی زیستی از راه دور و آنی در مقابل، کاربردهای پرخطر که در عرصه های استراتژیکی چون زیرساخت های حیاتی، نظام سلامت و فرآیندهای حساس استخدامی قرار می گیرند، تحت نظارت های شدید و الزامات سخت گیرانه تری نظیر ارزیابی جامع تأثیرات، گزارش دهی شفاف و پایش مستمر کارها قرار دارند. این الزامات شامل تهیه مستندات دقیق از داده های مورد استفاده، کنترل سوگیری های احتمالی و تضمین پایداری سیستم های هوش مصنوعی می شوند. برمبنای ادعای مطرح شده از طرف مسئولان اروپایی و مدافعان اجرای این قانون، تدابیر نظارتی در امتداد کاهش لطمه های اجتماعی، حقوقی و اقتصادی ناشی از عملکرد ناصحیح یا غیراخلاقی فناوری های هوشمند وضع شده اند و بر اهمیت مسئولیت پذیری سازمان ها در برخورد با چالش های پیچیده حاکمیتی تاکید دارند. معافیت کاربردهای نظامی و نتایج راهبردی یکی از موضوعات مهم و شاید برجسته ترین نکته در این قانون، معافیت صریح سیستم های هوش مصنوعی مورد استفاده در بخش های نظامی و امنیت ملی است. این استثنا بیان کننده نگاهی راهبردی در امتداد حفظ مزیت رقابتی و پیشگامی فناورانه در عرصه دفاعی است. در این عرصه، فناوری های مبتنی بر هوش مصنوعی در بخشهایی چون شناسایی تهدیدات خودکار، امنیت سایبری پیشرفته، تحلیل و پیش بینی های تاکتیکی و مدیریت عملیات میدانی نقش کلیدی دارند. مدافعان این تصمیم، مدعی هستند که چنین کاربردهایی، به علت ماهیت حساس و محرمانه خود، به سرعت عمل و انعطاف پذیری بالا در تصمیم گیری های عملیاتی نیاز دارند؛ بنابراین، اعمال مقررات سخت گیرانه در این حوزه می تواند توسعه و پیاده سازی بموقع این فناوری ها را مختل کرده و بر کارایی ماموریت های امنیتی تأثیر منفی بگذارد. معافیت مذکور تضمین می نماید که نهادهای نظامی بتوانند با تمرکز بر نوآوری های فناورانه، بدون تأخیرهای ناشی از فرایندهای نظارتی، به ارتقا قابلیت های دفاعی و امنیتی خود ادامه دهند. این در شرایطی است که از طرفی، خیلی از کارشناسان، معافیت سامانه های دفاعی را به عنوان یکی از حساس ترین حوزه های کاربرد هوش مصنوعی، بسیار خطرناک و مخرب ارزیابی می کنند؛ برای اینکه در چنین شرایطی، خیلی از سامانه های هوش مصنوعی ناقض حقوق بشر در میدان های نبرد، بدون هیچ محدودیتی امکان توسعه دارند. سخت گیری های مقرراتی در کاربردهای مدنی برمبنای قانون هوش مصنوعی اروپا، در مقابل، کاربردهای مدنی هوش مصنوعی ملزم به رعایت مجموعه ای از مقررات سخت گیرانه و چندلایه هستند. قانون گذاران اروپایی معتقدند که این مقررات به نحوی طراحی شده اند که از بروز تخلفات اخلاقی، نقض حریم خصوصی و تصمیم گیری های ناعادلانه جلوگیری نمایند. علاوه بر این، دفتر هوش مصنوعی کمیسیون اروپا به عنوان نهاد نظارتی اصلی، وظیفه دارد تا از انطباق این سیستم ها با اصول اساسی نظارت انسانی، شفافیت در عملکرد و مسئولیت پذیری اطمینان حاصل کند. خصوصاً در بخشهایی نظیر اعطای وام، فرآیندهای استخدامی و تشخیص های پزشکی که تأثیرات تصمیمات هوش مصنوعی می تواند عمیق و سرنوشت ساز باشد، این نظارت ها اهمیتی دوچندان می یابند. برمبنای الزامات این قانون، سازمان ها و توسعه دهندگان هوش مصنوعی باید مستندات کاملی را تهیه کنند که جزئیاتی از قبیل منابع داده های آموزشی، روش های مورد استفاده برای کاهش و کنترل سوگیری ها و فرآیندهای تصمیم گیری الگوریتمی را شامل می شود. بعلاوه، ارزیابی های منظم جهت بررسی عملکرد سیستم ها و میزان تطابق آنها با موازین اخلاقی و فنی الزامی است. بی گمان چنین رویکردی، نه فقط به افزایش اعتماد عمومی به کاربردهای هوش مصنوعی کمک می کنند، بلکه زمینه را برای پاسخگویی در مقابل هرگونه تخلف احتمالی نیز فراهم می سازد. امنیت داده ها و تقویت سازوکارهای روبرو شدن با اطلاعات جعلی از دیگر محورهای کلیدی قانون هوش مصنوعی اتحادیه اروپا، توجه عمیق به امنیت داده ها و حفظ حریم خصوصی است که به عنوان یکی از اصول بنیادین حکمرانی فناوری اروپا بحساب می آید. توسعه دهندگان فناوری در امتداد اجرای این قانون، موظف به اجرای پروتکلهای پیشرفته امنیت سایبری هستند تا از خطراتی چون حملات سایبری گسترده، دسترسی بدون مجوز به داده ها و نقض حقوق حریم خصوصی جلوگیری نمایند. این اقدامات شامل رمزنگاری داده ها، کنترل های دسترسی چندلایه و نظارت مستمر بر امنیت سیستم ها می شود. در امتداد روبرو شدن با انتشار اطلاعات جعلی و محتوای گمراه کننده، ابزارهای هوش مصنوعی که توانایی تولید محتوای جعلی و دیپ فیک دارند، ملزم به استفاده از مکانیزم های پیشرفته تأیید هویت دیجیتال و برچسب گذاری شفاف محتوا شده اند. این مکانیزم ها به کاربران اجازه می دهند تا صحت و منبع اطلاعات ارائه شده را بررسی نموده و از گسترش اطلاعات ناصحیح جلوگیری نمایند. همچنین، توسعه دهندگان باید گزارش های ادواری درباره ی امنیت و عملکرد این ابزارها عرضه کنند و با ارزیابی های مستمر، از انطباق آنها با الزامات قانونی اطمینان حاصل کنند. پیامدهای بین المللی و چارچوب حکمرانی آینده تحلیلگران اعتقاد دارند که قانون هوش مصنوعی اروپا با ارائه مدلی جامع و فراگیر برای تنظیم گری فناوری های هوشمند، تأثیرات گسترده و چندبُعدی بر سیاستگذاری جهانی خواهد داشت. این قانون نه فقط به عنوان ابزاری برای مدیریت و نظارت بر نوآوری های فناورانه درون مرزهای اتحادیه اروپا به کار گرفته می شود، بلکه به علت جامعیت و سازگاری آن با اصول حکمرانی مدرن، به یک مرجع بین المللی در عرصه هوش مصنوعی تبدیل گشته است. مباحث مطرح شده در این قانون، شامل مسئولیت پذیری اخلاقی، امنیت فناوری و ترویج نوآوری پایدار، بگونه ای طراحی شده اند که کشورهای دیگر نیز بتوانند آنرا به عنوان الگویی برای تدوین چارچوب های مشابه در نظام های قانونی خود درنظر بگیرند. از طرفی، جمعیت بالای منطقه اتحادیه اروپا و اثرگذاری بالای کشورهای این بلوک بر سیاستهای جهانی، راه را برای اشاعه آن در همه نقاط جهان هموار ساخته است. از همین روی، انتظار می رود که اجرای این مقررات، تعاملات فراملی در حوزه های در رابطه با فناوری های هوشمند را تقویت کرده و سبب هماهنگی بیشتری میان نظام های حکمرانی فناوری در سطح جهانی شود. از طرفی، برخی کارشناسان معتقدند که تضاد این قانون با سیاستهای ایالات متحده آمریکا بر اساس آزادی عمل بیشتر شرکت های و استارتاپ های هوش مصنوعی برای توسعه فناوری و رویکرد چین بر اساس عدم پایبندی به تعدادی از محورهای یاد شده در این سند حقوقی، می تواند زمینه ساز برخی تنش های ژئوپلیتیک در مقیاس جهانی شود. الزامات اجرائی کسب و کارها در امتداد انطباق با قانون هوش مصنوعی اروپا دراین میان، سازمان ها و کسب وکارهایی که در عرصه توسعه و بهره برداری از سیستم های هوش مصنوعی فعالیت دارند، ناگزیرند تا نگاهی پیشگیرانه و راهبردی در برخورد با تغییرات مداوم مقررات اتخاذ کنند. این امر مستلزم درک عمیق از چارچوب های نظارتی، ارزیابی مستمر عملکرد سیستم های هوش مصنوعی و انطباق آنها با استانداردهای اخلاقی، فنی و امنیتی است. برمبنای برآوردهای صورت گرفته، با ظهور تکنولوژی های جدید، خصوصاً در عرصه هایی نظیر یادگیری عمیق، سیستم های خودمختار و تعاملات پیچیده انسان و ماشین، چارچوب های نظارتی بصورت مداوم بازبینی شده و به جنبه هایی همچون کاهش سوگیری های الگوریتمی، پیشرفت شفافیت در تصمیم گیری ها و افزایش نظارت انسانی توجه بیشتری خواهد شد. علاوه بر این، گویی کسب و کارها باید به گونه ای فعال در فرآیندهای تدوین و بازبینی مقررات مشارکت داشته باشند و با استفاده از متخصصان حقوقی و فنی، اطمینان حاصل کنند که سیستم های هوش مصنوعی آنها ضمن رعایت قوانین، قابلیت پاسخگویی در مقابل چالش های پیش بینی نشده را دارند.
منبع: توسعه نرم افزار
مطلب توسعه نرم افزار را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط در DevSoft
نظرات بینندگان DevSoft در مورد این مطلب