سال 2024 و ظهور هوش مصنوعی: ضرورت وضع قوانین برای کنترل این فناوری!
سال 2024 میتواند نقطهی عطفی در تاریخ فناوری باشد، سالی که هوش مصنوعی (AI) به طور واقعی در تار و پود زندگی ما تنیده شد. امروزه، تقریباً هر وسیلهی جدیدی که خریداری میکنیم، خواه به آن نیاز داشته باشیم یا نه، با قابلیتهای هوش مصنوعی ارائه میشود؛ قابلیتهایی که شاید حتی نحوهی عملکرد آنها را به درستی درک نکنیم.
درست مانند دنیای گوشیهای هوشمند، شرکتهای بزرگی مانند اپل، سامسونگ و گوگل، ویژگیهای مبتنی بر هوش مصنوعی را در محصولات خود گنجاندهاند و مدام از مدلها، ابزارها و قابلیتهای جدید در این زمینه رونمایی میکنند.
هوش مصنوعی که سابقهای بیش از ۷۵ سال دارد، با پیشرفتهای چشمگیر در یادگیری ماشین و الگوریتمها، روز به روز قدرتمندتر میشود. این فناوری اکنون قادر است ویدیوهایی بسازد که هرگز آنها را ضبط نکردهاید، مقاله بنویسد، به سؤالات شما پاسخهای دقیق بدهد و حتی خلاصهای از مقالات تحقیقاتی حجیم را در عرض چند ثانیه ارائه کند.
اینها تنها بخشی از تواناییهای هوش مصنوعی هستند و ابزارهای متنوعی برای پاسخگویی به نیازهای مختلف کاربران در دسترس قرار گرفتهاند. به لطف یادگیری ماشین، دستگاههایی مانند گوشیهای هوشمند، لپتاپها و حتی یخچالها نیز از هوش مصنوعی بهره میبرند و میتوانند کارهایی را که قبلاً به تلاش دستی نیاز داشت، به صورت خودکار انجام دهند.
اگرچه هدف ظاهری این ویژگیها، تسهیل زندگی کاربران است، اما هنوز ابهامات زیادی وجود دارد. برای آموزش این مدلها و بهبود عملکرد آنها، حجم عظیمی از دادهها استفاده میشود و چگونگی و محل ذخیرهسازی این دادهها هنوز به طور شفاف مشخص نیست. علاوه بر این، نگرانیهایی در مورد تعصبات الگوریتمی، انتشار اطلاعات نادرست، نقض حقوق کپیرایت و تولید محتوای نامناسب وجود دارد.
به گفته منبع، گزارشهایی از سوءاستفادهی کاربران از پلتفرمهای هوش مصنوعی برای ایجاد دیپفیک، کلاهبرداری و حتی ترویج نژادپرستی و برهنگی نیز منتشر شده است. در حالی که هوش مصنوعی میتواند نتایج فوقالعادهای برای کار ما به ارمغان بیاورد، در صورت استفادهی نادرست، بسیار خطرناک خواهد بود.
بسیاری از پلتفرمها، از جمله گوگل جمینی، به دلیل چنین نتایجی و پنهان شدن زیر نقاب «پلتفرم در حال توسعه»، مورد انتقاد قرار گرفتهاند. همه ادعا میکنند که دادههای کاربران امن است، اما این مدلها قطعاً نیازمند مقررات و دستورالعملهای محکمتری هستند.
نهادهای مختلف در سراسر جهان، از جمله اتحادیه اروپا، چین، ایالات متحده و هند، تعهد خود را به وضع مقررات برای هوش مصنوعی اعلام کردهاند، اما هنوز به یک برنامهی منسجم و واحد در این زمینه نرسیدهاند. با این حال، یک دیدگاه مشترک وجود دارد: «باید از قدرت هوش مصنوعی بهره ببریم و در عین حال، خطرات آن را به حداقل برسانیم.»
وضعیت مقررات هوش مصنوعی در کشورهای مختلف
رویکرد سایر کشورها به قانونگذاری هوش مصنوعی، بر اساس قوانین، مدلهای حکمرانی و اولویتهای اجتماعی-اقتصادی آنها متفاوت است. اتحادیه اروپا رویکردی مبتنی بر حقوق بشر را با تمرکز بر سلامت، ایمنی و حقوق اساسی در پیش گرفته است. چین بر کنترل دولتی و نظم اجتماعی تأکید دارد، در حالی که ژاپن اهداف انسانمحور را دنبال میکند. سنگاپور و بریتانیا نیز رویکردی مبتنی بر اصول را اتخاذ کردهاند و مقررات را بر اساس صنایع خاص تنظیم میکنند.