متا در حال توسعه ابزارهای تشخیص هوش مصنوعی برای فیس بوک، اینستاگرام، Threads است
از آنجایی که خطوط بین محتوای تولید شده توسط انسان و هوش مصنوعی روز به روز مبهم تر می شود، شرکت های فناوری اقداماتی را انجام می دهند تا کاربران را از نوع محتوایی که با آن سروکار دارند مطلع کنند. به عنوان مثال، هر عکسی که از طریق ویژگی جدید Generative Edit سامسونگ دستکاری می شود و هر تصویر زمینه Generative در سری Galaxy S24 دارای یک واترمارک کوچک و ابرداده برای تأیید منشاء هوش مصنوعی است.
مدتی است که متا ابزار مشابهی را برای عکس های ایجاد شده با تولید کننده تصویر متا AI در اختیار دارد. این ابزار به کاربران متا امکان میدهد از طریق پیامهای متنی ساده، واترمارکها و واترمارکهای نامرئی متوجه شوند که محتوای تولید شده توسط هوش مصنوعی را میبینند.
این هفته، متا ابتکار جدیدی را برای برچسبگذاری تصاویر تولید شده با هوش مصنوعی در فیسبوک، اینستاگرام و تهدیدات، از جمله تصاویری که توسط سیستمهای هوش مصنوعی مختلف از سایر شرکتها تولید میشوند، اعلام کرد.
متا خواهان شفافیت هوش مصنوعی بالاتر در رسانه های اجتماعی است
اگرچه شرکتهای هوش مصنوعی سیگنالهایی را در ژنراتورهای هوش مصنوعی خود گنجاندهاند، اما راههایی برای افراد وجود دارد که نشانگرهای نامرئی را از بین ببرند، بنابراین شناسایی تمام محتوای تولید شده توسط هوش مصنوعی هنوز امکانپذیر نیست. اما متا در حال کار بر روی ابزارهایی است که می توانند به طور خودکار محتوای هوش مصنوعی را شناسایی کنند، حتی اگر فاقد نشانگرهای نامرئی باشد.
متا اعلام کرد که در کنار شرکای صنعتی برای تعیین استانداردهایی برای شناسایی عکسها، ویدیوها و صداهایی که با استفاده از هوش مصنوعی ترکیب شده و در پلتفرمهای رسانههای اجتماعی پست شدهاند، کار میکند.
این شرکت می گوید در حال ساخت ابزارهای پیشرو در صنعت است که قادر به تشخیص محتوای تولید شده توسط هوش مصنوعی در مقیاس است. با راه اندازی سیستم های جدید، در ماه های آینده، Meta محتوای هوش مصنوعی را در فیس بوک، اینستاگرام و Threads هر زمان که بتواند شاخص های استاندارد صنعت محتوای تولید شده توسط هوش مصنوعی را شناسایی کند، برچسب گذاری خواهد کرد.
قبل از اینکه صنعت بتواند از این ابزارهای جدید تشخیص هوش مصنوعی در مقیاس استفاده کند، متا ویژگی جدیدی را اضافه خواهد کرد که به کاربران رسانههای اجتماعی اجازه میدهد مسئولانه از هوش مصنوعی استفاده کنند و زمانی را که محتوایی که به اشتراک میگذارند توسط هوش مصنوعی تولید میشود، فاش کنند. اگر کاربران نتوانند محتوای هوش مصنوعی خود را بر اساس آن برچسب گذاری کنند، ممکن است جریمه شوند.
متا میگوید: «اگر تشخیص دهیم که تصویر، ویدیو یا محتوای صوتی بهصورت دیجیتالی ایجاد شده یا تغییر یافته، خطر فریب مادی عمومی را در مورد یک موضوع مهم ایجاد میکند، ممکن است در صورت لزوم برچسب برجستهتری اضافه کنیم تا افراد اطلاعات بیشتری داشته باشند. و زمینه.»