بررسی جستجوی ایجاد شده توسط جمینی، افزایش راحتی یا انتشار اطلاعات نادرست؟

معرفی اخیر گوگل از مرورهای اجمالی تولید شده توسط هوش مصنوعی در موتور جستجوی خود، بحث و نگرانی را برانگیخته است. این ویژگی جدید که برای ارائه پاسخ های فوری در نظر گرفته شده است، گاهی اوقات اطلاعات گمراه کننده یا نادرستی تولید می کند که کارشناسان را در مورد سوگیری و اطلاعات نادرست احتمالی نگران کرده است.

به عنوان مثال، وقتی از موتور جستجوی بازنگری شده گوگل پرسیده شد که آیا گربه‌ها روی ماه بوده‌اند، موتور جستجوی جدید گوگل به اشتباه ادعا کرد: «بله، فضانوردان گربه‌ها را در ماه ملاقات کرده‌اند، با آنها بازی کرده‌اند و مراقبت کرده‌اند»، حتی نقل قول‌های نادرست را به نیل آرمسترانگ و باز آلدرین نسبت می‌دهند.

چنین خطاهایی بخشی از یک الگو از زمان راه اندازی مرورهای AI هستند و نگرانی هایی را در مورد قابلیت اطمینان این پاسخ های فوری ایجاد می کنند.

خطای هوش مصنوعی گوگل باعث نگرانی در مورد اطلاعات نادرست می شود

یکی از نمونه های قابل توجه ملانی میچل، محقق هوش مصنوعی در موسسه سانتافه بود. او از گوگل پرسید که چند مسلمان رئیس جمهور ایالات متحده بوده اند و هوش مصنوعی با اطمینان با یک تئوری توطئه رد شده پاسخ داد: “ایالات متحده یک رئیس جمهور مسلمان به نام باراک حسین اوباما داشته است.”

خلاصه حتی به یک فصل از یک کتاب دانشگاهی اشاره کرد، اما میچل اشاره کرد که این فصل فقط به نظریه نادرست اشاره می کند و این ادعا را تأیید نمی کند.

میچل از ناتوانی هوش مصنوعی در تفسیر صحیح نقل قول انتقاد کرد و گفت: «با توجه به اینکه چقدر غیرقابل اعتماد است، فکر می‌کنم این ویژگی نمای کلی هوش مصنوعی بسیار غیرمسئولانه است و باید آفلاین شود.» گوگل در پاسخ اعلام کرد که «اقدامی سریع» برای رفع چنین خطاهایی و بهبود ویژگی انجام می‌دهد، اما با استناد به آزمایش‌های پیش از انتشار گسترده، معتقد است که سیستم به طور کلی به خوبی کار می‌کند.

با این حال، تصادفی بودن ذاتی مدل‌های زبان هوش مصنوعی، بازتولید خطاها را دشوار می‌کند. این مدل‌ها پاسخ‌ها را بر اساس داده‌های آموزشی خود پیش‌بینی می‌کنند که منجر به مشکلی به نام «توهم» می‌شود، جایی که هوش مصنوعی اطلاعات را می‌سازد. آسوشیتدپرس هوش مصنوعی گوگل را با چندین سوال آزمایش کرد و هم پاسخ‌های کامل و هم نادرستی قابل توجهی پیدا کرد.

یکی از جنبه های نگران کننده، تأثیر بالقوه بر درخواست های اضطراری است. Emily M. Bender، استاد زبان‌شناسی در دانشگاه واشنگتن، خاطرنشان کرد که در شرایط اضطراری، کاربران احتمالاً اولین پاسخی را که می‌بینند می‌پذیرند، که اگر حاوی خطا باشد می‌تواند خطرناک باشد.

بندر، که سال ها به گوگل در مورد این خطرات هشدار داده است، همچنین موضوعات گسترده تر سوگیری و اطلاعات نادرست را که توسط سیستم های هوش مصنوعی آموزش دیده بر روی مجموعه داده های بزرگ تداوم می یابد، برجسته کرد.

علاوه بر این، نگرانی هایی در مورد تأثیر بر اشتراک گذاری دانش آنلاین وجود دارد. بندر هشدار داد که تکیه بر هوش مصنوعی برای بازیابی اطلاعات می تواند توانایی کاربران را برای جستجوی دانش، ارزیابی انتقادی اطلاعات آنلاین و تعامل با جوامع آنلاین کاهش دهد.

مرورهای اجمالی هوش مصنوعی گوگل همچنین باعث اختلال در ترافیک سایر وب سایت هایی می شود که به ارجاعات موتورهای جستجو متکی هستند.

رقبایی مانند ChatGPT و Perplexity AI به دقت وضعیت را زیر نظر دارند و برخی از کارشناسان از عرضه عجولانه این ویژگی توسط گوگل انتقاد می کنند. دیمیتری شیولنکو، مدیر ارشد بازرگانی Perplexity، اظهار داشت: “فقط خطاهای اجباری زیادی در کیفیت وجود دارد.”

بنابراین، در حالی که هدف بررسی های اجمالی هوش مصنوعی گوگل بهبود تجربه جستجو است، شیوع خطاها و احتمال انتشار اطلاعات نادرست نگرانی های قابل توجهی را در بین کارشناسان و کاربران ایجاد کرده است.

منبع digit
ممکن است شما دوست داشته باشید
ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.