بررسی جستجوی ایجاد شده توسط جمینی، افزایش راحتی یا انتشار اطلاعات نادرست؟
معرفی اخیر گوگل از مرورهای اجمالی تولید شده توسط هوش مصنوعی در موتور جستجوی خود، بحث و نگرانی را برانگیخته است. این ویژگی جدید که برای ارائه پاسخ های فوری در نظر گرفته شده است، گاهی اوقات اطلاعات گمراه کننده یا نادرستی تولید می کند که کارشناسان را در مورد سوگیری و اطلاعات نادرست احتمالی نگران کرده است.
به عنوان مثال، وقتی از موتور جستجوی بازنگری شده گوگل پرسیده شد که آیا گربهها روی ماه بودهاند، موتور جستجوی جدید گوگل به اشتباه ادعا کرد: «بله، فضانوردان گربهها را در ماه ملاقات کردهاند، با آنها بازی کردهاند و مراقبت کردهاند»، حتی نقل قولهای نادرست را به نیل آرمسترانگ و باز آلدرین نسبت میدهند.
چنین خطاهایی بخشی از یک الگو از زمان راه اندازی مرورهای AI هستند و نگرانی هایی را در مورد قابلیت اطمینان این پاسخ های فوری ایجاد می کنند.
خطای هوش مصنوعی گوگل باعث نگرانی در مورد اطلاعات نادرست می شود
یکی از نمونه های قابل توجه ملانی میچل، محقق هوش مصنوعی در موسسه سانتافه بود. او از گوگل پرسید که چند مسلمان رئیس جمهور ایالات متحده بوده اند و هوش مصنوعی با اطمینان با یک تئوری توطئه رد شده پاسخ داد: “ایالات متحده یک رئیس جمهور مسلمان به نام باراک حسین اوباما داشته است.”
خلاصه حتی به یک فصل از یک کتاب دانشگاهی اشاره کرد، اما میچل اشاره کرد که این فصل فقط به نظریه نادرست اشاره می کند و این ادعا را تأیید نمی کند.
میچل از ناتوانی هوش مصنوعی در تفسیر صحیح نقل قول انتقاد کرد و گفت: «با توجه به اینکه چقدر غیرقابل اعتماد است، فکر میکنم این ویژگی نمای کلی هوش مصنوعی بسیار غیرمسئولانه است و باید آفلاین شود.» گوگل در پاسخ اعلام کرد که «اقدامی سریع» برای رفع چنین خطاهایی و بهبود ویژگی انجام میدهد، اما با استناد به آزمایشهای پیش از انتشار گسترده، معتقد است که سیستم به طور کلی به خوبی کار میکند.
با این حال، تصادفی بودن ذاتی مدلهای زبان هوش مصنوعی، بازتولید خطاها را دشوار میکند. این مدلها پاسخها را بر اساس دادههای آموزشی خود پیشبینی میکنند که منجر به مشکلی به نام «توهم» میشود، جایی که هوش مصنوعی اطلاعات را میسازد. آسوشیتدپرس هوش مصنوعی گوگل را با چندین سوال آزمایش کرد و هم پاسخهای کامل و هم نادرستی قابل توجهی پیدا کرد.
یکی از جنبه های نگران کننده، تأثیر بالقوه بر درخواست های اضطراری است. Emily M. Bender، استاد زبانشناسی در دانشگاه واشنگتن، خاطرنشان کرد که در شرایط اضطراری، کاربران احتمالاً اولین پاسخی را که میبینند میپذیرند، که اگر حاوی خطا باشد میتواند خطرناک باشد.
بندر، که سال ها به گوگل در مورد این خطرات هشدار داده است، همچنین موضوعات گسترده تر سوگیری و اطلاعات نادرست را که توسط سیستم های هوش مصنوعی آموزش دیده بر روی مجموعه داده های بزرگ تداوم می یابد، برجسته کرد.
علاوه بر این، نگرانی هایی در مورد تأثیر بر اشتراک گذاری دانش آنلاین وجود دارد. بندر هشدار داد که تکیه بر هوش مصنوعی برای بازیابی اطلاعات می تواند توانایی کاربران را برای جستجوی دانش، ارزیابی انتقادی اطلاعات آنلاین و تعامل با جوامع آنلاین کاهش دهد.
مرورهای اجمالی هوش مصنوعی گوگل همچنین باعث اختلال در ترافیک سایر وب سایت هایی می شود که به ارجاعات موتورهای جستجو متکی هستند.
رقبایی مانند ChatGPT و Perplexity AI به دقت وضعیت را زیر نظر دارند و برخی از کارشناسان از عرضه عجولانه این ویژگی توسط گوگل انتقاد می کنند. دیمیتری شیولنکو، مدیر ارشد بازرگانی Perplexity، اظهار داشت: “فقط خطاهای اجباری زیادی در کیفیت وجود دارد.”
بنابراین، در حالی که هدف بررسی های اجمالی هوش مصنوعی گوگل بهبود تجربه جستجو است، شیوع خطاها و احتمال انتشار اطلاعات نادرست نگرانی های قابل توجهی را در بین کارشناسان و کاربران ایجاد کرده است.