کد QR مطلبدریافت لینک صفحه با کد QR

اولین شکایت از چت‌جی‌پی‌تی به خاطر تولید اطلاعات نادرست

26 فروردين 1402 ساعت 11:42

ChatGPT، با وجود تمام پتانسیل‌هایش، با استقبال گرمی در استرالیا مواجه نشده است. در واکنش به افزایش موج استفاده از چت‌جی‌پی‌تی در کلاس‌های درس، مجموعه‌ای از دانشگاه‌های برتر استرالیا تصمیم گرفتند آزمون‌های مبتنی بر قلم و کاغذ را دو چندان کنند تا خطرات تقلب و سوء‌استفاده را کاهش دهند.


ایتنا ChatGPT، با وجود تمام پتانسیل‌هایش، با استقبال گرمی در استرالیا مواجه نشده است. در واکنش به افزایش موج استفاده از چت‌جی‌پی‌تی در کلاس‌های درس، مجموعه‌ای از دانشگاه‌های برتر استرالیا تصمیم گرفتند آزمون‌های مبتنی بر قلم و کاغذ را دو چندان کنند تا خطرات تقلب و سوء‌استفاده را کاهش دهند. اکنون، خالق چت‌جی‌پی‌تی با شکایتی مبنی بر ارائه اطلاعات نادرست درباره برایان هود، که در حال حاضر به عنوان شهردار شورای هپبورن شایر در ملبورن مشغول به کار است، مواجه شده است.
 
به گزارش ایتنا و به نقل از اسلش‌گیر، طبق گزارشی از Sydney Morning Herald، این هوش مصنوعی بحث‌برانگیز هود را به عنوان یکی از عاملان دخیل در یک رسوایی رشوه‌خواری خارجی معرفی کرد، در حالی که در واقع، او یک افشاگر (سوت‌زن) بود. هنگامی که از چت‌جی‌پی‌تی در مورد نقش هود در این پرونده سوال شد، هوش مصنوعی پاسخ داد که هود «در پرداخت رشوه به مقامات اندونزی و مالزی دست داشته است» و اینکه او به دلیل نقش داشتن در این ماجرا به زندان نیز رفت. این نشریه استرالیایی به نقل از هود گفت: «لحظه‌ای بی‌حسی به من دست داد. این اطلاعات به قدری نادرست بود که مات و مبهوت شدم».
 
یک رخداد قابل پیش‌بینی برای نقایص هوش مصنوعی
 
بر اساس گزارشی از رویترز، وکلای هود در مورد این موضوع نگران‌کننده نامه‌ای به شرکت OpenAI ارسال کردند و 28 روز فرصت دادند تا این پاسخ اشتباه را اصلاح کند وگرنه باید به اتهام افترا به دادگاه مراجعه کند. OpenAI هنوز پاسخی علنی منتشر نکرده است، اما اگر این شرکت در مورد این ماجرا شفافسازی نکند این نخستین شکایتی خواهد بود که این شرکت تحت حمایت مایکروسافت به خاطر فناوری هوش مصنوعی پرهیاهویش با آن مواجه می‌شود. به گفته یک کارشناس به نقل از رویترز، اگر این به یک دعوای حقوقی تبدیل شود و حکم به نفع هود صادر شود، حداقل 200000 دلار استرالیا جریمه در پی خواهد داشت.
 
به گزارش ایتنا، چت‌جی‌پی‌تی با ارائه اطلاعات نادرست و گمراه‌کننده غریبه نیست و این مشکل تا به امروز ادامه داشته است. از طرف دیگر OpenAI بارها استدلال کرده است که مدل زبان طبیعی آن ممکن است اطلاعات نادرستی تولید کند. بخشی از این کاستی را می‌توان به این واقعیت نسبت داد که مجموعه داده‌های آموزشی آن تنها به سال 2021 باز می‌گردد. به علاوه، مسائل ذاتی فناوری مانند توهمات هوش مصنوعی وجود دارد که هنوز حل نشده است. حتی پرزیدنت بایدن اخیراٌ گفت که سهامداران این صنعت باید اطمینان حاصل کنند که محصولات هوش مصنوعی جنبه ایمنی را به خطر نمی‌اندازند. علاوه بر این، افرادی مانند ایلان ماسک امسال نامه‌ای سرگشاده امضا کرده و خواستار توقف شش ماهه توسعه محصولات پیشرفته هوش مصنوعی همچون مدلGPT-4  شرکت OpenAI شدند


کد مطلب: 1095

آدرس مطلب: https://www.naziabadiha.com/news/1095/اولین-شکایت-چت-جی-پی-تی-خاطر-تولید-اطلاعات-نادرست

نازی آبادی ها
  https://www.naziabadiha.com