یک کارشناس اطلاعات در یک پرونده قضایی در مینهسوتا، خود را در مرکز توجهی غیرمنتظره قرار داده است. او در سوگندنامهای که برای حمایت از قانونی علیه دیپفیکها ارائه کرده، به منابعی استناد کرده که وجود خارجی ندارند. این موضوع نگرانیهایی را درباره نقش رو به رشد هوش مصنوعی در تولید اطلاعات نادرست ایجاد کرده است.
به گزارش سرویس اخبار فناوری رسانه تکنولوژی تکنا، دادستان کل مینهسوتا از جف هانکوک، متخصص رسانههای اجتماعی، درخواست کرده بود تا این سوگندنامه را تهیه کند. اما بررسیها نشان میدهد که برخی از منابع ذکر شده در این سند، احتمالاً توسط یک مدل زبانی بزرگ مانند ChatGPT تولید شدهاند و هیچ مدرک مستقلی برای تأیید وجود آنها یافت نشده است.
به عنوان مثال، هانکوک به مطالعهای در سال ۲۰۲۳ در مجله فناوری اطلاعات و سیاست اشاره کرده است که به نظر میرسد وجود خارجی ندارد. همچنین، منبع دیگری که او به آن استناد کرده، نیز در هیچ پایگاه داده علمی یافت نشده است.
وکلای مدعی در این پرونده معتقدند که این منابع ساختگی، نشاندهنده آن است که حداقل بخشی از سوگندنامه هانکوک توسط یک هوش مصنوعی تولید شده است. آنها بر این باورند که این موضوع اعتبار کل سند را زیر سوال میبرد، بهویژه با توجه به اینکه بسیاری از ادعاهای مطرح شده در آن فاقد شواهد و منطق کافی هستند. برای مشاهده تازه ترین خبرها به صفحه اخبار فناوری رسانه تکنا مراجعه کنید.
منبع خبر زنگ خطر؛ هوش مصنوعی دروغ میگوید پایگاه خبری تکنا به آدرس تکنا میباشد.
تکنا
یک کارشناس اطلاعات در یک پرونده قضایی در مینهسوتا، خود را در مرکز توجهی غیرمنتظره قرار داده است. او در سوگندنامهای که برای حمایت از قانونی علیه دیپفیکها ارائه کرده، به منابعی استناد کرده که وجود خارجی ندارند. این موضوع نگرانیهایی را درباره نقش رو به رشد هوش مصنوعی در تولید اطلاعات نادرست ایجاد کرده
منبع خبر زنگ خطر؛ هوش مصنوعی دروغ میگوید پایگاه خبری تکنا به آدرس تکنا میباشد.