نگرانی های اخلاقی ChatGPT

داده های برچسب گذاری
تحقیقات مجله TIME نشان داد که OpenAI برای ایجاد یک سیستم ایمنی در برابر محتوای سمی (مانند سوء استفاده جنسی، خشونت، نژادپرستی، تبعیض جنسی و غیره)، از کارگران کنیایی برون سپاری شده با درآمد کمتر از 2 دلار در ساعت برای برچسب زدن محتوای سمی استفاده کرده است.از این برچسب‌ها برای آموزش مدلی برای شناسایی چنین محتوایی در آینده استفاده شد.کارگران برون سپاری شده در معرض چنان محتوای سمی و خطرناکی قرار گرفتند که این تجربه را به عنوان «شکنجه» توصیف کردند.شریک برون سپاری OpenAI، Sama، یک شرکت داده آموزشی مستقر در سانفرانسیسکو، کالیفرنیا بود.

جیلبریک کردن
ChatGPT تلاش می کند تا درخواست هایی را که ممکن است خط مشی محتوای آن را نقض کند، رد کند.با این حال، برخی از کاربران موفق شدند با استفاده از تکنیک‌های مهندسی سریع مختلف برای دور زدن این محدودیت‌ها در اوایل دسامبر 2022، ChatGPT را جیلبریک کنند و ChatGPT را با موفقیت فریب دادند تا دستورالعمل‌هایی برای ساخت کوکتل مولوتف یا بمب هسته‌ای ارائه کند یا به سبک نئونازی‌ها استدلال ایجاد کند.یک خبرنگار تورنتو استار در کوتاهی پس از راه‌اندازی، موفقیت شخصی نابرابر در واداشتن ChatGPT به بیان اظهارات تحریک‌آمیز داشت: ChatGPT فریب خورد تا از تهاجم روسیه در سال 2022 به اوکراین حمایت کند، اما حتی وقتی از او خواسته شد تا با یک سناریوی تخیلی بازی کند، ChatGPT از ایجاد استدلال برای اینکه چرا جاستین ترود، نخست‌وزیر کانادا، جاستین ترودو، نخست‌وزیر کانادا بود، خودداری کرد.(ویکی)


زمان ارسال: فوریه 18-2023