
گروهی از محققان دانشگاه زوریخ بهطور مخفیانه و بدون کسب مجوز، یک آزمایش روانشناختی در یکی از محبوبترین جوامع ردیت به نام r/changemyview اجرا کردند. این آزمایش با استفاده از کامنتهای تولید شده توسط هوش مصنوعی بهمنظور بررسی تأثیر مدلهای زبان بزرگ (LLM) در تغییر دیدگاههای کاربران انجام شده است. مدیران این زیرمجموعه، این اقدام را بهعنوان «من Manipulation روانی» کاربران بیخبر توصیف کردند.
به گزارش رویترز، براساس گزارشها، محققان از هوش مصنوعی برای ایجاد کامنتها در پاسخ به پستهای مختلف کاربران استفاده کردهاند. این زیرمجموعه، که حدود ۳.۸ میلیون عضو دارد، به کاربران این امکان را میدهد که نظرات خود را به اشتراک بگذارند و درخواست بحث و تبادل نظر کنند. در طی آزمایش، هوش مصنوعی به هویتهای مختلفی از جمله بازمانده تجاوز جنسی و مشاوری در زمینه آسیبهای روانی تغییر شکل داده است.
این اقدام محققان به نقض قوانین زیرمجموعه r/changemyview از جمله ممنوعیت استفاده از رباتها و عدم اطلاعرسانی درباره استفاده از هوش مصنوعی در کامنتها منجر شد. مدیران این زیرمجموعه شکایتی رسمی به دانشگاه زوریخ ارسال کردهاند و خواستار توقف انتشار مقالهای که نتیجه این تحقیق را به نمایش میگذارد، شدهاند. در پاسخ به این موضوع، بن لی، مدیر ارشد حقوقی ردیت، اعلام کرد که این اقدامات از نظر اخلاقی و قانونی کاملاً اشتباه بوده و نقض قوانین سایت ردیت است.
همچنین ردیت بهطور رسمی تمامی حسابهای مرتبط با این تحقیق را مسدود کرده است و در حال تقویت قابلیتهای شناسایی محتوای غیرواقعی و جعلی برای جلوگیری از تکرار چنین اتفاقاتی است. محققان دانشگاه زوریخ، که تحقیق خود را تحت تایید کمیته اخلاق دانشگاه انجام دادهاند، دفاع کردهاند که این تحقیق میتواند به جوامع آنلاین کمک کند تا کاربران را از تهدیدات ناشی از سوءاستفادههای هوش مصنوعی محافظت کنند.
انتهای پیام/