خبرگزاری برنا- گروه علمی و فناوری؛ دیپ فیک یا جعل عمیق یکی از معضلات جدید بشر در عرصۀ مواجهه با اخبار جعلی است، سازندگان دیپ فیک عموماً با اهداف سیاسی یا جنجال آفرینی برای افراد مشهور دست به تولید این نوع از محتوا میزنند.
این تکنولوژی البته هنوز فراگیر نشده است اما دور به نظر نمیرسد، روزی که جهان شاهد انبوهی از فایلهای صوتی و تصویری جعلی باشد که سازندگان آن با هدف بر هم زدن آرامش یک کشور یا زندگی یک فرد مشهور دست به تولیدش زدهاند.
هوش مصنوعی در کنار همۀ تأثیرات مثبتی که میتواند در تسهیل امور روزمرۀ انسان داشته باشد، خطرات جدی هم دارد که این روزها کارشناسان مختلف دربارۀ آن هشدار میدهند.
استفاده از هوش مصنوعی برای جعل عمیق نمونههای مختلفی در ایام گذشته دارد اما شاید بتوان ویدیوی جعلی از مورگان فریمن و ایلان ماسک را دو ویدئوی مهم ماههای گذشته در این حوزه برشمرد.
مهدی رضا برنا دارای مدرک دکتری هوش مصنوعی از دانشگاه تربیت مدرس و کارشناس ارشد این حوزه، دربارۀ ماهیت دیپفیکها و نحوۀ شکلگیری آنها به خبرنگار فناوری برنا میگوید: متخصصان هوش مصنوعی در این زمینه تلاش میکنند تا ضمن آموزش به ماشین، آن را قادر سازند که بعد از بررسی تعدادی ویدئو یا صوت از یک فرد، کلمات و رفتاری مشابه وی پیدا کند به نحوی که شنونده یا بیننده تصور میکند که فرد واقعی در حال ارتباط گرفتن با او است!
وی اضافه میکند: تکنولوژی جعل عمیق سالها است که در محیطهای تخصصی توسعه داده میشود اما فعلاً در اغلب موارد به حدی از پیشرفت نرسیده که اکثر مردم را دچار خطای شناختی کند اما فراگیر شدنش در با توجه به توانمندی فعلی بشر فراگیر شدن آن چندان دور از ذهن به نظر نمیرسد.
این کارشناس هوش مصنوعی درخصوص کاربردها و خطرات فراگیر شدن فناوری دیپفیک به خبرنگار برنا گفت: نخستین کاربرد و خطرات جدی این فناوری به طور قطع مربوط به مسائل حوزۀ دفاعی و امنیتی خواهد بود، باید اذعان داشت، توسعۀ فناوری که اصالت نوعی از محتوا را که پیشتر قابل استناد بود را دچار خدشه کند، نوعی بحران است، شما تصور کند، دهها صوت یا ویدئو جعلی از یک سیاستمدار مهم در جهان منتشر شود و افکار عمومی دنیا امکان ارزیابی صحت آن را نداشته باشد، چه اتفاقات عجیبی امکان دارد که رخ دهد؟!
وی در پاسخ به این سوال برنا که چه فناوری برای شناسایی محتوای صحیح و جعل عمیق وجود دارد، تصریح میکند: اصلیترین راهکار شناخت استفاده از فناوری جعل عمیق، بهرهگرفتن از تکنولوژی یادگیری عمیق است. این دو فناوری مبنای عملی یکسانی دارند همانطور که ماشین در جعل عمیق با بررسی صوت و تصویر فرد اقدام به تولید محتوای جعلی میکند، این امکان را خواهد داشت که ضمن استفاده از هوش مصنوعی تشخیص دهد که کدام محتوا اصالت دارد.
برنا اساسیترین راهکار مواجهه با این نوع از محتوا در لایۀ افکار عمومی را «ارتقاء سواد رسانهای» بر میشمارد و تأکید میکند: همانطور که جوامع بشری نیاز به ارتقاء سواد رسانهای افکار عمومی در مواجهه با فیکنیوزها داشتند، امروز نیز مردم باید از این مسئله آگاه شوند که فناوری در حال توسعه است که امکان تولید ویدئو یا اصواتی فاقد اصالت را دارد، آنها باید بدانند که اخبار را باید از منابع موثق دنبال کنند با دستکم ویدئو یا صوتی که دریافت میکنند را با موضعگیریها و صحبتهای گذشتۀ فرد تطبیق دهند، سپس قضاوت کنند.
این متخصص هوش مصنوعی معتقد است که حاکمیت برای مواجهه با این نوع از محتوا باید تلاش کند تا فناوریهای مرتبط با شناخت محتوای جعل عمیق را توسعه دهد به زعم وی حکومتها باید افراد متخصص را آموزش دهند و پژوهشهای علمی را تعریف کنند که آنها را برای بیاثر کردن محتوای جعل عمیق یاری میکند.
برنا دربارۀ این موضوع که آیا تکنولوژیهای شناخت محتوای جعل عمیق باید به صورت عمومی در اختیار مردم قرار بگیرد یا افرادی محتوا را بررسی کنند و نتیجه را منتشر نمایند به خبرنگار برنا میگوید: به طور طبیعی تکنولوژی در اختیار مردم با نهادهای نظارتی حکومتها متفاوت خواهد بود اما یقیناً میتوان سطحی از فناوری را نیز به صورت عمومی تعریف کرد تا مردم برای تشخیص محتوای جعلی عمیق مورد استفاده قرار دهند. ضمن اینکه باید در نظر داشته باشید، فریب ماشین نیز امر ممکنی است بنابراین تعریف یک نهاد بالادستی واحد چندان راهگشا نیست، ارتقاء سواد رسانهای و استفاده از فناوری هردو کنار هم مفید خواهد بود.
انتهای پیام/