هوش مصنوعی پادزهر هوش مصنوعی در تشخیص ویدئو و صوت جعلی!

|
۱۴۰۱/۱۲/۲۰
|
۱۵:۳۲:۳۲
| کد خبر: ۱۴۴۷۲۰۹
هوش مصنوعی پادزهر هوش مصنوعی در تشخیص ویدئو و صوت جعلی!
دیپ فیک فناوری پیچیده‌ای است که ویدئو و صوت‌های جعلی با استفاده از هوش مصنوعی تولید می‌کند، مهدی رضا برنا کارشناس هوش مصنوعی اعتقاد دارد که بهترین راه مقابله با این نوع از محتوا استفاده از فناوری یادگیری عمیق است.

خبرگزاری برنا- گروه علمی و فناوری؛ دیپ فیک یا جعل عمیق یکی از معضلات جدید بشر در عرصۀ مواجهه با اخبار جعلی است، سازندگان دیپ فیک عموماً با اهداف سیاسی یا جنجال آفرینی برای افراد مشهور دست به تولید این نوع از محتوا می‌زنند.

این تکنولوژی البته هنوز فراگیر نشده است اما دور به نظر نمی‌رسد، روزی که جهان شاهد انبوهی از فایل‌های صوتی و تصویری جعلی باشد که سازندگان آن با هدف بر هم زدن آرامش یک کشور یا زندگی یک فرد مشهور دست به تولیدش زده‌اند.

هوش مصنوعی در کنار همۀ تأثیرات مثبتی که می‌تواند در تسهیل امور روزمرۀ انسان داشته باشد، خطرات جدی هم دارد که این روزها کارشناسان مختلف دربارۀ آن هشدار می‌دهند.

استفاده از هوش مصنوعی برای جعل عمیق نمونه‌های مختلفی در ایام گذشته دارد اما شاید بتوان ویدیوی جعلی از مورگان فریمن و ایلان ماسک را دو ویدئوی مهم ماه‌های گذشته در این حوزه برشمرد.

مهدی رضا برنا دارای مدرک دکتری هوش مصنوعی از دانشگاه تربیت مدرس و کارشناس ارشد این حوزه، دربارۀ ماهیت دیپ‌فیک‌‌ها و نحوۀ شکل‌گیری آن‌ها به خبرنگار فناوری برنا می‌گوید: متخصصان هوش مصنوعی در این زمینه تلاش می‌کنند تا ضمن آموزش به ماشین، آن را قادر سازند که بعد از بررسی تعدادی ویدئو یا صوت از یک فرد، کلمات و رفتاری مشابه وی پیدا کند به نحوی که شنونده یا بیننده تصور می‌کند که فرد واقعی در حال ارتباط گرفتن با او است!

وی اضافه می‌کند: تکنولوژی جعل عمیق سال‌ها است که در محیط‌های تخصصی توسعه داده می‌شود اما فعلاً در اغلب موارد به حدی از پیشرفت نرسیده که اکثر مردم را دچار خطای شناختی کند اما فراگیر شدنش در با توجه به توانمندی فعلی بشر فراگیر شدن آن چندان دور از ذهن به نظر نمی‌رسد.

این کارشناس هوش مصنوعی درخصوص کاربردها و خطرات فراگیر شدن فناوری دیپ‌فیک به خبرنگار برنا گفت: نخستین کاربرد و خطرات جدی این فناوری به طور قطع مربوط به مسائل حوزۀ دفاعی و امنیتی خواهد بود، باید اذعان داشت، توسعۀ فناوری که اصالت نوعی از محتوا را که پیشتر قابل استناد بود را دچار خدشه کند، نوعی بحران است، شما تصور کند، ده‌ها صوت یا ویدئو جعلی از یک سیاستمدار مهم در جهان منتشر شود و افکار عمومی دنیا امکان ارزیابی صحت آن را نداشته باشد، چه اتفاقات عجیبی امکان دارد که رخ دهد؟!

وی در پاسخ به این سوال برنا که چه فناوری برای شناسایی محتوای صحیح و جعل عمیق وجود دارد، تصریح می‌کند: اصلی‌ترین راهکار شناخت استفاده از فناوری جعل عمیق، بهره‌گرفتن از تکنولوژی یادگیری عمیق است. این دو فناوری مبنای عملی یکسانی دارند همانطور که ماشین در جعل عمیق با بررسی صوت و تصویر فرد اقدام به تولید محتوای جعلی می‌کند، این امکان را خواهد داشت که ضمن استفاده از هوش مصنوعی تشخیص دهد که کدام محتوا اصالت دارد.

برنا اساسی‌ترین راهکار مواجهه با این نوع از محتوا در لایۀ افکار عمومی را «ارتقاء سواد رسانه‌ای» بر می‌شمارد و تأکید می‌کند: همانطور که جوامع بشری نیاز به ارتقاء سواد رسانه‌ای افکار عمومی در مواجهه با فیک‌نیوزها داشتند، امروز نیز مردم باید از این مسئله آگاه شوند که فناوری در حال توسعه است که امکان تولید ویدئو یا اصواتی فاقد اصالت را دارد، آن‌ها باید بدانند که اخبار را باید از منابع موثق دنبال کنند با دستکم ویدئو یا صوتی که دریافت می‌کنند را با موضع‌گیری‌ها و صحبت‌های گذشتۀ فرد تطبیق دهند، سپس قضاوت کنند.

این متخصص هوش مصنوعی معتقد است که حاکمیت برای مواجهه با این نوع از محتوا باید تلاش کند تا فناوری‌های مرتبط با شناخت محتوای جعل عمیق را توسعه دهد به زعم وی حکومت‌ها باید افراد متخصص را آموزش دهند و پژوهش‌های علمی را تعریف کنند که آن‌ها را برای بی‌اثر کردن محتوای جعل عمیق یاری می‌کند.

برنا دربارۀ این موضوع که آیا تکنولوژی‌های شناخت محتوای جعل عمیق باید به صورت عمومی در اختیار مردم قرار بگیرد یا افرادی محتوا را بررسی کنند و نتیجه را منتشر نمایند به خبرنگار برنا می‌گوید: به طور طبیعی تکنولوژی در اختیار مردم با نهادهای نظارتی حکومت‌ها متفاوت خواهد بود اما یقیناً می‌توان سطحی از فناوری را نیز به صورت عمومی تعریف کرد تا مردم برای تشخیص محتوای جعلی عمیق مورد استفاده قرار دهند. ضمن اینکه باید در نظر داشته باشید، فریب ماشین نیز امر ممکنی است بنابراین تعریف یک نهاد بالادستی واحد چندان راهگشا نیست، ارتقاء سواد رسانه‌ای و استفاده از فناوری هردو کنار هم مفید خواهد بود.

انتهای پیام/

نظر شما