اوکراینی‌ها برای اولین بار از هوش مصنوعی به عنوان سلاح نظامی استفاده کردند؟!

|
۱۴۰۲/۰۳/۱۷
|
۱۱:۴۵:۰۰
| کد خبر: ۱۴۸۲۷۷۵
اوکراینی‌ها برای اولین بار از هوش مصنوعی به عنوان سلاح نظامی استفاده کردند؟!
تعدادی از کاربران روسی ویدئویی از پوتین در شبکه‌های اجتماعی منتشر کردند که فرمان حکومت نظامی در مناطق مرزی این کشور اعلام می‌کند و خبر از احتمال صدور فرمان بسیج ملی می‌دهد، ویدئویی که سخنگوی کرملین آن را جعلی و مبتنی بر دیپ فیک می‌داند!

گروه علمی و فناوری خبرگزاری برنا؛ روز دوشنبه ویدئویی از سخنرانی اضطراری ولادیمیر پوتین رئیس جمهور روسیه در این کشور پخش شد که واکنش دیمیتری پسکوف سخنگوی کرملین را در پی داشت!

وی در پاسخ به خبرگزاری تاس روسیه دربارۀ این ویدئو عنوان کرد: رئیس جمهور روز دوشنبه هیچ سخنرانی اضطراری در رادیو یا تلویزیون انجام نداده است و فایلی که در رسانه‌های اجتماعی پر بازدید شد، مربوط به یک نفوذ است!

سخنگوی کرملین اوضاع را تحت کنترل توصیف می‌کند و می‌افزاید، نفوذ را تأیید می‌کنم اما هیچ سخنرانی وجود نداشت، رادیو میر و برخی شبکه‌ها از جمله رسانه‌های متأثر از این نفوذ بودند.

براساس اعلام شبکۀ رادیو و تلویزیونی میر خروجی‌های این شبکه روز دوشنبه به مدت ۳۷ دقیقه هک شده بود. افراد ناشناس با نفوذ غیرقانونی در زیرساخت‌های شبکه، برنامه‌های مدنظر خود را پخش کردند و هیچ یک از عناوین پخش شده در این بازۀ زمانی ارتباطی با رادیو و تلویزیون میر ندارد!

تعدادی از مردم روسیه اعلام کردند که ویدئویی را تحت عنوان «سخنرانی فوری ریاست جمهوری» در زمان هک شبکه دیده‌اند که طی آن پوتین ضمن اعلام حکومت نظامی در مناطق مرزی این کشور از قصد خود برای اعلام فرمان بسیج عمومی می‌گوید.

برخی کاربران شبکه‌های اجتماعی هم مدعی شدند که سخنرانی مورد اشاره در رادیو پخش شده است.

روزنامه کی‌یف پست در همین رابطه نوشت: مرکز اداری مناطق بلگورود این پیام را یک "جعل عمیق (deepfake)" خواند که با هدف ایجاد وحشت در میان ساکنین بلگورود" بوده است.

این هک را شاید بتوان اولین استفادۀ نظامی از فناوری جعل عمیق در جنگ واقعی دانست، آرسن خاخالین، نویسنده‌ای متخصص در عرصۀ هوش مصنوعی چنین اعتقادی دارد.

پیش از این نیز در هفته‌های اول جنگ اوکراین و روسیه ویدئویی از زلنسکی رئیس جمهور اوکراین منتشر شد که وی از نیروهای خود می‌خواهد سلاح زمین بگذارند و تسلیم روسیه شوند که بعدها ادعا شد، این ویدئو نیز با استفاده از فناوری جعل عمیق ساخته شده است.

استفادۀ نظامی از فناوری‌های مبتنی بر هوش مصنوعی یکی از جدی‌ترین نگرانی‌های مشترک موجود در میان توسعه‌دهندگان آن و سیاستمداران کشورهای مختلف جهان است، تولید اخبار جعلی فقط یکی از ابعاد ترسناک هوش مصنوعی خواهد بود که امکان استفادۀ نظامی از آن نیز وجود دارد.

تصور کنید که روزانه هزاران خبر جعلی با استفاده از فناوری دیپ‌فیک در جهان تولید شود که سیاست‌مداران یا سایر افراد شاخص یک کشور سخنانی به زبان می‌آورند که سبب تحریک افکار عمومی و حرکت هیجانی جمعی می‌شود! چطور باید در چنین زمینی زندگی کرد؟!

حتی امروز که دیپ فیک به صورت گسترده استفاده نمی‌شود، روزانه شاهد هزاران خبر جعلی بر بستر شبکه هستیم که مخاطب شبکه‌های اجتماعی بدون راستی‌آزمایی آن‌ها را باور می‌کند، حال تصور کنید که این اخبار جعلی به ویدئو، صوت یا تصویری به نظر واقعی هم پیوند داده شوند!

همه چیز گویای این است که هوش مصنوعی روی بسیار ترسناکی هم دارد که تنظیم‌‌گری آن نیاز به رویکردی سلبی و ایجابی به صورت همزمان دارد و فناوران این عرصه هم شاید بهتر باشد که هر چه سریعتر افزونه‌ای را طراحی کنند که امکان تشخیص فایل‌های تولید شده توسط هوش مصنوعی را برای کاربران عادی فراهم سازد.

دولت‌ها نیز علاوه بر وضع قوانین کنترلی جهت استفاده از مواهب هوش مصنوعی و کاهش خطر روی تاریک این فناوری، باید تا حد امکان آموزش سواد رسانه‌ای به مردم خود را سرعت ببخشند.

انتهای پیام/

نظر شما