
نخستین نبرد هوش مصنوعی و اطلاعات غلط
متن ارائه شده، که گزیدههایی از تحلیلی با عنوان «نخستین جنگ هوش مصنوعی: چگونه درگیری ایران و اسرائیل به میدان نبرد اطلاعات نادرست زایشی تبدیل شد»، از سوی سازمان دیدهبان رسانههای دیجیتال اروپا (EDMO) منتشر شده است.
این منبع به بررسی نقش هوش مصنوعی زایشی (Generative AI) در تولید و انتشار حجم بیسابقهای از اطلاعات نادرست در جریان درگیری ایران و اسرائیل در سال ۲۰۲۴ تا ۲۰۲۵ میپردازد.
سازمان فکتنامه، یک سازمان حقیقتیاب ایرانی مستقر در کانادا، تجربیات خود را در مورد مواجهه با این نوع جدید از تبلیغات دیجیتال، از جمله تصاویر و ویدئوهای ساختگی از شهرهای ویرانشده و هواپیماهای سرنگونشده، به اشتراک میگذارد.
نویسنده نتیجه میگیرد که این درگیری، ظهور عصر جدیدی از پروپاگاندای دیجیتال است که اعتماد عمومی را به شدت کاهش داده و بر نیاز مبرم به سواد رسانهای متناسب با عصر هوش مصنوعی تأکید میکند.
در نهایت، ساختار EDMO، از جمله بخشهای مختلف فعالیتهای آن مانند حقیقتسنجی، سواد رسانهای، و حوزههای موضوعی مانند «درگیری اسرائیل و حماس» نیز در متن گنجانده شده است.
ماهیت، ابعاد، و تاثیرات کلیدی اطلاعات غلط زایشی جنگ هوش مصنوعی در درگیری ایران و اسرائیل چه بود؟
بر اساس منابع ارائه شده، درگیری ایران و اسرائیل در سال ۲۰۲۴–۲۰۲۵ به دلیل نقش محوری هوش مصنوعی زایشی (Generative AI) در شکلدهی به ادراک عمومی، به عنوان اولین درگیری بزرگ نظامی شناخته شد که در آن این نوع اطلاعات غلط مورد استفاده قرار گرفت.
ماهیت، ابعاد، و تأثیرات کلیدی اطلاعات غلط زایشی در این درگیری به شرح زیر بود:
۱. ماهیت و تحول اطلاعات غلط زایشی
این درگیری نقطه عطفی را در ماهیت اطلاعات غلط نشان داد. در حالی که در بحرانهای گذشته (مانند انتخابات یا اعتراضات داخلی ایران)، اطلاعات غلط اغلب شامل ویدیوهای قدیمی، عکسهای بازیافتی، و تصاویر با زیرنویسهای نادرست بود؛ درگیری ایران و اسرائیل موج جدیدی از اطلاعات غلط را به وجود آورد که از ویژگیهای زیر برخوردار بود:
- پیچیدگی و ساختگی بودن کامل: موج جدید اطلاعات غلط، که اندکی پس از حملات موشکی تلافیجویانه ایران پدیدار شد، شامل ویدیوها و تصاویر ساختهشده توسط هوش مصنوعی بود. این تصاویر «براق، دراماتیک، و در بسیاری موارد کاملاً ساختگی» بودند.
- دسترسی آسان: مانع ورود (Barrier to entry) تقریباً از بین رفته است؛ به طوری که هر کسی با یک گوشی هوشمند و یک فرمان (prompt) میتواند در عرض چند دقیقه تصاویر ساختگی متقاعدکنندهای خلق کند.
- تغییر مسیر جریان اطلاعات غلط: در ابتدا، محتوای شهروندان از تهران (پس از حملات ۱۳ ژوئن ۲۰۲۵) معتبر و واقعی بود، به طوری که خلأ اطلاعاتی برای پر کردن باقی نگذاشته بود. به طعنه، در این مرحله، اطلاعات غلط به شکل معکوس عمل کرد: تصاویر معتبر به دروغ ساختگی خوانده شدند. اما پس از آن، موج اطلاعات غلط زایشی آغاز شد.
۲. ابعاد (گستردگی و مثالها) جنگ هوش مصنوعی
این موج از اطلاعات غلط به سرعت شبکههای اجتماعی فارسی، اردو، عربی، و حتی غربی را درنوردید.
الف. تولید محتوای تخریب شهری و خسارات ساختگی
اطلاعات غلط زایشی صحنههایی از تخریب را به تصویر میکشید که هرگز رخ نداده بودند:
- ویدیوی «روز قیامت در تل آویو»: یکی از اولین نمونههای منتشرشده توسط حساب رسمی روزنامه انگلیسیزبان تهران تایمز (وابسته به دولت ایران) بود. این ویدیو که تخریب فانتزی (fantasy destruction) ساخته شده توسط هوش مصنوعی بود، شهری ویرانشده را نشان میداد.
- تصاویر مونتاژ شده: رسانههای ایرانی مانند فارس نیوز، نور نیوز، و شرق ویدیوهای ترکیبی منتشر کردند تحت عنوان «تل آویو قبل و بعد از جنگ با ایران»، که تقریباً تمام فیلمهای آن ساخته هوش مصنوعی بودند.
ب. روایتهای دروغین در مورد تجهیزات نظامی
شاید پایدارترین روایت غلط، ادعای موفقیت ایران در ساقط کردن چندین جت جنگنده F-35 اسرائیل بود.
- نشانههای ساختگی بودن: تصاویر لاشه هواپیما در رسانههای دولتی و شبکههای اجتماعی فارسیزبان منتشر شد که دارای اشکالات آشکاری بود، از جمله: ستاره داوود نابجا، چمن دستنخورده اطراف محل سقوط، مقیاس غیرواقعی و موتور غیرعادی. استفاده از ابزار تشخیص هوش مصنوعی نشان داد که تصویر با احتمال ۹۸ درصد توسط ماشین تولید شده است.
- این ادعا هفتهها تکرار شد و نهایتاً در ۱۰ جولای (بدون پذیرش دروغ بودن آن)، در تلویزیون دولتی به عنوان «عملیات روانی صهیونیستی» پس گرفته شد.
ج. سایر نمونههای فریبنده
کمپین اطلاعات غلط شامل موارد دیگری نیز بود:
- انتشار و حذف سریع ویدیویی ساختگی از برخورد موشک ایران به تل آویو توسط پرس تیوی، که انفجاری کارتونی داشت.
- به اشتراکگذاری یک گودال (crater) ساخته شده توسط هوش مصنوعی به عنوان مدرکی دال بر حمله ایران به اسرائیل.
- شایعات دروغین مبنی بر ارسال ۷۵۰ موشک بالستیک از پاکستان برای کمک به ایران، که در ویدیوهای پشتیبان آن کامیونهای ساختهشده توسط هوش مصنوعی با رانندگان غایب و افرادی که در میان حرکت ناپدید میشدند، دیده میشد.
- ویدیوهایی از تظاهرات ساختگی اسرائیلیها برای صلح، و همچنین ویدیویی مشابه از ایرانیانی که «ما اسرائیل را دوست داریم!» را تشویق میکردند، که هر دو کاملاً با هوش مصنوعی تولید شده بودند.
۳. تأثیرات کلیدی اطلاعات غلط زایشی جنگ هوش مصنوعی
این امر نه تنها نحوه مشاهده درگیری را تغییر داد، بلکه بر باورها نیز تأثیر گذاشت.
- فرسایش اعتماد عمومی: با رایج شدن تصاویر ساختگی هوش مصنوعی، اعتماد عمومی از بین میرود. مردم شروع به زیر سوال بردن همه چیز میکنند، حتی ویدیوها و تصاویر واقعی که با سوگیریهای آنها در تضاد هستند.
- ایجاد «بدبینی افراطی» (Hyper-cynicism): یک ویدیوی واقعی و تکاندهنده از برخورد موشک اسرائیل در یک خیابان شلوغ تهران، توسط بسیاری در فضای مجازی به عنوان ساخته هوش مصنوعی و تبلیغات حکومتی رد شد. این امر نشاندهنده «بدبینی افراطی» است که در آن حقیقت نیز مورد سوء ظن ساختگی بودن قرار میگیرد.
- قدرتگیری پروپاگاندا: این فناوری ابزارهایی را در اختیار مبلغان و بازیگران بدخواه قرار میدهد تا آبها را گلآلود کنند و زمینه را برای فریبکاریهای بیسابقه فراهم سازند.
- لزوم سواد رسانهای جدید: در پاسخ به این دوران جدید پروپاگاندای دیجیتال، نیاز است که سواد رسانهای برای عصر هوش مصنوعی دوباره تعریف شود و به مردم آموزش داده شود که چگونه اطلاعات غلط متقاعدکننده و باکیفیت را زیر سوال ببرند، نه صرفاً تصاویر ساختگی خام و آشکار.
چگونه انتشار انبوه محتوای جعلی به فرسایش اعتماد عمومی به اطلاعات حقیقی منجر شد؟
بر اساس منابع، انتشار انبوه محتوای جعلی و هوش مصنوعی زایشی (Generative AI) در جریان درگیری ایران و اسرائیل در سال ۲۰۲۴–۲۰۲۵ به شیوهای خطرناک منجر به فرسایش اعتماد عمومی به اطلاعات حقیقی شد، که این پدیده به سال ۲۰۲۴–۲۰۲۵ به شیوهای خطرناک منجر به فرسایش اعتماد عمومی به اطلاعات حقیقی شد، که این پدیده به عنوان بدبینی افراطی (hyper-cynicism) توصیف شده است.
نحوه شکلگیری این فرسایش اعتماد به شرح زیر است:
۱. تبدیل شدن اطلاعات ساختگی به امری رایج و با کیفیت جنگ هوش مصنوعی
- کاهش مانع تولید: ورود هوش مصنوعی زایشی به این درگیری، مانع ورود (barrier to entry) برای تولید محتوای جعلی را تقریباً از بین برد . اکنون هر فردی تنها با یک تلفن هوشمند و یک فرمان (prompt) میتواند در عرض چند دقیقه تصاویر ساختگی و متقاعدکنندهای را خلق کند.
- پیچیدگی و حجم بالای فریب: این موج جدید از اطلاعات غلط، که پس از حملات تلافیجویانه ایران پدیدار شد، شامل ویدیوها و تصاویر ساختهشده توسط هوش مصنوعی بود که “براق، دراماتیک و در بسیاری موارد کاملاً ساختگی” بودند. حجم بالا و پیچیدگی این محتوا که صحنههایی مانند تخریب فانتزی شهرهای اسرائیل یا سرنگونی جتهای F-35 را به تصویر میکشید، باعث شد که این تصاویر ساختگی به امری رایجتر تبدیل شوند .
۲. نتیجه: زیر سؤال بردن همهچیز توسط عموم
- فرسایش اعتماد (Erosion of Trust): همانطور که تصاویر ساختگی هوش مصنوعی رایجتر میشوند، اعتماد عمومی از بین میرود. مردم شروع به زیر سؤال بردن همه چیز میکنند، حتی ویدیوها و تصاویر واقعی که ممکن است با تعصبات (biases) آنها در تضاد باشند.
- بدبینی افراطی (Hyper-cynicism): این فرسایش اعتماد، به پدیدهای منجر شد که منابع آن را “بدبینی افراطی” نامیدند. در این حالت، حقیقت نیز مظنون به ساختگی بودن تلقی میشود.
۳. مثالهای کلیدی از رد شدن حقیقت
شدیدترین نمونه این تأثیر، مربوط به واکنش عمومی به ویدیوهای واقعی بود:
- هنگامی که یک ویدیوی تکاندهنده و معتبر از برخورد موشک اسرائیل در یک خیابان شلوغ در تهران منتشر شد، بسیاری از کاربران آنلاین فوراً آن را ساخته هوش مصنوعی و تبلیغات حکومتی تلقی کرده و رد کردند.
- این امر نشان داد که این جنگهای هوش مصنوعی نه تنها آنچه را که ما میبینیم تغییر میدهند، بلکه آنچه را که ما باور داریم نیز تغییر میدهند.
به طور خلاصه، انتشار انبوه و آسان محتوای جعلی و باکیفیت بالا، توانایی مردم برای تمایز بین واقعیت و ساختار را مختل کرده است، به طوری که حتی شواهد بصری واقعی نیز، در صورت تضاد با پیشفرضها، به عنوان دروغ یا پروپاگاندا رد میشوند.
راهبردهای مؤثر برای ارتقاء سواد رسانهای و مقابله با سوءاستفاده از هوش مصنوعی کدامند؟
بر اساس منابع، در مواجهه با عصر جدید پروپاگاندای دیجیتال و سوءاستفاده گسترده از **هوش مصنوعی زایبر اساس منابع، در مواجهه با عصر جدید پروپاگاندای دیجیتال و سوءاستفاده گسترده از هوش مصنوعی زایشی (Generative AI) در درگیریهایی نظیر درگیری ایران و اسرائیل، راهبردهای مؤثری برای ارتقاء سواد رسانهای و مقابله با این پدیده پیشنهاد شدهاند.
این راهبردها باید فراتر از بازرسی صرف واقعیت (fact-checking) عمل کنند و یک اکوسیستم مقاومت گسترده ایجاد نمایند:
۱. بازتعریف و ارتقاء آموزش سواد رسانهای در جنگ هوش مصنوعی
- آموزش برای عصر هوش مصنوعی: سواد رسانهای باید برای عصر هوش مصنوعی دوباره تعریف شود. این بدان معناست که به مردم نه تنها آموزش داده شود که چگونه تصاویر ساختگی خام را تشخیص دهند، بلکه چگونه اطلاعات غلط متقاعدکننده و باکیفیت بالا (persuasive, high-quality disinformation) را زیر سؤال ببرند.
- حمایت هدفمند از گروههای آسیبپذیر: جمعیتهای آسیبپذیر، به ویژه بزرگسالان مسنتر و کاربرانی که سواد دیجیتالی کمتری دارند، به حمایت هدفمند نیاز دارند.
- ادغام در برنامههای درسی: همکاری با کتابخانهها و مدارس برای ادغام سواد رسانهای در برنامههای درسی ضروری است.
۲. ایجاد اکوسیستم گسترده مقاومت و همکاری
مقابله با اطلاعات غلط زایشی مستلزم همکاری چندوجهی میان ذینفعان مختلف است:
- همکاری با شرکتهای فناوری: باید با شرکتهای فناوری برای بهبود ابزارهای تشخیص هوش مصنوعی همکاری کرد و در جهت برچسبگذاری واضح محتوای تولید شده توسط هوش مصنوعی (clear labeling of AI-generated content) فشار آورد.
- شبکههای واکنش سریع: باید شبکههای واکنش سریع متشکل از بازرسان واقعیت و محققان ایجاد کرد تا بتوانند اطلاعات غلط ویروسی را قبل از جا افتادن و فراگیر شدن، مهار کنند.
- پشتیبانی از سیاستگذاران: سیاستگذاران به راهنماییهای تخصصی نیاز دارند تا بتوانند مقررات هوشمندانهای (smart regulation) تدوین کنند که به سوءاستفادهها رسیدگی کند، بدون اینکه نوآوری را محدود سازد.
منابع تأکید میکنند که با توجه به اینکه فناوری هوش مصنوعی در پشت تصاویر و ویدیوهای جعلی به صورت تصاعدی در حال بهبود است ، آمادگی برای این “جنگهای هوش مصنوعی” که نه تنها آنچه را که میبینیم، بلکه آنچه را که باور داریم تغییر میدهند، حیاتی است.
توجه: سازمان دیدبان رسانههای دیجیتال اروپا (EDMO)، که منبع تحلیل فوق را منتشر کرده است، خود در زمینههای مختلفی فعالیت میکند، از جمله: بازرسی واقعیت (Fact-Checking)، سواد رسانهای (Media Literacy) (که شامل ارتقاء تبادل دانش، افزایش استانداردها از طریق رهنمودهای EDMO و کمپین “آنلاین هوشمند باش” میشود)، و تحلیل سیاستگذاری. این فعالیتها نشاندهنده ابعاد ضروری مقابله سازمانی با اطلاعات غلط هستند.