رسانه‌های اجتماعی همزمان با آغاز جنگ حماس و اسرائیل چنان مملو از تصاویر و اطلاعات جعلی و گمراه کننده شده که بررسی تمامی آنها کار بسیار دشوار و زمانبری است، به ویژه که تولیدکنندگان این محتواهای دروغین با بکارگیری ابزارهای هوش مصنوعی سرعت عمل، حجم تولید و ظرافت کار خود را افزایش داده‌اند.

اکثر اطلاعات نادرستی که در آغاز جنگ (۷ اکتبر) منتشر شد مربوط به ویدئوها و تصاویر قدیمی منتسب به درگیری‌ها بین اسرائیل و حماس بود اما با گذشت زمان، تصاویری در شبکه‌های اجتماعی منتشر شده که ردیابی منشا اولیه آن‌ها غیرممکن است چون که با استفاده از هوش مصنوعی (AI) تولید شده‌اند.

یکی از این تصاویر تولید شده توسط هوش مصنوعی که در فضای مجازی پخش شده است، عکس نوزادی است که زیر آوار ناشی از حملات اسرائیل به غزه مدفون شده است.

بسیاری از مردم، از جمله تعدادی از روزنامه نگاران مستقر در غزه، همچنان آن را به عنوان نمادی از مظلومیت ساکنان نوار غزه بازنشر می‌کنند. 

اما چگونه می‌توان تشخیص داد که این تصویر با هوش مصنوعی تولید شده است؟ اولین چیزی که بسیار قابل توجه است، حالت بیش از حد اغراق‌آمیز چهره این کودک به خصوص در بخش چانه و پیشانی اوست.

همچنین وقتی با دقت بیشتری به عکس نگاه می‌کنیم، به نظر می‌رسد که این کودک انگشتان اضافی دارد. این به این دلیل است که اگرچه هوش مصنوعی در ایجاد تصاویری شبیه انسان بهتر از گذشته عمل می‌کند اما همچنان در بازتولید برخی از قسمت‌های بدن از جمله دست‌ها و پاهای انسان مشکل دارد.

اگرچه تشخیص جعلی بودن این عکس آسان است ولی پیشرفت فناوری قطعا به زودی به تولید تصاویری منجر خواهد شد که بررسی آنها با چند نگاه ریزبینانه ممکن نخواهد بود. 

به کانال تلگرام یورونیوز فارسی بپیوندید 

البته اخیرا برخی پلتفرم‌های هوش مصنوعی مانند Dall-E و Stable Diffusion که بر پایه اطلاعات ارسالی تصویر تولید می‌کنند، محدودیت‌هایی را برای تولید تصاویر سیاسی ایجاد کرده‌اند تا بتوانند به کند شدن سرعت تولید اطلاعات نادرست مرتبط با جنگ حماس و اسرائیل کمک کنند.

source

توسط spideh.ir