Web Analytics Made Easy - Statcounter

استفاده روز افزون از تصاویر غیرواقعی در فضای مجازی به بی اعتمادی میان کاربران دامن زده است. تایمز در ماه مارس از یک زن ۱۸ ساله اوکراینی به نام "لوبا دوونکو" نام برد و در مقاله منتشر شده اش ادعا کرد که این فرد روزنامه‌نگاری خوانده، خیلی مسلط انگلیسی صحبت نمی‌کند و بعد از حمله روسیه شروع به حمل سلاح کرده است.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

با این حال، موضوع این بود که دوونکو در دنیای واقعی وجود ندارد و خبر کمی پس از انتشار حذف شد.

به گزارش digitaltrends، لوبا دوونکو یک شخصیت آنلاین جعلی بود که برای سرمایه گذاری از علاقه روزافزون به داستان‌های جنگ اوکراین و روسیه در توییتر و به دست آوردن طرفداران طراحی شده بود. این حساب نه تنها قبل از مارس هرگز توییت نکرده بود، بلکه نام کاربری متفاوتی نیز داشت. در عکس پروفایل دوونکو، برخی از تار‌های موی او از بقیه سرش جدا شده بود، چند مژه از دست رفته بود، و مهمتر از همه، چشمانش دقیقا در مرکز صفحه قرار داشت. همه این موارد نشانه‌هایی از یک چهره مصنوعی بودند که توسط یک الگوریتم هوش مصنوعی ایجاد شده بود.

چهره دوونکو توسط فناوری دیپ فیک ساخته شده است، تکنیکی که به هر کسی اجازه می‌دهد چهره‌ای را بر چهره شخص دیگر در یک ویدیو نیز قرار دهد و برای همه چیز از محتوای غیر اخلاقی گرفته تا دستکاری سخنرانی رهبران جهان استفاده می‌شود این فناوری یک مشکل رو به رشد است که مبارزه با اطلاعات نادرست را دشوارتر می‌کند
ارتشی از چهره‌های جعلی تولید شده توسط هوش مصنوعی

در چند سال گذشته، در حالی که شبکه‌های اجتماعی عکس‌های بی‌چهره و ناشناس را سرکوب می‌کنند، هوش مصنوعی بازیگران و ربات‌های مخرب را با یک سلاح ارزشمند مسلح کرده است و آن توانایی تولید تصاویری شبیه به انسان‌های واقعی است. نکته جالبی که در ارتباط با این تصاویر وجود دارد این است که این تصاویر منحصر به فرد هستند و حتی با بررسی دقیق، اکثر مردم نمی‌توانند تفاوت را تشخیص دهند. دکتر سوفی نایتینگل، استاد روانشناسی در دانشگاه لنکستر بریتانیا، دریافت که افراد فقط ۵۰ درصد شانس دارند که چهره‌های ساخته شده با هوش مصنوعی را ببینند و حتی بسیاری آن‌ها را قابل اعتمادتر از چهره‌های واقعی می‌دانند.

چهره‌های تولید شده توسط هوش مصنوعی در واقع با سرعتی سرسام‌آور اینترنت را تسخیر کرده‌اند. جدا از حساب‌هایی مانند دوونکوکه از شخصیت‌های ترکیبی برای جذب دنبال‌کنندگان استفاده می‌کنند، این فناوری اخیراً کمپین‌های هشداردهنده‌تری را تقویت کرده است. استفاده از این فناوری توسط کشور‌هایی مانند چین در ترویج روایت‌های دولتی مشاهده شده است. در یک بررسی گذرا در توییتر، طولی نکشید که چندین ضد واکسن، طرفدار روسیه پیدا شدند. همه در پشت یک چهره کامپیوتری پنهان شده بودند تا برنامه‌های خود را پیش ببرند و به هر کسی که سر راهشان ایستاده بود حمله کنند. اگرچه توییتر و فیس‌بوک مرتباً چنین کابرانی را حذف می‌کنند، اما چارچوبی برای مقابله با لفرادی که دارای چهره‌ای غیرواقعی هستند، ندارند.

Sensity، یک شرکت راه حل‌های کلاهبرداری مبتنی بر هوش مصنوعی، تخمین می‌زند که حدود ۰.۲ ٪ تا ۰.۷ ٪ از افراد در شبکه‌های اجتماعی محبوب از عکس‌های تولید شده توسط رایانه استفاده می‌کنند. این به خودی خود چندان زیاد به نظر نمی‌رسد، اما ارقام برای فیس بوک (۲.۹ میلیارد کاربر)، اینستاگرام (۱.۴ میلیارد کاربر) و توییتر (۳۰۰ میلیون کاربر) است. این موضوع این به معنا است که میلیون‌ها ربات و بازیگر به طور بالقوه می‌توانند بخشی از کمپین‌های اطلاعات نادرست باشند. شرکت کروم ارقام Sensity را تأیید می‌کند.

بازار چهره‌های جعلی

بخشی از اینکه چرا عکس‌های تولید شده توسط هوش مصنوعی به سرعت تکثیر شده‌اند این است که دریافت آن‌ها چقدر آسان است. در پلتفرم‌هایی مانند Generated Photos، هر کسی می‌تواند صد‌ها هزار چهره جعلی با وضوح بالا را با چند دلار به دست آورد و افرادی که برای اهدافی نیاز به گروه‌هایی از کاربران دارند مانند کمپین‌های افشاگری شخصی، می‌توانند تصاویر جعلی را از وب‌سایت‌هایی مانند thispersondoesnotexist.com دانلود کنند. این وب‌سایت‌ها زندگی را برای افرادی مانند بنجامین استریک، مدیر تحقیقات مرکز انعطاف‌پذیری اطلاعات بریتانیا، که تیمش هر روز ساعت‌ها را صرف پیگیری و تجزیه و تحلیل محتوای فریبنده آنلاین می‌کند، چالش‌برانگیز کرده است.

ایوان براون، بنیانگذار Generated Photos، استدلال می‌کند که همه چیز بد نیست. او معتقد است که تصاویر جعلی موارد استفاده مثبت زیادی دارند، مانند ناشناس کردن چهره‌ها در نمای خیابان Google Maps و شبیه‌سازی دنیای واقعی در بازی و این همان چیزی است که این برنامه تبلیغ می‌کند. اگر کسی در کار گمراه کردن افراد باشد، براون می‌گوید امیدوار است که سیستم‌های دفاعی ضد کلاهبرداری پلتفرم او بتوانند فعالیت‌های مضر را شناسایی کنند و در نهایت شبکه‌های اجتماعی بتوانند عکس‌های تولید شده را از عکس‌های معتبر جداکنند.

تایلر ویلیامز، مدیر تحقیقات در Graphika، یک شرکت تحلیل شبکه‌های اجتماعی که برخی از گسترده‌ترین کمپین‌های مرتبط با شخصیت‌های جعلی را کشف کرده است، می‌گوید تا زمانی که یک راهکار درست برای شناسایی تصاویر جعلی وجود نداشته باشد، استفاده از رسانه‌های های اجتماعی ممکن است به کاهش اعتماد مربوط به نهاد‌های عمومی مانند دولت‌ها و روزنامه‌نگار‌ها کمک کند. ویلیامز اضافه می‌کند که یک عنصر حیاتی در مبارزه با سوء استفاده از چنین فناوری‌هایی برنامه درسی سواد رسانه‌ای است که از سنین پایین شروع می‌شود.

چگونه یک چهره تولید شده توسط هوش مصنوعی را تشخیص دهیم؟

چند راه مطمئن برای تشخیص اینکه آیا یک چهره مصنوعی ساخته شده است وجود دارد. نکته‌ای که در اینجا باید به خاطر داشته باشید این است که این چهره‌ها به سادگی با ترکیب تعداد زیادی عکس به تصویر کشیده می‌شوند؛ بنابراین اگرچه چهره واقعی به نظر می‌رسند، اما سرنخ‌های زیادی را می‌توانید پیدا کنید تا جعلی بودن تصاویر مشخص شود. به طور مثال شکل گوش یا گوشواره ممکن است با هم مطابقت نداشته باشند، رشته‌های مو ممکن است با هم تفاوت داشته باشند و عینک ممکن است عجیب باشد.

رایج‌ترین راه این است که وقتی از چند چهره جعلی عبور می‌کنید، همه چشم‌های آن‌ها دقیقاً در یک موقعیت قرار می‌گیرند در مرکز صفحه این موضوع جعلی بودن تصویر را نشان می‌دهد. باید توجه کرد که مهم‌ترین تهدیدی که عکس‌های تولید شده توسط هوش مصنوعی ایجاد می‌کنند این است که آن‌ها به سود دروغگویی دامن می‌زند و اعتماد کردن را به طور کلی دشوار می‌کنند.

منبع: پول نیوز

کلیدواژه: بررسی بررسی کیفی بررسی قراردادها بررسی کلیات طرح صیانت بررسی بودجه تولید شده توسط عکس های تولید شده شبکه های اجتماعی هایی مانند چهره ها یک چهره

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.poolnews.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «پول نیوز» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۵۶۹۶۱۶۶ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

تصاویر واقعی است؛ خبری از کپسول آتش نشانی نیست!+ عکس

طی حوادث سال ۹۶ بود که عکسی در رسانه‌های غربی از داخل ایران منتشر شد که به اصطلاح نماد اعتراض دانشجویی شد و بازتاب یافت. 

"یلدا معیری" عکاس این عکس بود که در مصاحبه با نیویورک تایمز به جعلی بودن آن اعتراف کرد و آنرا کارگردانی شده و تزئینی نامید که دود داخل عکس ناشی از کپسول آتش نشانی است.

وی پیشتر برای آب و تاب دادن به ماجرای عکس جعلی‌اش ادعا کرده بود در یک شرایط سخت امنیتی این تصویر را گرفته است!

این مصاحبه یکسال بعد از آنکه رسانه‌های مختلف علیه ایران از آن سواستفاده کردند، انجام شد و وی در همان سال ۹۶ جایزه بهترین تک عکس خبری سال ایران را دریافت کرد!

این عکاس که با سیل انتقادات نسبت به فریب افکارعمومی روبرو شد بعد‌ها وقتی ترامپ از این عکس جعلی برای توییت ضدایرانی استفاده کرد به خاطر اینکه رییس جمهور پیشین آمریکا قوانین سفت و سختی برای تردد ایرانیان در ایالات متحده اجرا کرده که وی نتوانسته خانواده خود را ببیند، انتقاد کرد. با وجود افشای جعلی بودن این عکس، اما سازمان‌های غربی بازهم از این عکاس تجلیل کردند.

البته این تنها عکس جعلی دانشجویی در خصوص حوادث ایران نبود. «احمد باطبی» که در سال ۷۸ عکس وی با پیراهن خونی در رسانه‌های غربی بازتاب یافت و وی ادعا می‌کرد متعلق به همکلاسی‌اش است بعد‌ها معترف شد که وی نه دانشجو بوده و نه این خون، خون انسان است!

او تعریف کرده زمانی که عشق رفتن به آمریکا همه وجودش را لبریز کرده بود، با هماهنگی با عکاس همکار نشریه انگلیسی اکونومیست (که دبیر عکس روزنامه اصلاح‌طلب جامعه هم بود)، در جریان حوادث ۱۸ تیر سال ۷۸، با بالا بردن یک پیراهن ظاهرا خونی، (استفاده از خون مرغ) اسم و رسمی در رسانه‌های غربی برای خود دست و پا کرد.

استفاده از فیک‌نیوز‌های خبری علیه کشورمان و فضاسازی دروغین با اقدامات و طراحی برخی ایرانیانی که به کشور خود پشت کرده‌اند، درحالی است که آمریکا امروز ضمن سرکوب شدید اعتراضات دانشجویان این کشور در دانشگاه کلمبیا و دیگر دانشگاه‌های ایالات متحده آزادی بیان را به شدت نقض کرده است.

«وجد وقفی» خبرنگار شبکه الجزیره در کاخ سفید در حساب کاربری خود در شبکه اجتماعی ایکس لینک دسترسی به تصاویر سرکوب دانشجویان دانشگاه اموری را در اینستاگرام منتشر کرد و نوشت: «به گفته این دانشجویان، پلیس ضد شورش آتلانتا با گلوله لاستیکی و گاز اشک‌آور به سمت آنان حمله می‌کند.»

دانشجویانی که نه برای ضربه زدن به نظم عمومی بلکه جهت اعتراض به نسل‌کشی فلسطینیان در غزه اقدام به برپایی تجمع کرده‌اند. تصاویر برخورد با دانشجویان که با خشونت و به طور قهرآمیز صورت می‌گیرد واقعی است و ترس‌ها و روی زمین کشیدن‌ها، تک تیرانداز‌های بالای پشت‌بام، استفاده از گاز اشک آور و ... همه واقعیت دارد و دیگر خبری از کپسول آتش نشانی برای وهم آلود و امنیتی کردن فضای کارگردانی شده نیست!

منبع: فارس

باشگاه خبرنگاران جوان وب‌گردی وبگردی

دیگر خبرها

  • تصاویر واقعی است؛ خبری از کپسول آتش نشانی نیست!+ عکس
  • کلاهبرداری از طریق پیام‌ها و لینک‌های جعلی
  • توسعه حمل و نقل بر پایه هوش مصنوعی و اینترنت اشیا در کارخانه نوآوری آزادی
  • در ۸ سال دولت احمدی‌نژاد، قیمت نان ۳۲ برابر شد!
  • هوش مصنوعی گرایش سیاسی افراد را از چهره‌شان می‌خواند
  • مومنی، اقتصاددان: در هشت سال دولت احمدی نژاد، قیمت نان 32 برابر شد!
  • مومنی: ببینید عزیزان با نرخ تورم در ایران چه گلی کاشته‌اند!
  • ایسنا: تکذیب خبر فعال شدن سامانه دهک ریاست جمهوری
  • تکذیب خبر فعال شدن سامانه دهک ریاست جمهوری
  • هوش مصنوعی جهت‌گیری سیاسی افراد را از روی چهره تشخیص می‌دهد