Web Analytics Made Easy - Statcounter

گروه غرب از نگاه غرب خبرگزاری فارس: یک روزنامه نگار تحقیق گر ویدئویی از یک افشاگر ناشناس دریافت کرده است. این ویدئو یکی از نامزدهای انتخابات ریاست جمهوری را نشان می دهد که فعالیتی غیرقانونی را تایید می کند. اما آیا این ویدئو واقعی است؟ اگر چنین باشد این می تواند خبر بسیار مهمی باشد که هر انسانی در طول عمرش تنها یک بار ممکن است بشنود و می تواند روند انتخابات های پیش رو را به کلی وارونه کند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

اما این روزنامه نگار که ویدئوی دریافتی را با یک ابزار مخصوص مورد بررسی قرار داده، می گوید این ویدئو آنطور که به نظر  می رسد نیست. در واقع فایلی که او دریافت کرده یک ویدئوی «دیپ فیک» است؛ ویدئویی که با استفاده از هوش مصنوعی با تکنیک یادگیری عمیق ساخته می شود.
ممکن است روزنامه نگاران در سراسر جهان به زودی از ابزاری شبیه به این استفاده کنند. حتی ممکن است در طول چند سال به جایی برسیم که تمام مردم ابزاری شبیه به این را برای ریشه یابی محتوای جعلی که در فیدهای رسانه های اجتماعی شان دریافت می کنند مورد استفاده قرار دهند.
ما به عنوان پژوهشگرانی که در حوزه ردیابی محتوای دیپ فیک و ساخت ابزار ردیابی آنها برای روزنامه نگاران تحقیق می کنیم، معتقدیم که این ابزارها برای خود آینده ای دارند. هرچند که ساخت چنین ابزارهایی تمام مشکلات ما را حل نخواهند کرد و تنها یکی از اجزای زرادخانه ما در مبارزه گسترده تر علیه انتشار اطلاعات جعلی به شمار خواهند رفت.

مشکل ویدئوهای دیپ فیک
بیشتر کسانی که شما را می شناسند، ممکن نیست هر چیزی را که در مورد شما می بینند باور کنند. در طول دو دهه گذشته مصرف کنندگان زیرک اخبار به دیدن تصاویری که با نرم افزارهای ویرایش تصویر دستکاری شده اند عادت کرده اند. هر چند در مورد ویدئوهای جعلی ماجرا چیز دیگری است. کارگردانان هالیوود ممکن است میلیون ها دلار در زمینه جلوه های ویژه برای ساخت یک صحنه واقع گرایانه خرج کنند. اما افراد آماتور با خرید چند هزار دلار تجهیزات رایانه ای و صرف چند هفته از وقت خود، می توانند با استفاده از محتوای دیپ فیک چیزی تقریبا درست شبیه زندگی واقعی را بسازند.
فناوری دیپ فیک قرار دادن افراد در صحنه فیلم هایی را که هرگز در آنها حضور نداشته اند– به تام کروز فکر کنید که در حال بازی نقش مرد آهنی است- امکان پذیر کرده اند که برای ویدئوهای سرگرم کننده تهیه می شوند. متاسفانه با کمک این فناوری، خلق تصاویر پورنوگرافی بدون رضایت افرادی که در آنها به تصویر کشیده می شوند نیز امکان پذیر می گردد. تاکنون بزرگ ترین قربانیان فناوری دیپ فیک که مورد سوء استفاده واقع شده اند زن بوده اند.
فناوری دیپ فیک همچنین می تواند برای ساخت ویدئوهایی از رهبران سیاسی مورد استفاده قرار بگیرند که در حال گفتن حرف هایی هستند که هرگز از دهانشان خارج نشده است. حزب سوسیالیست بلژیک یک ویدئوی غیر دیپ فیک با کیفیت پایین و با این حال قلابی را از پرزیدنت ترامپ منتشر کرده که او را در حال اهانت به بلژیک نشان می دهد. واکنش های گسترده ای که نسبت به این ویدئو انجام شد، خطرات بالقوه ویدئوهای دیپ فیک با کیفیت بالاتر را نشان می دهد.
شاید ترسناک ترین این مخاطرات این باشد که با گفتن اینکه فلان ویدئوها ممکن است دیپ فیک باشند، می توان از آنها برای ایجاد شک و تردید نسبت به محتوای ویدئوهای واقعی استفاده کرد.
با توجه به این خطرات  استفاده از ابزاری که بتواند محتوای دیپ فیک را ردیابی و به وضوح آنها را شناسایی کند بسیار ارزشمند خواهد بود. چنین ابزاری می تواند این اطمینان را به وجود آورد که ویدئوهای جعلی جامعه را فریب نمی دهند و ویدئوهای واقعی می توانند همچنان محل وثوق باشند.

شناسایی ویدئوهای جعلی
ردگیری ویدئوهای دیپ فیک به عنوان یک حوزه تحقیقاتی کمتر از سه سال است که آغاز شده است. کارهای اولیه بر ردگیری اشکالات قابل دیده شدن در این ویدئوها متمرکز بود، مثل  اینکه افراد در ویدئوهای دیپ فیک چشمک نمی زنند. اما با گذشت زمان  ویدئوهای جعلی در تقلید از ویدئوهای واقعی بهتر شدند و شناسایی افراد و ابزارهای ردیابی آنها دشوارتر شد.
تحقیقاتی که پیرامون ردیابی ویدئوهای دیپ فیک انجام می شود را می توان در دو دسته جای داد. دسته اول با نگاه کردن به رفتار افراد در ویدئوها سر و کار دارد. فرض کنید که تعداد زیادی ویدئو از شخص معروفی مثل پرزیدنت اوباما دارید. هوش مصنوعی می تواند از این ویدئوها برای یادگیری الگوهای رفتاری او نظیر حرکات دست و مکث هایی که بین کلمات می کند استفاده کند و این الگوها را فرا بگیرد. سپس می تواند با مرور یک ویدئوی دیپ فیک، متوجه شود که کدام الگوی رفتاری او در نمونه واقعی با نمونه جعلی همخوانی ندارد. این رویکرد حتی اگر کیفیت خود ویدئو در اصل خوب باشد، این مزیت را دارد که احتمالا بهتر جواب می دهد.
پژوهشگران دیگر از جمله تیم ما بر تفاوت ها در تمام دیپ فیک هایی که با ویدئوهای واقعی مقایسه شده اند تمرکز دارد. ویدئوهای دیپ فیک اغلب با ادغام قاب های منفرد و سپس تشکیل فیلمی به هم پیوسته ساخته می شوند. با به حساب آوردن این نکته، شیوه های تیم ما داده های مهم مربوط به چهره ها را در تک تک قاب ها استخراج می کند و سپس آنها را در مجموعه هایی از قاب های همزمان با قاب های قبلی ردگیری می کند. این کار به ما اجازه می دهد تا ناهمخوانی ها را در جریانی از اطلاعات از یک قاب به قاب دیگر ردگیری کنیم. ما در سیستم ردگیری صوتی جعلی خود نیز از رویکرد مشابهی استفاده می کنیم.
مشاهده این جزئیات ظریف برای انسان ها کار دشواری است، اما نشان می دهند که  ویدئوهای دیپ فیک نیز هنوز کاملا بی نقص نیستند. این قبیل ابزارهای ردگیری می توانند در مورد برای هر شخصی کارآیی داشته باشند نه فقط برای معدودی از رهبران جهانی. در انتها ممکن است به هر دو نوع از این ابزارهای ردیابی ویدئوهای دیپ فیک نیاز شود.
سیستم های ردگیری اخیر در مورد ویدئوهایی که به طور خاص برای ارزیابی ابزارها گردآوری شده اند عملکرد بسیار خوبی دارند. متاسفانه حتی بهترین مدل ها در مورد ویدئوهایی که در اینترنت یافت می شوند عملکرد ضعیفی دارند. بهبود دادن این ابزارها و قدرتمند و مفیدتر شدن آنها گام اصلی بعدی به شمار می رود.

چه کسی باید از ردیاب های دیپ فیک استفاده کند؟
در واقع یک ابزار شناسایی ویدئوهای دیپ فیک باید در دسترس همگان قرار داشته باشد. اما این فناوری در مراحل اولیه توسعه و ساخت خود قرار دارد. پژوهشگران باید این ابزارها را بهبود ببخشند و توانایی حفاظتی آنها در برابر نفوذ هکرها را پیش از انتشار آنها در سطح گسترده ارتقا بخشند.
هرچند همزمان این ابزارها موجب می شوند تا ویدئوهای دیپ فیک بیشتر در دسترس کسانی قرار بگیرد که به دنبال فریب دادن جامعه است. اما کنار نشستن و نظاره کردن راه حل خوبی نیست. برای تیم ما بهترین گزینه در مرحله نخست، کارکردن با روزنامه نگاران بود، چون آنها هستند که در خط دفاعی مقدم در برابر گسترش اطلاعات جعلی قرار دارند.
روزنامه نگاران پیش از انتشار گزارش های خود، باید اطلاعات دریافتی شان را مورد تایید قرار دهند. آنها هم اکنون نیز از شیوه های تایید محتوا استفاده می کنند،  مثل کنترل کردن منابع و مراجعه به افرادی بیشتر از یک نفر برای تایید فکت های کلیدی. پس با قرار دادن این ابزار در دسترس آنها، ما اطلاعات بیشتری را در اختیار آنها قرار می دهیم و می دانیم با توجه به اینکه ممکن است این ابزار مرتکب اشتباه هایی شود، آنها صرفا بر این فناوری اتکا نخواهند کرد.

آیا ردیاب ها برنده این مسابقه خواهند شد؟
دیدن اینکه تیم هایی از فیس بوک و مایکروسافت در حال سرمایه گذاری روی فناوری های مربوطه برای شناخت و ردگیری محتوای دیپ فیک هستند دلگرم کننده است. اما برای همپا شدن با سرعت پیشرفت هایی که در فناوری ساخت ویدئوهای دیپ فیک رخ می دهد، لازم است که تحقیقات بیشتری در این حوزه به عمل آید.
روزنامه نگاران و پلتفرم های شبکه های اجتماعی همچنین باید سردربیاورند که چگونه می توان مردم را به بهترین نحو نسبت به جعلی بودن محتوای ویدئوهای دیپ فیکی که آنها شناسایی می کنند آگاه کرد. تحقیقات نشان داده اند که مردم دروغ را به خاطر می سپارند، ولی این واقعیت که آن دروغ یک دروغ بوده را نه. آیا همین وضعیت در مورد ویدئوهای جعلی هم صدق خواهد کرد؟ صرف قرار دادن برچسب «دیپ فیک» روی این قبیل ویدئوها، ممکن است برای مقابله با برخی از انواع اطلاعات جعلی کافی نباشد.
ویدئوهای دیپ فیک آمده اند تا بمانند. مدیریت اطلاعات جعلی و حفاظت از جامعه همزمان با قدرتمندتر شدن روزافزون هوش مصنوعی چالش آورتر خواهد شد. ما بخشی از یک جامعه تحقیقاتی رو به رشد هستیم که  در زمینه این تهدید تحقیق می کنیم، تهدیدی که ردیابی آن تنها گام اول است.

نویسنده: جان سهروردی/ متیو رایت (John Sohrawardi ) دانشجوی دکترای علوم رایانه ای و اطلاعات / (Matthew Wright) استاد امنیت رایانه ای / موسسه فناوری روچستر

منبع: https://b2n.ir/258222

انتهای پیام.

منبع: فارس

کلیدواژه: هوش مصنوعی فناوری شناسایی دیپ فیک ویدئوهای دیپ فیک ویدئوهای واقعی روزنامه نگاران ویدئوهای جعلی اطلاعات جعلی دیپ فیک هوش مصنوعی دیپ فیک شده اند قاب ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.farsnews.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «فارس» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۲۹۵۸۲۵۱۰ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

ملوان-سایپا، به یاد دوران پرستاره! (عکس)

به گزارش ورزش سه، ملوان و سایپا دو تیمی که حدود 8 سال پیش آخرین تقابل لیگ برتری را مقابل هم برگزار کردند امروز در مرحله یک هشتم نهایی جام حذفی مقابل هم قرار خواهند گرفت و یک دیدار کلاسیک را برگزار خواهند کرد!

تیم‌های باسابقه لیگ برتر ایران که در سال‌های هر دو آنها به لیگ آزادگان سقوط کردند و نتوانستند دیگر در سطح اول فوتبال ایران مقابل هم قرار بگیرند و امروز فرصت این را خواهند داشت تا در جام حذفی به مصاف هم بروند!

از آخرین تقابل آنها در لیگ برتر تغییرات زیادی در دو تیم صورت گرفته و با شکل و شمایلی کاملا متفاوت به میدان خواهند رفت، در تیم سایپا ستاره هایی چون مهدی ترابی، علی قلی زاده، ابراهیم صادقی، غلامرضا رضایی،میلاد میداووی حاضر بودند و در تیم ملوان هم حسین حسینی، محمدحسین کنعانی زادگان،عزت پورقاز،حسین ماهینی، مازیار زارع و جلال رافخایی حضور داشتند و بسیاری از این بازیکنان از فوتبال خداحافظی کردند و تعدادی دیگر در سطح اول فوتبال ملی ایران حضور دارند.

آخرین تقابل آنها هم به بازی در لیگ آزادگان در اردیبهشت 1401 باز می‌گردد که در نهایت به صعود ملوان به لیگ برتر ختم شد و در آن مسابقه هم ملوان دو بر صفر سایپا را شکست داد و یک گام دیگر به صعود و صدرنشینی نزدیک شد.

این دو تیم امروز در شرایط متفاوتی مقابل هم قرار خواهند گرفت، ملوان با عملکرد خوبی که در لیگ برتر داشته در رتبه های بالای جدول حضور دارد و سایپا در لیگ آزادگان شانسی برای صعود به لیگ برتر نخواهد داشت و یک فصل دیگر برای بازگشت به لیگ باید منتظر بماند.

دیگر خبرها

  • لیگ قهرمانان زنان اروپا؛ تقابل بارسلونا و لیون در فینال
  • لیگ قهرمانان زنان اروپا | تقابل بارسلونا و لیون در فینال
  • لزوم بهره‌گیری از ظرفیت روستاها در راستای اشتغالزایی
  • هوش مصنوعی آرتروز زانو را ۸ سال زودتر تشخیص می‌دهد
  • ایسنا: تکذیب خبر فعال شدن سامانه دهک ریاست جمهوری
  • تکذیب خبر فعال شدن سامانه دهک ریاست جمهوری
  • رضا اسدی تقابل با پرسپولیس را از دست داد
  • تلاش برای بازگرداندن دانش آموزان بازمانده از تحصیل
  • گسترش بحران تقابل ارزش‌های لیبرال با آزادیخواهان
  • ملوان-سایپا، به یاد دوران پرستاره! (عکس)