Web Analytics Made Easy - Statcounter

به گزارش گروه وبگردی باشگاه خبرنگاران جوان، دیپ‌فیک ویدیویی بدین معنا است که ما نمی‌توانیم به هر آنچه که می‌بینیم، اعتماد کنیم. حال دیپ‌فیک صوتی نیز بدین معنا است که دیگر گوش‌های ما قابل اعتماد نیستند. چنین فناوری‌هایی باعث می‌شوند تا مشکلات بشر روزبه‌روز افزایش یابند. در قرن بیستم تنها نگرانی تکنولوژیک انسان‌ها، به مسائلی همانند بمب‌های اتمی و شیمیایی مربوط می‌شد، اما اکنون این دامنه گسترش یافته است.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

در چند سال گذشته نگرانی‌های مختلفی در مورد ماشین‌ها و بیماری‌های همه‌گیر به وجود آمده و حال نیز نوبت به دیپ‌فیک صوتی رسیده است؛ چیزی که باعث می‌شود تا مردم اعتماد به صدای یکدیگر را نیز از دست بدهند.

دیپ‌فیک صوتی چیست؟

به احتمال زیاد، ویدیو‌های دیپ‌فیک را مشاهده کرده‌اید. در این ویدیو‌ها از الگوریتم‌های یادگیری عمیق استفاده شده و بدین ترتیب رفتار‌های دو نفر با یکدیگر جایگزین می‌شوند. در صدای دیپ‌فیک یک صوت شبیه‌سازی شده غیرقابل تشخیص استفاده شده تا بدین ترتیب بتوان صدای مصنوعی فرد موردنظر را تولید کرد؛ دقیقا همانند فتوشاپ کردن صدا.

حداقل فتوشاپ‌های غیرحرفه‌ای را می‌توان تشخیص داد، اما در مورد دیپ‌فیک صوتی فقط می‌توان حدس زد، آن هم با میزان درستی ۵۷ درصد! علاوه بر این، از آنجایی که بسیاری از ضبط‌های صدا توسط میکروفن گوشی‌ها انجام می‌پذیرد (یا در محیط‌های پر سروصدا)، پس دیپ‌فیک صوتی می‌توانند بهتر کار خود را انجام دهد. حال سؤال اینجا است که چرا یک شخص باید به فتوشاپ کردن صدا بپردازد؟

بیشتربخوانید

نحوه مبارزه توئیتر با «دیپ فیک» مشخص شد

توجیه تولید صدای مصنوعی

یکی از این موارد به صنعت بازی‌های ویدیویی مربوط می‌شود. در گذشته امکان نداشت که صدا را به محض درخواست، ایجاد کرد. حتی در عناوین تعاملی که از گرافیک سینمایی نیز برخوردار هستند، ارتباطات کلامی با شخصیت‌های غیرقابل بازی، چندان پویا به نظر نمی‌رسند.

حال با پیشرفت فناوری، استودیو‌های بازی‌سازی نیز می‌توانند صدای شخصیت‌ها را شبیه‌سازی کرده و با استفاده از یک موتور تبدیل کننده متن به صوت، سخنان شخصیت‌های درون بازی‌ها را پویاتر نشان دهند. در واقع این فرایند در زمان واقعی رخ داده و از پیش تعیین و رندر نمی‌شود.

البته این فناوری استفاده‌هایی نیز در تبلیغات، فناوری و خدمات پشتیبانی از مشتریان دارد. در اینجا نیز صدای یک انسان قابل اعتماد شبیه‌سازی شده و متون گفتار نیز توسط هوش مصنوعی تعیین و ادا می‌شوند. شرکت‌های شبیه‌سازی صدا، در مورد کاربرد‌های پزشکی این فناوری نیز هیجان‌زده هستند. البته این موضوع چندان جدید نبوده و در واقع استیون هاوکینگ نیز از صدای مصنوعی استفاده می‌کرد. اما حال چنین مواردی می‌توانند بهبود بیشتری را تجربه کنند.

‌در سال ۲۰۰۸، شرکت شبیه‌سازی صدای CereProc، صدای راجر ایبرت (Roger Ebert) را پس از سرطان گرفتن وی، شبیه‌سازی کرد. همچنین این شرکت وب‌سایتی را نیز ایجاد کرده بود که در آن مردم می‌توانستند متنی را تایپ کرده و سپس این متن با صدای جورج بوش، بیان شود.

صدای شبیه‌سازی شده چگونه کار می‌کند؟

شبیه‌سازی صدا در حال حاضر از محبوبیت مناسبی برخوردار است. شرکت‌هایی همانند Resemble AI و Descript وب‌سایت‌هایی را دایر کرده‌اند که می‌توانید در آن‌ها به‌صورت رایگان، صدای خود را شبیه‌سازی کنید. در این زمینه هوش مصنوعی و مخصوصا الگوریتم‌های یادگیری عمیق هستند که می‌توانند صدای ضبط شده را با متن مربوطه تطبیق داده و در نتیجه صدای شما را شبیه‌سازی کنند. در ادامه هوش مصنوعی از بلوک‌های ساختاری زبان استفاده کرده تا بدین ترتیب بتواند تقریبی از کلماتی را که تا به حال از زبان شما نشنیده، به دست آورد.

متیو آیلت (Matthew Aylett)؛ مدیر ارشد علمی شرکت CereProc می‌گوید: پایه این فناوری مدت‌ها است که وجود دارد، اما تنها به مقداری کمک نیاز دارد. کپی کردن صدا همانند درست کردت شیرینی است. این کار کمی سخت بوده و همچنین راه‌های مختلفی نیز جهت انجام آن وجود دارند.

توسعه‌دهندگان جهت کسب نتایج مورد قبول، به مقادیر زیادی از صدا‌های ضبط شده نیاز دارند. چند سال پیش، دانشمندان شبکه‌های GAN را توسعه دادند.

بدین ترتیب برای اولین بار، امکان قیاس از داده‌های موجود فراهم شد. آیلت می‌گوید: به جای اینکه یک رایانه، تصویری را از یک اسب مشاهده کند و بگوید که این اسب است، مدل من اکنون می‌تواند یک اسب را به یک گورخر تبدیل کند؛ بنابراین پیشرفت‌های شبیه‌سازی صدا، مدیون تلاش‌های آکادمیک حوزه رایانه هستند.

یکی از مهم‌ترین پیشرفت‌ها در زمینه شبیه‌سازی صدا، مربوط به کاهش حجم صدای اولیه موردنیاز است. در گذشته حجم بالایی از صدای شخص موردنیاز بود، اما اکنون تنها چند دقیقه کافی است.

ترس ناشی از بی‌اعتمادی به همه‌چیز

فناوری‌هایی همانند انرژی هسته‌ای، فناوری نانو، چاپ سه‌بعدی و CRISPR، در عین هیجان‌انگیز بودن، ترسناک نیز هستند. در اخبار نیز مواردی به چشم می‌خورند که طی آن‌ها، دیپ‌فیک صوتی توانسته که مردم را فریب دهد.

در کانال‌های یوتیوبی، می‌توان ویدیو‌هایی از رؤسای جمهور پیشین آمریکا را مشاهده کرد که در آن‌ها، این اشخاص مشغول خواندن یک آهنگ هستند. موسیقی و صدا‌های پس‌زمینه باعث می‌شوند تا حرکات رباتیک کمتر به چشم آیند، اما در هر صورت پتانسیل زیادی در این موضوع وجود دارد.

می‌توان به‌آسانی تصور کرد که این فناوری به مرور زمان بهتر خواهد شد. سیستم‌های صدای دیپ‌فیک به ورودی‌های کمتری احتیاج خواهند داشت و همچنین پردازش‌های سریع‌تر نیز می‌توانند شبیه‌سازی را در آن واحد انجام دهند. به مرور هوش مصنوعی بهتر نیز می‌تواند لحن و ریتم صدای اشخاص را بهتر شبیه‌سازی کند.

مسائل اخلاقی مرتبط با دیپ‌فیک صوتی

اکثر شرکت‌های فعال در این زمینه سعی دارند تا این فناوری را به جهت ایمن و درستی راهنمایی کنند. مثلا شرکت Resemble AI، یک بیانیه اخلاقی را در وب‌سایت خود قرار داده که در زیر به گزیده‌ای از آن اشاره می‌کنیم:

ما نسبت به شرکت‌های مختلف، سختگیری‌هایی را اعمال کرده و مطمئن می‌شویم که صدای شبیه‌سازی شده توسط آن‌ها استفاده شده و همچنین رضایت کامل صدا پیشه‌ها را نیز جلب کرده‌اند.

کاندان کومار (Kundan Kumar)؛ بنیان‌گذار Lyrebird (که اکنون بخشی از Descript است)، می‌گوید که Lyrebird از ابتدا نسبت به سوءاستفاده حساس بوده و به همین دلیل است که اکنون Descript به مردم اجازه می‌دهد که فقط صدای خود را شبیه‌سازی کنند.

خوب است که می‌شنویم بازیگران مطرح این صنعت، به موازین اخلاقی پایبند هستند. اما در هر صورت ابزار‌های دیپ‌فیک صوتی دیگری نیز وجود دارند که چنین رویه‌ای را در پیش نگرفته و حتی جهت سوءاستفاده از آن‌ها، به دانش کدنویسی نیز نیازی ندارید.
متخصصان امنیت، پیش‌تر نیز با چنین مواردی مواجه شده‌اند

پیش از اینکه دیپ‌فیک صوتی قابل استفاده باشد، کلاهبرداران همیشه سعی کرده‌اند که به‌صورت تلفنی، نسبت به سرقت پول اقدام کنند، اما متخصصان امنیت در این‌گونه مواقع نیز حاضر بوده‌اند. شرکت‌هایی همانند Pindrop به این کار مشغول بوده و طبق ادعا‌های این شرکت، آن‌ها ۱.۲ میلیارد مکالمه صوتی را تحلیل کرده و توانسته‌اند که از سرقت ۴۷۰ میلیون دلار پول، جلوگیری کنند.

پیش از دیپ‌فیک صوتی، کلاهبرداران از مکانی دیگر تماس می‌گرفتند و با ارائه اطلاعات شخصی هدف خود، سعی می‌کردند که وجوه وی را انتقال دهند. ویجی بالاسوبرامانیان (Vijay Balasubramaniyan)؛ مدیرعامل Pindrop، می‌گوید: امضای صوتی به ما اجازه می‌دهد که ویژگی‌های صوتی را تشخیص داده و بدین ترتیب بفهمیم که تماس موردنظر از نیجریه و با استفاده از اسکایپ صورت گرفته است.

در حالی که می‌دانیم مشتری واقعی از گوشی AT&T استفاده کرده و از آتلانتا نیز تماس می‌گیرد. گاهی اوقات با کلاهبردار‌هایی مواجه می‌شویم که صدای جوجه و یا گریه کودک را در پس‌زمینه تماس‌های خود استفاده می‌کنند تا بدین ترتیب بتوانند کارمندان ما را فریب دهند. حتی مواردی نیز داشته‌ایم که در آن‌ها مرد‌ها سعی کرده‌اند تا با استفاده از ابزار‌های شبیه‌سازی، فرکانس صدای خود را افزایش داده و بدین ترتیب صدای خود را زنانه جلوه دهند. اما گاهی اوقات نرم‌افزار مورد استفاده آن‌ها خوب کار نکرده و صدایی شبیه به شخصیت‌های کارتونی تولید می‌کند.

آیا کسی می‌تواند دیپ‌فیک صوتی را تشخیص دهد؟

اگر پس از گوش دادن به صدای یک شخص، به سختی بتوانیم مصنوعی بودن آن را متوجه شویم، آنگاه این موضوع می‌تواند حاوی خبر‌های خوب و بدی برای ما باشد. خبر خوب این است که هوش مصنوعی و سیستم‌های یادگیری عمیق در حال تکامل بوده و جهت تولید صدایی واقعی، به ورودی‌های کمتری احتیاج دارند. خبر بد هم این است که تشخیص موارد تقلبی و همچنین کلاهبرداری‌ها نیز مشکل‌تر می‌شود.

هر چقدر طول یک فایل کمتر باشد و در محیط‌های شلوغ‌تری نیز ضبط شده باشد، آنگاه تشخیص دیپ‌فیک بودن آن نیز سخت‌تر خواهد شد. نکته‌ای که در این بین وجود دارد، این است که اگر انسان‌ها قادر به تشخیص صدای تقلبی نباشند، در هر صورت کامپیوتر‌ها قادر به انجام این کار خواهند بود.

خوشبختانه ابزار‌های تصدیق هم‌اکنون نیز وجود دارند. شرکت Pindrop ابزاری را استفاده می‌کند که حتی اگر تمامی صدا‌های فایل مورد بررسی نیز توسط شخص واقعی ضبط شده باشند، بازهم بتواند مصنوعی بودن صدای شبیه‌سازی شده را تشخیص دهد.

بسته به کیفیت صدا، هر ثانیه از مکالمه می‌تواند بین ۸۰۰۰ الی ۵۰۰۰۰ نمونه داده جهت تحلیل را در بر داشته باشد. بالاسوبرامانیان می‌گوید: چیزی که ما به دنبال آن هستیم، محدودیت‌های گفتاری ناشی از تکامل انسان‌ها هستند.

به‌عنوان مثال، دو صدای آواز، حداقل تفاوت‌هایی را با یکدیگر دارند، زیرا به دلیل محدودیت‌های فیزیکی، نمی‌توان برخی از عبارات را از حدی سریع‌تر بیان کرد. مثلا با شنیدن برخی از صدا‌های ترکیبی، می‌گوییم که امکان ندارد این صدا متعلق به یک انسان باشد، زیرا برای ادای آن، فرد باید یک گردن ۷ فوتی داشته باشد.

برخی صدا‌ها نیز وجود دارند که سایشی نامیده می‌شود (حروفی همانند F، S، V و Z). سیستم‌های یادگیری عمیق به‌سختی می‌توانند این صدا‌ها را از نویز‌ها تمایز دهند. الگوریتم‌های هوش مصنوعی به‌سختی می‌توانند پایان کلمات را از نویز پس‌زمینه تمایز دهند، بنابراین محو شدن کلمات در چنین مدل‌هایی، بیش از گفتار واقعی انسان‌ها رخ می‌دهد. به همین دلیل رایانه‌ها آسان‌تر می‌توانند مصنوعی بودن صدا را تشخیص دهند.

مقابله با دیپ‌‎فیک، هوشیاری می‌طلبد

پیش‌بینی دقیق آینده دیپ‌فیک صوتی، دشوار است. اما می‌توان گفت که ما در آستانه کلاهبرداری‌های صوتی قرار داریم، هر چند که خطر وقوع چنین مواردی در حال حاضر پایین بوده و ابزار‌های تشخیصی نیز می‌توانند کار خود را به‌خوبی انجام دهند.

هنری آجِر (Henry Ajder)؛ مدیر بخش تهدید اطلاعاتی در Deeptrace، می‌گوید: اگر مردم ابزار‌های دیپ‌فیک صوتی متن-باز را به یکدیگر متصل کرده و سپس آن‌ها را در قالب اپلیکیشن و یا سرویس‌های کاربرپسند (و بدون تعهدات اخلاقی) عرضه کنند، آنگاه مشکلات متعددی در این زمینه به وجود خواهند آمد.

بدین ترتیب، حیاتی است که شرکت‌های امنیتی خود را در برابر چنین تهدید‌هایی مقاوم کرده و به‌عنوان مثال بتوانند آسیب‌پذیری روز-صفر بعدی را بهتر درک کنند که طبیعتا دیپ‌فیک صوتی کاندیدای اصلی این موضوع خواهد بود.

منبع: آی تی رسان

انتهای پیام/

منبع: باشگاه خبرنگاران

کلیدواژه: اخبار فناوری فتوشاپ یادگیری عمیق شبیه سازی شده شبیه سازی صدا شبیه سازی صدای خود هوش مصنوعی بدین ترتیب وجود دارند انسان ها شخصیت ها ضبط شده صدا ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.yjc.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «باشگاه خبرنگاران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۲۹۰۳۶۳۹۴ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

صهیونیسم جوامع مسلمانان را هدف قرار داده است

به گزارش سرویس بین الملل خبرگزاری صدا و سیما؛ دبیرکل جنبش انصارالله یمن بر ضرورت تربیت فرزندان بر اساس اصول ایمانی و انسانی تاکید کرد  و گفت صهیونیسم جهانی جوامع مسلمانان را با ابزار های گوناگون هدف قرار داده است . 

کد ویدیو دانلود فیلم اصلی

 
به گزارش شبکه تلویزیونی المسیره، سید عبدالملک بدرالدین در سخنانی آگاهی، علم و هدایت را ابعاد مهم زندگی انسان دانست که انسان را در بقیه امور به پیش می‌برد.
وی تاکید کرد بیشتر ملت‌های اسلامی برنامه فرهنگی اسلامی ندارند و در این زمینه هیچ فعالیتی نمی‌کنند، اما ملت ما برنامه‌های مبتنی بر هویت ایمانی و آزادی از تبعیت دشمنان دارد. بسیاری از ملت‌های اسلامی از دیگران تبعیت می‌کنند و این مسئله آنها را از آغاز هرگونه تمدن والا و آزادیخواهانه اسلامی باز می‌دارد.

کد ویدیو دانلود فیلم اصلی

 
وی ادامه داد عربستان سعودی نظام آموزشی خود را اصلاح کرد و مسئله یهودیان و صهیونیست‌ها را مبنای اصلی قرار دارد و کار آل سعود به جایی رسیده است که آیات قرآنی مربوط به جنایات یهودیان یا آیاتی که آنها را رسوا می‌کند و آنها را به مردم می‌شناساند و درباره آنها هشدار می‌دهد، از نظام آموزشی حذف کرد.
آل سعود بی شرمانه، بیش از آن که به قرآن احترام بگذارد به یهودیان صهیونیست احترام می‌گذارد.

کد ویدیو دانلود فیلم اصلی

 
دبیرکل جنبش انصارالله یمن ادامه داد آل سعود آیات قرآنی را به سبب آن که باعث خشم یهودیان صهیونیست می‌شود و ممکن است مانعی در برابر عادی سازی روابط آنها باشد، از نظام آموزشی حذف می‌کند. آل سعود احادیث نبوی را نیز یا به طور کامل یا جزئی حذف کرد. آل سعود به دنبال جلب رضایت اسرائیل است و این کار ظلم به مردم است. آل سعود همچنین برخی از معانی آیات قرآنی را برای جلب رضایت رژیم اسرائیل تغییر داد.

کد ویدیو دانلود فیلم اصلی

 
وی در ادامه افزود: آل سعود کاری کرد که یک نسل کامل را تقدیم رژیم اسرائیل می‌کند و نگاه آنها را طوری تغییر می‌دهد که دشمن را دوست خودش بداند و تصور کند که رابطه و شراکت و همکاری با آن کار درستی است. کار یکی از سران عربستان به جایی رسیده است که اسرائیل را متحد آینده می‌نامد.
چه ظلمی به نسل‌ها می‌شود وقتی برنامه‌ای به آنها می‌دهی که آنها را برای دشمنی که می‌بینیم در نوار غزه چه کار‌هایی انجام می‌دهد، رام می‌کند.

کد ویدیو دانلود فیلم اصلی

 
سید عبدالملک بدرالدین گفت: شاهد میزان دشمنی اسرائیل با اسلام و مسلمانان و کینه توزی آن علیه اعراب و مسلمانان هستیم. آنها شعار مرگ بر اعراب سر می‌دهند. این شعاری است که می‌دهند و بر اساس آن عمل می‌کنند. امارات عربی متحده نیز شبیه عربستان عمل کرد و نظام آموزشی و برنامه‌های درسی آن با شگفتی از دشمن صهیونیست سخن می‌گویند. امارات کودکان و نسل آینده خود را طوری تربیت می‌کند که دوست و متحد و شریک اسرائیلی‌ها باشند. موج اینگونه اقدامات به دیگر کشور‌های عربی نیز که مبنای آنها عزت و کرامت نیست، کشیده می‌شود. این در حالیست که دشمن اسرائیلی هیچ یک از برنامه‌های درسی و سیاست‌های آموزشی خود را تغییر نمی‌دهد و کودکان خود را بر اساس دشمنی شدید با مسلمانان تربیت می‌کند. دشمنی یهودیان با مسلمانان از کودکی تا کهنسالی در چارچوب برنامه‌های خصمانه برای تحت سیطره در آوردن امت اسلامی ادامه پیدا می‌کند.

کد ویدیو دانلود فیلم اصلی

 
وی ادامه داد: ویژگی برنامه‌های تابستانی در کشور‌ها این است که بر اساس هویت ایمانی و در چارچوب برنامه‌های آزادیخواهانه قرار دارد. برقراری عدالت و اجرای ارزش‌ها و اخلاق از جمله مسئولیت‌های مقدس در زندگی هستند. تمدن اسلامی مبتنی بر اصول و ارزش‌های الهی و آبادانی زمین و برقراری عدالت و اجرای اخلاق و ارزش‌ها استوار است. اما تمدن غرب بر اساس بربریت و جنایت و مجاز بودن هر کاری استوار است. تمدن غرب اخلاق را از انسانیت می‌زداید تا این که ناهنجاری‌های اخلاقی قانونی شود. غرب کافر تلاش می‌کند تمدن خود را در میان بقیه جوامع ترویج کند. حال آن که برنامه‌های الهی برنامه‌هایی کامل هستند که انسان را در ابعاد مختلف ارتقا می‌دهند. انسان هر قدر از تعالیم الهی تبعیت کند به همان اندازه از دیگر جوامع متمایز می‌شود.
عبدالملک بدرالدین در ادامه افزود: فرزندان مسلمانان در اروپا ربوده می‌شوند تا به اماکن ویژه‌ای برده شوند و برای فساد و ناهنجاری‌های جنسی تربیت شوند.
غرب زندگی حیوانی و حتی بدتر از حیوانی دارد. صهیونیسم جهانی جوامع ما را با ابزار‌ها و شیوه‌هایی که در تاریخ بشر بی سابقه است هدف قرار می‌دهد. باید تلاش‌هایی شود تا کودکان و نوجوانان در برابر آسیب‌ها بیمه شوند.

 

 

دیگر خبرها

  • نظارت رهبر کره‌شمالی بر اولین مانور تاکتیکی شبیه‌سازی ضدحمله هسته‌ای
  • کره شمالی رزمایش شبیه‌سازی ضدحمله هسته‌ای برگزار کرد
  • زمایش شبیه‌سازی ضدحمله هسته‌ای در کره شمالی
  • (ویدئو) شبیه‌سازی نخستین بمباران هسته‌ای در «هیروشیما»
  • تهدیدی به نام سندروم «ددی ایشو»!
  • مطالعات جامعه‌شناسی فاجعه
  • درخشش دانش آموزان تویسرکانی در هفدهمین مسابقات ربوکاپ آزاد ایران
  • شبیه‌سازی جنگ ایران و آمریکا
  • لزوم افزایش ارتباط فعال دانشگاه با جوامع و نهادهای مردمی
  • صهیونیسم جوامع مسلمانان را هدف قرار داده است