2024-05-04@03:36:09 GMT
۶۱ نتیجه - (۰.۰۰۴ ثانیه)
جدیدترینهای «فناوری جعل عمیق»:
بیشتر بخوانید: اخبار اقتصادی روز در یوتیوب
خبرگزاری علم و فناوری آنا؛ ویدئوها یا تصاویر جعل عمیق (دیپ فیک) با استفاده از هوش مصنوعی ساخته میشوند و گاهی آنقدر واقعی به نظر میرسند که تشخیص آنها از واقعیت دشوار است. این فناوری بارها مشکلساز شده و از آن برای انتشار اخبار و اطلاعات نادرست و فریب مردم استفاده کردهاند. با پیشرفت فناوری، تشخیص محتوای جعلی هر روز دشوارتر میشود و کارشناسان حوزه فناوری در تلاش هستند تا راههایی برای شناسایی و پیشگیری از آسیبهای جعل عمیق پیدا کنند. به تازگی عکسی جعلی از یک زن مسن در شبکه اجتماعی فیسبوک منتشر شده است که مقابل کیک تولد ۱۲۲ سالگی خود نشسته و شرح عکس چنین است: «من از پنج سالگی پختن کیک را آغاز کردم و میخواهم همچنان...
ایتنا - در آستانه برگزاری انتخابات پارلمان اروپا در ماه ژوئن آینده، اتحادیه اروپا از شرکتهای بزرگ فناوری دیجیتال از جمله فیسبوک و تیکتاک خواست تا محتویات جعل عمیق (دیپفیک) ساخته شده با هوش مصنوعی را در فضای مجازی شناسایی کرده و هشدار دهند. این توصیه بخشی از مجموعه دستورالعملهایی است که کمیسیون اروپا آن را در قالب قانون تعدیل محتوای فضای مجازی برای غولهای دیجیتال منتشر کرده تا آنها با خطراتی که انتخابات را تهدید میکند، از انتشار جمله اخبار نادرست، مقابله کنند. تعدیل محتوا عبارت از شناسایی محتویات همرسان شده در فضای مجازی و کامنتهای کاربران است به نحوی که شرکت پیامرسان بتواند محتوای مضر و آسیبرساننده را پیدا کرده و مثلا برای آن برچسب هشدار...
به گزارش خبرگزاری صداوسیما، ویدئوها و تصاویر تولیدشده با هوش مصنوعی با اهداف سیاسی در سالی پر از انتخابات، میتوانند نتایج زیانباری به همراه داشته باشند. در همین حال برزیل تلاش دارد پیش از برگزاری انتخابات، برای این فناوری قانونگذاری کند. در کشوری با ۲۰۳ میلیون جمعیت که میزان تلفنهای همراه از جمعیت پیشی میگیرد، قانونگذاران برزیل تصمیم هفته گذشته استفاده از فناوری جمع عمیق را ممنوع کردند و برای استفاده از این فناوری با اهداف انتخاباتی، خطمشیهایی تعیین کردند. توسعه سریع هوش مصنوعی که با عرضه چت جی پی تی در سال ۲۰۲۲ سرعت گرفته، چشمانداز جهان آنلاین را تغییر داده و همزمان باعث ترس و نگرانی در مورد آینده شده. اما در کشوری که پیش از این هم...
ایتنا - دیپفیکهای هوش مصنوعی اغلب برای ایجاد آسیب استفاده میشوند، اما روشهای موجود طراحی شده برای کاهش یا جلوگیری از تقلب باید برای محافظت در برابر این فناوری کافی باشد. در عصر دیجیتالی که در آن زندگی میکنیم، مرز بین واقعیت و فانتزی مبهم شده است. ظهور فناوری جعل عمیق (دیپ فیک) نگرانیهای عمده و بحث های جنجالی را در مورد صحت محتوای بصری ایجاد کرده است. همانقدر که تصاویر دستکاری شده پیچیدهتر میشوند، درک فناوری زیربنایی و تاثیر بالقوه آن ضروریتر میشود، به خصوص که ظهور جعل عمیق پیامدهای زیادی برای جنبههای مختلف جامعه از جمله سیاست، روزنامه نگاری، سرگرمی و حریم خصوصی دارد. با کنترلهای صحیح و هوشیار بودن نسبت به خطرات احتمالی...
ایتنا - همانطور که فناوری دیپ فیک (جعل عمیق) پیشرفت کرده است، ابزارها و تکنیکهای طراحی شده برای شناسایی آنها نیز پیشرفت کرده است. در عصر دیجیتال، دیپ فیک به عنوان یک تهدید بزرگ برای اصالت محتوای آنلاین شناخته میشود. ویدیوهای تولید شده با هوش مصنوعی میتوانند به طور قانع کنندهای از افراد حقیقی تقلید کنند. تمایز واقعیت از دروغ را چنان دشوار میکند که میتواند همه چیز، از روابط شخصی گرفته تا انتخابات سیاسی را تحتالشعاع قرار دهد. خوشبختانه، همانطور که فناوری دیپ فیک (جعل عمیق) پیشرفت کرده است، ابزارها و تکنیکهای طراحی شده برای شناسایی آنها نیز پیشرفت کرده است. بنابراین، دراین مطلب پنج بهترین ابزار و تکنیکهای تشخیص دیپفیک را که امروزه در دسترس هستند،...
به گزارش خبرآنلاین، یک کارمند مالی که در یک شرکت چند ملیتی در هنگ کنگ مشغول کار بوده است، با فریب خوردن از کلاهبردارانی که از فناوری دیپفیک یا جعل عمیق استفاده کرده بودند مبلغ ۲۵ میلیون دلار به آنها پرداخت کرد. به نقل از یورونیوز، پلیس هنگ کنگ گفته است سارقان در این کلاهبرداری پیچیده، به عنوان «مدیر مالی» با کارمند تماس برقرار کرده و صحنه ویدئوکنفرانس را طوری چیده بودند که گویی چند نفر دیگر از کارکنان شرکت نیز در جلسه حضور دارند. در حالی که تمامی افراد در جلسه از طریق فناوری جعل عمیق درست شده بودند و واقعی نبودند. به گفته مقامات پلیس شخص کارمند در ابتدا به پیامی که ظاهراً از طرف مدیر ارشد مالی...
ایتنا - یک کارمند مالی که در یک شرکت چند ملیتی در هنگ کنگ مشغول کار بوده است، با فریب خوردن از کلاهبردارانی که از فناوری دیپفیک یا جعل عمیق استفاده کرده بودند مبلغ ۲۵ میلیون دلار به آنها پرداخت کرد. پلیس هنگ کنگ گفته است سارقان در این کلاهبرداری پیچیده، به عنوان «مدیر مالی» با کارمند تماس برقرار کرده و صحنه ویدئوکنفرانس را طوری چیده بودند که گویی چند نفر دیگر از کارکنان شرکت نیز در جلسه حضور دارند. در حالی که تمامی افراد در جلسه از طریق فناوری جعل عمیق درست شده بودند و واقعی نبودند. به گفته مقامات پلیس شخص کارمند در ابتدا به پیامی که ظاهراً از طرف مدیر ارشد مالی شرکت، مستقر در...
بالاخره سیاست با همه بیپدر و مادری، نامردی، کثیف بودن و با وجود همه حرفهایی که پشت سرش میزنند، لابد خوبیهایی هم دارد. حداقلش این است که گاهی ممکن است برای مصالح جامعه بشری یکی دو قدم بردارد! یک نمونه آن، ماجرای «جعل عمیق» یا همان دیپفیک که ظاهراً آشش جوری شور شده که اهالی دنیای صنعت و فناوری، علم اخلاق، جامعهشناسان و حتی سیاستبازان و سیاستورزان هم صدایشان بابت این دستهگل هوش مصنوعی و قرن۲۱ درآمده است. زلف این، دُم آن اگر فکر میکنید داریم بیدلیل زلف ماجرایی مثل «جعل عمیق» و هوش مصنوعی را به دُمِ سیاست گره میزنیم، سخت در اشتباهید. منتها حرف زدن از دلیل این کار بماند برای اواخر مطلب! اول باید ببینیم اصل...
در حالی که تصاویر جعلی روز به روز متقاعد کنندهتر و گستردهتر میشوند، سازندگان دوربینها با فناوری جدیدی که میتواند صحت عکسها را تأیید کند، با این مشکل مقابله میکنند. نیکون، سونی و کانن در حال کار بر روی تعبیه یک امضای دیجیتال در دوربینهای خود هستند که به عنوان اثباتی بر اصل بودن و یکپارچگی تصاویر عمل خواهد کرد. به گزارش خبرآنلاین، امضاهای دیجیتال حاوی اطلاعاتی مانند تاریخ، زمان، مکان و عکاس تصویر هستند و در برابر دستکاری مقاوم خواهند بود. این فناوری به عکاسان و سایر متخصصانی که نیاز دارند از اعتبار کار خود اطمینان حاصل کنند، کمک میکند. نیکون این ویژگی را در دوربینهای بدون آینه خود ارائه میکند، در حالی که سونی و کانن نیز آن...
شرکتهای کانن، نیکون و سونی در حال کار بر روی تعبیه یک امضای دیجیتالی در دوربینهای خود هستند که به عنوان اثباتی بر اصل بودن و یکپارچگی تصاویر عمل میکند. به گزارش ایسنا و به نقل از آیای، در حالی که تصاویر جعلی روز به روز متقاعد کنندهتر و گستردهتر میشوند، سازندگان دوربینها با فناوری جدیدی که میتواند صحت عکسها را تأیید کند، با این مشکل مقابله میکنند. نیکون، سونی و کانن در حال کار بر روی تعبیه یک امضای دیجیتال در دوربینهای خود هستند که به عنوان اثباتی بر اصل بودن و یکپارچگی تصاویر عمل خواهد کرد. امضاهای دیجیتال حاوی اطلاعاتی مانند تاریخ، زمان، مکان و عکاس تصویر هستند و در برابر دستکاری مقاوم خواهند بود. این فناوری...
یکی از تواناییهای سیستمهای هوش مصنوعی جعل عمیق توانایی شبیهسازی صدای افراد، حتی بر اساس یک فایل ضبط شده کوتاه از صدای اصلی است که میتواند برای مقاصد شرورانه مورد سواستفاده قرار بگیرد. با این حال، یک نرمافزار جدید به نام ضدجعل(AntiFake) میتواند به جلوگیری از وقوع آن کمک کند. به گزارش ایران اکونومیست و به نقل از نیواطلس، در سایر قابلیتهای هوش مصنوعی، از نسخههای جعلی صدای افراد به همراه ویدیوهای جعلی میتوان به گونهای استفاده کرد که به نظر برسد گویی یک سیاستمدار یا شخصیت مشهور چیزی را گفته که هرگز در واقعیت نگفته است. علاوه بر این مواردی وجود داشته که افراد تماسهای تلفنی دریافت کردهاند که در آن صدای جعلی یکی از دوستان یا اعضای خانواده...
فیلمها و تصاویر فریبنده ایجاد شده توسط هوش مصنوعی میتواند انتخابات را تحت تاثیر قرار دهد، باعث سقوط بازارهای سهام شود و شهرت افراد را نابود کند و محققان در حال توسعه روشهایی برای محدود کردن آسیب آن هستند. به گزارش ایسنا و به نقل از نیچر، ماه ژوئن سال جاری، در نبرد سیاسی منتهی به انتخابات مقدماتی ریاست جمهوری آمریکا در سال ۲۰۲۴، مجموعهای از تصاویر منتشر شد که نشان میداد دونالد ترامپ یکی از مشاوران پزشکی سابق خود، آنتونی فائوچی را در آغوش گرفته است. فائوچی، یک مقام بهداشتی بود که توسط برخی محافظهکاران آمریکایی به دلیل ترویج ماسک و واکسن در طول همهگیری کووید-۱۹ مورد انتقاد قرار گرفته بود. هانی فرید(Hany Farid)، دانشمند رایانه در دانشگاه...
گروه ارتباطات و فناوری اطلاعات خبرگزاری علم و فناوری آنا، فناوریهای مدرن از هوش مصنوعی گرفته تا ارتباطات بیسیم فوق سریع، در سالهای اخیر کار و زندگی مردم را متحول کردهاند. ضمن لذت بردن از راحتی این فناوریها باید به این نکته نیز توجه داشت که اگر به دست افراد نادرستی بیفتند، دردسرهای زیادی پیش خواهد آمد. استیو وزنیاک، یکی از بنیان گذاران اپل، چندی پیش هشدار داد فناوری هوش مصنوعی ممکن است شناسایی کلاهبرداریها و اطلاعات غلط را سختتر کند. مقامات در حال مبارزه با کلاهبرداران آنلاین و گروههای تبهکار پشت سر آنها هستند، با این حال کلاهبرداریها همچنان به قوت خود ادامه دارد. در ادامه به برخی از رایجترین تلههای آنلاین میپردازیم که با کمک فناوریهایی مانند هوش...
یک کارشناس امنیت سایبری چهار نگرانی در مورد هوش مصنوعی را عنوان کرده است. این نگرانیها در حالی عنوان میشوند که این فناوری همچنان در حال تکامل است. به نقل از روزنامه سان، امروزه هوش مصنوعی می تواند کارهایی مانند نوشتن مقاله، تولید کدهای پیچیده و خلاصه کردن اسناد طولانی را در چند ثانیه انجام دهد. تعداد کمی از بخشها توانستهاند به پیشرفت چشمگیری که در مدت زمان کمی هوش مصنوعی به آن دست یافته برسند.در تنظیمات پیشرفته تر، هوش مصنوعی به ساخت واکسن و محاسبه معادلات پیچیده فیزیک برای دانشمندان کمک میکند. اینها تنها چند نمونه از شاهکارهای چشمگیر متعددی است که این فناوری تا به امروز انجام داده است. با این حال، مانند همه پیشرفتهای تکنولوژیکی، مسائل و...
یکی از دردسرهایی که فناوری جعل عمیق برای مردم، بهویژه افراد سرشناس، به وجود آورده است، ایجاد تصاویر و فیلمهای دروغین و گاه مستهجن از آنهاست. متاسفانه این مشکل گسترش پیدا کرده و گریبان افراد عادی را هم گرفته است. به گزارش خبرآنلاین، اخیرا پلیس FBI هشدار داده شکایتهای متعددی از افراد جامعه دریافت کرده است مبنی بر اینکه مجرمان و کلاهبردارهای مجازی از چهرهشان با استفاده از جعل عمیق، تصاویر و فیلمهای مستهجن ساخته و آنها را تهدید به انتشار این تصاویر جعلی کردهاند. این مجرمان معمولا تصاویر جعلی را در رسانههای اجتماعی، انجمنهای عمومی یا وبسایتهای مستهجن منتشر میکنند. در فناوری جعل عمیق، میتوان تصاویری آنقدر واقعی از چهره یک نفر روی بدن یک نفر دیگر ایجاد کرد...
ایتنا - به نظر میرسد فناوریهای هوش مصنوعی پیشرفته میتوانند نقش مهمی در صندوق آرا بازی کنند. بهتازگی ویدیویی غافلگیرکننده از هیلاری کلینتون، نامزد پیشین دموکراتها در انتخابات ریاست جمهوری آمریکا، در رسانههای اجتماعی منتشر شده است. ویدیویی که در آن وزیر خارجه باراک اوباما و همسر بیل کلینتون، در حمایت از «ران دسنتیس»، نامزد جمهوریخواهان، سخنرانی میکند و میگوید که «دسنتیس همانی است که ایالات متحده به او نیاز دارد.» هرچند ساعتی پس از انتشار این ویدیو مشخص شد که تنها یک «دیپ فیک فوقالعاده تصویری است»، اما بیشتر از یک سال مانده به انتخابات ریاستجمهوری ایالات متحده به نظر میرسد فناوریهای هوش مصنوعی پیشرفته میتوانند نقش مهمی در صندوق آرا بازی کنند. ویدیوی هیلاری کلینتون،...
دیپ فیک فناوری پیچیدهای است که ویدئو و صوتهای جعلی با استفاده از هوش مصنوعی تولید میکند، مهدی رضا برنا کارشناس هوش مصنوعی اعتقاد دارد که بهترین راه مقابله با این نوع از محتوا استفاده از فناوری یادگیری عمیق است. خبرگزاری برنا- گروه علمی و فناوری؛ دیپ فیک یا جعل عمیق یکی از معضلات جدید بشر در عرصۀ مواجهه با اخبار جعلی است، سازندگان دیپ فیک عموماً با اهداف سیاسی یا جنجال آفرینی برای افراد مشهور دست به تولید این نوع از محتوا میزنند. این تکنولوژی البته هنوز فراگیر نشده است اما دور به نظر نمیرسد، روزی که جهان شاهد انبوهی از فایلهای صوتی و تصویری جعلی باشد که سازندگان آن با هدف بر هم زدن آرامش یک کشور یا...
ایتنا - مقامهای ایالات متحده در گذشته هشدار دادهاند که کشورهایی مانند روسیه به دستکاری رسانههای اجتماعی متوسل میشوند. رهبرانی که بر برخی از محرمانهترین ماموریتهای ارتش ایالات متحده نظارت دارند، جویای نوع جدید و بیسابقهای از جنگافزارند: «جعلعمیق»، که یادگیری ماشینی را برای ایجاد ویدیوهای جعلی واقعنما به کار میگیرد. به گزارش ایتنا و به نقل از ایندیپندنت، طبق سندی تدارکاتی که خبرگزاری اینترسپت کشف کرده است، ستاد فرماندهی عملیات ویژه ایالات متحده (سوکام)، متشکل از نیروهای نخبه تفنگداران دریایی، نیروی زمینی، دریایی و هوایی، جویای ابداع «نسل آینده فناوری «جعلعمیق» یا فناوریهای مشابه آن به منظور تولید پیام و عملیات اثرگذاری به روشهای غیرسنتی است». سوکام در درخواستهای تدارکاتی اخیر و در چارچوب عملیات مخفیانه...
به گزارش خبرنگار گروه علم و پیشرفت خبرگزاری فارس به نقل از سی ان بی سی، دیپ فیک ها تصاویر یا ویدئوهایی هستند که به صورت مصنوعی تولید یا تغییر یافته اند و با استفاده از نوعی هوش مصنوعی ساخته می شوند. از این فناوری می توان برای تغییر یک ویدیوی موجود استفاده کرد، برای مثال با قرار دادن چهره یک سیاستمدار بر روی یک ویدیوی موجود یا حتی ایجاد سخنرانی جعلی تا دروغ پراکنی در فضای مجازی ساده تر شود. نتیجه این کار انتشار ویدئوهای ساختگی است که به نظر می رسد واقعی هستند اما اینطور نیست. پکن قوانین خود را در این مورد در اوایل سال جاری اعلام کرد و آنها را در دسامبر نهایی کرد. این قوانین...
طبق یک مطالعه جدید، حملات سایبری مبتنی بر هوش مصنوعی در جعل هویت، تاکتیکی که اغلب در فیشینگ استفاده میشود، حرفهای میشوند و میتوانند آسیبرسان باشند. به گزارش ایران اکونومیست و به نقل از سایبرنیوز، یک گزارش تحلیلی سایبری جدید هشدار داده است که حملات سایبری فعال هوش مصنوعی که تاکنون کاملاً محدود بودهاند، ممکن است در سالهای آینده تهاجمیتر شوند. بر اساس این گزارش، شرکت امنیت سایبری و حریم خصوصی WithSecure مستقر در هلسینکی، آژانس حمل و نقل و ارتباطات فنلاند و آژانس تامین اضطراری ملی فنلاند در این گزارش همکاری کردهاند. اندی پاتل پژوهشگر اطلاعاتی شرکت WithSecure میگوید: اگرچه محتوای تولید شده توسط هوش مصنوعی برای اهداف مهندسی اجتماعی استفاده شده است، اما تکنیکهای هوش مصنوعی طراحی شده...
به گزارش گروه علم و پیشرفت خبرگزاری فارس به نقل از رویترز، رگولاتور فضای سایبری چین گفته: قوانین جدید این کشور برای ارائه دهندگان محتوا که دادههای چهره و صدا را تغییر میدهند، از 10 ژانویه 2023 (20 دی) اجرایی میشود. به نظر می رسد چین سعی دارد سختگیری های بیشتری را برای فناوری جعل عمیق و سرویس های آن اعمال کند. قوانین اداره فضای سایبری چین (CAC) که روز یکشنبه منتشر شد، از افراد در برابر جعل هویت با جعل عمیق بدون رضایت آنها محافظت میکند. اداره فضای سایبری چین گفت که این اقدام با هدف محدود کردن خطرات ناشی از فعالیت های ارائه شده توسط چنین پلتفرم هایی که از یادگیری عمیق یا واقعیت مجازی برای تغییر هرگونه...
به گزارش همشهری آنلاین، با این اقدام، بوریس ویلیس - Walter Bruce Willis که با نقش جان مککلین در فیلم جان سخت - Die Hard به شهرت رسید، به نخستین ستاره بازنشسته هالیوود تبدیل شد که شبیه خود را فروخت تا از آن برای ایجاد یک دوقلو دیجیتال از طریق فناوری جعل عمیق(ویدیوهای دیپ فیک) استفاده شود. دیپ فیک یا جعل عمیق تکنیکی برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است؛ ویدیوی جعلی، ترکیب فیلمهای موجود و منبع است که فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان میدهد که هرگز در واقعیت اتفاق نیفتاده است. به نوشته تلگراف، ویلیس حق فروش شبیه خود را با شرکت آمریکایی Deepcake امضا کرده است؛ این شرکت میتواند نسخههای...
گوگل، فیس بوک، توییتر و سایر شرکتهای فناوری باید اقداماتی را برای مقابله با دیپ فیک (جعل عمیق) و حسابهای دیپ فیک در پلتفرمهای خود انجام دهند، در غیر این صورت با جریمه سنگین اتحادیه اروپا روبرو خواهند شد. به گزارش ایران اکونومیست، انتظار میرود کمیسیون اروپا در راستای مبارزه با جعل عمیق، کد رفتار بهروزشده درباره اطلاعات نادرست را روز پنجشنبه منتشر کند. این کد رفتار داوطلبانه که در سال ۲۰۱۸ معرفی کرد، اکنون به طرح تنظیم مشترک تبدیل خواهد شد و رگولاتورها و امضاکنندگان این کد، در مسئولیت مربوط به آن سهیم خواهند بود. کد رفتار بهروزشده به تشریح موارد رفتار فریبکارانه مانند دیپ فیک و حسابهای جعلی پرداخته است که امضاکنندگان، باید با آنها مقابله کنند. دیپ...
آفتابنیوز : در حالی که ممکن است ما عادت کرده باشیم از فناوری موسوم به "جعل عمیق" برای طیف وسیعی از کارهای نسبتاً بیضرر استفاده شود، اما از این فناوری میتوان برای ایجاد محتوای مخرب نیز مانند انداختن صورت شخص دیگری در یک صحنه ناشایست یا آسیب رساندن به حرفه یک سیاستمدار استفاده کرد. تصاویری که مورد دستکاری "جعل عمیق" قرار میگیرند در واقع فیلمها یا عکسهای تغییر یافته دیجیتالی از چهره یک یا چند شخص با استفاده از هوش مصنوعی است که میتواند کاملاً واقعی به نظر برسد. این تصاویر به قدری میتوانند مخرب باشند که سال گذشته ایالت کالیفرنیا استفاده از این فناوری را در حوزه سیاست و پورنوگرافی ممنوع کرد. ما به راحتی با این فناوری...
به گزارش همشهری آنلاین، ایسنا به نقل از آیای، همه ما تاکنون فیلمهای خارجی را تماشا کردهایم که دوبله شدهاند و شاید دوبله، آن حسی را که باید از فیلم به ما منتقل شود، نتوانسته به خوبی منتقل کند. البته که صنعت دوبله در ایران بسیار متفاوت از اغلب کشورهای دیگر دنیا است، اما باز هم گاهی دیده میشود که صدای دوبله با لبهای بازیگران منطبق نیست. اکنون یک فناوری جدید "دیپ فیک"(deep fake) یا "جعل عمیق" به وجود آمده است که میتواند فیلمها را تقریباً به مانند اینکه زبان اصلی هستند، دوبله کند. این فناوری جدید مبتنی بر هوش مصنوعی است و میتواند انقلابی در نحوه ترجمه فیلمها به زبانهای دیگر ایجاد کند. این فناوری توسط شرکتی بریتانیایی به نام...
یک هوش مصنوعی جدید میتواند کاری کند که بازیگران مورد علاقه مخاطبان به زبان مادری آنها، و هم به شکل روان صحبت کنند. همه ما تاکنون فیلمهای خارجی را تماشا کردهایم که دوبله شدهاند و شاید دوبله، آن حسی را که باید از فیلم به ما منتقل شود، نتوانسته به خوبی منتقل کند. البته که صنعت دوبله در ایران بسیار متفاوت از اغلب کشورهای دیگر دنیا است، اما باز هم گاهی دیده میشود که صدای دوبله با لبهای بازیگران منطبق نیست. اکنون یک فناوری جدید "دیپ فیک"(deepfake) یا "جعل عمیق" به وجود آمده است که میتواند فیلمها را تقریباً به مانند اینکه زبان اصلی هستند، دوبله کند. این فناوری جدید مبتنی بر هوش مصنوعی است و میتواند...
یک هوش مصنوعی جدید میتواند کاری کند که بازیگران مورد علاقه مخاطبان به زبان مادری آنها، Hن هم به شکل روان صحبت کنند. به گزارش ایسنا و به نقل از آیای، همه ما تاکنون فیلمهای خارجی را تماشا کردهایم که دوبله شدهاند و شاید دوبله، آن حسی را که باید از فیلم به ما منتقل شود، نتوانسته به خوبی منتقل کند. البته که صنعت دوبله در ایران بسیار متفاوت از اغلب کشورهای دیگر دنیا است، اما باز هم گاهی دیده میشود که صدای دوبله با لبهای بازیگران منطبق نیست. اکنون یک فناوری جدید "دیپ فیک"(deepfake) یا "جعل عمیق" به وجود آمده است که میتواند فیلمها را تقریباً به مانند اینکه زبان اصلی هستند، دوبله کند. این فناوری جدید مبتنی...
یک فناوری جدید "دیپفیک" یا همان جعل عمیق به افراد مشهور اجازه میدهد صدای خود را مجوز دار کنند. با وجود نگرانیهای فزاینده از این واقعیت که فناوری "دیپفیک"(deepfake) یا "جعل عمیق" میتواند به شکل غیر قابل تصوری حقیقت را تغییر دهد، برخی از شرکتها هنوز هم تلاش میکنند آن را به عنوان یک محصول خوب و مناسب برای مصرف کننده معرفی کنند. یکی از این شرکتها "وریتون"(Veritone) نام دارد و به تازگی توضیح داده است که قصد دارد افراد مشهور را قادر سازد تا صدای خود را لایسن کنند و از این راه درآمد کسب کنند. این برنامه جدید "دیپفیک" که "مارول.ایآی"(Marvel.ai) نام دارد، اساساً مجوز دار کردن صدای افراد مشهور، سیاستمداران و مدیران عامل شرکتهای...
یک فناوری جدید "دیپفیک" یا همان جعل عمیق به افراد مشهور اجازه میدهد صدای خود را مجوز دار کنند. به گزارش ایسنا و به نقل از آیای، با وجود نگرانیهای فزاینده از این واقعیت که فناوری "دیپفیک"(deepfake) یا "جعل عمیق" میتواند به شکل غیر قابل تصوری حقیقت را تغییر دهد، برخی از شرکتها هنوز هم تلاش میکنند آن را به عنوان یک محصول خوب و مناسب برای مصرف کننده معرفی کنند. یکی از این شرکتها "وریتون"(Veritone) نام دارد و به تازگی توضیح داده است که قصد دارد افراد مشهور را قادر سازد تا صدای خود را لایسن کنند و از این راه درآمد کسب کنند. این برنامه جدید "دیپفیک" که "مارول.ایآی"(Marvel.ai) نام دارد، اساساً مجوز دار کردن صدای افراد...
محققان دانشگاه واشنگتن هشدار دادهاند تهیه تصاویر ماهوارهای جعلی با استفاده از فناوری جعل عمیق یا دیپ فیک میتواند امنیت ملی کشورها را به خطر بیندازد. پیش از این نگرانی از تهیه محتوای ویدئویی یا تصویری جعلی و قلابی از اشخاص مشهور با استفاده از فناوری جعل عمیق موجب نگرانیهای امنیتی شده بود. اما حالا دامنه این تهدید به تهیه تصاویر ماهوارهای جعلی کشیده شده است. این پژوهشگران میگویند با استفاده از الگوریتمهای هوش مصنوعی و از طریق تغذیه این الگوریتمها با استفاده از عکسها و نقشههای ماهوارهای مختلف، میتوان تصاویر ماهوارهای جعل عمیق تهیه کرد که حاوی جادهها، ساختمانها، عوارض جغرافیایی و غیره غیر واقعی باشند یا ابعاد و ارتفاع و موقعیت ساختمانها، جادهها و غیره در...
برای کسانی که از آینده میترسند و همواره نگران هستند بخشهای دلهرهآور فیلمهای تخیلی روزی به حقیقت بپیوندد، باید گفت فناوری «جعل عمیق» این نگرانی را تا حدودی به حقیقت بدل کرده است. ناطقان: روزنامه ایران در ترجمه مقالهای از نیویورکتایمز نوشت: «در حالی که میلیونها کاربر این هفته ویدیوی «تام کروز» بازیگر مشهور را در شبکههای اجتماعی مشاهده میکردند، مشخص شد این تصاویر با فناوری هوش مصنوعی و به روش جعل عمیق ساخته شده است.ویدیویی که در تیکتاک، توئیتر و سایر شبکههای اجتماعی بین میلیونها کاربر دست به دست شد توسط یک هنرمند جلوههای تصویری و با شبیهسازی یکی از برنامههای «بیل هیدر» بازیگر هالیوودی ساخته شد. در این برنامه که اصل آن متعلق به یک گفتوگوی تلویزیونی در...
برای کسانی که از آینده میترسند و همواره نگران هستند بخش های دلهرهآور فیلمهای تخیلی روزی به حقیقت بپیوندد باید گفت فناوری «جعل عمیق» این نگرانی را تا حدودی به حقیقت بدل کرده است. به گزارش روزنامه نیویورک تایمز، در حالی که میلیونها کاربر این هفته ویدیوی «تام کروز» بازیگر مشهور را در شبکههای اجتماعی مشاهده میکردند مشخص شد این تصاویر با فناوری هوش مصنوعی و به روش جعل عمیق ساخته شده است. ویدیویی که در تیکتاک، توئیتر و سایر شبکههای اجتماعی بین میلیونها کاربر دست به دست شد توسط یک هنرمند جلوههای تصویری و با شبیهسازی یکی از برنامههای «بیل هیدر» بازیگر هالیوودی ساخته شد. در این برنامه که اصل آن متعلق به یک گفتوگوی تلویزیونی در سال...
آفتابنیوز : «deepfake» یا «جعل عمیق» به ویدیوهایی اتلاق می شود که در آن ها با بهره از نرم افزارهای هوش مصنوعی مجموعه ای از فیلم ها و عکس های یک شخص خاص را ترکیب کرده و تغییر داده و حرکات و گفتاری برای آن فرد تولید می کنند که در اصل وجود خارجی ندارد و آن فرد در دنیای واقعی آن حرکات یا گفتار را انجام نداده است. کارکرد «جعل عمیق» در ویدیو یا فیلم را می توان عینا همچون کارکرد فوتوشاپ بر روی عکسها تشریح کرد. «deepfake» یا «جعل عمیق» اولین بار در سال ۲۰۱۷ توسط یک کاربر ناشناس در سایت «Reddit» مورد استفاده قرار گرفت که در آن تعدادی از هنرپیشه های مشهور هالیوود را در...
«deepfake» یا «جعل عمیق» اولین بار در سال ۲۰۱۷ توسط یک کاربر ناشناس در سایت «Reddit» برای تعدادی از هنرپیشه های مشهور هالیوود مورد استفاده قرار گرفت و ویدئوهایی خلق شده بود که وجود خارجی نداشت. به گزارش مشرق، «deepfake» یا «جعل عمیق» به ویدیوهایی اتلاق می شود که در آن ها با بهره از نرم افزارهای هوش مصنوعی مجموعه ای از فیلم ها و عکس های یک شخص خاص را ترکیب کرده و تغییر داده و حرکات و گفتاری برای آن فرد تولید می کنند که در اصل وجود خارجی ندارد و آن فرد در دنیای واقعی آن حرکات یا گفتار را انجام نداده است. کارکرد «جعل عمیق» در ویدیو یا فیلم را می توان عینا همچون کارکرد فوتوشاپ بر...
خبرگزاری فارس ـ گروه رسانه ـ علیرضا سپهوند: «deepfake» یا «جعل عمیق» به ویدیوهایی اتلاق می شود که در آن ها با بهره از نرم افزارهای هوش مصنوعی مجموعه ای از فیلم ها و عکس های یک شخص خاص را ترکیب کرده و تغییر داده و حرکات و گفتاری برای آن فرد تولید می کنند که در اصل وجود خارجی ندارد و آن فرد در دنیای واقعی آن حرکات یا گفتار را انجام نداده است. کارکرد «جعل عمیق» در ویدیو یا فیلم را می توان عینا همچون کارکرد فوتوشاپ بر روی عکسها تشریح کرد. «deepfake» یا «جعل عمیق» اولین بار در سال ۲۰۱۷ توسط یک کاربر ناشناس در سایت «Reddit» مورد استفاده قرار گرفت که در آن تعدادی از...
به گزارش جام جم آنلاین از مهر، تصمیم شبکه چهار تلویزیون انگلیس برای پخش یک پیام کریسمس از الیزابت دوم، ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» ساخته شده بحثهایی را در رسانههای بریتانیا برانگیخته است. در این ویدئوی پنج دقیقهای، که همزمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شده است، وی در حال رقص و بیان اظهاراتی درباره شاهزاده «هری» و «مگان مارکل» زوج سلطنتی دیده میشود. ویدئوهای جعل عمیق ویدئوهایی هستند که در آنها با استفاده از نرمافزارهای هوش مصنوعی فیلمها به نحوی تغییر داده میشوند که گویا فرد در حال بیان اظهارات یا اجرای حرکاتی است که در دنیای واقعی هرگز آنها را انجام نداده است. نقش فناوری جعل...
به گزارش تابناک به نقل از یورو نیوز، تصمیم شبکه چهار تلویزیون انگلیس برای پخش یک پیام کریسمس از الیزابت دوم، ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» ساخته شده بحثهایی را در رسانههای بریتانیا برانگیخته است. در این ویدئوی پنج دقیقهای، که همزمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شده است، وی در حال رقص و بیان اظهاراتی درباره شاهزاده هری و مگان مارکل زوج سلطنتی دیده میشود. ویدئوهای جعل عمیق ویدئوهایی هستند که در آنها با استفاده از نرمافزارهای هوش مصنوعی فیلمها به نحوی تغییر داده میشوند که گویا فرد در حال بیان اظهارات یا اجرای حرکاتی است که در دنیای واقعی هرگز آنها را انجام نداده است. نقش...
خبرگزاری مهر: به نقل از یورو نیوز، تصمیم شبکه چهار تلویزیون انگلیس برای پخش یک پیام کریسمس از الیزابت دوم، ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» ساخته شده بحثهایی را در رسانههای بریتانیا برانگیخته است. در این ویدئوی پنج دقیقهای، که همزمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شده است، وی در حال رقص و بیان اظهاراتی درباره شاهزاده هری و مگان مارکل زوج سلطنتی دیده میشود. ویدئوهای جعل عمیق ویدئوهایی هستند که در آنها با استفاده از نرمافزارهای هوش مصنوعی فیلمها به نحوی تغییر داده میشوند که گویا فرد در حال بیان اظهارات یا اجرای حرکاتی است که در دنیای واقعی هرگز آنها را انجام نداده است. نقش فناوری جعل...
تصمیم شبکه چهار تلویزیون انگلیس برای پخش یک پیام کریسمس از الیزابت دوم، ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» ساخته شده بحثهایی را در رسانههای بریتانیا برانگیخته است. در این ویدئوی پنج دقیقهای، که همزمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شده است، وی در حال رقص و بیان اظهاراتی درباره شاهزاده هری و مگان مارکل زوج سلطنتی دیده میشود. ویدئوهای جعل عمیق ویدئوهایی هستند که در آنها با استفاده از نرمافزارهای هوش مصنوعی فیلمها به نحوی تغییر داده میشوند که گویا فرد در حال بیان اظهارات یا اجرای حرکاتی است که در دنیای واقعی هرگز آنها را انجام نداده است. نقش فناوری جعل عمیق در دستکاری در دنیای...
کم کم وقتش رسیده که «فتوشاپ» را فراموش کنیم. البته آنهایی که خدای ناکرده در کار تولید تصاویر جعلی هستند و یا در فضای مجازی قصد سر به سر گذاشتن با مخاطبان را دارند و میخواهند آبروی کسی را ببرند، مدتهاست «فتوشاپ» را کنار گذاشته و سراغ فناوریهای تازه رفتهاند. مجید تربتزاده / کم کم وقتش رسیده که «فتوشاپ» را فراموش کنیم. البته آنهایی که خدای ناکرده در کار تولید تصاویر جعلی هستند و یا در فضای مجازی قصد سر به سر گذاشتن با مخاطبان را دارند و میخواهند آبروی کسی را ببرند، مدتهاست «فتوشاپ» را کنار گذاشته و سراغ فناوریهای تازه رفتهاند. این ما هستیم که هنوز در شوخیها و تصوراتمان وقتی قرار است از قلابی بودن یک...
محققان در کشورهای مختلف تلاش میکنند تا با استفاده از فناوریهای هوشمند ویدئوهای جعلی را شناسایی و آنها را به کاربران معرفی کنند. به گزارش خبرنگار حوزه علم، فناوری و دانشبنيان گروه فناوری خبرگزاری آنا، یکی از تبعات فناوری که هنوز به طور کامل وجه ترسناک خود را نشان نداده است، فناوری جعل عمیق نام دارد. در فناوری جعل عمیق(deep fake) فیلمهایی جعلی از افراد ساخته میشود که امکان سواستفاده را برای تبهکاران به وجود میآورد. بیشتر بخوانید: انحراف علم بهدست سودجویان/ هوش مصنوعی چگونه موجب حملات سایبری میشود؟ به طور قطع نمیتوان جلوی پیشرفت فناوری را گرفت. اما آیا در تماشای یک ویدئوی جعل عمیق(deep fake)، میتوان نسبت به ساختگی بودن محتوای ویدئو آگاه شد؟ همزمان با پیشرفت...
در پی انتشار ویدئویی در فضای مجازی از خواندن ترانه «ایران من» با لبخوانی جمعی از چهرههای مشهور تاریخ معاصر ایران كه با فناوری «جعل عمیق» ساخته شده بود، به ابعاد گوناگون کاربردهای این فناوری میپردازیم. به گزارش گروه رسانههای دیگر خبرگزاری آنا، در این روزهای داغ كارزار انتخابات آمریكا شما هم این فیلم را دیدهاید كه باراك اوباما، رئیس جمهور سابق آمریكا، دونالد ترامپ را «احمقی به تمام معنا» خطاب میكند؟ یا فیلمی كه مارك زاكربرگ، صاحب شبكه اجتماعی فیسبوك، ادعا میكند كنترل كاملی روی اطلاعات دزدیده شده میلیونها كاربر دارد؟ یا فیلمی كه شخصیتهای بزرگ و مبارز تاریخ كشورمان از میرزاكوچكخان جنگلی و ستارخان گرفته تا شهید همت و شهید چمران، سرود «ایرانِ من» از همایون شجریان...
به گزارش خبرنگار گروه علم و فناوری ایسکانیوز، یک روزنامه نگار، تحقیقی ویدیویی از افشاگر ناشناسی دریافت می کند که در آن کاندیدای ریاست جمهوری به فعالیت غیرقانونی اعتراف کرده است. اما آیا این ویدئو واقعی است؟ روزنامه نگار فیلم را از طریق ابزاری تخصصی بررسی می کند و در میابد ویدئو آن چیزی نیست که به نظر می رسد. در حقیقت، این جعل عمیق است، ویدیویی که با استفاده از هوش مصنوعی با یادگیری عمیق ساخته شده است. کارشناسان عرصه فناوری این روزها اصطلاح جدیدی با عنوان «دیپ فیک» را در صحبت های خود مطرح می کنند که در اصل از ترکیب عبارت های «یادگیری عمیق» و «اطلاعات جعلی» ساخته شده است. این اصطلاح برای آن دسته از فایل...
مایکروسافت برای مقابله با جعل عمیق از دو برنامه مبتنی بر هوش مصنوعی رونمایی کرد. به گزارش خبرنگار حوزه علم، فناوری و دانشبنیان گروه دانشگاه خبرگزاری آنا از تک اورگ، دنیای کنونی با چالشهای مختلفی در رابطه با سوءاستفاده از فناوریهای مدرن دیجیتالی روبرو است. این مسائل غالباً با پردازش و دستکاری تصویر همراه هستند که با استفاده از هوش مصنوعی و الگوریتمهای یادگیری عمیق، محصولی بهنام جعل عمیق یا تصاویر مهندسیشده تولید میشود. درحالت عادی تشخیص این تصاویر از حقیقت دشوار است. تحقیقاتی که اخیراً از استاد دانشگاه پرینستون، یعقوب شاپیرو منتشر شده، نشان میدهد که کمپینهایی که بهدنبال نفوذ در مخاطب هستند، غالباً حقایق قابلتأیید عینی را تحریف میکنند. در این تحقیق خاص، 74درصد از کل کمپینهای...
به گزارش انگجت، بر اساس قوانین جدید توییتر دیگر نمیتوان آن دسته از ویدئوهای مبتنی بر جعل عمیق را که آسیبهای احتمالی به همراه دارند، در پلتفرم این شبکه اجتماعی منتشر کرد. به علاوه این شرکت همچنین با برچسب زدن بر توییتهای حاوی مضامین مبتنی بر این فناوری، به افراد کمک میکند تا محتوای حقیقی را از محتوای دستکاری شده تشخیص دهند. بر این اساس، توییتر از تاریخ ۵ مارس (۱۵ اسفند) بر توییتهای حاوی «محتوای دستکاری شده یا ساختگی» نشان میگذارد، دامنه دیده شدن آنها را محدود میکند و به کاربرانی که قصد لایک یا بازنشر چنین مضامینی را دارند، هشدار میدهد. دیپ فیک (Deepfake) یا جعل عمیق نوعی فناوری بر پایه هوش مصنوعی است که در تولید یا تغییر محتوای ویدیویی استفاده میشود تا...
شرکت امنیتی مک آفی ویدئوهای جعل عمیق را یک تهدید سایبری عمده در سال 2020 دانست و از ضرورت برخورد با آن خبر داد. به گزارش خبرنگار گروه علمی و دانشگاهی خبرگزاری فارس به نقل از آسین ایج، ویدئوهای جعل عمیق که با استفاده از هوش مصنوعی به تقلید از سخنرانیهای افراد مشهور و سیاستمداران می پردازند، چنان دقیق جعل می شوند که تشخیص قلابی بودن آنها تقریبا غیرممکن است و از همین رو مک آفی این پدیده را یک تهدید امنیتی جدی دانسته است. مک آفی در گزارش امنیتی تازه خود برای سال 2020 تاکید کرده که ماهیت جرائم سایبری در حال تغییر است و باید قوانین جدیدی به منظور مقابله با این شرایط وضع شوند....
تکنولوژی جعل عمیق به ساخت تصاویر و ویدئوهایی منجر میشود که به نظر واقعی میرسند، اما در حقیقت وجود خارجی ندارند. این کار اغلب با کمک تکنولوژی واقعیت مجازی انجام میشود.موضوع جعل عمیق به یکی از نگران کنندهترین موضوعات سالهای اخیر تبدیل شده است چرا که عده زیادی نگرانند با این تکنولوژی جنایاتی بزرگ رخ دهد. به خصوص وقتی ویدئوهای جعل عمیق با محوریت موضوعاتی سیاسی ساخته میشوند و در نتیجه به یک نگرانی بزرگ تبدیل میشوند. اخیرا ایالات متحده درباره این موضوع نگرانیهای زیادی ابراز کرده است. خصوصاً وقتی صحبت از گسترش اطلاعات نادرست پیش از انتخابات ریاست جمهوری سال ۲۰۲۰ میشود. طی هفته جاری و در جریان کنفرانس فناوری ام آی تی، از پیشرفتهای فناوری جعل عمیق...
به گزارش پارس نیوز، با استفاده از این فناوری خطرناک، میتوان از عکس چهره یک فرد، ویدئویی ساخت که او را در حال گفتن هر جملهای نشان دهد! اولین ویدئو از این دست، ویدئویی از نانسی پلوسی رئیس مجلس نمایندگان آمریکا بود که این چهره سیاسی آمریکایی را در حالتی نامتعادل نشان میداد. به تازگی ویدئوهایی از مارک زاکربرگ مؤسس فیس بوک، دونالد ترامپ و باراک اوباما رؤسای جمهور آمریکا و جاناسنو شخصیت سریال «بازی تاجوتخت» در فضای شبکههای اجتماعی منتشر و پربازدید شده است. ویدئوی جاناسنو نشان میدهد که وی از شخصیتهای «بازی تاجوتخت» میخواهد فیلم نامه فصل هشت این سریال را که با انتقادهای زیادی مواجه شده بود، آتش بزنند! فناوری یادشده DeepFake به معنای «جعل عمیق»...