Web Analytics Made Easy - Statcounter
2024-05-04@03:36:09 GMT
۶۱ نتیجه - (۰.۰۰۴ ثانیه)

جدیدترین‌های «فناوری جعل عمیق»:

بیشتر بخوانید: اخبار اقتصادی روز در یوتیوب
    خبرگزاری علم و فناوری آنا؛ ویدئو‌ها یا تصاویر جعل عمیق (دیپ فیک) با استفاده از هوش مصنوعی ساخته می‌شوند و گاهی آنقدر واقعی به نظر می‌رسند که تشخیص آنها از واقعیت دشوار است. این فناوری بار‌ها مشکل‌ساز شده و از آن برای انتشار اخبار و اطلاعات نادرست و فریب مردم استفاده کرده‌اند. با پیشرفت فناوری، تشخیص محتوای جعلی هر روز دشوارتر می‌شود و کارشناسان حوزه فناوری در تلاش هستند تا راه‌هایی برای شناسایی و پیشگیری از آسیب‌های جعل عمیق پیدا کنند. به تازگی عکسی جعلی از یک زن مسن در شبکه اجتماعی فیسبوک منتشر شده است که مقابل کیک تولد ۱۲۲ سالگی خود نشسته و شرح عکس چنین است: «من از پنج سالگی پختن کیک را آغاز کردم و می‌خواهم همچنان...
    ایتنا - در آستانه برگزاری انتخابات پارلمان اروپا در ماه ژوئن آینده، اتحادیه اروپا از شرکت‌های بزرگ فناوری دیجیتال از جمله فیس‌بوک و تیک‌تاک خواست تا محتویات جعل عمیق (دیپ‌فیک) ساخته شده با هوش مصنوعی را در فضای مجازی شناسایی کرده و هشدار دهند. این توصیه بخشی از مجموعه‌ دستورالعمل‌هایی است که کمیسیون اروپا آن را در قالب قانون تعدیل محتوای فضای مجازی برای غول‌های دیجیتال منتشر کرده تا آنها با خطراتی که انتخابات را تهدید می‌کند، از انتشار جمله اخبار نادرست، مقابله کنند. تعدیل محتوا عبارت از شناسایی محتویات همرسان شده در فضای مجازی و کامنت‌های کاربران است به نحوی که شرکت پیام‌رسان بتواند محتوای مضر و آسیب‌رساننده را پیدا کرده و مثلا برای آن برچسب هشدار...
    به گزارش خبرگزاری صداوسیما، ویدئوها و تصاویر تولیدشده با هوش مصنوعی با اهداف سیاسی در سالی پر از انتخابات، می‌توانند نتایج زیان‌باری به همراه داشته باشند. در همین حال برزیل تلاش دارد پیش از برگزاری انتخابات، برای این فناوری قانون‌گذاری کند. در کشوری با ۲۰۳ میلیون جمعیت که میزان تلفن‌های همراه از جمعیت پیشی می‌گیرد، قانون‌گذاران برزیل تصمیم هفته گذشته استفاده از فناوری جمع عمیق را ممنوع کردند و برای استفاده از این فناوری با اهداف انتخاباتی، خط‌مشی‌هایی تعیین کردند. توسعه سریع هوش مصنوعی که با عرضه چت جی پی تی در سال ۲۰۲۲ سرعت گرفته، چشم‌انداز جهان آنلاین را تغییر داده و همزمان باعث ترس و نگرانی در مورد آینده شده. اما در کشوری که پیش از این هم...
    ایتنا - دیپ‌فیک‌های هوش مصنوعی اغلب برای ایجاد آسیب استفاده می‌شوند، اما روش‌های موجود طراحی شده برای کاهش یا جلوگیری از تقلب باید برای محافظت در برابر این فناوری کافی باشد. در عصر دیجیتالی که در آن زندگی می‌کنیم، مرز بین واقعیت و فانتزی مبهم شده است. ظهور فناوری جعل عمیق (دیپ فیک) نگرانی‌های عمده و بحث های جنجالی را در مورد صحت محتوای بصری ایجاد کرده است.  همانقدر که تصاویر دستکاری شده پیچیده‌تر می‌شوند، درک فناوری زیربنایی و تاثیر بالقوه آن ضروری‌تر می‌شود، به خصوص که ظهور جعل عمیق پیامدهای زیادی برای جنبه‌های مختلف جامعه از جمله سیاست، روزنامه نگاری، سرگرمی و حریم خصوصی دارد.  با کنترل‌های صحیح و هوشیار بودن نسبت به خطرات احتمالی...
    ایتنا - همانطور که فناوری دیپ فیک (جعل عمیق)  پیشرفت کرده است، ابزارها و تکنیک‌های طراحی شده برای شناسایی آنها نیز پیشرفت کرده است.  در عصر دیجیتال، دیپ فیک به عنوان یک تهدید بزرگ برای اصالت محتوای آنلاین شناخته می‌شود. ویدیوهای تولید شده با هوش مصنوعی می‌توانند به طور قانع کننده‌ای از افراد حقیقی تقلید کنند. تمایز واقعیت از دروغ را چنان دشوار می‌کند که می‌تواند همه چیز، از روابط شخصی گرفته تا انتخابات سیاسی را تحت‌الشعاع قرار دهد. خوشبختانه، همانطور که فناوری دیپ فیک (جعل عمیق)  پیشرفت کرده است، ابزارها و تکنیک‌های طراحی شده برای شناسایی آنها نیز پیشرفت کرده است. بنابراین، دراین مطلب پنج بهترین ابزار و تکنیک‌های تشخیص دیپ‌فیک را که امروزه در دسترس هستند،...
    به گزارش خبرآنلاین، یک کارمند مالی که در یک شرکت چند ملیتی در هنگ‌ کنگ مشغول کار بوده است، با فریب خوردن از کلاهبردارانی که از فناوری دیپ‌فیک یا جعل عمیق استفاده کرده بودند مبلغ ۲۵ میلیون دلار به آنها پرداخت کرد. به نقل از یورونیوز،‌ پلیس هنگ‌ کنگ گفته است سارقان در این کلاهبرداری پیچیده، به عنوان «مدیر مالی» با کارمند تماس برقرار کرده و صحنه ویدئوکنفرانس را طوری چیده بودند که گویی چند نفر دیگر از کارکنان شرکت نیز در جلسه حضور دارند. در حالی که تمامی افراد در جلسه از طریق فناوری جعل عمیق درست شده بودند و واقعی نبودند. به گفته مقامات پلیس شخص کارمند در ابتدا به پیامی که ظاهراً از طرف مدیر ارشد مالی...
    ایتنا - یک کارمند مالی که در یک شرکت چند ملیتی در هنگ‌ کنگ مشغول کار بوده است، با فریب خوردن از کلاهبردارانی که از فناوری دیپ‌فیک یا جعل عمیق استفاده کرده بودند مبلغ ۲۵ میلیون دلار به آنها پرداخت کرد. پلیس هنگ‌ کنگ گفته است سارقان در این کلاهبرداری پیچیده، به عنوان «مدیر مالی» با کارمند تماس برقرار کرده و صحنه ویدئوکنفرانس را طوری چیده بودند که گویی چند نفر دیگر از کارکنان شرکت نیز در جلسه حضور دارند. در حالی که تمامی افراد در جلسه از طریق فناوری جعل عمیق درست شده بودند و واقعی نبودند. به گفته مقامات پلیس شخص کارمند در ابتدا به پیامی که ظاهراً از طرف مدیر ارشد مالی شرکت، مستقر در...
    بالاخره سیاست با همه بی‌پدر و مادری، نامردی، کثیف بودن و با وجود همه حرف‌هایی که پشت سرش می‌زنند، لابد خوبی‌هایی هم دارد. حداقلش این است که گاهی ممکن است برای مصالح جامعه بشری یکی دو قدم بردارد! یک نمونه‌ آن، ماجرای «جعل عمیق» یا همان دیپ‌فیک که ظاهراً آشش جوری شور شده که اهالی دنیای صنعت و فناوری، علم اخلاق، جامعه‌شناسان و حتی سیاست‌بازان و سیاست‌ورزان هم صدایشان بابت این دسته‌گل هوش مصنوعی و قرن۲۱ درآمده است. زلف این، دُم آن اگر فکر می‌کنید داریم بی‌دلیل زلف ماجرایی مثل «جعل عمیق» و هوش مصنوعی را به دُمِ سیاست گره می‌زنیم، سخت در اشتباهید. منتها حرف زدن از دلیل این کار بماند برای اواخر مطلب! اول باید ببینیم اصل...
    در حالی که تصاویر جعلی روز به روز متقاعد کننده‌تر و گسترده‌تر می‌شوند، سازندگان دوربین‌ها با فناوری جدیدی که می‌تواند صحت عکس‌ها را تأیید کند، با این مشکل مقابله می‌کنند. نیکون، سونی و کانن در حال کار بر روی تعبیه یک امضای دیجیتال در دوربین‌های خود هستند که به عنوان اثباتی بر اصل بودن و یکپارچگی تصاویر عمل خواهد کرد. به گزارش خبرآنلاین، امضا‌های دیجیتال حاوی اطلاعاتی مانند تاریخ، زمان، مکان و عکاس تصویر هستند و در برابر دستکاری مقاوم خواهند بود. این فناوری به عکاسان و سایر متخصصانی که نیاز دارند از اعتبار کار خود اطمینان حاصل کنند، کمک می‌کند. نیکون این ویژگی را در دوربین‌های بدون آینه خود ارائه می‌کند، در حالی که سونی و کانن نیز آن...
    شرکت‌های کانن، نیکون و سونی در حال کار بر روی تعبیه یک امضای دیجیتالی در دوربین‌های خود هستند که به عنوان اثباتی بر اصل بودن و یکپارچگی تصاویر عمل می‌کند. به گزارش ایسنا و به نقل از آی‌ای، در حالی که تصاویر جعلی روز به روز متقاعد کننده‌تر و گسترده‌تر می‌شوند، سازندگان دوربین‌ها با فناوری جدیدی که می‌تواند صحت عکس‌ها را تأیید کند، با این مشکل مقابله می‌کنند. نیکون، سونی و کانن در حال کار بر روی تعبیه یک امضای دیجیتال در دوربین‌های خود هستند که به عنوان اثباتی بر اصل بودن و یکپارچگی تصاویر عمل خواهد کرد. امضاهای دیجیتال حاوی اطلاعاتی مانند تاریخ، زمان، مکان و عکاس تصویر هستند و در برابر دستکاری مقاوم خواهند بود. این فناوری...
    یکی از توانایی‌های سیستم‌های هوش مصنوعی جعل عمیق توانایی شبیه‌سازی صدای افراد، حتی بر اساس یک فایل ضبط شده کوتاه از صدای اصلی است که می‌تواند برای مقاصد شرورانه مورد سواستفاده قرار بگیرد. با این حال، یک نرم‌افزار جدید به نام ضدجعل(AntiFake) می‌تواند به جلوگیری از وقوع آن کمک کند. به گزارش ایران اکونومیست و به نقل از نیواطلس، در سایر قابلیت‌های هوش مصنوعی، از نسخه‌های جعلی صدای افراد به همراه ویدیوهای جعلی می‌توان به گونه‌ای استفاده کرد که به نظر برسد گویی یک سیاستمدار یا شخصیت مشهور چیزی را گفته که هرگز در واقعیت نگفته‌ است. علاوه بر این مواردی وجود داشته که افراد تماس‌های تلفنی دریافت کرده‌اند که در آن صدای جعلی یکی از دوستان یا اعضای خانواده...
    فیلم‌ها و تصاویر فریبنده ایجاد شده توسط هوش مصنوعی می‌تواند انتخابات را تحت تاثیر قرار دهد، باعث سقوط بازارهای سهام شود و شهرت افراد را نابود کند و محققان در حال توسعه روش‌هایی برای محدود کردن آسیب آن هستند. به گزارش ایسنا و به نقل از نیچر، ماه ژوئن سال جاری، در نبرد سیاسی منتهی به انتخابات مقدماتی ریاست جمهوری آمریکا در سال ۲۰۲۴، مجموعه‌ای از تصاویر منتشر شد که نشان می‌داد دونالد ترامپ یکی از مشاوران پزشکی سابق خود، آنتونی فائوچی را در آغوش گرفته است. فائوچی، یک مقام بهداشتی بود که توسط برخی محافظه‌کاران آمریکایی به دلیل ترویج ماسک و واکسن در طول همه‌گیری کووید-۱۹ مورد انتقاد قرار گرفته بود. هانی فرید(Hany Farid)، دانشمند رایانه در دانشگاه...
    گروه ارتباطات و فناوری اطلاعات خبرگزاری علم و فناوری آنا، فناوری‌های مدرن از هوش مصنوعی گرفته تا ارتباطات بی‌سیم فوق سریع، در سال‌های اخیر کار و زندگی مردم را متحول کرده‌اند. ضمن لذت بردن از راحتی این فناوری‌ها باید به این نکته نیز توجه داشت که اگر به دست افراد نادرستی بیفتند، دردسر‌های زیادی پیش خواهد آمد. استیو وزنیاک، یکی از بنیان گذاران اپل، چندی پیش هشدار داد فناوری هوش مصنوعی ممکن است شناسایی کلاهبرداری‌ها و اطلاعات غلط را سخت‌تر کند. مقامات در حال مبارزه با کلاهبرداران آنلاین و گروه‌های تبهکار پشت سر آن‌ها هستند، با این حال کلاهبرداری‌ها همچنان به قوت خود ادامه دارد. در ادامه به برخی از رایج‌ترین تله‌های آنلاین می‌پردازیم که با کمک فناوری‌هایی مانند هوش...
    یک کارشناس امنیت سایبری چهار نگرانی در مورد هوش مصنوعی را عنوان کرده است. این نگرانی‌ها در حالی عنوان می‌شوند که این فناوری همچنان در حال تکامل است. به نقل از روزنامه سان، امروزه هوش مصنوعی می تواند کارهایی مانند نوشتن مقاله، تولید کدهای پیچیده و خلاصه کردن اسناد طولانی را در چند ثانیه انجام دهد. تعداد کمی از بخش‌ها  توانسته‌اند به پیشرفت چشمگیری که در مدت زمان کمی هوش مصنوعی به آن دست یافته برسند.در تنظیمات پیشرفته تر، هوش مصنوعی به ساخت واکسن و محاسبه معادلات پیچیده فیزیک برای دانشمندان کمک می‌کند. این‌ها تنها چند نمونه از شاهکارهای چشمگیر متعددی است که این فناوری تا به امروز انجام داده است. با این حال، مانند همه پیشرفت‌های تکنولوژیکی، مسائل و...
    یکی از دردسر‌هایی که فناوری جعل عمیق برای مردم، به‌ویژه افراد سرشناس، به وجود آورده است، ایجاد تصاویر و فیلم‌های دروغین و گاه مستهجن از آنهاست. متاسفانه این مشکل گسترش پیدا کرده و گریبان افراد عادی را هم گرفته است. به گزارش خبرآنلاین، اخیرا پلیس FBI هشدار داده شکایت‌های متعددی از افراد جامعه دریافت کرده است مبنی بر اینکه مجرمان و کلاهبردار‌های مجازی از چهره‌شان با استفاده از جعل عمیق، تصاویر و فیلم‌های مستهجن ساخته و آن‌ها را تهدید به انتشار این تصاویر جعلی کرده‌اند. این مجرمان معمولا تصاویر جعلی را در رسانه‌های اجتماعی، انجمن‌های عمومی یا وب‌سایت‌های مستهجن منتشر می‌کنند. در فناوری جعل عمیق، می‌توان تصاویری آنقدر واقعی از چهره یک نفر روی بدن یک نفر دیگر ایجاد کرد...
    ایتنا - به نظر می‌رسد فناوری‌های هوش مصنوعی پیشرفته می‌توانند نقش مهمی در صندوق آرا بازی کنند. به‌تازگی ویدیویی غافلگیرکننده از هیلاری کلینتون، نامزد پیشین دموکرات‌ها در انتخابات ریاست جمهوری آمریکا، در رسانه‌های اجتماعی منتشر شده است. ویدیویی که در آن وزیر خارجه باراک اوباما و همسر بیل کلینتون، در حمایت از «ران دسنتیس»، نامزد جمهوری‌خواهان، سخنرانی می‌کند و می‌گوید که «دسنتیس همانی است که ایالات متحده به او نیاز دارد.» هرچند ساعتی پس از انتشار این ویدیو مشخص شد که تنها یک «دیپ فیک فوق‌العاده تصویری است»، اما بیشتر از یک سال مانده به انتخابات ریاست‌جمهوری ایالات متحده به نظر می‌رسد فناوری‌های هوش مصنوعی پیشرفته می‌توانند نقش مهمی در صندوق آرا بازی کنند. ویدیوی هیلاری کلینتون،...
    دیپ فیک فناوری پیچیده‌ای است که ویدئو و صوت‌های جعلی با استفاده از هوش مصنوعی تولید می‌کند، مهدی رضا برنا کارشناس هوش مصنوعی اعتقاد دارد که بهترین راه مقابله با این نوع از محتوا استفاده از فناوری یادگیری عمیق است. خبرگزاری برنا- گروه علمی و فناوری؛ دیپ فیک یا جعل عمیق یکی از معضلات جدید بشر در عرصۀ مواجهه با اخبار جعلی است، سازندگان دیپ فیک عموماً با اهداف سیاسی یا جنجال آفرینی برای افراد مشهور دست به تولید این نوع از محتوا می‌زنند. این تکنولوژی البته هنوز فراگیر نشده است اما دور به نظر نمی‌رسد، روزی که جهان شاهد انبوهی از فایل‌های صوتی و تصویری جعلی باشد که سازندگان آن با هدف بر هم زدن آرامش یک کشور یا...
    ایتنا - مقام‌های ایالات متحده در گذشته هشدار داده‌اند که کشورهایی مانند روسیه به دستکاری رسانه‌های اجتماعی متوسل می‌شوند. رهبرانی که بر برخی از محرمانه‌ترین ماموریت‌های ارتش ایالات متحده نظارت دارند، جویای نوع جدید و بی‌سابقه‌ای از جنگ‌افزارند: «جعل‌عمیق»، که یادگیری ماشینی را برای ایجاد ویدیوهای جعلی واقع‌نما به کار می‌گیرد. به گزارش ایتنا و به نقل از ایندیپندنت، طبق سندی تدارکاتی که خبرگزاری اینترسپت کشف کرده است، ستاد فرماندهی عملیات ویژه ایالات متحده (سوکام)، متشکل از نیروهای نخبه تفنگداران دریایی، نیروی زمینی، دریایی و هوایی، جویای ابداع «نسل آینده فناوری «جعل‌عمیق» یا فناوری‌های مشابه آن به منظور تولید پیام و عملیات اثرگذاری به روش‌های غیرسنتی است». سوکام در درخواست‌های تدارکاتی اخیر و در چارچوب عملیات مخفیانه...
    به گزارش خبرنگار گروه علم و پیشرفت خبرگزاری فارس به نقل از سی ان بی سی، دیپ فیک ها تصاویر یا ویدئوهایی هستند که به صورت مصنوعی تولید یا تغییر یافته اند و با استفاده از نوعی هوش مصنوعی ساخته می شوند. از این فناوری می توان برای تغییر یک ویدیوی موجود استفاده کرد، برای مثال با قرار دادن چهره یک سیاستمدار بر روی یک ویدیوی موجود یا حتی ایجاد سخنرانی جعلی تا دروغ پراکنی در فضای مجازی ساده تر شود. نتیجه این کار انتشار ویدئوهای ساختگی است که به نظر می رسد واقعی هستند اما اینطور نیست. پکن قوانین خود را در این مورد در اوایل سال جاری اعلام کرد و آنها را در دسامبر نهایی کرد. این قوانین...
    طبق یک مطالعه جدید، حملات سایبری مبتنی بر هوش مصنوعی در جعل هویت، تاکتیکی که اغلب در فیشینگ استفاده می‌شود، حرفه‌ای می‌شوند و می‌توانند آسیب‌رسان باشند. به گزارش ایران اکونومیست و به نقل از سایبرنیوز، یک گزارش تحلیلی سایبری جدید هشدار داده است که حملات سایبری فعال هوش مصنوعی که تاکنون کاملاً محدود بوده‌اند، ممکن است در سال‌های آینده تهاجمی‌تر شوند. بر اساس این گزارش، شرکت امنیت سایبری و حریم خصوصی WithSecure مستقر در هلسینکی، آژانس حمل و نقل و ارتباطات فنلاند و آژانس تامین اضطراری ملی فنلاند در این گزارش همکاری کرده‌اند. اندی پاتل پژوهشگر اطلاعاتی شرکت WithSecure می‌گوید: اگرچه محتوای تولید شده توسط هوش مصنوعی برای اهداف مهندسی اجتماعی استفاده شده است، اما تکنیک‌های هوش مصنوعی طراحی شده...
    به گزارش گروه علم و پیشرفت خبرگزاری فارس به نقل از رویترز، رگولاتور فضای سایبری چین گفته: قوانین جدید این کشور برای ارائه دهندگان محتوا که داده‌های چهره و صدا را تغییر می‌دهند، از 10 ژانویه 2023 (20 دی) اجرایی می‌شود. به نظر می رسد چین سعی دارد سختگیری های بیشتری را برای فناوری جعل عمیق و سرویس های آن اعمال کند. قوانین اداره فضای سایبری چین (CAC) که روز یکشنبه منتشر شد، از افراد در برابر جعل هویت با جعل عمیق بدون رضایت آنها محافظت می‌کند. اداره فضای سایبری چین گفت که این اقدام با هدف محدود کردن خطرات ناشی از فعالیت های ارائه شده توسط چنین پلتفرم هایی که از یادگیری عمیق یا واقعیت مجازی برای تغییر هرگونه...
    به گزارش همشهری آنلاین، با این اقدام، بوریس ویلیس - Walter Bruce Willis که با نقش جان مک‌کلین در فیلم جان سخت - Die Hard به شهرت رسید، به نخستین ستاره بازنشسته هالیوود تبدیل شد که شبیه خود را فروخت تا از آن برای ایجاد یک دوقلو دیجیتال از طریق فناوری جعل عمیق(ویدیوهای دیپ فیک) استفاده شود. دیپ فیک یا جعل عمیق تکنیکی برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است؛ ویدیوی جعلی، ترکیب فیلم‌های موجود و منبع است که فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان می‌دهد که هرگز در واقعیت اتفاق نیفتاده است. به نوشته تلگراف، ویلیس حق فروش شبیه خود را با شرکت آمریکایی Deepcake امضا کرده است؛ این شرکت می‌تواند نسخه‌های...
    گوگل، فیس بوک، توییتر و سایر شرکت‌های فناوری باید اقداماتی را برای مقابله با دیپ فیک (جعل عمیق) و حساب‌های دیپ فیک در پلتفرم‌های خود انجام دهند، در غیر این صورت با جریمه سنگین اتحادیه اروپا روبرو خواهند شد. به گزارش ایران اکونومیست، انتظار می‌رود کمیسیون اروپا در راستای مبارزه با جعل عمیق، کد رفتار به‌روزشده درباره اطلاعات نادرست را روز پنجشنبه منتشر کند. این کد رفتار داوطلبانه که در سال ۲۰۱۸ معرفی کرد، اکنون به طرح تنظیم مشترک تبدیل خواهد شد و رگولاتورها و امضاکنندگان این کد، در مسئولیت مربوط به آن سهیم خواهند بود. کد رفتار به‌روزشده به تشریح موارد رفتار فریبکارانه مانند دیپ فیک و حسابهای جعلی پرداخته است که امضاکنندگان، باید با آنها مقابله کنند. دیپ...
    آفتاب‌‌نیوز : در حالی که ممکن است ما عادت کرده باشیم از فناوری موسوم به "جعل عمیق" برای طیف وسیعی از کارهای نسبتاً بی‌ضرر استفاده شود، اما از این فناوری می‌توان برای ایجاد محتوای مخرب نیز مانند انداختن صورت شخص دیگری در یک صحنه ناشایست یا آسیب رساندن به حرفه یک سیاستمدار استفاده کرد. تصاویری که مورد دستکاری "جعل عمیق" قرار می‌گیرند در واقع فیلم‌ها یا عکس‌های تغییر یافته دیجیتالی از چهره یک یا چند شخص با استفاده از هوش مصنوعی است که می‌تواند کاملاً واقعی به نظر برسد. این تصاویر به قدری می‌توانند مخرب باشند که سال گذشته ایالت کالیفرنیا استفاده از این فناوری را در حوزه سیاست و پورنوگرافی ممنوع کرد. ما به راحتی با این فناوری...
    به گزارش همشهری آنلاین، ایسنا به نقل از آی‌ای، همه ما تاکنون فیلم‌های خارجی را تماشا کرده‌ایم که دوبله شده‌اند و شاید دوبله، آن حسی را که باید از فیلم به ما منتقل شود، نتوانسته به خوبی منتقل کند. البته که صنعت دوبله در ایران بسیار متفاوت از اغلب کشورهای دیگر دنیا است، اما باز هم گاهی دیده می‌شود که صدای دوبله با لب‌های بازیگران منطبق نیست. اکنون یک فناوری جدید "دیپ فیک"(deep fake) یا "جعل عمیق" به وجود آمده است که می‌تواند فیلم‌ها را تقریباً به مانند اینکه زبان اصلی هستند، دوبله کند. این فناوری جدید مبتنی بر هوش مصنوعی است و می‌تواند انقلابی در نحوه ترجمه فیلم‌ها به زبان‌های دیگر ایجاد کند. این فناوری توسط شرکتی بریتانیایی به نام...
    یک هوش مصنوعی جدید می‌تواند کاری کند که بازیگران مورد علاقه مخاطبان به زبان مادری آنها، و هم به شکل روان صحبت کنند.  همه ما تاکنون فیلم‌های خارجی را تماشا کرده‌ایم که دوبله شده‌اند و شاید دوبله، آن حسی را که باید از فیلم به ما منتقل شود، نتوانسته به خوبی منتقل کند. البته که صنعت دوبله در ایران بسیار متفاوت از اغلب کشورهای دیگر دنیا است، اما باز هم گاهی دیده می‌شود که صدای دوبله با لب‌های بازیگران منطبق نیست. اکنون یک فناوری جدید "دیپ فیک"(deepfake) یا "جعل عمیق" به وجود آمده است که می‌تواند فیلم‌ها را تقریباً به مانند اینکه زبان اصلی هستند، دوبله کند. این فناوری جدید مبتنی بر هوش مصنوعی است و می‌تواند...
    یک هوش مصنوعی جدید می‌تواند کاری کند که بازیگران مورد علاقه مخاطبان به زبان مادری آنها، Hن هم به شکل روان صحبت کنند. به گزارش ایسنا و به نقل از آی‌ای، همه ما تاکنون فیلم‌های خارجی را تماشا کرده‌ایم که دوبله شده‌اند و شاید دوبله، آن حسی را که باید از فیلم به ما منتقل شود، نتوانسته به خوبی منتقل کند. البته که صنعت دوبله در ایران بسیار متفاوت از اغلب کشورهای دیگر دنیا است، اما باز هم گاهی دیده می‌شود که صدای دوبله با لب‌های بازیگران منطبق نیست. اکنون یک فناوری جدید "دیپ فیک"(deepfake) یا "جعل عمیق" به وجود آمده است که می‌تواند فیلم‌ها را تقریباً به مانند اینکه زبان اصلی هستند، دوبله کند. این فناوری جدید مبتنی...
    یک فناوری جدید "دیپ‌فیک" یا همان جعل عمیق به افراد مشهور اجازه می‌دهد صدای خود را مجوز دار کنند.  با وجود نگرانی‌های فزاینده از این واقعیت که فناوری "دیپ‌فیک"(deepfake) یا "جعل عمیق" می‌تواند به شکل غیر قابل تصوری حقیقت را تغییر دهد، برخی از شرکت‌ها هنوز هم تلاش می‌کنند آن را به عنوان یک محصول خوب و مناسب برای مصرف کننده معرفی کنند. یکی از این شرکت‌ها "وریتون"(Veritone) نام دارد و به تازگی توضیح داده است که قصد دارد افراد مشهور را قادر سازد تا صدای خود را لایسن کنند و از این راه درآمد کسب کنند. این برنامه جدید "دیپ‌فیک" که "مارول.ای‌آی"(Marvel.ai) نام دارد، اساساً مجوز دار کردن صدای افراد مشهور، سیاستمداران و مدیران عامل شرکت‌های...
    یک فناوری جدید "دیپ‌فیک" یا همان جعل عمیق به افراد مشهور اجازه می‌دهد صدای خود را مجوز دار کنند. به گزارش ایسنا و به نقل از آی‌ای، با وجود نگرانی‌های فزاینده از این واقعیت که فناوری "دیپ‌فیک"(deepfake) یا "جعل عمیق" می‌تواند به شکل غیر قابل تصوری حقیقت را تغییر دهد، برخی از شرکت‌ها هنوز هم تلاش می‌کنند آن را به عنوان یک محصول خوب و مناسب برای مصرف کننده معرفی کنند. یکی از این شرکت‌ها "وریتون"(Veritone) نام دارد و به تازگی توضیح داده است که قصد دارد افراد مشهور را قادر سازد تا صدای خود را لایسن کنند و از این راه درآمد کسب کنند. این برنامه جدید "دیپ‌فیک" که "مارول.ای‌آی"(Marvel.ai) نام دارد، اساساً مجوز دار کردن صدای افراد...
    محققان دانشگاه واشنگتن هشدار داده‌اند تهیه تصاویر ماهواره‌ای جعلی با استفاده از فناوری جعل عمیق یا دیپ فیک می‌تواند امنیت ملی کشورها را به خطر بیندازد. پیش از این نگرانی از تهیه محتوای ویدئویی یا تصویری جعلی و قلابی از اشخاص مشهور با استفاده از فناوری جعل عمیق موجب نگرانی‌های امنیتی شده بود. اما حالا دامنه این تهدید به تهیه تصاویر ماهواره‌ای جعلی کشیده شده است. این پژوهشگران می‌گویند با استفاده از الگوریتم‌های هوش مصنوعی و از طریق تغذیه این الگوریتم‌ها با استفاده از عکس‌ها و نقشه‌های ماهواره‌ای مختلف، می‌توان تصاویر ماهواره‌ای جعل عمیق تهیه کرد که حاوی جاده‌ها، ساختمان‌ها، عوارض جغرافیایی و غیره غیر واقعی باشند یا ابعاد و ارتفاع و موقعیت ساختمان‌ها، جاده‌ها و غیره در...
    برای کسانی که از آینده می‌ترسند و همواره نگران هستند بخش‌های دلهره‌آور فیلم‌های تخیلی روزی به حقیقت بپیوندد، باید گفت فناوری «جعل عمیق» این نگرانی را تا حدودی به حقیقت بدل کرده است. ناطقان:  روزنامه ایران در ترجمه مقاله‌ای از نیویورک‌تایمز نوشت: «در حالی که میلیون‌ها کاربر این هفته ویدیوی «تام کروز» بازیگر مشهور را در شبکه‌های اجتماعی مشاهده می‌کردند، مشخص شد این تصاویر با فناوری هوش مصنوعی و به روش جعل عمیق ساخته شده است.ویدیویی که در تیک‌تاک، توئیتر و سایر شبکه‌های اجتماعی بین میلیون‌ها کاربر دست به دست شد توسط یک هنرمند جلوه‌های تصویری و با شبیه‌سازی یکی از برنامه‌های «بیل هیدر» بازیگر هالیوودی ساخته شد. در این برنامه که اصل آن متعلق به یک گفت‌وگوی تلویزیونی در...
    برای کسانی که از آینده می‌ترسند و همواره نگران هستند بخش های دلهره‌آور فیلم‌های تخیلی روزی به حقیقت بپیوندد باید گفت فناوری «جعل عمیق» این نگرانی را تا حدودی به حقیقت بدل کرده است. به گزارش روزنامه نیویورک تایمز، در حالی که میلیون‌ها کاربر این هفته ویدیوی «تام کروز» بازیگر مشهور را در شبکه‌های اجتماعی مشاهده می‌کردند مشخص شد این تصاویر با فناوری هوش مصنوعی و به روش جعل عمیق ساخته شده است. ویدیویی که در تیک‌تاک، توئیتر و سایر شبکه‌های اجتماعی بین میلیون‌ها کاربر دست به دست شد توسط یک هنرمند جلوه‌های تصویری و با شبیه‌سازی یکی از برنامه‌های «بیل هیدر» بازیگر هالیوودی ساخته شد. در این برنامه که اصل آن متعلق به یک گفت‌وگوی تلویزیونی در سال...
    آفتاب‌‌نیوز : «deepfake» یا «جعل عمیق» به ویدیوهایی اتلاق می شود که در آن ها با بهره از نرم افزارهای هوش مصنوعی مجموعه ای از فیلم ها و عکس های یک شخص خاص را ترکیب کرده و تغییر داده و حرکات و گفتاری برای آن فرد تولید می کنند که در اصل وجود خارجی ندارد و آن فرد در دنیای واقعی آن حرکات یا گفتار را انجام نداده است. کارکرد «جعل عمیق» در ویدیو یا فیلم را می توان عینا همچون کارکرد فوتوشاپ بر روی عکسها تشریح کرد. «deepfake» یا «جعل عمیق» اولین بار در سال ۲۰۱۷ توسط یک کاربر ناشناس در سایت «Reddit» مورد استفاده قرار گرفت که در آن تعدادی از هنرپیشه های مشهور هالیوود را در...
    «deepfake» یا «جعل عمیق» اولین بار در سال ۲۰۱۷ توسط یک کاربر ناشناس در سایت «Reddit» برای تعدادی از هنرپیشه های مشهور هالیوود مورد استفاده قرار گرفت و ویدئوهایی خلق شده بود که وجود خارجی نداشت. به گزارش مشرق، «deepfake» یا «جعل عمیق» به ویدیوهایی اتلاق می شود که در آن ها با بهره از نرم افزارهای هوش مصنوعی مجموعه ای از فیلم ها و عکس های یک شخص خاص را ترکیب کرده و تغییر داده و حرکات و گفتاری برای آن فرد تولید می کنند که در اصل وجود خارجی ندارد و آن فرد در دنیای واقعی آن حرکات یا گفتار را انجام نداده است. کارکرد «جعل عمیق» در ویدیو یا فیلم را می توان عینا همچون کارکرد فوتوشاپ بر...
    خبرگزاری فارس ـ گروه رسانه ـ علیرضا سپهوند: «deepfake» یا «جعل عمیق» به ویدیوهایی اتلاق می شود که در آن ها با بهره از نرم افزارهای هوش مصنوعی مجموعه ای از فیلم ها و عکس های یک شخص خاص را ترکیب کرده و تغییر داده و حرکات و گفتاری برای آن فرد تولید می کنند که در اصل وجود خارجی ندارد و آن فرد در دنیای واقعی آن حرکات یا گفتار را انجام نداده است. کارکرد «جعل عمیق» در ویدیو یا فیلم را می توان عینا همچون کارکرد فوتوشاپ بر روی عکسها تشریح کرد.    «deepfake» یا «جعل عمیق» اولین بار در سال ۲۰۱۷ توسط یک کاربر ناشناس در سایت «Reddit» مورد استفاده قرار گرفت که در آن تعدادی از...
    به گزارش جام جم آنلاین از مهر، تصمیم شبکه چهار تلویزیون انگلیس برای پخش یک پیام کریسمس از الیزابت دوم، ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» ساخته شده بحث‌هایی را در رسانه‌های بریتانیا برانگیخته است. در این ویدئوی پنج‌ دقیقه‌ای، که همزمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شده است، وی در حال رقص و بیان اظهاراتی درباره شاهزاده «هری» و «مگان مارکل» زوج سلطنتی دیده می‌شود. ویدئوهای جعل عمیق ویدئوهایی هستند که در آن‌ها با استفاده از نرم‌افزارهای هوش مصنوعی فیلم‌ها به نحوی تغییر داده می‌شوند که گویا فرد در حال بیان اظهارات یا اجرای حرکاتی است که در دنیای واقعی هرگز آن‌ها را انجام نداده است. نقش فناوری جعل...
      به گزارش تابناک به نقل از یورو نیوز، تصمیم شبکه چهار تلویزیون انگلیس برای پخش یک پیام کریسمس از الیزابت دوم، ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» ساخته شده بحث‌هایی را در رسانه‌های بریتانیا برانگیخته است. در این ویدئوی پنج‌ دقیقه‌ای، که همزمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شده است، وی در حال رقص و بیان اظهاراتی درباره شاهزاده هری و مگان مارکل زوج سلطنتی دیده می‌شود. ویدئوهای جعل عمیق ویدئوهایی هستند که در آن‌ها با استفاده از نرم‌افزارهای هوش مصنوعی فیلم‌ها به نحوی تغییر داده می‌شوند که گویا فرد در حال بیان اظهارات یا اجرای حرکاتی است که در دنیای واقعی هرگز آن‌ها را انجام نداده است. نقش...
    خبرگزاری مهر: به نقل از یورو نیوز، تصمیم شبکه چهار تلویزیون انگلیس برای پخش یک پیام کریسمس از الیزابت دوم، ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» ساخته شده بحث‌هایی را در رسانه‌های بریتانیا برانگیخته است. در این ویدئوی پنج‌ دقیقه‌ای، که همزمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شده است، وی در حال رقص و بیان اظهاراتی درباره شاهزاده هری و مگان مارکل زوج سلطنتی دیده می‌شود. ویدئوهای جعل عمیق ویدئوهایی هستند که در آن‌ها با استفاده از نرم‌افزارهای هوش مصنوعی فیلم‌ها به نحوی تغییر داده می‌شوند که گویا فرد در حال بیان اظهارات یا اجرای حرکاتی است که در دنیای واقعی هرگز آن‌ها را انجام نداده است. نقش فناوری جعل...
    تصمیم شبکه چهار تلویزیون انگلیس برای پخش یک پیام کریسمس از الیزابت دوم، ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» ساخته شده بحث‌هایی را در رسانه‌های بریتانیا برانگیخته است. در این ویدئوی پنج دقیقه‌ای، که همزمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شده است، وی در حال رقص و بیان اظهاراتی درباره شاهزاده هری و مگان مارکل زوج سلطنتی دیده می‌شود. ویدئوهای جعل عمیق ویدئوهایی هستند که در آن‌ها با استفاده از نرم‌افزارهای هوش مصنوعی فیلم‌ها به نحوی تغییر داده می‌شوند که گویا فرد در حال بیان اظهارات یا اجرای حرکاتی است که در دنیای واقعی هرگز آن‌ها را انجام نداده است. نقش فناوری جعل عمیق در دستکاری در دنیای...
    کم کم وقتش رسیده که «فتوشاپ» را فراموش کنیم. البته آن‌هایی که خدای ناکرده در کار تولید تصاویر جعلی هستند و یا در فضای مجازی قصد سر به سر گذاشتن با مخاطبان را دارند و می‌خواهند آبروی کسی را ببرند، مدت‌هاست «فتوشاپ» را کنار گذاشته و سراغ فناوری‌های تازه رفته‌اند. مجید تربت‌زاده / کم کم وقتش رسیده که «فتوشاپ» را فراموش کنیم. البته آن‌هایی که خدای ناکرده در کار تولید تصاویر جعلی هستند و یا در فضای مجازی قصد سر به سر گذاشتن با مخاطبان را دارند و می‌خواهند آبروی کسی را ببرند، مدت‌هاست «فتوشاپ» را کنار گذاشته و سراغ فناوری‌های تازه رفته‌اند. این ما هستیم که هنوز در شوخی‌ها و تصوراتمان وقتی قرار است از قلابی بودن یک...
    محققان در کشورهای مختلف تلاش می‌کنند تا با استفاده از فناوری‌های هوشمند ویدئوهای جعلی را شناسایی و آن‌ها را به کاربران معرفی کنند. به گزارش خبرنگار حوزه علم، فناوری و دانش‌بنيان گروه فناوری خبرگزاری آنا، یکی از تبعات فناوری که هنوز به طور کامل وجه ترسناک خود را نشان نداده است،‌ فناوری جعل عمیق نام دارد. در فناوری جعل عمیق(deep fake) فیلم‌هایی جعلی از افراد ساخته می‌شود که امکان سواستفاده را برای تبهکاران به وجود می‌آورد. بیشتر بخوانید: انحراف علم به‌دست سودجویان/ هوش مصنوعی چگونه موجب حملات سایبری می‌شود؟ به طور قطع نمی‌توان جلوی پیشرفت فناوری را گرفت. اما آیا در تماشای یک ویدئوی جعل عمیق(deep fake)، می‌توان نسبت به ساختگی بودن محتوای ویدئو آگاه شد؟ همزمان با پیشرفت...
    در پی انتشار ویدئویی در فضای مجازی از خواندن ترانه «ایران من» با لبخوانی جمعی از چهره‌های مشهور تاریخ معاصر ایران كه با فناوری «جعل عمیق» ساخته شده بود، به ابعاد گوناگون کاربردهای این فناوری می‌پردازیم. به گزارش گروه رسانه‌های دیگر خبرگزاری آنا، در این روزهای داغ كارزار انتخابات آمریكا شما هم این فیلم را دیده‎اید كه باراك اوباما، رئیس جمهور سابق آمریكا، دونالد ترامپ را «احمقی به تمام معنا» خطاب می‎كند؟ یا فیلمی كه مارك زاكربرگ، صاحب شبكه اجتماعی فیسبوك، ادعا می‎كند كنترل كاملی روی اطلاعات دزدیده شده میلیون‎ها كاربر دارد؟ یا فیلمی كه شخصیت‎های بزرگ و مبارز تاریخ كشورمان از میرزاكوچك‌خان جنگلی و ستارخان گرفته تا شهید همت و شهید چمران، سرود «ایرانِ من» از همایون شجریان...
    به گزارش خبرنگار گروه علم و فناوری ایسکانیوز، یک روزنامه نگار، تحقیقی ویدیویی از افشاگر ناشناسی دریافت می کند که در آن کاندیدای ریاست جمهوری به فعالیت غیرقانونی اعتراف کرده است. اما آیا این ویدئو واقعی است؟ روزنامه نگار فیلم را از طریق ابزاری تخصصی بررسی می کند و در میابد ویدئو آن چیزی نیست که به نظر می رسد. در حقیقت، این جعل عمیق است، ویدیویی که با استفاده از هوش مصنوعی با یادگیری عمیق ساخته شده است. کارشناسان عرصه فناوری این روزها اصطلاح جدیدی با عنوان «دیپ فیک» را در صحبت های خود مطرح می کنند که در اصل از ترکیب عبارت های «یادگیری عمیق» و «اطلاعات جعلی» ساخته شده است. این اصطلاح برای آن دسته از فایل...
    مایکروسافت برای مقابله با جعل عمیق از دو برنامه مبتنی بر هوش مصنوعی رونمایی کرد. به گزارش خبرنگار حوزه علم، فناوری و دانش‌بنیان گروه دانشگاه خبرگزاری آنا از تک اورگ، دنیای کنونی با چالش‌های مختلفی در رابطه با سوء‌استفاده از فناوری‌های مدرن دیجیتالی روبرو است. این مسائل غالباً با پردازش و دستکاری تصویر همراه هستند که با استفاده از هوش مصنوعی و الگوریتم‌های یادگیری عمیق، محصولی به‌نام جعل عمیق یا تصاویر مهندسی‌شده تولید می‌شود. درحالت عادی تشخیص این تصاویر از حقیقت دشوار است. تحقیقاتی که اخیراً از استاد دانشگاه پرینستون، یعقوب شاپیرو منتشر شده، نشان می‌دهد که کمپین‌هایی که به‌دنبال نفوذ در مخاطب هستند، غالباً حقایق قابل‌تأیید عینی را تحریف می‌کنند. در این تحقیق خاص، 74درصد از کل کمپین‌های...
    به گزارش انگجت، بر اساس قوانین جدید توییتر دیگر نمی‌توان آن دسته از ویدئوهای مبتنی بر جعل عمیق را که آسیب‌های احتمالی به همراه دارند، در پلتفرم این شبکه اجتماعی منتشر کرد. به علاوه این شرکت همچنین با برچسب زدن بر توییت‌های حاوی مضامین مبتنی بر این فناوری، به افراد کمک می‌کند تا محتوای حقیقی را از محتوای دستکاری شده تشخیص دهند. بر این اساس، توییتر از تاریخ ۵ مارس (۱۵ اسفند) بر توییت‌های حاوی «محتوای دستکاری شده یا ساختگی» نشان می‌گذارد، دامنه دیده شدن آن‌ها را محدود می‌کند و به کاربرانی که قصد لایک یا بازنشر چنین مضامینی را دارند، هشدار می‌دهد. دیپ فیک (Deepfake) یا جعل عمیق نوعی فناوری بر پایه هوش مصنوعی است که در تولید یا تغییر محتوای ویدیویی استفاده می‌شود تا...
    شرکت امنیتی مک آفی ویدئوهای جعل عمیق را یک تهدید سایبری عمده در سال 2020 دانست و از ضرورت برخورد با آن خبر داد. به گزارش خبرنگار گروه علمی و دانشگاهی خبرگزاری فارس به نقل از آسین ایج، ویدئوهای جعل عمیق که با استفاده از هوش مصنوعی به تقلید از سخنرانی‌های افراد مشهور و سیاستمداران می پردازند، چنان دقیق جعل می شوند که تشخیص قلابی بودن آنها تقریبا غیرممکن است و از همین رو مک آفی این پدیده را یک تهدید امنیتی جدی دانسته است.   مک آفی در گزارش امنیتی تازه خود برای سال 2020 تاکید کرده که ماهیت جرائم سایبری در حال تغییر است و باید قوانین جدیدی به منظور مقابله با این شرایط وضع شوند....
    تکنولوژی جعل عمیق به ساخت تصاویر و ویدئو‌هایی منجر می‌شود که به نظر واقعی می‌رسند، اما در حقیقت وجود خارجی ندارند. این کار اغلب با کمک تکنولوژی واقعیت مجازی انجام می‌شود.موضوع جعل عمیق به یکی از نگران کننده‌ترین موضوعات سال‌های اخیر تبدیل شده است چرا که عده زیادی نگرانند با این تکنولوژی جنایاتی بزرگ رخ دهد. به خصوص وقتی ویدئو‌های جعل عمیق با محوریت موضوعاتی سیاسی ساخته می‌شوند و در نتیجه به یک نگرانی بزرگ تبدیل می‌شوند. اخیرا ایالات متحده درباره این موضوع نگرانی‌های زیادی ابراز کرده است. خصوصاً وقتی صحبت از گسترش اطلاعات نادرست پیش از انتخابات ریاست جمهوری سال ۲۰۲۰ می‌شود.   طی هفته جاری و در جریان کنفرانس فناوری ام آی تی، از پیشرفت‌های فناوری جعل عمیق...
    به گزارش پارس نیوز،  با استفاده از این فناوری خطرناک، می‌توان از عکس چهره یک فرد، ویدئویی ساخت که او را در حال گفتن هر جمله‌ای نشان دهد! اولین ویدئو از این دست، ویدئویی از نانسی پلوسی رئیس مجلس نمایندگان آمریکا بود که این چهره سیاسی آمریکایی را در حالتی نامتعادل نشان می‌داد. به تازگی ویدئوهایی از مارک زاکربرگ مؤسس فیس بوک، دونالد ترامپ و باراک اوباما رؤسای جمهور آمریکا و جان‌اسنو شخصیت سریال «بازی تاج‌وتخت» در فضای شبکه‌های اجتماعی منتشر و پربازدید شده است. ویدئوی جان‌اسنو نشان می‌دهد که وی از شخصیت‌های «بازی تاج‌وتخت» می‌خواهد فیلم نامه فصل هشت این سریال را که با انتقادهای زیادی مواجه شده بود، آتش بزنند! فناوری یادشده DeepFake به معنای «جعل عمیق»...
۱