2024-03-29@15:31:29 GMT
۲۳ نتیجه - (۰.۰۰۰ ثانیه)
جدیدترینهای «ویدئوهای دیپ فیک»:
بیشتر بخوانید: اخبار اقتصادی روز در یوتیوب
«دیپ فیک» یا جعل عمیق تکنولوژی مبتنی بر هوش مصنوعی است که استفاده از منجر به تولید ویدئو و اصوات جعلی میشود، فایلهایی که سبب میشود دیگر انسان به راحتی حتی توان اعتماد به گوش و چشم خود را هم نداشته باشد. گروه علمی و فناوری خبرگزاری برنا- علی پژوهش؛ فناوریهای مرتبط با هوش مصنوعی بعد از معرفی چتباتها توسط مایکروسافت بار دیگر بر سر زبانها افتادند، کاربران مختلف هیجانزده از صحبت با موجوداتی هستند که واقعیت وجودی ندارند. چتباتها البته برای همۀ جهان خوشایند نبودهاند، برای مثال گوگل به عنوان بزرگترین موتور جستجوی جهان نسبت به این فناوری حالت تدافعی گرفته است؛ چرا که پیشبینی میکند، این محصول جدید در آینده تهدیدی وجودی برای موتورهای...
به گزارش فارس به نقل از البلد، بسیاری از کارشناسان نسبت به رشد سریع ویدئوهای جعل عمیق یا «دیپ فیک» هشدار می دهند. آنچه به عنوان فناوری جعل عمیق شناخته می شود، کپی های جعلی از چهره افراد است که کاملا طبیعی به نظر می رسد. در این ویدئوها از تکنیک های هوش مصنوعی برای تغییر چهره افراد استفاده می شود تا علاوه بر چهره، صدا نیز شبیه به واقعیت باشد. سایت کانورزیشن درباره این فناوری نوشته که ویدئوهای دیپ فیک به طرز وحشتناکی در شبکه های اجتماعی، به ویژه تیک تاک در حال پخش شدن هستند. از جمله ویدئوهای افراد مشهوری مانند تام کروز، بازیگر و سران کشورها مانند اوباما، رئیس جمهور سابق ایالات متحده که تاکنون میلیون ها...
یک فناوری جدید با هوش مصنوعی و با استفاده از زرق و برق چشمها تشخیص میدهد که ویدئو واقعی است یا با Deepfake ساخته شده است. به گزارش مشرق، یک ابزار جدید به لطف تجزیه و تحلیل قرنیهها قادر به تشخیص و تفکیک فناوری Deepfake از یک ویدئوی واقعی است. با این هوش مصنوعی دیگر هیچ چیز نمیتواند ما را فریب دهد. همیشه گفته شده که چشمها آینه روح هستند و به نظر میرسد که این ضرب المثل دوباره اثبات شده، زیرا هوش مصنوعی قادر است یک ویدئوی واقعی را از یک ویدئوی دیپ فیک متمایز کند. دیپ فیک به زبان ساده فناوری است که صورت ما را روی بدن فرد دیگری میگذارد. بسیاری این کار را برای سرگرمی یا...
یک فرد با استفاده از فناوری دیپ فیک هویت رئیس ستاد یکی از مخالفان دولت روسیه را جعل کرده و با نمایندگان پارلمان هلند گفتگوی ویدئویی انجام داده است. سیاستمداران هلندی به طور مستقیم با خطرات ویدئوهای دیپ فیک روبرو شدند. دیپ فیک، یک فناوری جدید و مبتنی بر هوش مصنوعی است که با استفاده از تصاویر و ویدئوهای دروغین اما واقعگرایانه ساخته میشود. طبق گزارش نشریههای NL Times و De Volkskrant اعضای کمیته امور خارجه پارلمان این کشور فریب خوردند و با فردی کنفرانس ویدئویی برقرار کردند که با استفاده از فناوری دیپ فیک خود را لئونید ولکوف رئیس ستاد آلکسی ناوالنی (مخالف دولت رسمی روسیه) معرفی کرده بود. نام این فرد هنوز فاش نشده...
به گزارش گروه فیلم و صوت باشگاه خبرنگاران جوان، «دیپ فیک» یا «جعل عمیق» به ویدیوهایی گفته میشود که در آنها با استفاده از نرم افزارهای هوش مصنوعی مجموعهای از فیلمها و عکسهای یک فرد خاص را ترکیب کرده و تغییر میدهند. حرکات و گفتاری برای آن شخص تولید میکنند که در اصل وجود خارجی ندارد و آن فرد در دنیای واقعی آن حرکات یا گفتار را انجام نداده است. بیشتر بخوانید وقتی تکنولوژی مردگان را زنده میکند! + فیلم کد ویدیو دانلود فیلم اصلی انتهای پیام/
به گزارش جام جم آنلاین به نقل از باشگاه خبرنگاران جوان، دیپ فیک اصطلاحی است که طی سالهای اخیر بسیار در فضای مجازی مورد استفاده قرار گرفته است. دیپ فیک در واقع نام فرآیندی است که طی آن یک یا چند کاربر محتوایی غیر واقعی را در فضای مجازی منتشر میکنند تا کاربران را گمراه کنند و ویدئو یا دیگر محتواهای درست شده را در قالب مدرکی اصل به افراد ارائه دهند. در حالی که فناوری دیپ فیک پیش از این تنها در دستان سازمانهای اطلاعاتی مانند CIA بود، امروزه هر کاربری میتواند با دانلود برنامههای تولید ویدئوی دیپ فیک به این فناوری دست پیدا کند و از آن برای اهداف مختلف از جمله اهداف غیراخلاقی استفاده کند. با این وجود، یک ویدئوی دیپ...
به گزارش جام جم آنلاین به نقل از باشگاه خبرنگاران جوان، دیپ فیک اصطلاحی است که طی سالهای اخیر بسیار در فضای مجازی مورد استفاده قرار گرفته است. دیپ فیک در واقع نام فرآیندی است که طی آن یک یا چند کاربر محتوایی غیر واقعی را در فضای مجازی منتشر میکنند تا کاربران را گمراه کنند و ویدئو یا دیگر محتواهای درست شده را در قالب مدرکی اصل به افراد ارائه دهند. در حالی که فناوری دیپ فیک پیش از این تنها در دستان سازمانهای بزرگ مانند CIA بود اما امروزه هر کاربری میتواند با دانلود برنامههای تولید ویدئوی دیپ فیک به این فناوری دست پیدا کند و از آن برای اهداف غیراخلاقی استفاده کند. خوشبختانه تا امروز نمونه دیپ فیک قرار گرفته در دست کاربران...
گروه غرب از نگاه غرب خبرگزاری فارس: یک روزنامه نگار تحقیق گر ویدئویی از یک افشاگر ناشناس دریافت کرده است. این ویدئو یکی از نامزدهای انتخابات ریاست جمهوری را نشان می دهد که فعالیتی غیرقانونی را تایید می کند. اما آیا این ویدئو واقعی است؟ اگر چنین باشد این می تواند خبر بسیار مهمی باشد که هر انسانی در طول عمرش تنها یک بار ممکن است بشنود و می تواند روند انتخابات های پیش رو را به کلی وارونه کند. اما این روزنامه نگار که ویدئوی دریافتی را با یک ابزار مخصوص مورد بررسی قرار داده، می گوید این ویدئو آنطور که به نظر می رسد نیست. در واقع فایلی که او دریافت کرده یک ویدئوی «دیپ فیک» است؛ ویدئویی...
ایتنا -ویدئوهای دیپ فیک یک ابزار رسانهای مصنوعی و دستکاری شده توصیف شدهاند که میتوانند در قالب عکس، فایلهای صوتی یا ویدئویی با هدف گمراه کردن افراد و تغییر معنای واقعی فایلهای اصلی منتشر شوند. توئیتر که از برنامههای خود برای مقابله با ویدئوهای جعل عمیق خبر داده بود، امروز جزئیاتی را در مورد تبعات شناسایی و شرایط حذف این ویدئوها اعلام کرده است. توئیتر پیش نویس دستورالعملی را در وبلاگ خود منتشر کرده که نشان میدهد این شرکت چگونه میخواهد با ویدئوهای دیپ فیک یا جعل عمیق را شناسایی کند و به حذف آنها کمک کند. دستورالعمل یادشده سیاستهای توئیتر را هم در این زمینه مشخص کرده است. به گزارش ایتنا از مهر، در سند یادشده...
ایتنا - پس از اعلام برنامههای فیسبوک برای مقابله با ویدئوهای جعل عمیق یا دیپ فیک، آمازون هم قصد دارد با این پدیده خطرناک به طور جدی مقابله کند. پس از اعلام برنامههای فیسبوک برای مقابله با ویدئوهای جعل عمیق یا دیپ فیک، آمازون هم قصد دارد با این پدیده خطرناک به طور جدی مقابله کند. آمازون که نگران آلوده شدن خدمات تحت وب و سرویسهای کلود خود به ویدئوهای جعل عمیق یا دیپ فیک است، هم با جلب همکاری فنی و هم با عضویت در برخی کمیتههای تخصصی قصد دارد بر چالش مذکور غلبه کند. به گزارش ایتنا از مهر، از سوی دیگر آمازون تعدادی متخصص هوش مصنوعی را جذب کرده تا آنها پشتیبانیهای لازم را...
پس از اعلام برنامه های فیس بوک برای مقابله با ویدئوهای جعل عمیق یا دیپ فیک، آمازون هم قصد دارد با این پدیده خطرناک به طور جدی مقابله کند آمازون که نگران آلوده شدن خدمات تحت وب و سرویس های کلود خود به ویدئوهای جعل عمیق یا دیپ فیک است، هم با جلب همکاری فنی و هم با عضویت در برخی کمیته های تخصصی قصد دارد بر چالش مذکور غلبه کند. از سوی دیگر آمازون تعدادی متخصص هوش مصنوعی را جذب کرده تا آنها پشتیبانی های لازم را از این شرکت در حوزه مذکور به عمل اورند. آمازون همچنین از پشتیبانی مالی یک میلیون دلاری از گروه های تخصصی خبر داده که قصد دارند به پاکسازی سرویس...
به گزارش خبرگزاری مهر به نقل از انگجت، آمازون که نگران آلوده شدن خدمات تحت وب و سرویس های کلود خود به ویدئوهای جعل عمیق یا دیپ فیک است، هم با جلب همکاری فنی و هم با عضویت در برخی کمیته های تخصصی قصد دارد بر چالش مذکور غلبه کند. از سوی دیگر آمازون تعدادی متخصص هوش مصنوعی را جذب کرده تا آنها پشتیبانی های لازم را از این شرکت در حوزه مذکور به عمل اورند. آمازون همچنین از پشتیبانی مالی یک میلیون دلاری از گروه های تخصصی خبر داده که قصد دارند به پاکسازی سرویس های کلود آمازون از ویدئوهای جعل عمیق کمک کنند. از جمله اشخاص برجسته ای که قرار است در این زمینه به آمازون کمک کنند،...
مقامات محلی ایالت کالیفرنیا قانون جدیدی را به تصویب رسانده اند که به موجب آن تولید ویدئوهای دیپ فیک سیاسی از آغاز سال ۲۰۲۰ ممنوع می شود. به دنبال تصویب قانون ممنوعیت تولید ویدئوهای دیپ فیک سیاسی در تگزاس در ماه گذشته، مقامات ایالت کالیفرنیا هم به طور رسمی از ممنوعیت تولید و توزیع محتوای صوتی و ویدئویی دیپ فیک و مبتنی بر هوش مصنوعی خبر داده اند. کارشناسان سیاسی و فناوری در آمریکا هشدار داده اند که امکان سواستفاده از فناوری هوش مصنوعی برای جعل ویدئوهای باورپذیر بر علیه نامزدهای انتخابات ریاست جمهوری سال ۲۰۲۰ ایالات متحده وجود دارد و این امر می تواند ضمن تاثیرگذاری مخرب بر افکار عمومی، صحت و سلامت برگزاری انتخابات را...
به گزارش خبرگزاری مهر به نقل از نیواطلس، به دنبال تصویب قانون ممنوعیت تولید ویدئوهای دیپ فیک سیاسی در تگزاس در ماه گذشته، مقامات ایالت کالیفرنیا هم به طور رسمی از ممنوعیت تولید و توزیع محتوای صوتی و ویدئویی دیپ فیک و مبتنی بر هوش مصنوعی خبر داده اند. کارشناسان سیاسی و فناوری در آمریکا هشدار داده اند که امکان سواستفاده از فناوری هوش مصنوعی برای جعل ویدئوهای باورپذیر بر علیه نامزدهای انتخابات ریاست جمهوری سال ۲۰۲۰ ایالات متحده وجود دارد و این امر می تواند ضمن تاثیرگذاری مخرب بر افکار عمومی، صحت و سلامت برگزاری انتخابات را در سال آینده میلادی در این کشور زیر سوال ببرد. در عین حال برخی گروه های مدافع آزادی های مدنی در آمریکا...
فیس بوک قصد دارد ده میلیون دلار بودجه تحقیقاتی برای ابداع فناوری تازه ای اختصاص دهد که می تواند برای تسهیل شناسایی ویدئوهای جعلی تولید شده با هوش مصنوعی به کار رود. فیس بوک که نگران استفاده از این شبکه اجتماعی برای انتشار انبوه ویدئوهای تقلبی و جنجالی مبتنی بر هوش مصنوعی موسوم به دیپ فیک است، چالش فناورانه کشف ویدئوهای دیپ فیک را به راه انداخته است. فیس بوک هدف از اختصاص بودجه ده میلیون دلاری به این طرح را آسان شدن شناسایی ویدئوهای دیپ فیک دانسته است. در حال حاضر شناسایی ویدئوهای دیپ فیک به علت شباهت زیاد آنها با ویدئوهای اصل و غیرتقلبی کار ساده ای نیست و فناوری های هوش مصنوعی مورد استفاده...
به گزارش خبرگزاری مهر به نقل از زددی نت، فیس بوک که نگران استفاده از این شبکه اجتماعی برای انتشار انبوه ویدئوهای تقلبی و جنجالی مبتنی بر هوش مصنوعی موسوم به دیپ فیک است، چالش فناورانه کشف ویدئوهای دیپ فیک را به راه انداخته است. فیس بوک هدف از اختصاص بودجه ده میلیون دلاری به این طرح را آسان شدن شناسایی ویدئوهای دیپ فیک دانسته است. در حال حاضر شناسایی ویدئوهای دیپ فیک به علت شباهت زیاد آنها با ویدئوهای اصل و غیرتقلبی کار ساده ای نیست و فناوری های هوش مصنوعی مورد استفاده برای تولید این ویدئوها نیز روز به روز پیشرفته تر و پیچیده تر می شود. بخش اول از این طرح مشتمل بر ایجاد یک پایگاه داده...
ایتنا - نکته منفی در مورد ویدئوهای دیپ فیک این است که هر کسی میتواند به تولید آن بپردازد؛ در نتیجه همیشه امکان سوءاستفاده از چنین ویدئوهایی وجود دارد و نمیتوان به سادگی به محتوای آنها اعتماد کرد. دیپفیک، نوعی فناوری مبتنی بر هوش مصنوعی است که برای تولید یا تغییر محتوای ویدئو به کار میرود و میتواند نتیجهای را ارائه دهد که با حقیقت تفاوت دارد. این فناوری از سال ۲۰۱۷ و با اقدام یک کاربر که از آن برای تغییر چهره افراد مشهور و قرار دادن آنها در فیلمهای غیراخلاقی استفاده کرده بود، بر سر زبانها افتاد. با گسترش استفاده از "دیپفیک"، متخصصان حوزه فناوری، در مورد پیامدهای منفی احتمالی آن هشدار داده و بر...
به گزارش ایسنا، با گسترش استفاده از "دیپفیک"، متخصصان حوزه فناوری، در مورد پیامدهای منفی احتمالی آن هشدار داده و بر لزوم احتیاط در مورد آن تاکید میکنند. ساخت ویدئوهای دیپفیک ویدئوهای "دیپفیک"، با استفاده از دو سیستم مبتنی بر هوش مصنوعی ساخته میشوند که "تولیدکننده"(generator) و "تفکیککننده"(discriminator) نام دارند. در فرآیند تولید ویدئوی دیپفیک، تولیدکننده، یک ویدئوی غیرواقعی را تولید میکند و سپس تفکیککننده، واقعی یا غیرواقعی بودن آن را تشخیص میدهد. هر بار که تفکیککننده، ویدئویی را غیرواقعی تشخیص دهد، سرنخی به تولیدکننده ارائه میکند، تا نکات در ساخت ویدئوی بعدی رعایت شوند. تولیدکننده و تفکیک کننده به همراه یکدیگر، یک "شبکه مخالف مولد"(GAN) را شکل میدهند. نخستین گام برای شکلگیری یک شبکه مخالف مولد، شناسایی خروجی مورد...
به گزارش ایسنا، با گسترش استفاده از "دیپفیک"، متخصصان حوزه فناوری، در مورد پیامدهای منفی احتمالی آن هشدار داده و بر لزوم احتیاط در مورد آن تاکید میکنند. ساخت ویدئوهای دیپفیک ویدئوهای "دیپفیک"، با استفاده از دو سیستم مبتنی بر هوش مصنوعی ساخته میشوند که "تولیدکننده"(generator) و "تفکیککننده"(discriminator) نام دارند. در فرآیند تولید ویدئوی دیپفیک، تولیدکننده، یک ویدئوی غیرواقعی را تولید میکند و سپس تفکیککننده، واقعی یا غیرواقعی بودن آن را تشخیص میدهد. هر بار که تفکیککننده، ویدئویی را غیرواقعی تشخیص دهد، سرنخی به تولیدکننده ارائه میکند، تا نکات در ساخت ویدئوی بعدی رعایت شوند. تولیدکننده و تفکیک کننده به همراه یکدیگر، یک "شبکه مخالف مولد"(GAN) را شکل میدهند. نخستین گام برای شکلگیری یک شبکه مخالف مولد، شناسایی خروجی مورد...