Web Analytics Made Easy - Statcounter
2024-03-29@15:31:29 GMT
۲۳ نتیجه - (۰.۰۰۰ ثانیه)

جدیدترین‌های «ویدئوهای دیپ فیک»:

بیشتر بخوانید: اخبار اقتصادی روز در یوتیوب
    «دیپ فیک» یا جعل عمیق تکنولوژی مبتنی بر هوش مصنوعی است که استفاده از منجر به تولید ویدئو و اصوات جعلی می‌شود، فایل‌هایی که سبب می‌شود دیگر انسان به راحتی حتی توان اعتماد به گوش و چشم خود را هم نداشته باشد. گروه علمی و فناوری خبرگزاری برنا- علی پژوهش؛ فناوری‌های مرتبط با هوش مصنوعی بعد از معرفی چت‌بات‌ها توسط مایکروسافت بار دیگر بر سر زبان‌ها افتادند، کاربران مختلف هیجان‌زده از صحبت با موجوداتی هستند که واقعیت وجودی ندارند. چت‌بات‌ها البته برای همۀ جهان خوشایند نبوده‌اند، برای مثال گوگل به عنوان بزرگترین موتور جستجوی جهان نسبت به این فناوری حالت تدافعی گرفته است؛ چرا که پیش‌بینی می‌کند، این محصول جدید در آینده تهدیدی وجودی برای موتورهای...
    به گزارش فارس به نقل از البلد، بسیاری از کارشناسان نسبت به رشد سریع ویدئوهای جعل عمیق یا «دیپ فیک» هشدار می دهند. آنچه به عنوان فناوری جعل عمیق شناخته می شود، کپی های جعلی از چهره افراد است که کاملا طبیعی به نظر می رسد. در این ویدئوها از تکنیک های هوش مصنوعی برای تغییر چهره افراد استفاده می شود تا علاوه بر چهره، صدا نیز شبیه به واقعیت باشد. سایت کانورزیشن درباره این فناوری نوشته که ویدئوهای دیپ فیک به طرز وحشتناکی در شبکه های اجتماعی، به ویژه تیک تاک در حال پخش شدن هستند. از جمله ویدئوهای افراد مشهوری مانند تام کروز، بازیگر و سران کشورها مانند اوباما، رئیس جمهور سابق ایالات متحده که تاکنون میلیون ها...
    یک فناوری جدید با هوش مصنوعی و با استفاده از زرق و برق چشم‌ها تشخیص می‌دهد که ویدئو واقعی است یا با Deepfake ساخته شده است. به گزارش مشرق، یک ابزار جدید به لطف تجزیه و تحلیل قرنیه‌ها قادر به تشخیص و تفکیک فناوری Deepfake از یک ویدئوی واقعی است. با این هوش مصنوعی دیگر هیچ چیز نمی‌تواند ما را فریب دهد. همیشه گفته شده که چشم‌ها آینه روح هستند و به نظر می‌رسد که این ضرب المثل دوباره اثبات شده، زیرا هوش مصنوعی قادر است یک ویدئوی واقعی را از یک ویدئوی دیپ فیک متمایز کند. دیپ فیک به زبان ساده فناوری است که صورت ما را روی بدن فرد دیگری می‌گذارد. بسیاری این کار را برای سرگرمی یا...
    یک فرد با استفاده از فناوری دیپ فیک هویت رئیس ستاد یکی از مخالفان دولت روسیه را جعل کرده و با نمایندگان پارلمان هلند گفتگوی ویدئویی انجام داده است. سیاستمداران هلندی به طور مستقیم با خطرات ویدئوهای دیپ فیک روبرو شدند. دیپ فیک، یک فناوری جدید و مبتنی بر هوش مصنوعی است که با استفاده از تصاویر و ویدئوهای دروغین اما واقع‌گرایانه ساخته می‌شود. طبق گزارش نشریه‌های NL Times و De Volkskrant اعضای کمیته امور خارجه پارلمان این کشور فریب خوردند و با فردی کنفرانس ویدئویی برقرار کردند که با استفاده از فناوری دیپ فیک خود را لئونید ولکوف رئیس ستاد آلکسی ناوالنی (مخالف دولت رسمی روسیه) معرفی کرده بود. نام این فرد هنوز فاش نشده...
    به گزارش گروه فیلم و صوت باشگاه خبرنگاران جوان، «دیپ فیک» یا «جعل عمیق» به ویدیوهایی گفته‌ می‌شود که در آنها با استفاده از نرم‌ افزارهای هوش مصنوعی مجموعه‌ای از فیلم‌ها و عکس‌های یک فرد خاص را ترکیب کرده و تغییر می‌دهند. حرکات و گفتاری برای آن شخص تولید می‌کنند که در اصل وجود خارجی ندارد و آن فرد در دنیای واقعی آن حرکات یا گفتار را انجام نداده است.   بیشتر بخوانید وقتی تکنولوژی مردگان را زنده می‌کند! + فیلم   کد ویدیو دانلود فیلم اصلی   انتهای پیام/  
    به گزارش جام جم آنلاین به نقل از باشگاه خبرنگاران جوان، دیپ فیک اصطلاحی است که طی سال‌های اخیر بسیار در فضای مجازی مورد استفاده قرار گرفته است. دیپ فیک در واقع نام فرآیندی است که طی آن یک یا چند کاربر محتوایی غیر واقعی را در فضای مجازی منتشر می‌کنند تا کاربران را گمراه کنند و ویدئو یا دیگر محتواهای درست شده را در قالب مدرکی اصل به افراد ارائه دهند. در حالی که فناوری دیپ فیک پیش از این تنها در دستان سازمان‌های اطلاعاتی مانند CIA بود، امروزه هر کاربری می‌تواند با دانلود برنامه‌های تولید ویدئوی دیپ فیک به این فناوری دست پیدا کند و از آن برای اهداف مختلف از جمله اهداف غیراخلاقی استفاده کند. با این وجود، یک ویدئوی دیپ...
    به گزارش جام جم آنلاین به نقل از باشگاه خبرنگاران جوان، دیپ فیک اصطلاحی است که طی سال‌های اخیر بسیار در فضای مجازی مورد استفاده قرار گرفته است. دیپ فیک در واقع نام فرآیندی است که طی آن یک یا چند کاربر محتوایی غیر واقعی را در فضای مجازی منتشر می‌کنند تا کاربران را گمراه کنند و ویدئو یا دیگر محتواهای درست شده را در قالب مدرکی اصل به افراد ارائه دهند.   در حالی که فناوری دیپ فیک پیش از این تنها در دستان سازمان‌های بزرگ مانند CIA بود اما امروزه هر کاربری می‌تواند با دانلود برنامه‌های تولید ویدئوی دیپ فیک به این فناوری دست پیدا کند و از آن برای اهداف غیراخلاقی استفاده کند. خوشبختانه تا امروز نمونه دیپ فیک قرار گرفته در دست کاربران...
    گروه غرب از نگاه غرب خبرگزاری فارس: یک روزنامه نگار تحقیق گر ویدئویی از یک افشاگر ناشناس دریافت کرده است. این ویدئو یکی از نامزدهای انتخابات ریاست جمهوری را نشان می دهد که فعالیتی غیرقانونی را تایید می کند. اما آیا این ویدئو واقعی است؟ اگر چنین باشد این می تواند خبر بسیار مهمی باشد که هر انسانی در طول عمرش تنها یک بار ممکن است بشنود و می تواند روند انتخابات های پیش رو را به کلی وارونه کند. اما این روزنامه نگار که ویدئوی دریافتی را با یک ابزار مخصوص مورد بررسی قرار داده، می گوید این ویدئو آنطور که به نظر  می رسد نیست. در واقع فایلی که او دریافت کرده یک ویدئوی «دیپ فیک» است؛ ویدئویی...
    ایتنا -ویدئوهای دیپ فیک یک ابزار رسانه‌ای مصنوعی و دستکاری شده توصیف شده‌اند که می‌توانند در قالب عکس، فایل‌های صوتی یا ویدئویی با هدف گمراه کردن افراد و تغییر معنای واقعی فایل‌های اصلی منتشر شوند. توئیتر که از برنامه‌های خود برای مقابله با ویدئوهای جعل عمیق خبر داده بود، امروز جزئیاتی را در مورد تبعات شناسایی و شرایط حذف این ویدئوها اعلام کرده است. توئیتر پیش نویس دستورالعملی را در وبلاگ خود منتشر کرده که نشان می‌دهد این شرکت چگونه می‌خواهد با ویدئوهای دیپ فیک یا جعل عمیق را شناسایی کند و به حذف آنها کمک کند. دستورالعمل یادشده سیاست‌های توئیتر را هم در این زمینه مشخص کرده است. به گزارش ایتنا از مهر، در سند یادشده...
    ایتنا - پس از اعلام برنامه‌های فیس‌بوک برای مقابله با ویدئوهای جعل عمیق یا دیپ فیک، آمازون هم قصد دارد با این پدیده خطرناک به طور جدی مقابله کند. پس از اعلام برنامه‌های فیس‌بوک برای مقابله با ویدئوهای جعل عمیق یا دیپ فیک، آمازون هم قصد دارد با این پدیده خطرناک به طور جدی مقابله کند. آمازون که نگران آلوده شدن خدمات تحت وب و سرویس‌های کلود خود به ویدئوهای جعل عمیق یا دیپ فیک است، هم با جلب همکاری فنی و هم با عضویت در برخی کمیته‌های تخصصی قصد دارد بر چالش مذکور غلبه کند. به گزارش ایتنا از مهر، از سوی دیگر آمازون تعدادی متخصص هوش مصنوعی را جذب کرده تا آنها پشتیبانی‌های لازم را...
    پس از اعلام برنامه های فیس بوک برای مقابله با ویدئوهای جعل عمیق یا دیپ فیک، آمازون هم قصد دارد با این پدیده خطرناک به طور جدی مقابله کند آمازون که نگران آلوده شدن خدمات تحت وب و سرویس های کلود خود به ویدئوهای جعل عمیق یا دیپ فیک است، هم با جلب همکاری فنی و هم با عضویت در برخی کمیته های تخصصی قصد دارد بر چالش مذکور غلبه کند. از سوی دیگر آمازون تعدادی متخصص هوش مصنوعی را جذب کرده تا آنها پشتیبانی های لازم را از این شرکت در حوزه مذکور به عمل اورند. آمازون همچنین از پشتیبانی مالی یک میلیون دلاری از گروه های تخصصی خبر داده که قصد دارند به پاکسازی سرویس...
    به گزارش خبرگزاری مهر به نقل از انگجت، آمازون که نگران آلوده شدن خدمات تحت وب و سرویس های کلود خود به ویدئوهای جعل عمیق یا دیپ فیک است، هم با جلب همکاری فنی و هم با عضویت در برخی کمیته های تخصصی قصد دارد بر چالش مذکور غلبه کند. از سوی دیگر آمازون تعدادی متخصص هوش مصنوعی را جذب کرده تا آنها پشتیبانی های لازم را از این شرکت در حوزه مذکور به عمل اورند. آمازون همچنین از پشتیبانی مالی یک میلیون دلاری از گروه های تخصصی خبر داده که قصد دارند به پاکسازی سرویس های کلود آمازون از ویدئوهای جعل عمیق کمک کنند. از جمله اشخاص برجسته ای که قرار است در این زمینه به آمازون کمک کنند،...
    مقامات محلی ایالت کالیفرنیا قانون جدیدی را به تصویب رسانده اند که به موجب آن تولید ویدئوهای دیپ فیک سیاسی از آغاز سال ۲۰۲۰ ممنوع می شود. به دنبال تصویب قانون ممنوعیت تولید ویدئوهای دیپ فیک سیاسی در تگزاس در ماه گذشته، مقامات ایالت کالیفرنیا هم به طور رسمی از ممنوعیت تولید و توزیع محتوای صوتی و ویدئویی دیپ فیک و مبتنی بر هوش مصنوعی خبر داده اند. کارشناسان سیاسی و فناوری در آمریکا هشدار داده اند که امکان سواستفاده از فناوری هوش مصنوعی برای جعل ویدئوهای باورپذیر بر علیه نامزدهای انتخابات ریاست جمهوری سال ۲۰۲۰ ایالات متحده وجود دارد و این امر می تواند ضمن تاثیرگذاری مخرب بر افکار عمومی، صحت و سلامت برگزاری انتخابات را...
    به گزارش خبرگزاری مهر به نقل از نیواطلس، به دنبال تصویب قانون ممنوعیت تولید ویدئوهای دیپ فیک سیاسی در تگزاس در ماه گذشته، مقامات ایالت کالیفرنیا هم به طور رسمی از ممنوعیت تولید و توزیع محتوای صوتی و ویدئویی دیپ فیک و مبتنی بر هوش مصنوعی خبر داده اند. کارشناسان سیاسی و فناوری در آمریکا هشدار داده اند که امکان سواستفاده از فناوری هوش مصنوعی برای جعل ویدئوهای باورپذیر بر علیه نامزدهای انتخابات ریاست جمهوری سال ۲۰۲۰ ایالات متحده وجود دارد و این امر می تواند ضمن تاثیرگذاری مخرب بر افکار عمومی، صحت و سلامت برگزاری انتخابات را در سال آینده میلادی در این کشور زیر سوال ببرد. در عین حال برخی گروه های مدافع آزادی های مدنی در آمریکا...
    فیس بوک قصد دارد ده میلیون دلار بودجه تحقیقاتی برای ابداع فناوری تازه ای اختصاص دهد که می تواند برای تسهیل شناسایی ویدئوهای جعلی تولید شده با هوش مصنوعی به کار رود. فیس بوک که نگران استفاده از این شبکه اجتماعی برای انتشار انبوه ویدئوهای تقلبی و جنجالی مبتنی بر هوش مصنوعی موسوم به دیپ فیک است، چالش فناورانه کشف ویدئوهای دیپ فیک را به راه انداخته است. فیس بوک هدف از اختصاص بودجه ده میلیون دلاری به این طرح را آسان شدن شناسایی ویدئوهای دیپ فیک دانسته است. در حال حاضر شناسایی ویدئوهای دیپ فیک به علت شباهت زیاد آنها با ویدئوهای اصل و غیرتقلبی کار ساده ای نیست و فناوری های هوش مصنوعی مورد استفاده...
    به گزارش خبرگزاری مهر به نقل از زددی نت، فیس بوک که نگران استفاده از این شبکه اجتماعی برای انتشار انبوه ویدئوهای تقلبی و جنجالی مبتنی بر هوش مصنوعی موسوم به دیپ فیک است، چالش فناورانه کشف ویدئوهای دیپ فیک را به راه انداخته است. فیس بوک هدف از اختصاص بودجه ده میلیون دلاری به این طرح را آسان شدن شناسایی ویدئوهای دیپ فیک دانسته است. در حال حاضر شناسایی ویدئوهای دیپ فیک به علت شباهت زیاد آنها با ویدئوهای اصل و غیرتقلبی کار ساده ای نیست و فناوری های هوش مصنوعی مورد استفاده برای تولید این ویدئوها نیز روز به روز پیشرفته تر و پیچیده تر می شود. بخش اول از این طرح مشتمل بر ایجاد یک پایگاه داده...
    ایتنا - نکته منفی در مورد ویدئوهای دیپ فیک این است که هر کسی می‌تواند به تولید آن بپردازد؛ در نتیجه همیشه امکان سوءاستفاده از چنین ویدئوهایی وجود دارد و نمی‌توان به سادگی به محتوای آنها اعتماد کرد. دیپ‌فیک، نوعی فناوری مبتنی بر هوش مصنوعی است که برای تولید یا تغییر محتوای ویدئو به کار می‌رود و می‌تواند نتیجه‌ای را ارائه دهد که با حقیقت تفاوت دارد. این فناوری از سال ۲۰۱۷ و با اقدام یک کاربر که از آن برای تغییر چهره افراد مشهور و قرار دادن آنها در فیلم‌های غیراخلاقی استفاده کرده بود، بر سر زبان‌ها افتاد. با گسترش استفاده از "دیپ‌فیک"، متخصصان حوزه فناوری، در مورد پیامدهای منفی احتمالی آن هشدار داده و بر...
    به گزارش ایسنا، با گسترش استفاده از "دیپ‌فیک"، متخصصان حوزه فناوری، در مورد پیامدهای منفی احتمالی آن هشدار داده و بر لزوم احتیاط در مورد آن تاکید می‌کنند. ساخت ویدئوهای دیپ‌فیک ویدئوهای "دیپ‌فیک"، با استفاده از دو سیستم مبتنی بر هوش مصنوعی ساخته می‌شوند که "تولیدکننده"(generator) و "تفکیک‌کننده"(discriminator)  نام دارند. در فرآیند تولید ویدئوی دیپ‌فیک، تولیدکننده، یک ویدئوی غیرواقعی را تولید می‌کند و سپس تفکیک‌کننده، واقعی یا غیرواقعی بودن آن را تشخیص می‌دهد. هر بار که تفکیک‌کننده، ویدئویی را غیرواقعی تشخیص دهد، سرنخی به تولیدکننده ارائه می‌کند، تا نکات در ساخت ویدئوی بعدی رعایت شوند. تولیدکننده و تفکیک کننده به همراه یکدیگر، یک "شبکه مخالف مولد"(GAN) را شکل می‌دهند. نخستین گام برای شکل‌گیری یک شبکه مخالف مولد، شناسایی خروجی مورد...
    به گزارش ایسنا، با گسترش استفاده از "دیپ‌فیک"، متخصصان حوزه فناوری، در مورد پیامدهای منفی احتمالی آن هشدار داده و بر لزوم احتیاط در مورد آن تاکید می‌کنند. ساخت ویدئوهای دیپ‌فیک ویدئوهای "دیپ‌فیک"، با استفاده از دو سیستم مبتنی بر هوش مصنوعی ساخته می‌شوند که "تولیدکننده"(generator) و "تفکیک‌کننده"(discriminator)  نام دارند. در فرآیند تولید ویدئوی دیپ‌فیک، تولیدکننده، یک ویدئوی غیرواقعی را تولید می‌کند و سپس تفکیک‌کننده، واقعی یا غیرواقعی بودن آن را تشخیص می‌دهد. هر بار که تفکیک‌کننده، ویدئویی را غیرواقعی تشخیص دهد، سرنخی به تولیدکننده ارائه می‌کند، تا نکات در ساخت ویدئوی بعدی رعایت شوند. تولیدکننده و تفکیک کننده به همراه یکدیگر، یک "شبکه مخالف مولد"(GAN) را شکل می‌دهند. نخستین گام برای شکل‌گیری یک شبکه مخالف مولد، شناسایی خروجی مورد...
۱