سوال ۱۴ دادستان کل آمریکا درباره اخبار جعلی واکسن از فیس بوک
تاریخ انتشار: ۲۴ مهر ۱۴۰۰ | کد خبر: ۳۳۳۹۹۶۳۸
به گزارش خبرگزار ی مهر به نقل از رویترز، این تحقیق در حالی مطرح شده که فرانسیس هوگن کارمند سابق فیس بوک، با اتکا به اسناد داخلی فاش کرد این شبکه اجتماعی سیستمی ایجاد کرده که به کاربران رده بالا اجازه میدهد قوانین را رعایت نکنند.
در این نامه که روز چهارشنبه هفته گذشته ارسال شده، ۱۴ دادستان کل از گزارشهای اخیر درباره فیس بوک اظهار نگرانی کردهاند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
طبق گزارشهای مذکور فیس بوک فهرستی از اعضا را در اختیار دارد که با شیوهای خاص با آنها برخورد میشود و آنها اجازه نقض قوانین را دارند. اکنون دادستانهای ۱۴ ایالت میخواهند بدانند آیا ۱۲ کاربر منتشر کننده اخبار جعلی درباره واکسیناسیون نیز در فهرست کاربران مجاز به نقض قوانین فیس بوک حضور دارند یا خیر.
طبق تحقیقات «مرکز مقابله با نفرت دیجیتال» فقط ۱۲ کاربر بیش از دو سوم محتوای آنتی واکسیناسیون را در پلتفرمهای اجتماعی منتشر میکنند.
در همین راستا آلکس برگوس سخنگوی فیس بوک با اشاره به بیانیههای پیشین این شرکت اعلام کرد بیش از ۳۶ صفحه، گروه و حساب کاربری فیس بوکی و اینستاگرامی مرتبط با این ۱۲ کاربر به دلیل نقض قوانین حذف شده است. همچنین جریمههایی برای برخی دامنههای وب سایتش تعیین شده است.
طی بازه همه گیری ویروس کرونا، اخبار جعلی مربوط به کووید ۱۹ در شبکههای اجتماعی از جمله یوتیوب، توئیتر و فیس بوک به شدت رواج یافت. در این میان کارشناسان و قانونگذاران فیس بوک را متهم کردهاند در نظارت بر محتوای پلتفرم هایش شکست خورده است.
در ماه جولای نیز جو بایدن رئیس جمهور آمریکا در سخنرانی خود اعلام کرد پلتفرمهایی مانند فیس بوک با اجازه انتشار اخبار جعلی درباره واکسنهای کووید ۱۹ مردم را به قتل میرسانند.
کد خبر 5328637منبع: مهر
کلیدواژه: حاکمیت سایبری فیس بوک اخبار جعلی واکسیناسیون کووید 19 حاکمیت سایبری فیس بوک فناوری فضایی معاونت علمی و فناوری ریاست جمهوری شرکت دانش بنیان گوگل پارک فناوری پردیس جایزه مصطفی ص عیسی زارع پور اینترنت همراه اول آمازون توییتر خودروی برقی اخبار جعلی فیس بوک
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.mehrnews.com دریافت کردهاست، لذا منبع این خبر، وبسایت «مهر» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۳۳۹۹۶۳۸ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
وابستگی عاطفی کاربران به دستیارهای هوش مصنوعی
محققان گوگل میگویند با وجودی که دستیارهای هوش مصنوعی ابزارهایی مفید و کاربردی هستند، اما میتوانند کاربران را از نظر عاطفی بیش از حد به خود وابسته کنند. این وابستگی عاطفی میتواند پیامدهای اجتماعی منفی بهدنبال داشته باشد.
به گزارش دیجیاتو؛ دستیارهای هوش مصنوعی این روزها بیشازپیش درحال توسعه هستند و تقریباً در تمامی پلتفرمها به ابزاری کاربرپسند تبدیل شدهاند. با این شرایط، محققان گوگل در مقالهای در مورد استفاده بیش از حد از آنها و وابستگی عاطفی کاربران نسبت به چنین ابزارهایی هشدار میدهند.
کاربران در معرض وابستگی عاطفی به هوش مصنوعی قرار دارندبراساس مقاله جدید آزمایشگاه تحقیقاتی DeepMind گوگل، دستیاران هوش مصنوعی پیشرفته و شخصیسازیشده مزایای بالقوه زیادی بههمراه دارند و میتوانند تغییراتی همهجانبه در زندگی ما ایجاد کنند. این ابزارها میتوانند وضعیت کار، آموزش و فعالیتهای خلاقانه و همچنین نحوه برقراری ارتباط ما را تغییر دهند. محققان این مطالعه میگویند اگر توسعه هوش مصنوعی بدون برنامهریزی مدبرانه باشد، میتواند به یک شمشیر دولبه تبدیل شود.
این مقاله میگوید: «این ابزارهای غیرطبیعی (مصنوعی) حتی ممکن است محبتی خیالی و رویکردی عاشقانه نسبت به کاربر ابراز کنند. چنین وضعیتهایی میتواند پایه و اساس ایجاد وابستگی عاطفی طولانیمدت به هوش مصنوعی را برای کاربران ایجاد کنند.»
در صورت عدم کنترل این ارتباط، استقلال کاربر ممکن است تحتالشعاع قرار گیرد و روی روابط اجتماعی وی تأثیرگذار باشد. هوش مصنوعی حتی میتواند جایگزین تعامل انسانی شود.
این خطرات، صرفاً موضوعاتی نظری نیستند. حتی زمانی که هوش مصنوعی در حد یک چتبات باشد نیز میتواند روی کاربر تأثیر بگذارد. در سال ۲۰۲۳ کاربر پس از چت طولانی با چتبات متقاعد شده بود که خودکشی کند.
«ایسون گابریل»، دانشمند محقق در تیم تحقیقاتی DeepMind و یکی از نویسندگان مقاله در توییتی هشدار داد که انواع دستیار شخصی و دستیارهای شبیه انسان، بهصورت فزایندهای برخی موضوعات در مورد انسانشناسی، حریم خصوصی، اعتماد و روابط مناسب را مطرح میکنند. او معتقد است که باید با دقت بیشتری به حوزههای اجتماعی و هوش مصنوعی توجه کرد.