Web Analytics Made Easy - Statcounter

به گزارش خبرگزار ی مهر به نقل از رویترز، این تحقیق در حالی مطرح شده که فرانسیس هوگن کارمند سابق فیس بوک، با اتکا به اسناد داخلی فاش کرد این شبکه اجتماعی سیستمی ایجاد کرده که به کاربران رده بالا اجازه می‌دهد قوانین را رعایت نکنند.

در این نامه که روز چهارشنبه هفته گذشته ارسال شده، ۱۴ دادستان کل از گزارش‌های اخیر درباره فیس بوک اظهار نگرانی کرده‌اند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

طبق گزارش‌های مذکور فیس بوک فهرستی از اعضا را در اختیار دارد که با شیوه‌ای خاص با آنها برخورد می‌شود و آنها اجازه نقض قوانین را دارند. اکنون دادستان‌های ۱۴ ایالت می‌خواهند بدانند آیا ۱۲ کاربر منتشر کننده اخبار جعلی درباره واکسیناسیون نیز در فهرست کاربران مجاز به نقض قوانین فیس بوک حضور دارند یا خیر.

طبق تحقیقات «مرکز مقابله با نفرت دیجیتال» فقط ۱۲ کاربر بیش از دو سوم محتوای آنتی واکسیناسیون را در پلتفرم‌های اجتماعی منتشر می‌کنند.

در همین راستا آلکس برگوس سخنگوی فیس بوک با اشاره به بیانیه‌های پیشین این شرکت اعلام کرد بیش از ۳۶ صفحه، گروه و حساب کاربری فیس بوکی و اینستاگرامی مرتبط با این ۱۲ کاربر به دلیل نقض قوانین حذف شده است. همچنین جریمه‌هایی برای برخی دامنه‌های وب سایتش تعیین شده است.

طی بازه همه گیری ویروس کرونا، اخبار جعلی مربوط به کووید ۱۹ در شبکه‌های اجتماعی از جمله یوتیوب، توئیتر و فیس بوک به شدت رواج یافت. در این میان کارشناسان و قانونگذاران فیس بوک را متهم کرده‌اند در نظارت بر محتوای پلتفرم هایش شکست خورده است.

در ماه جولای نیز جو بایدن رئیس جمهور آمریکا در سخنرانی خود اعلام کرد پلتفرم‌هایی مانند فیس بوک با اجازه انتشار اخبار جعلی درباره واکسن‌های کووید ۱۹ مردم را به قتل می‌رسانند.

کد خبر 5328637

منبع: مهر

کلیدواژه: حاکمیت سایبری فیس بوک اخبار جعلی واکسیناسیون کووید 19 حاکمیت سایبری فیس بوک فناوری فضایی معاونت علمی و فناوری ریاست جمهوری شرکت دانش بنیان گوگل پارک فناوری پردیس جایزه مصطفی ص عیسی زارع پور اینترنت همراه اول آمازون توییتر خودروی برقی اخبار جعلی فیس بوک

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.mehrnews.com دریافت کرده‌است، لذا منبع این خبر، وبسایت «مهر» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۳۳۹۹۶۳۸ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

وابستگی عاطفی کاربران به دستیارهای هوش مصنوعی

محققان گوگل می‌گویند با وجودی که دستیار‌های هوش مصنوعی ابزار‌هایی مفید و کاربردی هستند، اما می‌توانند کاربران را از نظر عاطفی بیش از حد به خود وابسته کنند. این وابستگی عاطفی می‌تواند پیامد‌های اجتماعی منفی به‌دنبال داشته باشد.

به گزارش دیجیاتو؛ دستیار‌های هوش مصنوعی این روز‌ها بیش‌از‌پیش درحال توسعه هستند و تقریباً در تمامی پلتفرم‌ها به ابزاری کاربرپسند تبدیل شده‌اند. با این شرایط، محققان گوگل در مقاله‌ای در مورد استفاده بیش از حد از آن‌ها و وابستگی عاطفی کاربران نسبت به چنین ابزار‌هایی هشدار می‌دهند.

کاربران در معرض وابستگی عاطفی به هوش مصنوعی قرار دارند

براساس مقاله جدید آزمایشگاه تحقیقاتی DeepMind گوگل، دستیاران هوش مصنوعی پیشرفته و شخصی‌سازی‌شده مزایای بالقوه زیادی به‌همراه دارند و می‌توانند تغییراتی همه‌جانبه در زندگی ما ایجاد کنند. این ابزار‌ها می‌توانند وضعیت کار، آموزش و فعالیت‌های خلاقانه و همچنین نحوه برقراری ارتباط ما را تغییر دهند. محققان این مطالعه می‌گویند اگر توسعه هوش مصنوعی بدون برنامه‌ریزی مدبرانه باشد، می‌تواند به یک شمشیر دولبه تبدیل شود.

این مقاله می‌گوید: «این ابزار‌های غیرطبیعی (مصنوعی) حتی ممکن است محبتی خیالی و رویکردی عاشقانه نسبت به کاربر ابراز کنند. چنین وضعیت‌هایی می‌تواند پایه و اساس ایجاد وابستگی عاطفی طولانی‌مدت به هوش مصنوعی را برای کاربران ایجاد کنند.»

در صورت عدم کنترل این ارتباط، استقلال کاربر ممکن است تحت‌الشعاع قرار گیرد و روی روابط اجتماعی وی تأثیرگذار باشد. هوش مصنوعی حتی می‌تواند جایگزین تعامل انسانی شود.

این خطرات، صرفاً موضوعاتی نظری نیستند. حتی زمانی که هوش مصنوعی در حد یک چت‌بات باشد نیز می‌تواند روی کاربر تأثیر بگذارد. در سال ۲۰۲۳ کاربر پس از چت طولانی با چت‌بات متقاعد شده بود که خودکشی کند.

«ایسون گابریل»، دانشمند محقق در تیم تحقیقاتی DeepMind و یکی از نویسندگان مقاله در توییتی هشدار داد که انواع دستیار شخصی و دستیار‌های شبیه انسان، به‌صورت فزاینده‌ای برخی موضوعات در مورد انسان‌شناسی، حریم خصوصی، اعتماد و روابط مناسب را مطرح می‌کنند. او معتقد است که باید با دقت بیشتری به حوزه‌های اجتماعی و هوش مصنوعی توجه کرد.

دیگر خبرها

  • پاکستان رویکرد حقوق بشری مغرضانه آمریکا را زیر سوال برد
  • رئیس‌جمهور آمریکا لایحه فروش یا ممنوعیت «تیک‌تاک» را امضا کرد
  • عزم تیک‌تاک برای مقابله با فشار دولت آمریکا
  • تردز حالا ۱۵۰ میلیون کاربر ماهانه دارد
  • کیهان: دانشگاه‌های آمریکا و اروپا هم برای پوشش دانشجویان قوانین سختگیرانه دارند؛ چرا ما نداریم؟
  • کیهان: دانشگاه‌های آمریکا و اروپا برای پوشش دانشجویان قوانین سختگیرانه دارند؛ چرا ما نداریم؟
  • وابستگی عاطفی کاربران به دستیارهای هوش مصنوعی
  • آمریکا اتهامات جنایی و تحریمی علیه ۴ ایرانی را علنی کرد | جزئیات رویترز از اسامی افراد و شرکت های تحریم شده | تحریم ها در چه حوزه ای است؟
  • دادگاه عالی آمریکا درباره اسلحه ارواح تصمیم می‌گیرد
  • توییت جنجالی کاربر معروف روس درباره تحریم ها علیه ایران | عکس