Web Analytics Made Easy - Statcounter

به گزارش جام جم انلاین به نقل از خبر گزاری مهر ،گوگل، مایکروسافت، آمازون و سایر غول‌های فناوری باید در نحوه رتبه بندی نتایج جستجوی آنلاین تحت دستورالعمل‌های جدید اتحادیه اروپا که از روز دوشنبه اجرا می‌شود  شفاف تر عمل کنند. این اقدام احتمالاً با توجه به دستورالعمل‌های جدیدی که ابلاغ می‌شود بر بسیاری از  شرکت‌های فناوری در سراسر جهان تأثیر خواهد داشت .

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

رقبای کوچکتر و برخی از شرکت‌های فعال در حوزه فناوری، مدت‌هاست از شیوه‌های خودسرانه و غیرشفاف در پیش گرفته شده توسط غول‌های فناوری جهان که بر چگونگی رتبه‌بندی محصولات و خدمات آن‌ها در نتایج جستجو تأثیر می‌گذارد، شکایت دارند چرا که در بسیاری از مواقع این موضوع سبب می‌شود شرکت‌های کوچکتر بسیار کمتر از شرکت‌های بزرگ دیده شوند.

افزایش عدالت در اقتصاد پلتفرم‌های آنلاین

کمیسیون اروپا گفت که این دستورالعمل‌ها نیازمند این است که پلتفرم‌های آنلاین، پارامترهای الگوریتمی تعیین‌کننده رتبه‌بندی در جستجو را تعیین نموده و با شرکت‌ها به اشتراک بگذارند. همچنین مارگرت وستاگر، کمیسر رقابت اروپا نیز در بیانیه‌ای اعلام کرد: این دستورالعمل‌ها استانداردی را برای شفافیت بیشتر رتبه‌بندی الگوریتمی ایجاد می‌کند و عدالت را در اقتصاد پلتفرم‌های آنلاین افزایش می‌دهد، در نتیجه باعث ابتکار و رفاه میلیون‌ها اروپایی خواهد شد.

شیوه‌های جستجوی آنلاین گوگل موجب جریمه بیش از ۸ میلیارد یورویی (۹٫۷۱ میلیارد دلار) این شرکت در بازه‌ سال‌های ۲۰۱۷ تا ۲۰۱۹ از سوی رگولاتوری ضد‌انحصاری اتحادیه اروپا شده است که دریافتند گوگل محصولات خود را به طور ناعادلانه و به ضرر رقبا در نتایج جستجو بالاتر نشان می‌دهد.

غول‌های فناوری مهار می‌شوند

وستاگر در ۱۵ دسامبر، پیش‌نویس قوانینی را برای کنترل و مهار غول‌های فناوری ارائه می‌دهد، لیستی از بایدها و نبایدها و افزایش مسئولیت‌پذیری پلتفرم‌ها در حذف محتوای غیرقانونی و مضر از پلتفرم خود که برای تشویق به پیروی از قوانین با جریمه‌ها و تحریم‌هایی نیز همراه است. تیری برتون، کمیسر بازار داخلی اتحادیه اروپا نیز گفت: این دستورالعمل ها میزان شفافیت در کار را افزایش می دهند، رقابت عادلانه ای را ایجاد می کنند و قانون آینده بازارهای دیجیتال را نیز تحت حمایت قرار می دهند.

همچنین گفتنی است مایکروسافت و گوگل تاکنون به درخواست‌ها برای ارائه نظر در مورد این قوانین پاسخی ندادند.

منبع: جام جم آنلاین

کلیدواژه: گوگل آمازون مایکروسافت غول های فناوری دستورالعمل ها نتایج جستجو پلتفرم ها رتبه بندی شرکت ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت jamejamonline.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «جام جم آنلاین» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۰۲۹۳۶۴۹ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

انسان‌ها سوگیری یادگیری ماشینی را بیشتر از سوگیری خود تشخیص می‌دهند

یک پژوهش جدید نشان می‌دهد که افراد سوگیری تصمیم‌های الگوریتم‌ یادگیری ماشینی را بیشتر از سوگیری تصمیم‌های خودشان تشخیص می‌دهند. شاید بتوان از این ویژگی برای اصلاح سوگیری‌های انسان استفاده کرد.

به گزارش ایسنا، از برنامه‌هایی که تماشا می‌کنیم تا افرادی که استخدام می‌کنیم، الگوریتم‌ها به طور فزاینده‌ای در زندگی روزمره ما ادغام می‌شوند و بی‌سروصدا بر تصمیم‌هایی که می‌گیریم اثر می‌گذارند.

به نقل از ادونسد ساینس نیوز، هسته الگوریتم‌ها، مجموعه‌ای از قوانین یا دستورالعمل‌هاست که برای پردازش اطلاعات و به دست آوردن یک نتیجه خاص طراحی شده‌اند اما از آنجا که الگوریتم‌ها از الگوهای رفتاری انسان یاد می‌گیرند، می‌توانند سوگیری‌هایی را که درون ما وجود دارند، منعکس یا حتی تقویت کنند. با وجود این، یک پژوهش جدید نشان می‌دهد که این ممکن است زیاد بد نباشد.

«کری موروج»(Carey Morewedge) استاد «دانشگاه بوستون»(Boston University) معتقد است که این بازتاب می‌تواند نقاط کور سوگیری ما را روشن کند و در اصلاح رفتار نقش داشته باشد. الگوریتم‌های یادگیری ماشینی بسیار موفق هستند زیرا می‌توانند بی‌طرفانه الگوها را در مجموعه داده‌ها پیدا کنند اما در عین حال، سوگیری‌های انسانی را نیز در داده‌های آموزشی خود لحاظ کنند.

هنگامی که این سوگیری‌ها در الگوریتم‌ها شناسایی می‌شوند، می‌توانند به آشکارسازی سوگیری‌های بلندمدت در سازمان‌ها کمک کنند. به عنوان مثال، شرکت «آمازون»(Amazon) سوگیری جنسیتی را در شیوه‌های استخدام خود بررسی نکرده بود اما با آزمایش یک الگوریتم که رزومه‌های جدید را براساس شیوه‌های پیشین استخدام شرکت ارزیابی می‌کرد، به این موضوع پی برد.

موروج گفت: الگوریتم‌ها می‌توانند سوگیری‌های انسانی را کدگذاری و تقویت کنند اما سوگیری‌های ساختاری را نیز در جامعه ما نشان می‌دهند.

انسان‌ها سوگیری‌های خود را تشخیص نمی‌دهند

موروج و گروهش در پژوهش خود نشان دادند که افراد معمولا تمایل بیشتری را به تشخیص دادن و تصحیح کردن سوگیری‌های موجود در تصمیم‌گیری الگوریتم در مقایسه با تصمیم‌گیری خودشان دارند. آنها باور دارند که با دانستن این موضوع ممکن است بتوان از الگوریتم‌ها برای رسیدگی به سوگیری‌های موجود در تصمیم‌گیری‌ها استفاده کرد.

انسان‌ها به دلیل پدیده‌ای به نام «نقطه کور سوگیری»، برای دیدن سوگیری خود تلاش زیادی نمی‌کنند و بیشتر متوجه سوگیری افراد دیگر هستند. دلیل این است که ما می‌توانیم در فرآیندهای تصمیم‌گیری خود، سوگیری را توجیه کنیم یا برای آن بهانه بیاوریم. برای ناظری که هیچ اطلاعاتی درباره فرآیند فکری یا چگونگی تصمیم‌گیری ندارد، سوگیری‌ها واضح‌تر و بهانه‌جویی دشوارتر است.

موروج و همکارانش در این پژوهش نشان دادند که حتی وقتی الگوریتم‌ها براساس رفتارهای ما آموزش داده می‌شوند نیز این موضوع صادق است.

تشخیص دادن سوگیری در الگوریتم ساده‌تر است

پژوهشگران در یک مجموعه آزمایش، از شرکت‌کنندگان خواستند تا سرویس «ایربی‌ان‌بی»(AirBnB) و رانندگان «لیفت»(Lyft) را براساس معیارهای تشخیصی مانند تعداد ستاره‌ها، ارزیابی‌ها و مدت زمان حضور داشتن کنار راننده رتبه‌بندی کنند.

پژوهشگران معیارهای غیرتشخیصی مانند تصویر یا نام را که هیچ ارتباطی با کار ندارند، دستکاری کردند. شرکت‌کنندگان دو بار رتبه‌بندی را انجام دادند و سپس، رتبه‌بندی‌های آنها یا رتبه‌بندی الگوریتم آموزش‌داده‌شده نشان داده شد.

گاهی اوقات رتبه‌بندی خود شرکت‌کنندگان به آنها نشان داده می‌شد اما به آنها گفته می‌شد که رتبه‌بندی الگوریتم است. در همه سناریوها، شرکت‌کنندگان در مقایسه با الگوریتم‌ها سوگیری کمتری را در رتبه‌بندی‌های خود مشاهده کردند.

موروج گفت: مردم وقتی معتقدند که رتبه‌بندی‌ها توسط یک الگوریتم انجام شده است، تمایل بیشتری به سوگیری دارند. این در حالی است که ما در واقع الگوریتم را روی داده‌های آنها آموزش می‌دهیم و رتبه‌بندی الگوریتم براساس آن داده‌ها صورت می‌گیرد.

وی افزود: این به این معنا نیست که مردم انواع بیشتری از ویژگی‌ها را در الگوریتم‌ها می‌بینند، بلکه چیزهایی را می‌بینند که برای خودشان تهدیدکننده‌تر است. بیشتر مردم نمی‌خواهند از نژاد در رتبه‌بندی‌های خود استفاده کنند یا می‌خواهند نژاد را در آن رتبه‌بندی نادیده بگیرند. بنابراین، این ایده که نژاد بر آن رتبه‌بندی‌ها تأثیر گذاشته، تهدیدکننده است.

در نتیجه، از آنجا که سوگیری در یک الگوریتم به عنوان تصمیم‌گیری ناقص خود ما تلقی نمی‌شود، دیدن یا اعتراف کردن به وجود آن آسان‌تر است. به گفته موروج، این یافته دو روش را ارائه می‌دهد که الگوریتم‌ها به واسطه آن می‌توانند به انسان در کاهش سوگیری کمک کنند.

وی افزود: یک روش این است که تصمیم‌های خود را جمع‌آوری کنید و الگوها را ببینید که به شما کمک می‌کنند تا سوگیری را تشخیص دهید اما هنوز موانعی بر سر راه توانایی ما برای تشخیص دادن سوگیری‌ها وجود دارد. ما انگیزه‌هایی را برای محافظت از خود داریم.

موروج و گروهش با پیروی از این منطق، آزمایش دیگری را انجام دادند تا ببینند آیا احتمال بیشتری وجود دارد که شرکت‌کنندگان به اصلاح سوگیری در رتبه‌بندی‌های خود یا الگوریتم بپردازند. پس از مشاهده رتبه‌بندی‌ها، به شرکت‌کنندگان فرصت داده شد تا سوگیری را اصلاح کنند و احتمال بیشتری وجود داشت که اصلاحاتی را در رتبه‌بندی الگوریتم انجام دهند. موروج گفت: از آنجا که افراد سوگیری را بیشتر در رتبه‌بندی الگوریتم می‌بینند تا خودشان، احتمال بیشتری وجود دارد که رتبه‌بندی‌های الگوریتم را اصلاح کنند.

موروج اذعان داشت که این پژوهش هنوز در مراحل اولیه است اما او روش ملموسی را می‌بیند که از طریق آن می‌توان یافته‌ها را در آموزش دادن الگوریتم برای جلوگیری از سوگیری در دنیای واقعی ادغام کرد. وی افزود: اولین گام این است که افراد سوگیری‌های خود را بفهمند و آنها را ببینند. من فکر می‌کنم این الگوریتم‌ها، روش سودمندی برای ارائه دادن یک دیدگاه واقعی‌تر به افراد درباره میزان سوگیری آنها هستند.

این پژوهش در مجله «PNAS» به چاپ رسید.

انتهای پیام

دیگر خبرها

  • از کلاس‌هایی که معلم نداشت تا رتبه بندی‌هایی که شاکی داشت
  • اردبیل در رتبه اول رده‌بندی مولدسازی کشور قرار گرفت
  • ساندرا پیچای به باشگاه میلیاردی‌ها می‌پیوندد
  • افزایش ۲ برابری حق‌الزحمه ساعت اضافه تدریس معلمان | همه معلمان رتبه‌بندی می‌شوند مگر اینکه...
  • انسان‌ها سوگیری یادگیری ماشینی را بیشتر از سوگیری خود تشخیص می‌دهند
  • موافقت با افزایش حق‌الزحمه ساعت اضافه تدریس معلمان
  • ساندار پیچای در یک قدمی میلیاردر شدن
  • اروپا از تخلفات فیس‌بوک و اینستاگرام تحقیق می‌کند
  • CPU چیست؟ به زبان ساده و نحوه کار
  • ناکامی متا در مقابله با اطلاعات نادرست پیش از انتخابات