گوگل، آمازون و مایکروسافت باید نحوه رتبه بندی نتایج جستجو را فاش کنند
تاریخ انتشار: ۲۲ آذر ۱۳۹۹ | کد خبر: ۳۰۲۹۳۶۴۹
به گزارش جام جم انلاین به نقل از خبر گزاری مهر ،گوگل، مایکروسافت، آمازون و سایر غولهای فناوری باید در نحوه رتبه بندی نتایج جستجوی آنلاین تحت دستورالعملهای جدید اتحادیه اروپا که از روز دوشنبه اجرا میشود شفاف تر عمل کنند. این اقدام احتمالاً با توجه به دستورالعملهای جدیدی که ابلاغ میشود بر بسیاری از شرکتهای فناوری در سراسر جهان تأثیر خواهد داشت .
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
رقبای کوچکتر و برخی از شرکتهای فعال در حوزه فناوری، مدتهاست از شیوههای خودسرانه و غیرشفاف در پیش گرفته شده توسط غولهای فناوری جهان که بر چگونگی رتبهبندی محصولات و خدمات آنها در نتایج جستجو تأثیر میگذارد، شکایت دارند چرا که در بسیاری از مواقع این موضوع سبب میشود شرکتهای کوچکتر بسیار کمتر از شرکتهای بزرگ دیده شوند.
افزایش عدالت در اقتصاد پلتفرمهای آنلاینکمیسیون اروپا گفت که این دستورالعملها نیازمند این است که پلتفرمهای آنلاین، پارامترهای الگوریتمی تعیینکننده رتبهبندی در جستجو را تعیین نموده و با شرکتها به اشتراک بگذارند. همچنین مارگرت وستاگر، کمیسر رقابت اروپا نیز در بیانیهای اعلام کرد: این دستورالعملها استانداردی را برای شفافیت بیشتر رتبهبندی الگوریتمی ایجاد میکند و عدالت را در اقتصاد پلتفرمهای آنلاین افزایش میدهد، در نتیجه باعث ابتکار و رفاه میلیونها اروپایی خواهد شد.
شیوههای جستجوی آنلاین گوگل موجب جریمه بیش از ۸ میلیارد یورویی (۹٫۷۱ میلیارد دلار) این شرکت در بازه سالهای ۲۰۱۷ تا ۲۰۱۹ از سوی رگولاتوری ضدانحصاری اتحادیه اروپا شده است که دریافتند گوگل محصولات خود را به طور ناعادلانه و به ضرر رقبا در نتایج جستجو بالاتر نشان میدهد.
غولهای فناوری مهار میشوندوستاگر در ۱۵ دسامبر، پیشنویس قوانینی را برای کنترل و مهار غولهای فناوری ارائه میدهد، لیستی از بایدها و نبایدها و افزایش مسئولیتپذیری پلتفرمها در حذف محتوای غیرقانونی و مضر از پلتفرم خود که برای تشویق به پیروی از قوانین با جریمهها و تحریمهایی نیز همراه است. تیری برتون، کمیسر بازار داخلی اتحادیه اروپا نیز گفت: این دستورالعمل ها میزان شفافیت در کار را افزایش می دهند، رقابت عادلانه ای را ایجاد می کنند و قانون آینده بازارهای دیجیتال را نیز تحت حمایت قرار می دهند.
همچنین گفتنی است مایکروسافت و گوگل تاکنون به درخواستها برای ارائه نظر در مورد این قوانین پاسخی ندادند.
منبع: جام جم آنلاین
کلیدواژه: گوگل آمازون مایکروسافت غول های فناوری دستورالعمل ها نتایج جستجو پلتفرم ها رتبه بندی شرکت ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت jamejamonline.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «جام جم آنلاین» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۰۲۹۳۶۴۹ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
انسانها سوگیری یادگیری ماشینی را بیشتر از سوگیری خود تشخیص میدهند
یک پژوهش جدید نشان میدهد که افراد سوگیری تصمیمهای الگوریتم یادگیری ماشینی را بیشتر از سوگیری تصمیمهای خودشان تشخیص میدهند. شاید بتوان از این ویژگی برای اصلاح سوگیریهای انسان استفاده کرد.
به گزارش ایسنا، از برنامههایی که تماشا میکنیم تا افرادی که استخدام میکنیم، الگوریتمها به طور فزایندهای در زندگی روزمره ما ادغام میشوند و بیسروصدا بر تصمیمهایی که میگیریم اثر میگذارند.
به نقل از ادونسد ساینس نیوز، هسته الگوریتمها، مجموعهای از قوانین یا دستورالعملهاست که برای پردازش اطلاعات و به دست آوردن یک نتیجه خاص طراحی شدهاند اما از آنجا که الگوریتمها از الگوهای رفتاری انسان یاد میگیرند، میتوانند سوگیریهایی را که درون ما وجود دارند، منعکس یا حتی تقویت کنند. با وجود این، یک پژوهش جدید نشان میدهد که این ممکن است زیاد بد نباشد.
«کری موروج»(Carey Morewedge) استاد «دانشگاه بوستون»(Boston University) معتقد است که این بازتاب میتواند نقاط کور سوگیری ما را روشن کند و در اصلاح رفتار نقش داشته باشد. الگوریتمهای یادگیری ماشینی بسیار موفق هستند زیرا میتوانند بیطرفانه الگوها را در مجموعه دادهها پیدا کنند اما در عین حال، سوگیریهای انسانی را نیز در دادههای آموزشی خود لحاظ کنند.
هنگامی که این سوگیریها در الگوریتمها شناسایی میشوند، میتوانند به آشکارسازی سوگیریهای بلندمدت در سازمانها کمک کنند. به عنوان مثال، شرکت «آمازون»(Amazon) سوگیری جنسیتی را در شیوههای استخدام خود بررسی نکرده بود اما با آزمایش یک الگوریتم که رزومههای جدید را براساس شیوههای پیشین استخدام شرکت ارزیابی میکرد، به این موضوع پی برد.
موروج گفت: الگوریتمها میتوانند سوگیریهای انسانی را کدگذاری و تقویت کنند اما سوگیریهای ساختاری را نیز در جامعه ما نشان میدهند.
انسانها سوگیریهای خود را تشخیص نمیدهند
موروج و گروهش در پژوهش خود نشان دادند که افراد معمولا تمایل بیشتری را به تشخیص دادن و تصحیح کردن سوگیریهای موجود در تصمیمگیری الگوریتم در مقایسه با تصمیمگیری خودشان دارند. آنها باور دارند که با دانستن این موضوع ممکن است بتوان از الگوریتمها برای رسیدگی به سوگیریهای موجود در تصمیمگیریها استفاده کرد.
انسانها به دلیل پدیدهای به نام «نقطه کور سوگیری»، برای دیدن سوگیری خود تلاش زیادی نمیکنند و بیشتر متوجه سوگیری افراد دیگر هستند. دلیل این است که ما میتوانیم در فرآیندهای تصمیمگیری خود، سوگیری را توجیه کنیم یا برای آن بهانه بیاوریم. برای ناظری که هیچ اطلاعاتی درباره فرآیند فکری یا چگونگی تصمیمگیری ندارد، سوگیریها واضحتر و بهانهجویی دشوارتر است.
موروج و همکارانش در این پژوهش نشان دادند که حتی وقتی الگوریتمها براساس رفتارهای ما آموزش داده میشوند نیز این موضوع صادق است.
تشخیص دادن سوگیری در الگوریتم سادهتر است
پژوهشگران در یک مجموعه آزمایش، از شرکتکنندگان خواستند تا سرویس «ایربیانبی»(AirBnB) و رانندگان «لیفت»(Lyft) را براساس معیارهای تشخیصی مانند تعداد ستارهها، ارزیابیها و مدت زمان حضور داشتن کنار راننده رتبهبندی کنند.
پژوهشگران معیارهای غیرتشخیصی مانند تصویر یا نام را که هیچ ارتباطی با کار ندارند، دستکاری کردند. شرکتکنندگان دو بار رتبهبندی را انجام دادند و سپس، رتبهبندیهای آنها یا رتبهبندی الگوریتم آموزشدادهشده نشان داده شد.
گاهی اوقات رتبهبندی خود شرکتکنندگان به آنها نشان داده میشد اما به آنها گفته میشد که رتبهبندی الگوریتم است. در همه سناریوها، شرکتکنندگان در مقایسه با الگوریتمها سوگیری کمتری را در رتبهبندیهای خود مشاهده کردند.
موروج گفت: مردم وقتی معتقدند که رتبهبندیها توسط یک الگوریتم انجام شده است، تمایل بیشتری به سوگیری دارند. این در حالی است که ما در واقع الگوریتم را روی دادههای آنها آموزش میدهیم و رتبهبندی الگوریتم براساس آن دادهها صورت میگیرد.
وی افزود: این به این معنا نیست که مردم انواع بیشتری از ویژگیها را در الگوریتمها میبینند، بلکه چیزهایی را میبینند که برای خودشان تهدیدکنندهتر است. بیشتر مردم نمیخواهند از نژاد در رتبهبندیهای خود استفاده کنند یا میخواهند نژاد را در آن رتبهبندی نادیده بگیرند. بنابراین، این ایده که نژاد بر آن رتبهبندیها تأثیر گذاشته، تهدیدکننده است.
در نتیجه، از آنجا که سوگیری در یک الگوریتم به عنوان تصمیمگیری ناقص خود ما تلقی نمیشود، دیدن یا اعتراف کردن به وجود آن آسانتر است. به گفته موروج، این یافته دو روش را ارائه میدهد که الگوریتمها به واسطه آن میتوانند به انسان در کاهش سوگیری کمک کنند.
وی افزود: یک روش این است که تصمیمهای خود را جمعآوری کنید و الگوها را ببینید که به شما کمک میکنند تا سوگیری را تشخیص دهید اما هنوز موانعی بر سر راه توانایی ما برای تشخیص دادن سوگیریها وجود دارد. ما انگیزههایی را برای محافظت از خود داریم.
موروج و گروهش با پیروی از این منطق، آزمایش دیگری را انجام دادند تا ببینند آیا احتمال بیشتری وجود دارد که شرکتکنندگان به اصلاح سوگیری در رتبهبندیهای خود یا الگوریتم بپردازند. پس از مشاهده رتبهبندیها، به شرکتکنندگان فرصت داده شد تا سوگیری را اصلاح کنند و احتمال بیشتری وجود داشت که اصلاحاتی را در رتبهبندی الگوریتم انجام دهند. موروج گفت: از آنجا که افراد سوگیری را بیشتر در رتبهبندی الگوریتم میبینند تا خودشان، احتمال بیشتری وجود دارد که رتبهبندیهای الگوریتم را اصلاح کنند.
موروج اذعان داشت که این پژوهش هنوز در مراحل اولیه است اما او روش ملموسی را میبیند که از طریق آن میتوان یافتهها را در آموزش دادن الگوریتم برای جلوگیری از سوگیری در دنیای واقعی ادغام کرد. وی افزود: اولین گام این است که افراد سوگیریهای خود را بفهمند و آنها را ببینند. من فکر میکنم این الگوریتمها، روش سودمندی برای ارائه دادن یک دیدگاه واقعیتر به افراد درباره میزان سوگیری آنها هستند.
این پژوهش در مجله «PNAS» به چاپ رسید.
انتهای پیام