آموزش تصمیمات اخلاقی به کامپیوترها: یک انسان معمولی چگونه رفتار میکند؟
تاریخ انتشار: ۳۰ مهر ۱۳۹۶ | کد خبر: ۱۵۱۷۶۳۵۹
محققان هوش مصنوعی سعی دارند بر پایه پاسخ میلیونها انسان به نظرسنجیها، شیوه انجام تصمیمات اخلاقی را به کامپیوترها یاد دهند.
سال گذشته محققان هوش مصنوعی دانشگاه MIT وبسایت Moral Machine را راهاندازی کردند که از بازدیدکنندگانش میخواست به سوالات مخوف و وحشتناکی پاسخ دهند. برخی از این سوالات درباره ماشین خودرانی بود که ترمز بریده و در یک چهارراه شلوغ به سمت عابران پیاده در حال حرکت است.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
برای مثال آیا هوش مصنوعی باید سه جوان خوشگذاران در حال عبور را زیر بگیرد با اینکه با دو کودک تصادف کند؟ انتخاب دیگر این ماشین بدون سرنشین هم برخورد با مانع بتنی برای حفظ جان افراد پیادهای است که ممکن است مسن، حامله، بی خانمان یا حتی جنایتکار باشند. در هر یک از این وضعیتهای خطرناک، سایت «ماشین اخلاقگرا» از بازدیدکنندگان درخواست میکند تا انتخابگر این باشند که ماشین باید چه کسی را در معرض خطر مرگ قرار دهد؟
این پروژه بر پایه آزمایش فکری «مسئله تراموا» بنا شده است که از شرکتکنندگان میخواهد یا تنها شاهد داستان باشند و اجازه دهند ترن برقی ۵ نفر را بکشد و یا اینکه با تغییر مسیر تراموا باعث مرگ یک نفر شوند که بدون دخالت آنها نمیمرد. البته «ماشین اخلاقگرا» برخی پیچیدگی های امروزی را هم به این آزمایش فکری افزوده است و با کمک نشریات نیویورکتایمز، گاردین و ساینتیفیک امریکن توانسته بیش از ۱۹ میلیون رای و نظر گوناگون را از ۱.۳ میلیون نفر شرکتکننده جمعآوری کند.
این ذخیره منحصر به فرد از دادهها درباره احساسات روحی و اخلاقی گروهی اتفاقی از مردمان است که اکنون در اختیار آریل پروکاچا، استادیار دانشکده علوم کامپیوتر دانشگاه کارنگیملون قرار گرفته است. و قرار است نتیجه این همکاری میان وی و تیم تحقیقاتی «ماشین اخلاقگرا» دانشگاه MIT با همراهی اساتیدی دیگر از هر دو موسسه علمی، به طراحی نوعی جدید از هوش مصنوعی بیانجامد که قادر به تصمیمگیری اخلاقی است. این هوش مصنوعی قرار است تمامی شرایط ممکن در تصادفات گریزناپذیر ماشینهای خودران را تجزیه و تحلیل کرده و همانند رفتار شرکتکنندگان در طرح «ماشین اخلاقگرا» تصمیم گیری کرده و قربانیان را مشخص کند.
البته این مساله بسیار پیچیدهای است. زیرا علیرغم میلیونها رای و نظری که توسط این سایت جمعآوری شده یا خواهند شد، تعداد ترکیبات ممکن عابران پیاده و سرنشینان اتومبیل خودران در هر تصادف عددی نجومی است. لذا ضروری است که هوش مصنوعی باید یاد بگیرد در شرایطی که هیچ رای و نظری توسط انسانهای واقعی در آن خصوص ابراز نشده، چگونه باید درست را از نادرست تشخیص داده و تصمیمگیری کند. البته دانشمندان هوش مصنوعی بر این باورند که یادگیری ماشینی به حدی عالی است که میتواند در وظایف پیشگویانه و پیشبینی اتفاقات تا حد زیادی بینقص عمل کند. و این تیم هم سعی دارد الگوریتمی را توسعه دهد که ماشین خودران بتواند در هر موقعیت جدید و پیشبینی نشدهای هم تصمیمی مبنی بر روح اخلاق جمعی بازدیدکنندگان سایت «ماشین اخلاقگرا» اخذ کند.
پروکاچا میگوید:«البته هنوز نمی توان گفت که این سیستم برای توسعه و تجاری سازی آماده است. اما اکنون یک ایده اثبات شده در اختیار داریم که نشان میدهد با دموکراسی می توان بر چالش بزرگ اخذ تصمیمات اخلاقی توسط هوش مصنوعی چیره گشت.»
این موضوع نشان میدهد که محققان هوش مصنوعی علاقهمند هستند که الگوریتمهای آموزشی نوینی را به کار گیرند تا بتوانند ماشینها را بر اساس قضاوت اخلاق جمعی مردم عادی آموزش دهند و آنها را در اخذ تصمیمات اخلاقی توانمند سازند. تیم تحقیقاتی دیگری در دانشگاه دوک به تازگی نتایج مطالعات خود را منتشر کردند که نشان میدهد هوش مصنوعی می تواند به شکل گستردهتر و بدون هدایتگر مورد استفاده قرار گیرد. اما لازم است که یک فریمورک عمومی ایجاد شود تا شیوه اخذ تصمیمات اخلاقی مورد قبول جامعه را تشریح کند. زیرا در دنیای بیرون معمولا انسانهای گوناگون درباره دیدگاههای درست و غلط اخلاقی نظرات گوناگونی دارند. لذا ماشینها و هوش مصنوعی باید به منبعی مطمئن از نظرات اخلاقی جامعه (مانند طرح ماشین اخلاقگرا) دسترسی داشته باشد تا بتواند خودش را آموزش داده و هوشمندتر سازد. در حقیقت محققان به دنبال نوشتن یک سیستم هستند که شاید تصمیمات اخلاقی بهتری نسبت به تک تک افراد بگیرد.
البته جمعسپاری تصمیمات اخلاقی منتقدان سرسختی نیز دارد که از منظر محدودیتهای گوناگونی به آن میپردازند. شاید یکی از سادترین انتقادات این باشد که: گروههای مختلف می توانند باعث خلق راهنماهای اخلاقی گوناگونی شوند. برای مثال، نقس اینکه نظرسنجیهای «ماشین اخلاقگرا» به صورت اینترنتی انجام شده، بدین معنی است که تنها نظرات گروهی از مردم که به اینترنت دسترسی دارند و به موضوع هوش مصنوعی قاتل هم علاقه نشان دادهاند در این میان موثر خواهد بود. از سوی دیگر مطمئنا استفاده از الگوریتمهای گوناگون برای استفاده از همین منبع داده یکسان هم میتواند به نتایج و تصمیمات گوناگونی منجر شود.
جیمز گریملمن استاد دانشکده حقوق کرنل بر مطالعه رابطه میان نرمافزار، ثروت و قدرت متمرکز است، در این خصوص میگوید: «جمع سپاری مسائل اخلاقی نمیتواند باعث هوش مصنوعی را اخلاقگرا کند. با این کار هوش مصنوعی هم دقیقا همانند تفکرات گروه بزرگی از انسانها اخلاقگرا یا بیاخلاق میشود.»
از سویی هم ریاکاری طبیعی انسان میتواند نقص بالقوه دیگری در این زمینه محسوب شود. راهوان که همکار پروکاچا از دانشگاه MIT و یکی از خالقان «ماشین اخلاقگرا» در مطالعات پیشین خود دریافته است که اغلب مردم ترجیح میدهند که یک ماشین خودران برای حفظ جان دیگران، سرنشینانش را فدا کند. البته آنها خودشان هیچگاه دوست ندارند که سوار چنین ماشینی شوند. به تازگی هم گروهی از متفکران اروپایی طرحی را پیشنهاد کردهاند که ماشین خودران به دکمه اخلاقی مجهز باشد و به سرنشینان اجازه دهد که با خودخواهی هرچه تمام تر شیوه رفتار خودرو در تصادفات آینده را انتخاب کنند.
ایراد دیگری هم که به این طرح گرفته میشود، آن است که سناریوهای پیش روی ماشین اخلاقگرا همگی از موقعیتهایی صحبت میکنند که ماشینهای بدون راننده کنترل خود را از دست داده و قرار است با یک تصادف مرگبار حتمی روبرو شود. در حالی که میتوان وضعیتهای دیگری را هم در سوالات گنجاند. مانند اینکه ماشین برای صرفهجویی در مصرف سوختهای فسیلی با سرعت کمتری در بزرگراه رانندگی کند ولی نتیجه آن دیرتر رسیدن مسافران خواهد بود.
البته پروکاچا هم این محدودیتها را میشناسد. او میگوید تحقیقاتش هم به این سمت میرود که دریابند آیا مردم معتقدند که دموکراسی راه مناسبی برای حل چنین مسائلی است. زیرا دموکراسی و مردمسالاری هم معایب خودش را دارد. اما وی شدیدا به آن معتقد است. زیرا مردم باید بتوانند تصمیماتی اتخاذ کنند که شاید برخی با آن موافق نباشند و دموکراسی همیشه خوب عمل کرده است.
البته امروزه این تنها موضوعی نیست که قرار است با جمعسپاری حل شود و میتوان معظلات بسیاری را یافت که به این شکل کشف راهحل امید بستهاند. به تازگی گزارش شده که فیسبوک به صاحبان تبلیغات اجازه میدهد کاربران را با نژادپرستی هدف قرار دهد و به شکل سیستماتیک الگوریتمهای فیسبوک قادرند مشخص کنند که مثلا این کاربر از مسلمانان یا یهودیان متنفر است. پس از حادثه تیراندازی لاس وگاس هم گوگل به شکل خودکار در میان اخبار ویژهاش موضوعات را بر اساس نظریههای توهم توطئه منتشر میکرد. در هر دو موضوع، الگوریتمها بر اساس سیگنالهای دریافتی از میلیونها کاربر واقعی عمل میکنند. اما به عنوان یک هوش مصنوعی اخلاقگرا، شاید چنین عملکردی چندان پسندیده نباشد.
البته دولتها هم مانند همیشه سعی دارند با وضع یک سری قوانین خاص با اولویتهای اخلاقی ماشینهای بدون راننده (خودران) کنار بیایند. تابستان امسال آلمان اولین راهنمای اخلاقی ویژه اتومبیلهای خودران مجهز به هوشمصنوعی را منتشر کرد. مثلا در این راهنما آمده که هوش مصنوعی باید حفظ جان انسانها را بر تمام گونههای دیگر حیات مقدم بدارد. و البته تصمیمگیری درباره امنیت انسان به هیچ وجه نباید به سن، جنس، سن، معلولیت یا موارد اینچنینی وابسته باشد.
این قوانین بدون شک بر سر راه توسعه هوش مصنوعی مانند آنچه پروکاچا در حال خلق آن است، موانع مهمی ایجاد خواهند کرد و تصمیمگیری درباره اینکه چه کسی را باید نجات داد، بیش از پیش مشکل خواهد شد.
برای اینکه با تصمیمات اخلاقی هوش مصنوعی ساخته شده توسط پروکاچا بیشتر آشنا شویم، بد نیست برخی از تصمیمات آن در شبیه سازی ها را موررور کنیم. البته ممکن است در اینجا با آینهای سیاه از نابرابری اجتماعی و خودخواهی انسانی روبرو شویم.
اگر هوش مصنوعی مجبور شود از کشتن یک نفر یا دونفر یکی را انتخاب کند، فعلا بدون شک انتخاب آن یک نفر خواهد بود.
اما اگر بتواند تشخیص دهد که باید یکی از دوقربانی مجرم و کسی که جرمی در سیستم قضایی مرتکب نشده، را از بین ببرد، هوش مصنوعی تا به اینجا شخص مجرم را انتخاب می کند.
و بدتر اینکه وقتی قرار باشد یک بیخانمان فقیر را بکشد یا اینکه فردی صاحب خانه و زندگی را زیر بگیرد. این سیستم در حال حاضر بر اساس جمعسپاری اخلاقیات در سایت ماشین اخلاقگرا، بدون هیچ تردیدی فرد بیخانمان و فقیر را برای مرگ انتخاب می کند.
و جدای از تمام این داستانها، به گمانم هیچکس حاضر به خرید ماشینی نباشد که در مواقع خطرناک، برایش حفظ جان سرنشین چندان ارجحیتی بر حفظ جان عابر پیاده نداشته باشد!
true برچسب ها :
این مطلب بدون برچسب می باشد.
trueمنبع: امتداد نیوز
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.emtedadnews.com دریافت کردهاست، لذا منبع این خبر، وبسایت «امتداد نیوز» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۱۵۱۷۶۳۵۹ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
آمادگی هند برای تولید کتابهای صوتی با هوش مصنوعی
به نظر میرسد «راوی هوش مصنوعی» موضوعی مرتبط با ایالات متحده آمریکا یا اروپا محور به نظر برسد، اما کتابهای دیجیتال یا روایت شده با هوش مصنوعی ممکن است از لپتاپها و تلفنهای هوشمند هندیها دور نباشند.
به گزارش ایرنا از ستاد خبری سیوپنجمین نمایشگاه بینالمللی کتاب تهران، هندوستان در این دوره از نمایشگاه به عنوان مهمان ویژه قرار است صنعت نشر خود را به ایرانیان معرفی کند. جریان نشر در هندوستان به دلیل وجود زبانهای بومی گوناگون از تنوع خاصی برخوردار است. هندوستان به دلیل پیشینه تاریخی و همچنین روابط فرهنگیاش با ایران محتوای بسیاری برای ارائه به ایرانیان دارد. اما این صنعت اکنون در حوزه تکنولوژی نیز در حال آزمودن ایدههایی است که میتواند برای ایرانیان کارآیی داشته باشد. متنی که در ادامه میخوانید، با ترجمه و تالیف مارال توکلی یکی از این ایدهها را معرفی میکند:
صنعت نشر هند امکانات تولید کتابهای صوتی هوش مصنوعی را بررسی میکند. ناشران آماده حضور در این عرصه هستند، اما صداپیشگان و خوانندگان تردید دارند.
مدیسون مردی را توصیف میکند که به یک منظره زیبا نگاه میکند. صدای آهسته و بافتدار مدیسون هنگام توصیف آن منظره دلفریب بالا و پایین میشود. او کمی مکث میکند تا کمی تعلیق ایجاد شود، سپس وارد نقطه اوج میشود.
مدیسون یک انسان نیست، بلکه یک «راوی دیجیتال» است که Apple Books بهطور خاص برای ژانرهای داستانی و عاشقانه ایجاد کرده است. برخی دیگر از راویان دیجیتالی موجود در این فهرست عبارتند از «جکسون» معمولی و دوستانه، «هلنا» سخت و ترسناک و «میچل» خشک اما استادانه.
اپل بوکز در وبسایتش، راویهای دیجیتالی خود را به عنوان راهی برای کمک به نویسندگان مستقل و نویسندگانی که آثارشان توسط ناشران کوچکتر منتشر شده، پیشنهاد میکند، چرا که با موانعی مانند سردرگمی فنی و هزینههای بالا مواجه نمیشوند.
وقتی این خبر در جامعه صداپیشگی پخش شد، واکنشهای منفی بسیاری را برانگیخت، حتی زمانی که اپل بوکز به خوانندگان اطمینان داد که «به رشد فهرست کتابهای صوتی با روایت انسان ادامه خواهد داد.»
به نظر میرسد «راوی هوش مصنوعی» موضوعی مرتبط با ایالات متحده آمریکا یا اروپا محور بهنظر برسد، اما کتابهای دیجیتال یا روایت شده با هوش مصنوعی ممکن است از لپتاپها و تلفنهای هوشمند هندیها دور نباشند.
آنانت پادمانابهان؛ مدیرعامل «هارپر کالینز» هند، گفته است که آنها درحال حاضر درحال «نمونهگیری» از راویان هوش مصنوعی برای کتابهای صوتی هستند، اما هنوز صدایی که دوست داشته باشند پیدا نکردهاند. او معتقد است که هوش مصنوعی میتواند به تولید کتابهای صوتی بیشتر و صرفهجویی در زمان کمک کند.
پادمانابهان گفت: «میتوانم به شما بگویم، شما تفاوت خوانش توسط هوش مصنوعی و انسان را نمیدانید.» «این جایی است که به آن میرسد تا زمانی به شما بگویم که این توسط هوش مصنوعی روایت شده است» (یا) «این روایت انسان است»، فکر نمیکنم متوجه شوید. در روایتهای غیرداستانی و جاهای دیگر، فکر نمیکنم مهم باشد. فکر میکنم در داستانها مهم است که روایت کجا مکث میکند، جایی که راوی چیزهای بیشتری را به ارمغان میآورد.»
وی افزود که راویهای هوش مصنوعی انتشار سریعتر کتابهای ترجمه شده را نیز امکانپذیر میکنند.
هند برای تولید کتابهای صوتی با هوش مصنوعی آماده میشود
نویسندگان چه فکری میکنند؟
خوانندگان و نویسندگان نگران پیامدهای اجتماعی جریان اصلی کتابهای روایت شده توسط هوش مصنوعی هستند و صداپیشگان فرصتهای شغلی را از دست میدهند. متخصصان همچنین میترسند که کتابهای صوتی که قبلا توسط آنها روایت شده است، بدون رضایت آنها برای آموزش ابزارهای هوش مصنوعی که میتواند جایگزین آنها شود، استفاده شود.
با درنظر گرفتن این موضوع، آیا خوانندگان و نویسندگان هندی از کتابهای روایت شده توسط هوش مصنوعی حمایت میکنند؟
میمی موندال، نویسنده هندی داستانهای علمی تخیلی و فانتزی، گفت که از مفهوم کتابهای روایت شده با هوش مصنوعی و شکل آینده علمی-تخیلی اطراف او «بسیار هیجان زده» است. با این حال، او اعتراف کرد که اگر جایگزین انسانی وجود داشته باشد، چنین کتابهایی را توصیه یا خریداری نمیکند.
ازنظر فنی این تقصیر هوش مصنوعی نیست. فقط این است که ما آن را به چنین دنیای نابرابری میآوریم و آن را به وسیله دیگری برای ظلم تبدیل میکنیم.
رش سوزان، نویسنده و ویراستار، که کتابها را در وبلاگ The Book Satchel مرور میکند، گفت که به کتابهای صوتی زیادی گوش میدهد، اما راویهای هوش مصنوعی/دیجیتال را «رباتیک و بی جان» میداند. او همچنین گفت که با بازبینی کتابهایی که توسط راویهای دیجیتال خوانده میشود، موافقت نمیکند.
سوزان در بیانهای ایمیلی گفت: من راوی دیجیتالی را به اندازه کافی خوب نمیدانم که با صداپیشگانی که میتوانند جزئیات احساسات را از طریق آهنگ و سبک خواندن خود برانگیزند رقابت کنند. بنابراین، نظر کلی من درمورد کتاب تغییر میکند. امیدوارم روی این تمرکز کنیم که فناوری جدید چگونه میتواند به ما در انجام سریعتر و آسانتر کمک کند، و به دنبال راههایی نباشیم که در آن کار انسان کم ارزش شده و قابل تعویض باشد.
از منظر یک منتقد، سوزان نگران بود که راوی دیجیتال عاملی است که میتواند بر موفقیت یا عدم موفقیت یک کتاب تأثیر بگذارد.
او هشدار داد: «یک کتاب خوب میتواند به یک کتاب صوتی متوسط در دست یک راوی بد تبدیل شود.»
موندال همچنین به طنز جایگزینی هوش مصنوعی با نیروی انسانی اشاره کرد و گفت که حتی با ارزانتر شدن فرآیندهای تولید و ارزان شدن کتابها، مردم شغل خود را از دست میدهند.
وی اشاره کرد: من میتوانم ببینم مطبوعات کوچک و نویسندگان به حاشیه رانده شده چگونه میتوانند از نیروی کار هوش مصنوعی سود ببرند، و من از آنها به خاطر استفاده از این فرصت کینهای ندارم. ما نباید انتظار داشته باشیم که عدالت اجتماعی بر دوش ضعیفترین اعضای جامعه ما بیاید. این نویسندگانی مانند من هستند که میتوانند درمورد این موضوع موضع بگیرند و حرفه خود را از دست ندهند.
کانال عصر ایران در تلگرام