Web Analytics Made Easy - Statcounter

محققان هوش مصنوعی سعی دارند بر پایه پاسخ میلیونها انسان به نظرسنجی‌ها، شیوه انجام تصمیمات اخلاقی را به کامپیوترها یاد دهند.

 

سال گذشته محققان هوش مصنوعی دانشگاه MIT وبسایت Moral Machine را راه‌اندازی کردند که از بازدیدکنندگانش می‌خواست به سوالات مخوف و وحشتناکی پاسخ دهند. برخی از این سوالات درباره ماشین خودرانی بود که ترمز بریده و در یک چهارراه شلوغ به سمت عابران پیاده در حال حرکت است.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

 

برای مثال آیا هوش مصنوعی باید سه جوان خوشگذاران در حال عبور را زیر بگیرد با اینکه با دو کودک تصادف کند؟ انتخاب دیگر این ماشین بدون سرنشین هم برخورد با مانع بتنی برای حفظ جان افراد پیاده‌ای است که ممکن است مسن، حامله، بی خانمان یا حتی جنایت‌کار باشند. در هر یک از این وضعیتهای خطرناک، سایت  «ماشین اخلاق‌گرا» از بازدیدکنندگان درخواست می‌کند تا انتخابگر این باشند که ماشین باید چه کسی را در معرض خطر مرگ قرار دهد؟

 

این پروژه بر پایه آزمایش فکری «مسئله تراموا» بنا شده است که از شرکت‌کنندگان می‌خواهد یا تنها شاهد داستان باشند و اجازه دهند ترن برقی ۵ نفر را بکشد و یا اینکه با تغییر مسیر تراموا باعث مرگ یک نفر شوند که بدون دخالت آنها نمی‌مرد. البته «ماشین اخلاق‌گرا» برخی پیچیدگی ‌های امروزی را هم به این آزمایش فکری افزوده است و با کمک نشریات نیویورک‌تایمز، گاردین و ساینتیفیک امریکن توانسته بیش از ۱۹ میلیون رای و نظر گوناگون را از ۱.۳ میلیون نفر شرکت‌کننده جمع‌آوری کند.

 

این ذخیره منحصر به فرد از داده‌ها درباره احساسات روحی و اخلاقی گروهی اتفاقی از مردمان است  که اکنون در اختیار آریل پروکاچا، استادیار دانشکده علوم کامپیوتر دانشگاه کارنگی‌ملون قرار گرفته است. و قرار است نتیجه این همکاری میان وی و تیم تحقیقاتی «ماشین اخلاق‌گرا» دانشگاه MIT با همراهی اساتیدی دیگر از هر دو موسسه علمی، به طراحی نوعی جدید از هوش مصنوعی بیانجامد که قادر به تصمیم‌گیری اخلاقی است. این هوش مصنوعی قرار است تمامی شرایط ممکن در تصادفات گریزناپذیر ماشینهای خودران را تجزیه و تحلیل کرده و همانند رفتار شرکت‌کنندگان در طرح «ماشین اخلاق‌گرا» تصمیم گیری کرده و قربانیان را مشخص کند.

 

البته این مساله بسیار پیچیده‌ای است. زیرا علی‌رغم میلیونها رای و نظری که توسط این سایت جمع‌آوری شده یا خواهند شد، تعداد ترکیبات ممکن عابران پیاده و سرنشینان اتومبیل خودران در هر تصادف عددی نجومی است. لذا ضروری است که هوش مصنوعی باید یاد بگیرد در شرایطی که هیچ رای و نظری توسط انسانهای واقعی در آن خصوص ابراز نشده، چگونه باید درست را از نادرست تشخیص داده و تصمیم‌گیری کند. البته دانشمندان هوش مصنوعی بر این باورند که یادگیری ماشینی به حدی عالی است که می‌تواند در وظایف پیشگویانه و پیش‌بینی اتفاقات تا حد زیادی بی‌نقص عمل کند.  و این تیم هم سعی دارد الگوریتمی را توسعه دهد که ماشین خودران بتواند در هر موقعیت جدید و پیش‌بینی نشده‌ای هم تصمیمی‌ مبنی بر روح اخلاق جمعی بازدیدکنندگان سایت «ماشین اخلاق‌گرا» اخذ کند.

 

پروکاچا می‌گوید:«البته هنوز نمی توان گفت که این سیستم برای توسعه و تجاری سازی آماده است. اما اکنون یک ایده اثبات شده در اختیار داریم که نشان می‌دهد با دموکراسی می توان بر چالش بزرگ اخذ تصمیمات اخلاقی توسط هوش مصنوعی چیره گشت.»

 

این موضوع نشان می‌دهد که محققان هوش مصنوعی علاقه‌مند هستند که الگوریتم‌های آموزشی نوینی را به کار گیرند تا بتوانند ماشینها را بر اساس قضاوت اخلاق جمعی مردم عادی آموزش دهند و آنها را در اخذ تصمیمات اخلاقی توانمند سازند. تیم تحقیقاتی دیگری در دانشگاه دوک به تازگی نتایج مطالعات خود را منتشر کردند  که نشان می‌دهد هوش مصنوعی می تواند به شکل گسترده‌تر و بدون هدایت‌گر مورد استفاده قرار گیرد. اما لازم است که یک فریم‌ورک عمومی ایجاد شود تا شیوه اخذ تصمیمات اخلاقی مورد قبول جامعه را تشریح کند. زیرا در دنیای بیرون معمولا انسانهای گوناگون درباره دیدگاه‌های درست و غلط اخلاقی نظرات گوناگونی دارند. لذا ماشینها و هوش مصنوعی باید به منبعی مطمئن از نظرات اخلاقی جامعه (مانند طرح ماشین اخلاق‌گرا) دسترسی داشته باشد تا بتواند خودش را آموزش داده و هوشمندتر سازد. در حقیقت محققان به دنبال نوشتن یک سیستم هستند که شاید تصمیمات اخلاقی بهتری نسبت به تک تک افراد بگیرد.

 

البته جمع‌سپاری تصمیمات اخلاقی منتقدان سرسختی نیز دارد که از منظر محدودیت‌های گوناگونی به آن می‌پردازند. شاید یکی از سادترین انتقادات این باشد که: گروه‌های مختلف می توانند باعث خلق راهنماهای اخلاقی گوناگونی شوند. برای مثال، نقس اینکه نظرسنجی‌های «ماشین اخلاق‌گرا» به صورت اینترنتی انجام شده، بدین معنی است که تنها نظرات گروهی از مردم که به اینترنت دسترسی دارند و به موضوع هوش مصنوعی قاتل هم علاقه نشان داده‌اند در این میان موثر خواهد بود. از سوی دیگر مطمئنا استفاده از الگوریتم‌های گوناگون برای استفاده از همین منبع داده یکسان هم می‌تواند به نتایج و تصمیمات گوناگونی منجر شود.

 

جیمز گریملمن استاد دانشکده حقوق کرنل بر مطالعه رابطه میان نرم‌افزار، ثروت و قدرت متمرکز است، در این خصوص می‌گوید: «جمع سپاری مسائل اخلاقی نمی‌تواند باعث هوش مصنوعی را اخلاق‌گرا کند. با این کار هوش مصنوعی هم دقیقا همانند تفکرات گروه بزرگی از انسانها اخلاق‌گرا یا بی‌اخلاق می‌شود.»

 

از سویی هم ریاکاری طبیعی انسان می‌تواند نقص بالقوه دیگری در این زمینه محسوب شود. راهوان که همکار پروکاچا از دانشگاه MIT  و یکی از خالقان «ماشین اخلاق‌گرا» در مطالعات پیشین خود دریافته است که اغلب مردم ترجیح می‌دهند که یک ماشین خودران برای حفظ جان دیگران، سرنشینانش را فدا کند. البته آنها خودشان هیچ‌گاه دوست ندارند که سوار چنین ماشینی شوند. به تازگی هم گروهی از متفکران اروپایی طرحی را پیشنهاد کرده‌اند که ماشین خودران به دکمه اخلاقی مجهز باشد و به سرنشینان اجازه دهد که با خودخواهی هرچه تمام تر شیوه رفتار خودرو در تصادفات آینده را انتخاب کنند.

 

ایراد دیگری هم که به این طرح گرفته می‌شود، آن است که سناریوهای پیش روی ماشین اخلاق‌گرا همگی از موقعیتهایی صحبت می‌کنند که ماشین‌های بدون راننده کنترل خود را از دست داده و قرار است با یک تصادف مرگ‌بار حتمی روبرو شود. در حالی که می‌توان وضعیتهای دیگری را هم در سوالات گنجاند. مانند اینکه ماشین برای صرفه‌جویی در مصرف سوخت‌های فسیلی با سرعت کمتری در بزرگراه رانندگی کند ولی نتیجه آن دیرتر رسیدن مسافران خواهد بود.

 

البته پروکاچا هم این محدودیتها را می‌شناسد.  او می‌گوید تحقیقاتش هم به این سمت می‌رود که دریابند آیا مردم معتقدند که دموکراسی راه مناسبی برای حل چنین مسائلی است. زیرا دموکراسی و مردم‌سالاری هم معایب خودش را دارد. اما وی شدیدا به آن معتقد است. زیرا مردم باید بتوانند تصمیماتی اتخاذ کنند که شاید برخی با آن موافق نباشند و دموکراسی همیشه خوب عمل کرده است.

 

البته امروزه این تنها موضوعی نیست که قرار است با جمع‌سپاری حل شود و می‌توان معظلات بسیاری را یافت که به این شکل کشف راه‌حل امید بسته‌اند. به تازگی گزارش شده که فیس‌بوک به صاحبان تبلیغات اجازه می‌دهد کاربران را با نژاد‌پرستی هدف قرار دهد و به شکل سیستماتیک الگوریتمهای فیس‌بوک قادرند مشخص کنند که مثلا این کاربر از مسلمانان یا یهودیان متنفر است. پس از حادثه تیراندازی لاس وگاس هم گوگل به شکل خودکار در میان اخبار ویژه‌اش موضوعات را بر اساس نظریه‌های توهم توطئه منتشر می‌کرد. در هر دو موضوع، الگوریتمها بر اساس سیگنالهای دریافتی از میلیونها کاربر واقعی عمل می‌کنند. اما به عنوان یک هوش مصنوعی اخلاق‌گرا، شاید چنین عملکردی چندان پسندیده نباشد.

 

البته دولتها هم مانند همیشه سعی دارند با وضع یک سری قوانین خاص با اولویت‌های اخلاقی ماشینهای بدون راننده (خودران) کنار بیایند. تابستان امسال آلمان اولین راهنمای اخلاقی ویژه اتومبیلهای خودران مجهز به هوش‌مصنوعی را منتشر کرد. مثلا در این راهنما آمده که هوش مصنوعی باید حفظ جان انسانها را بر تمام گونه‌های دیگر حیات مقدم بدارد. و البته تصمیم‌گیری درباره امنیت انسان به هیچ وجه نباید به سن، جنس، سن، معلولیت یا موارد اینچنینی وابسته باشد.

 

این قوانین بدون شک  بر سر راه توسعه هوش مصنوعی مانند آنچه پروکاچا در حال خلق آن است، موانع مهمی ایجاد خواهند کرد و تصمیمگیری درباره اینکه چه کسی را باید نجات داد، بیش از پیش مشکل خواهد شد.

 

برای اینکه با تصمیمات اخلاقی هوش مصنوعی ساخته شده توسط پروکاچا بیشتر آشنا شویم، بد نیست برخی از تصمیمات آن در شبیه سازی ها را موررور کنیم. البته ممکن است در اینجا با آینه‌ای سیاه از نابرابری اجتماعی و خودخواهی انسانی روبرو شویم.

 

اگر هوش مصنوعی مجبور شود از کشتن یک نفر یا دونفر یکی را انتخاب کند، فعلا بدون شک انتخاب آن یک نفر خواهد بود.

اما اگر بتواند تشخیص دهد که باید یکی از دوقربانی مجرم و کسی که جرمی در سیستم قضایی مرتکب نشده، را از بین ببرد، هوش مصنوعی تا به اینجا شخص مجرم را انتخاب می کند.

 

و بدتر اینکه وقتی قرار باشد یک بی‌خانمان فقیر را بکشد یا اینکه فردی صاحب خانه و زندگی را زیر بگیرد. این سیستم در حال حاضر بر اساس جمع‌سپاری اخلاقیات در سایت ماشین اخلاق‌گرا، بدون هیچ تردیدی فرد بی‌خانمان و فقیر را برای مرگ انتخاب می کند.

و جدای از تمام این داستانها، به گمانم هیچ‌کس حاضر به خرید ماشینی نباشد که در مواقع خطرناک، برایش حفظ جان سرنشین چندان ارجحیتی بر حفظ جان عابر پیاده نداشته باشد!

true برچسب ها :

این مطلب بدون برچسب می باشد.

true

منبع: امتداد نیوز

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.emtedadnews.com دریافت کرده‌است، لذا منبع این خبر، وبسایت «امتداد نیوز» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۱۵۱۷۶۳۵۹ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

آمادگی هند برای تولید کتاب‌های صوتی با هوش مصنوعی

به نظر می‌رسد «راوی هوش مصنوعی» موضوعی مرتبط با ایالات متحده آمریکا یا اروپا محور به نظر برسد، اما کتاب‌های دیجیتال یا روایت شده با هوش مصنوعی ممکن است از لپ‌تاپ‌ها و تلفن‌های هوشمند هندی‌ها دور نباشند. 

به گزارش ایرنا از ستاد خبری سی‌وپنجمین نمایشگاه بین‌المللی کتاب تهران، هندوستان در این دوره از نمایشگاه به عنوان مهمان ویژه قرار است صنعت نشر خود را به ایرانیان معرفی کند. جریان نشر در هندوستان به دلیل وجود زبان‌های بومی گوناگون از تنوع خاصی برخوردار است. هندوستان به دلیل پیشینه تاریخی و همچنین روابط فرهنگی‌اش با ایران محتوای بسیاری برای ارائه به ایرانیان دارد. اما این صنعت اکنون در حوزه تکنولوژی نیز در حال آزمودن ایده‌هایی است که می‌تواند برای ایرانیان کارآیی داشته باشد. متنی که در ادامه می‌خوانید، با ترجمه و تالیف مارال توکلی یکی از این ایده‌ها را معرفی می‌کند:

صنعت نشر هند امکانات تولید کتاب‌های صوتی هوش مصنوعی را بررسی می‌کند. ناشران آماده حضور در این عرصه هستند، اما صداپیشگان و خوانندگان تردید دارند.

مدیسون مردی را توصیف می‌کند که به یک منظره زیبا نگاه می‌کند. صدای آهسته و بافت‌دار مدیسون هنگام توصیف آن منظره دلفریب بالا و پایین می‌شود. او کمی مکث می‌کند تا کمی تعلیق ایجاد شود، سپس وارد نقطه اوج می‌شود.

مدیسون یک انسان نیست، بلکه یک «راوی دیجیتال» است که Apple Books به‌طور خاص برای ژانرهای داستانی و عاشقانه ایجاد کرده است. برخی دیگر از راویان دیجیتالی موجود در این فهرست عبارتند از «جکسون» معمولی و دوستانه، «هلنا» سخت و ترسناک و «میچل» خشک اما استادانه.

اپل بوکز در وب‌سایتش، راوی‌های دیجیتالی خود را به عنوان راهی برای کمک به نویسندگان مستقل و نویسندگانی که آثارشان توسط ناشران کوچک‌تر منتشر شده، پیشنهاد می‌کند، چرا که با موانعی مانند سردرگمی فنی و هزینه‌های بالا مواجه نمی‌شوند.

وقتی این خبر در جامعه صداپیشگی پخش شد، واکنش‌های منفی بسیاری را برانگیخت، حتی زمانی که اپل بوکز به خوانندگان اطمینان داد که «به رشد فهرست کتاب‌های صوتی با روایت انسان ادامه خواهد داد.»

به نظر می‌رسد «راوی هوش مصنوعی» موضوعی مرتبط با ایالات متحده آمریکا یا اروپا محور به‌نظر برسد، اما کتاب‌های دیجیتال یا روایت شده با هوش مصنوعی ممکن است از لپ‌تاپ‌ها و تلفن‌های هوشمند هندی‌ها دور نباشند.

آنانت پادمانابهان؛ مدیرعامل «هارپر کالینز» هند، گفته است که آنها درحال حاضر درحال «نمونه‌گیری» از راویان هوش مصنوعی برای کتاب‌های صوتی هستند، اما هنوز صدایی که دوست داشته باشند پیدا نکرده‌اند. او معتقد است که هوش مصنوعی می‌تواند به تولید کتاب‌های صوتی بیشتر و صرفه‌جویی در زمان کمک کند.

پادمانابهان گفت: «می‌توانم به شما بگویم، شما تفاوت خوانش توسط هوش مصنوعی و انسان را نمی‌دانید.» «این جایی است که به آن می‌رسد تا زمانی به شما بگویم که این توسط هوش مصنوعی روایت شده است» (یا) «این روایت انسان است»، فکر نمی‌کنم متوجه شوید. در روایت‌های غیرداستانی و جاهای دیگر، فکر نمی‌کنم مهم باشد. فکر می‌کنم در داستان‌ها مهم است که روایت کجا مکث می‌کند، جایی که راوی چیزهای بیشتری را به ارمغان می‌آورد.»

وی افزود که راوی‌های هوش مصنوعی انتشار سریع‌تر کتاب‌های ترجمه شده را نیز امکان‌پذیر می‌کنند.

هند برای تولید کتاب‌های صوتی با هوش مصنوعی آماده می‌شود

نویسندگان چه فکری می‌کنند؟

خوانندگان و نویسندگان نگران پیامدهای اجتماعی جریان اصلی کتاب‌های روایت شده توسط هوش مصنوعی هستند و صداپیشگان فرصت‌های شغلی را از دست می‌دهند. متخصصان همچنین می‌ترسند که کتاب‌های صوتی که قبلا توسط آنها روایت شده است، بدون رضایت آنها برای آموزش ابزارهای هوش مصنوعی که می‌تواند جایگزین آنها شود، استفاده شود.

با درنظر گرفتن این موضوع، آیا خوانندگان و نویسندگان هندی از کتاب‌های روایت شده توسط هوش مصنوعی حمایت می‌کنند؟

میمی موندال، نویسنده هندی داستان‌های علمی تخیلی و فانتزی، گفت که از مفهوم کتاب‌های روایت شده با هوش مصنوعی و شکل آینده علمی-تخیلی اطراف او «بسیار هیجان زده» است. با این حال، او اعتراف کرد که اگر جایگزین انسانی وجود داشته باشد، چنین کتاب‌هایی را توصیه یا خریداری نمی‌کند.

ازنظر فنی این تقصیر هوش مصنوعی نیست. فقط این است که ما آن را به چنین دنیای نابرابری می‌آوریم و آن را به وسیله دیگری برای ظلم تبدیل می‌کنیم.

رش سوزان، نویسنده و ویراستار، که کتاب‌ها را در وبلاگ The Book Satchel مرور می‌کند، گفت که به کتاب‌های صوتی زیادی گوش می‌دهد، اما راوی‌های هوش مصنوعی/دیجیتال را «رباتیک و بی جان» می‌داند. او همچنین گفت که با بازبینی کتاب‌هایی که توسط راوی‌های دیجیتال خوانده می‌شود، موافقت نمی‌کند.

سوزان در بیانه‌ای ایمیلی گفت: من راوی دیجیتالی را به اندازه کافی خوب نمی‌دانم که با صداپیشگانی که می‌توانند جزئیات احساسات را از طریق آهنگ و سبک خواندن خود برانگیزند رقابت کنند. بنابراین، نظر کلی من درمورد کتاب تغییر می‌کند. امیدوارم روی این تمرکز کنیم که فناوری جدید چگونه می‌تواند به ما در انجام سریع‌تر و آسان‌تر کمک کند، و به دنبال راه‌هایی نباشیم که در آن کار انسان کم ارزش شده و قابل تعویض باشد.

از منظر یک منتقد، سوزان نگران بود که راوی دیجیتال عاملی است که می‌تواند بر موفقیت یا عدم موفقیت یک کتاب تأثیر بگذارد.

او هشدار داد: «یک کتاب خوب می‌تواند به یک کتاب صوتی متوسط در دست یک راوی بد تبدیل شود.»

موندال همچنین به طنز جایگزینی هوش مصنوعی با نیروی انسانی اشاره کرد و گفت که حتی با ارزان‌تر شدن فرآیندهای تولید و ارزان شدن کتاب‌ها، مردم شغل خود را از دست می‌دهند.

وی اشاره کرد: من می‌توانم ببینم مطبوعات کوچک و نویسندگان به حاشیه رانده شده چگونه می‌توانند از نیروی کار هوش مصنوعی سود ببرند، و من از آنها به خاطر استفاده از این فرصت کینه‌ای ندارم. ما نباید انتظار داشته باشیم که عدالت اجتماعی بر دوش ضعیف‌ترین اعضای جامعه ما بیاید. این نویسندگانی مانند من هستند که می‌توانند درمورد این موضوع موضع بگیرند و حرفه خود را از دست ندهند.

کانال عصر ایران در تلگرام

دیگر خبرها

  • مادربزرگ ۵۴ ساله قلب مصنوعی و کلیه خوکی دریافت کرد
  • تصمیمات لاهه تاثیری بر رفتار اسرائیل ندارد
  • آمادگی هند برای تولید کتاب‌های صوتی با هوش مصنوعی
  • نتانیاهو: تصمیمات لاهه تاثیری بر رفتار اسرائیل ندارد
  • تاکید امام جمعه پیرانشهر بر رعایت اخلاق اسلامی
  • دشمن به دنبال کم رنگ کردن ارزش حجاب است
  • (ویدئو) این داوطلبان با ماشین ارتش به کنکور رفتند
  • زمین توان پذیرش رفاه مصنوعی را ندارد
  • ۵ صفحه مجازی به دلیل انتشار محتویات خلاف اخلاق و عفت عمومی مسدود شد
  • ارشاد مدیران در جلسه درس اخلاق