طراحی هوش مصنوعی هوشمندی که میداند چه زمانی نمیتوان به آن اعتماد کرد
تاریخ انتشار: ۱۲ آذر ۱۳۹۹ | کد خبر: ۳۰۱۷۹۶۳۵
به گزارش باشگاه خبرنگاران دانشجویی(ایسکانیوز)؛ اگر در فیلم ترمیناتور اسکاینت تصمیم میگرفت صلاحیت مسئولیت استفاده از مهمات هستهای آمریکا را ندارد، داستان شکل دیگری بهپایان میرسید. در دنیای واقعی، دانشمندان با ایجاد شبکههای مصنوعی که میدانند چه زمانی غیراعتماد هستند، ممکن است بتوانند ما را از وقوع چنین رویدادهای آخرالزمانی به رهبری هوش مصنوعی نجات دهند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
درحالیکه هنوز ممکن است فاصلهی زیادی با داستان اسکاینت داشته باشیم، هوش مصنوعی هماکنون در حال تصمیمگیری در زمینههایی است که روی زندگی انسان اثر میگذارند؛ مانند رانندگی خودران و تشخیص پزشکی. بنابراین، حیاتی است که آنها تاحدممکن دقیق باشند. بهمنظور کمک به دستیابی به این هدف، سیستم شبکهی عصبی جدیدی ایجاد شده است که علاوهبر پیشبینی، میزان اطمینان خود را نیز میتواند تخمین بزند.
الکساندر امینی، دانشمند علوم کامپیوتر آزمایشگاه هوش مصنوعی و علوم کامپیوتر مؤسسه فناوری ماساچوست میگوید: «نهتنها لازم است مدلها عملکرد خیرهکنندهای داشته باشند؛ بلکه باید بدانیم چه زمانی نمیتوانیم به آن مدلها اعتماد کنیم.»
این خودآگاهی از قابلیت اعتماد «رگرسیون شهودی عمیق» نام گرفته است و امتیاز آن براساس کیفیت دادههای دردسترسی محاسبه میشود که باید با آنها کار کند. هرچه دادههای استفادهشده برای آموزش دقیقتر و جامعتر باشند، این احتمال بیشتر است که پیشبینیهای آینده موفق باشد.
گروه پژوهشی سیستم خود را با شبکهی مصنوعی کنترلکنندهی اتومبیل خودرانی مقایسه میکند که سطوح متفاوتی از اطمینان در این زمینه دارد که آیا باید از تقاطعی عبور کند یا هنگام کمتر مطمئنبودن از پیشبینیهایش، منتظر بماند و حرکت نکند.
درحالیکه پیشازاین نیز در شبکههای عصبی چنین حفاظهایی ایجاد شده بود، وجه تمایز سیستم جدید سرعتعمل آن بدون نیاز به محاسبات بیشازحد است. محاسبات میتواند در یک بار اجرای شبکه کامل شود و همزمان با تصمیمگیری، سطح اطمینان را نیز برآورد کند.
دانیلا روس، دانشمند علوم کامپیوتر میگوید:
این ایده مهم است و کاربرد وسیعی دارد؛ مثلا میتواند برای ارزیابی محصولات متکیبر مدلهای آموزشدیده استفاده شود. با تخمین میزان قطعیتنداشتن مدل آموزشدیده، میآموزیم چقدر خطا از مدل انتظار داریم یا چه نوع دادههایی میتوانند مدل را بهبود بخشند.
پژوهشگران سیستم جدید خود را درزمینهی قضاوت عمق بخشهای مختلف تصویر آزمایش کردند. این مانند حالتی است که اتومبیل خودران دربارهی فاصله قضاوت میکند. شبکه بهخوبی با سیستمهای موجود مقایسهشدنی بود و در همان زمان، قطعیتنداشتن خود را نیز تخمین میزد. در دفعاتی با حداقل اطمینان، واقعا در زمینهی عمق اشتباه میکرد.
بهعنوان مزیت اضافی، این شبکه میتوانست دفعاتی را علامتگذاری کند که با تصاویری خارج از وظیفهی معمول خود روبهرو میشد و با دادههایی که با آنها آموزش دیده بود، بسیار تفاوت داشت. این مزیت در شرایط پزشکی میتواند به این معنا باشد که پزشک باید موردی را دوباره بررسی کند.
حتی اگر شبکهی عصبی در ۹۹ درصد مواقع درست عمل کند، ۱ درصد باقیمانده بسته به سناریو میتواند عواقب جدی بهدنبال داشته باشد. پژوهشگران میگویند اطمینان دارند که آزمایش اعتماد ساده و جدید آنها میتواند به بهبود ایمنی بهصورت آنی کمک کند؛ اگرچه کارشناسان هنوز مطالعهی جدید را بازبینی نکردهاند. امینی میگوید:
خروج این مدلها را از آزمایشگاههای پژوهشی و ورود آنها را به دنیای واقعی و موقعیتهایی شاهد هستیم که در تماس با انسانها قرار میگیرند و ممکن است پیامدهای تهدیدکنندهی زندگی داشته باشند. هر کاربری که از این روش استفاده میکند، خواه پزشک باشد یا مسافر وسیلهی نقلیه، باید از هرگونه خطر یا نبود اطمینان مرتبط با آن تصمیم مطلع باشد.
انتهای پیام/
منبع:زومیت
کد خبر: 1082471 برچسبها هوش مصنوعی شبکه عصبیمنبع: ایسکانیوز
کلیدواژه: هوش مصنوعی شبکه عصبی هوش مصنوعی داده ها مدل ها ی عصبی
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.iscanews.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «ایسکانیوز» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۰۱۷۹۶۳۵ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی: