Web Analytics Made Easy - Statcounter
به نقل از «رویداد24»
2024-04-25@07:47:56 GMT

نجات یک نوجوان از غرق شدن توسط دستیار صوتی اپل

تاریخ انتشار: ۲۵ آذر ۱۳۹۸ | کد خبر: ۲۶۱۲۶۱۵۱

نجات یک نوجوان از غرق شدن توسط دستیار صوتی اپل

رویداد۲۴ "گائل سالسدو" نوجوان ۱۸ ساله در حالی که با خودرو به یک رودخانه یخ زده در آمریکا سقوط کرده بود و در حال غرق شدن بود، وقتی موبایل خود را نیافت، با فریاد زدن کلمه "سیری" از این دستیار هوشمند خواست با مرکز امداد تماس بگیرد و جان خود را نجات داد.

"سیری" (Siri) دستیار صوتی هوشمند یا دستیار مجازی گوشی‌های آیفون شرکت اپل است که بعد از اینکه "گائل" از آن درخواست کمک کرد، صدای وی را شنید و با مرکز امداد تماس گرفت.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!



"گائل" وقتی به رودخانه سقوط کرد، نمی‌دانست تلفن همراهش کجاست، بنابراین به ذهنش رسید تا با فریاد زدن از "سیری" کمک بخواهد.

"گائل" می‌گوید: من به سمت راست برگشتم و همه چیز در نظرم مبهم و تار بود. موبایلم گم شده بود، بنابراین فریاد زدم " سیری با ۹۱۱ تماس بگیر". در آن زمان بود که "سیری" با اورژانس تماس گرفت و من توانستم موبایلم را پیدا کنم.

وی افزود: دستانم در حال یخ زدن بودند. دیگر نمی‌توانستم پاهایم را حس کنم. خیلی تقلا می‌کردم و آب خیلی قوی بود و من همینطور داشتم غرق می‌شدم تا اینکه بالاخره نجات پیدا کردم.

"گائل می‌گوید: خیلی وحشتناک بود و من فکر می‌کردم دارم می‌میرم، اما خدا را شکر هیچ اتفاق بدی رخ نداد.

آتش نشانان شهر میسون به سرعت به محل حادثه رسیدند و "گائل" را نجات دادند. وی را به دلیل وارد شدن شوک به بیمارستان بردند و دو ساعت بعد از بیمارستان مرخص شد.

این اولین بار طی امسال نیست که یک نوجوان با کمک سیری نجات می‌یابد. چندی پیش یک نوجوان ۱۹ ساله به نام "آلیشان محمود" که در خانه تنها بود و بر اثر غش کردن با صورت به زمین خورده بود، از دستیار صوتی تلفن هوشمند کمک گرفت و نجات یافت.

وی گفت که صورتش پس افتادن روی آشپزخانه پر از خون و خرده شیشه شده بود و چیزی نمی‌دید و از آنجا که در خانه تنها بود، کسی جز دستیار صوتی نمی‌توانست کمکش کند.

منبع: ایسنا خبر های مرتبط

منبع: رویداد24

کلیدواژه: رویداد24 حوادث

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.rouydad24.com دریافت کرده‌است، لذا منبع این خبر، وبسایت «رویداد24» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۲۶۱۲۶۱۵۱ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

وابستگی عاطفی کاربران به دستیارهای هوش مصنوعی

محققان گوگل می‌گویند با وجودی که دستیار‌های هوش مصنوعی ابزار‌هایی مفید و کاربردی هستند، اما می‌توانند کاربران را از نظر عاطفی بیش از حد به خود وابسته کنند. این وابستگی عاطفی می‌تواند پیامد‌های اجتماعی منفی به‌دنبال داشته باشد.

به گزارش دیجیاتو؛ دستیار‌های هوش مصنوعی این روز‌ها بیش‌از‌پیش درحال توسعه هستند و تقریباً در تمامی پلتفرم‌ها به ابزاری کاربرپسند تبدیل شده‌اند. با این شرایط، محققان گوگل در مقاله‌ای در مورد استفاده بیش از حد از آن‌ها و وابستگی عاطفی کاربران نسبت به چنین ابزار‌هایی هشدار می‌دهند.

کاربران در معرض وابستگی عاطفی به هوش مصنوعی قرار دارند

براساس مقاله جدید آزمایشگاه تحقیقاتی DeepMind گوگل، دستیاران هوش مصنوعی پیشرفته و شخصی‌سازی‌شده مزایای بالقوه زیادی به‌همراه دارند و می‌توانند تغییراتی همه‌جانبه در زندگی ما ایجاد کنند. این ابزار‌ها می‌توانند وضعیت کار، آموزش و فعالیت‌های خلاقانه و همچنین نحوه برقراری ارتباط ما را تغییر دهند. محققان این مطالعه می‌گویند اگر توسعه هوش مصنوعی بدون برنامه‌ریزی مدبرانه باشد، می‌تواند به یک شمشیر دولبه تبدیل شود.

این مقاله می‌گوید: «این ابزار‌های غیرطبیعی (مصنوعی) حتی ممکن است محبتی خیالی و رویکردی عاشقانه نسبت به کاربر ابراز کنند. چنین وضعیت‌هایی می‌تواند پایه و اساس ایجاد وابستگی عاطفی طولانی‌مدت به هوش مصنوعی را برای کاربران ایجاد کنند.»

در صورت عدم کنترل این ارتباط، استقلال کاربر ممکن است تحت‌الشعاع قرار گیرد و روی روابط اجتماعی وی تأثیرگذار باشد. هوش مصنوعی حتی می‌تواند جایگزین تعامل انسانی شود.

این خطرات، صرفاً موضوعاتی نظری نیستند. حتی زمانی که هوش مصنوعی در حد یک چت‌بات باشد نیز می‌تواند روی کاربر تأثیر بگذارد. در سال ۲۰۲۳ کاربر پس از چت طولانی با چت‌بات متقاعد شده بود که خودکشی کند.

«ایسون گابریل»، دانشمند محقق در تیم تحقیقاتی DeepMind و یکی از نویسندگان مقاله در توییتی هشدار داد که انواع دستیار شخصی و دستیار‌های شبیه انسان، به‌صورت فزاینده‌ای برخی موضوعات در مورد انسان‌شناسی، حریم خصوصی، اعتماد و روابط مناسب را مطرح می‌کنند. او معتقد است که باید با دقت بیشتری به حوزه‌های اجتماعی و هوش مصنوعی توجه کرد.

دیگر خبرها

  • (ویدیو) واکنش دستیار رئیس جمهور به رفتار‌های تند در مواجهه با بی‌حجابی
  • معارفه حمید مطهری پیش از تمرین تراکتور + عکس
  • وابستگی عاطفی کاربران به دستیارهای هوش مصنوعی
  • معارفه دستیار اول سرمربی بعدی تراکتور بدون نفر اصلی!
  • جدایی دستیار پیشین گل‌محمدی از تیم‌ملی/ تمرین تراکتور زیر نظر مطهری
  • دستیار یحیی، سرمربی موقت تراکتور شد
  • بازداشت دستیار نماینده پارلمان اروپا در آلمان به اتهام جاسوسی + عکس
  • الو؟ من یک نوجوانم!
  • دستیار معاون اول رئیسی: هیچ دستورالعملی برای واردات خودرو منتظر ابلاغ مخبر نیست
  •  نجات گروگان از مخفیگاه آدم ربایان زباله گرد با تماس شهروند وظیفه شناس