کنترل سیستم امنیتی خانه با صدای کاربر
تاریخ انتشار: ۲۷ آذر ۱۳۹۷ | کد خبر: ۲۲۰۰۶۲۰۱
با پنل کاربری جدید آمازون از این پس قادر خواهید بود با در اختیار داشتن دستیار هوشمند آمازون موسوم به "الکسا" و یک بلندگوی هوشمند "اکو" یا هر گجت دیگری که از "الکسا" پشتیبانی میکند، سیستم امنیتی خانه خود را تنها با صدای خود کنترل کنید.
کسانی که دارای یک بلندگوی "اکو" یا یک ابزار مبتنی بر پلتفرم "الکسا" هستند، میتوانند از این پس به راحتی کنترل سیستم امنیتی خانه خود را با صدای خود به دست بگیرند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
شرکت آمازون یک پنل کنترل امنیتی را فعال کرده است که به شما امکان کنترل سیستمهای امنیتی را با صدای شما میدهد.
شما میتوانید آن را با صدای خود فعال و غیرفعال کنید و حالتهای خاص مانند خانه، دور از خانه و شب را تنظیم کنید و خانه را در هر حالتی تنها با پرسیدن از الکسا به سادگی چک کنید و از شرایط خانه باخبر شوید.
صد البته که آمازون از پیامدهای امنیتی این کار آگاه است. به همین دلیل شما باید به صورت شخصی و با صدای خودتان این سیستم را فعال کنید و میتوانید از تعیین یک کد صوتی مخصوص به جای فریاد زدن رمز خود استفاده کنید.
این فناوری، آمازون را به بازار سیستمهای امنیت خانگی وارد میکند.
در همین حال، استراتژی آمازون این است که با توسعه سختافزارها و نرمافزارها به صورت همزمان، از حضور فیزیکی دستیار هوشمند خود در همه جا اطمینان حاصل کند.
آمازون در تلاش برای گسترش دسترسی به دستیار صوتی هوشمند خود و خودکار کردن خانهها است.
این قابلیت در حال حاضر در ایالات متحده آمریکا در دسترس است و شرکتهای توسعه سیستمهای امنیتی مانند Abode، ADT، Honeywell، Ring و Scout Alarm از آن استفاده میکنند.
این قابل درک است که افراد به دلیل امکان استراق سمع یا استفاه از صدا به تنهایی، در استفاده از این پلتفرم جدید تردید داشته باشند، اما آمازون به روشنی تضمین کرده است که اقدامات امنیتی لازم از جمله فناوری تشخیص صوت را به منظور شخصیسازی این فناوری و تامین امنیت آن به کار گرفته است.
بدین ترتیب این روش میتواند به جای استفاده از تلفن همراه یا وارد کردن کد بر روی یک صفحه هنگام ورود و خروج از خانه استفاده شود./ ایسنا
منبع: ایران آنلاین
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت ion.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «ایران آنلاین» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۲۲۰۰۶۲۰۱ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
هشدار محققان گوگل: کاربران ممکن است به دستیارهای هوش مصنوعی وابستگی عاطفی پیدا کنند
محققان گوگل میگویند با وجودی که دستیارهای هوش مصنوعی ابزارهایی مفید و کاربردی هستند، اما میتوانند کاربران را از نظر عاطفی بیش از حد به خود وابسته کنند. این وابستگی عاطفی میتواند پیامدهای اجتماعی منفی بهدنبال داشته باشد.
دستیارهای هوش مصنوعی این روزها بیشازپیش درحال توسعه هستند و تقریباً در تمامی پلتفرمها به ابزاری کاربرپسند تبدیل شدهاند. با این شرایط، محققان گوگل در مقالهای در مورد استفاده بیش از حد از آنها و وابستگی عاطفی کاربران نسبت به چنین ابزارهایی هشدار میدهند.
کاربران در معرض وابستگی عاطفی به هوش مصنوعی قرار دارند
براساس مقاله جدید آزمایشگاه تحقیقاتی DeepMind گوگل، دستیاران هوش مصنوعی پیشرفته و شخصیسازیشده مزایای بالقوه زیادی بههمراه دارند و میتوانند تغییراتی همهجانبه در زندگی ما ایجاد کنند. این ابزارها میتوانند وضعیت کار، آموزش و فعالیتهای خلاقانه و همچنین نحوه برقراری ارتباط ما را تغییر دهند. محققان این مطالعه میگویند اگر توسعه هوش مصنوعی بدون برنامهریزی مدبرانه باشد، میتواند به یک شمشیر دولبه تبدیل شود.
این مقاله میگوید: «این ابزارهای غیرطبیعی (مصنوعی) حتی ممکن است محبتی خیالی و رویکردی عاشقانه نسبت به کاربر ابراز کنند. چنین وضعیتهایی میتواند پایه و اساس ایجاد وابستگی عاطفی طولانیمدت به هوش مصنوعی را برای کاربران ایجاد کنند.»
در صورت عدم کنترل این ارتباط، استقلال کاربر ممکن است تحتالشعاع قرار گیرد و روی روابط اجتماعی وی تأثیرگذار باشد. هوش مصنوعی حتی میتواند جایگزین تعامل انسانی شود.
این خطرات، صرفاً موضوعاتی نظری نیستند. حتی زمانی که هوش مصنوعی در حد یک چتبات باشد نیز میتواند روی کاربر تأثیر بگذارد. در سال ۲۰۲۳ کاربر پس از چت طولانی با چتبات متقاعد شده بود که خودکشی کند.
«ایسون گابریل»، دانشمند محقق در تیم تحقیقاتی DeepMind و یکی از نویسندگان مقاله در توییتی هشدار داد که انواع دستیار شخصی و دستیارهای شبیه انسان، بهصورت فزایندهای برخی موضوعات در مورد انسانشناسی، حریم خصوصی، اعتماد و روابط مناسب را مطرح میکنند. او معتقد است که باید با دقت بیشتری به حوزههای اجتماعی و هوش مصنوعی توجه کرد.
باشگاه خبرنگاران جوان علمی پزشکی فناوری