Web Analytics Made Easy - Statcounter
به نقل از «ایران آنلاین»
2024-04-24@19:24:26 GMT

کنترل سیستم امنیتی خانه با صدای کاربر

تاریخ انتشار: ۲۷ آذر ۱۳۹۷ | کد خبر: ۲۲۰۰۶۲۰۱

کنترل سیستم امنیتی خانه با صدای کاربر

با پنل کاربری جدید آمازون از این پس قادر خواهید بود با در اختیار داشتن دستیار هوشمند آمازون موسوم به "الکسا" و یک بلندگوی هوشمند "اکو" یا هر گجت دیگری که از "الکسا" پشتیبانی می‌کند، سیستم امنیتی خانه خود را تنها با صدای خود کنترل کنید.

کسانی که دارای یک بلندگوی "اکو" یا یک ابزار مبتنی بر پلت‌فرم "الکسا" هستند، می‌توانند از این پس به راحتی کنترل سیستم امنیتی خانه خود را با صدای خود به دست بگیرند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

شرکت آمازون یک پنل کنترل امنیتی را فعال کرده است که به شما امکان کنترل سیستم‌های امنیتی را با صدای شما می‌دهد.

شما می‌توانید آن را با صدای خود فعال و غیرفعال کنید و حالت‌های خاص مانند خانه، دور از خانه و شب را تنظیم کنید و خانه را در هر حالتی تنها با پرسیدن از الکسا به سادگی چک کنید و از شرایط خانه باخبر شوید.

صد البته که آمازون از پیامدهای امنیتی این کار آگاه است. به همین دلیل شما باید به صورت شخصی و با صدای خودتان این سیستم را فعال کنید و می‌توانید از تعیین یک کد صوتی مخصوص ​​به جای فریاد زدن رمز خود استفاده کنید.

این فناوری، آمازون را به بازار سیستم‌های امنیت خانگی وارد می‌کند.

در همین حال، استراتژی آمازون این است که با توسعه سخت‌افزارها و نرم‌افزارها به صورت همزمان، از حضور فیزیکی دستیار هوشمند خود در همه جا اطمینان حاصل کند.

آمازون در تلاش برای گسترش دسترسی به دستیار صوتی هوشمند خود و خودکار کردن خانه‌ها است.

این قابلیت در حال حاضر در ایالات متحده آمریکا در دسترس است و شرکت‌های توسعه سیستم‌های امنیتی مانند Abode، ADT، Honeywell، Ring و Scout Alarm از آن استفاده می‌کنند.

این قابل درک است که افراد به دلیل امکان استراق سمع یا استفاه از صدا به تنهایی، در استفاده از این پلت‌فرم جدید تردید داشته باشند، اما آمازون به روشنی تضمین کرده است که اقدامات امنیتی لازم از جمله فناوری تشخیص صوت را به منظور شخصی‌سازی این فناوری و تامین امنیت آن به کار گرفته است.

بدین ترتیب این روش می‌تواند به جای استفاده از تلفن همراه یا وارد کردن کد بر روی یک صفحه هنگام ورود و خروج از خانه استفاده شود./ ایسنا

منبع: ایران آنلاین

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت ion.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «ایران آنلاین» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۲۲۰۰۶۲۰۱ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

هشدار محققان گوگل: کاربران ممکن است به دستیار‌های هوش مصنوعی وابستگی عاطفی پیدا کنند

محققان گوگل می‌گویند با وجودی که دستیار‌های هوش مصنوعی ابزار‌هایی مفید و کاربردی هستند، اما می‌توانند کاربران را از نظر عاطفی بیش از حد به خود وابسته کنند. این وابستگی عاطفی می‌تواند پیامد‌های اجتماعی منفی به‌دنبال داشته باشد.

دستیار‌های هوش مصنوعی این روز‌ها بیش‌از‌پیش درحال توسعه هستند و تقریباً در تمامی پلتفرم‌ها به ابزاری کاربرپسند تبدیل شده‌اند. با این شرایط، محققان گوگل در مقاله‌ای در مورد استفاده بیش از حد از آنها و وابستگی عاطفی کاربران نسبت به چنین ابزار‌هایی هشدار می‌دهند.

کاربران در معرض وابستگی عاطفی به هوش مصنوعی قرار دارند
براساس مقاله جدید آزمایشگاه تحقیقاتی DeepMind گوگل، دستیاران هوش مصنوعی پیشرفته و شخصی‌سازی‌شده مزایای بالقوه زیادی به‌همراه دارند و می‌توانند تغییراتی همه‌جانبه در زندگی ما ایجاد کنند. این ابزار‌ها می‌توانند وضعیت کار، آموزش و فعالیت‌های خلاقانه و همچنین نحوه برقراری ارتباط ما را تغییر دهند. محققان این مطالعه می‌گویند اگر توسعه هوش مصنوعی بدون برنامه‌ریزی مدبرانه باشد، می‌تواند به یک شمشیر دولبه تبدیل شود.

این مقاله می‌گوید: «این ابزار‌های غیرطبیعی (مصنوعی) حتی ممکن است محبتی خیالی و رویکردی عاشقانه نسبت به کاربر ابراز کنند. چنین وضعیت‌هایی می‌تواند پایه و اساس ایجاد وابستگی عاطفی طولانی‌مدت به هوش مصنوعی را برای کاربران ایجاد کنند.»

در صورت عدم کنترل این ارتباط، استقلال کاربر ممکن است تحت‌الشعاع قرار گیرد و روی روابط اجتماعی وی تأثیرگذار باشد. هوش مصنوعی حتی می‌تواند جایگزین تعامل انسانی شود.

این خطرات، صرفاً موضوعاتی نظری نیستند. حتی زمانی که هوش مصنوعی در حد یک چت‌بات باشد نیز می‌تواند روی کاربر تأثیر بگذارد. در سال ۲۰۲۳ کاربر پس از چت طولانی با چت‌بات متقاعد شده بود که خودکشی کند.

«ایسون گابریل»، دانشمند محقق در تیم تحقیقاتی DeepMind و یکی از نویسندگان مقاله در توییتی هشدار داد که انواع دستیار شخصی و دستیار‌های شبیه انسان، به‌صورت فزاینده‌ای برخی موضوعات در مورد انسان‌شناسی، حریم خصوصی، اعتماد و روابط مناسب را مطرح می‌کنند. او معتقد است که باید با دقت بیشتری به حوزه‌های اجتماعی و هوش مصنوعی توجه کرد.

باشگاه خبرنگاران جوان علمی پزشکی فناوری

دیگر خبرها

  • وابستگی عاطفی کاربران به دستیارهای هوش مصنوعی
  • هشدار محققان گوگل: کاربران ممکن است به دستیار‌های هوش مصنوعی وابستگی عاطفی پیدا کنند
  • انقلاب آمازون در حوزه بسته‌بندی به کمک هوش مصنوعی
  • رونمایی از کتاب «به توان هایتک» در دانشگاه فردوسی مشهد
  • توییت جنجالی کاربر معروف روس درباره تحریم ها علیه ایران | عکس
  • حضور اتباع و مهاجرین در قم کنترل و ساماندهی شود
  • کنترل دسترسی کارکنان به شبکه و اهمیت آن برای سازمان‌ها
  • سیدافقهی: خانه نخبگان راه‌اندازی می‌شود/ سبحانیان: دغدغه ما جذب نخبگان در سیستم است
  • اقدام مجلس نمایندگان آمریکا برای حفاظت از «داده‌های ۱۷۰میلیون کاربر»
  • انقلاب در بسته‌بندی‌های آمازون