دسترسی مستقیم کاربران آیاواس به گوگل لنز امکان پذیر میشود
تاریخ انتشار: ۲۶ آذر ۱۳۹۷ | کد خبر: ۲۱۹۹۴۳۸۱
به گزارش خبرنگار حوزه دریچه فناوری گروه فضای مجازی باشگاه خبرنگاران جوان، ابزار شناسایی موتور جستجوی گوگل (visual identification tool)، گوگل لنز نام دارد. این قابلیت میتواند مواردی که در یک عکس وجود دارد را اسکن کند و اطلاعات مربوط به آن را به کاربر ارائه دهد. برای مثال میتوانید یک اثر هنری را توسط این قابلیت اسکن کنید و اطلاعات راجع به آن را به دست آورید.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
خبر خوبی که برای کاربران آیاواس وجود دارد، این است که هماکنون میتوان این قابلیت را به طور مستقیم توسط نرمافزار گوگل در سیستم عامل آیاواس استفاده کرد.
اگر کاربر آیاواس هستید، کافی است برای انجام این کار روشی که در ادامه گفته شده را انجام دهید.
برای انجام این کار، به سادگی بر روی آیکون لنز در سمت چپ میکروفون در نوار جستجوی برنامه ضربه بزنید. با این کار دوربین تلفن شما باز خواهد شد و گوگل تلاش خواهد کرد، هر آن چه که شما به آن اشاره میکنید را شناسایی کند. فرقی نمیکند تصویری که به آن نشان میدهید، گیاه باشد یا حیوان یا فقط متنی که میخواهید در جای دیگر کپی و جایگذاری کنید، گوگل لنز آن را تشخیص خواهد داد.
پیش از این، سرویس تشخیص تصویر (image recognition) تنها از طریق Google Photos در iOS قابل دسترسی بود. استفاده از این اپلیکشین یک مشکل عمده به همراه داشت. برای استفاده از این قابلیت، شما باید ابتدا یک عکس میگرفتید و سپس آن را اسکن میکردید اما حالا به طور مستقیم از طریق دوربین میشود این کار را انجام داد و دیگر نیازی به ثبت تصویر نیست. این حرکت باعث میشود که این سرویس بسیار سریعتر و آسانتر از قبل در دسترس باشد. کافی است شما بدون گرفتن عکس، روی تصویر یک شی ضربه بزنید تا آن را شناسایی کنید.
این نرمافزار جدید به مرور زمان در دسترس همه قرار خواهد گرفت. پس از پایان این پروژه باز هم گوگل شکاف کوچکی را میان اندروید و آیاواس از بین برده است.
بیشتر بخوانید: دوربینی که روابط اجتماعی شما را بررسی میکند +تصویر
انتهای پیام/
گوگل لنز در آیاواسمنبع: باشگاه خبرنگاران
کلیدواژه: فناوری فضای مجازی
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.yjc.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «باشگاه خبرنگاران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۲۱۹۹۴۳۸۱ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
هشدار محققان گوگل: کاربران ممکن است به دستیارهای هوش مصنوعی وابستگی عاطفی پیدا کنند
محققان گوگل میگویند با وجودی که دستیارهای هوش مصنوعی ابزارهایی مفید و کاربردی هستند، اما میتوانند کاربران را از نظر عاطفی بیش از حد به خود وابسته کنند. این وابستگی عاطفی میتواند پیامدهای اجتماعی منفی بهدنبال داشته باشد.
دستیارهای هوش مصنوعی این روزها بیشازپیش درحال توسعه هستند و تقریباً در تمامی پلتفرمها به ابزاری کاربرپسند تبدیل شدهاند. با این شرایط، محققان گوگل در مقالهای در مورد استفاده بیش از حد از آنها و وابستگی عاطفی کاربران نسبت به چنین ابزارهایی هشدار میدهند.
کاربران در معرض وابستگی عاطفی به هوش مصنوعی قرار دارند
براساس مقاله جدید آزمایشگاه تحقیقاتی DeepMind گوگل، دستیاران هوش مصنوعی پیشرفته و شخصیسازیشده مزایای بالقوه زیادی بههمراه دارند و میتوانند تغییراتی همهجانبه در زندگی ما ایجاد کنند. این ابزارها میتوانند وضعیت کار، آموزش و فعالیتهای خلاقانه و همچنین نحوه برقراری ارتباط ما را تغییر دهند. محققان این مطالعه میگویند اگر توسعه هوش مصنوعی بدون برنامهریزی مدبرانه باشد، میتواند به یک شمشیر دولبه تبدیل شود.
این مقاله میگوید: «این ابزارهای غیرطبیعی (مصنوعی) حتی ممکن است محبتی خیالی و رویکردی عاشقانه نسبت به کاربر ابراز کنند. چنین وضعیتهایی میتواند پایه و اساس ایجاد وابستگی عاطفی طولانیمدت به هوش مصنوعی را برای کاربران ایجاد کنند.»
در صورت عدم کنترل این ارتباط، استقلال کاربر ممکن است تحتالشعاع قرار گیرد و روی روابط اجتماعی وی تأثیرگذار باشد. هوش مصنوعی حتی میتواند جایگزین تعامل انسانی شود.
این خطرات، صرفاً موضوعاتی نظری نیستند. حتی زمانی که هوش مصنوعی در حد یک چتبات باشد نیز میتواند روی کاربر تأثیر بگذارد. در سال ۲۰۲۳ کاربر پس از چت طولانی با چتبات متقاعد شده بود که خودکشی کند.
«ایسون گابریل»، دانشمند محقق در تیم تحقیقاتی DeepMind و یکی از نویسندگان مقاله در توییتی هشدار داد که انواع دستیار شخصی و دستیارهای شبیه انسان، بهصورت فزایندهای برخی موضوعات در مورد انسانشناسی، حریم خصوصی، اعتماد و روابط مناسب را مطرح میکنند. او معتقد است که باید با دقت بیشتری به حوزههای اجتماعی و هوش مصنوعی توجه کرد.
باشگاه خبرنگاران جوان علمی پزشکی فناوری