Web Analytics Made Easy - Statcounter
به نقل از «ایلنا»
2024-04-23@09:26:45 GMT

گرد و خاک به سرعت آسمان خوزستان را در می نوردد

تاریخ انتشار: ۵ خرداد ۱۳۹۸ | کد خبر: ۲۳۸۹۷۶۷۲

به گزارش خبرنگار ایلنا از اهواز، مرکز هواشناسی خوزستان پیرو اطلاعیه ای وقوع گرد و خاک سریع در این استان را هشدار داد.

در این اطلاعیه آمده است:

با توجه به ایجاد همرفت شدید برای ساعات آینده در مناطق مرکزی و شمالی استان، انتظار رگبار و رعد و برق همراه با تندبادهای لحظه ای  و کاهش دید افقی به واسطه گرد و خاک گذرا و موقتی را خواهیم داشت.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

منبع: ایلنا

کلیدواژه: هواشناسی خوزستان

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.ilna.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «ایلنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۲۳۸۹۷۶۷۲ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

چرا آدم فضایی‌ها خودشان را به ما نشان نمی‌دهند؟

ناکامی در یافتن حیات فرازمینی یکی از پرسش‌های مهم دنیای علم است. استاد اخترفیزیک «دانشگاه منچستر» در مقاله جدیدی مدعی شده است هوش مصنوعی می‌تواند مسئول نرسیدن بشر به تمدن‌های پیشرفته کیهان و حیات بیگانه باشد.

به گزارش برنا؛ مقاله‌ای که اخیرا توسط «مایکل گرت» (Michael Garrett) استاد اخترفیزیک «دانشگاه منچستر» (University of Manchester) نوشته شده، نشان می‌دهد هوش مصنوعی ممکن است توضیحی برای این پرسش باشد که چرا ما هنوز با تمدن‌های پیشرفته فناوری در نقاط دیگر جهان روبه‌رو نشده‌ایم.

فرضیه‌های زیادی برای توضیح دادن این پرسش وجود دارند که چرا ستاره‌شناسان هیچ نشانه‌ای را مبنی بر وجود حیات بیگانه در مجموعه وسیعی از داده‌های نجومی جمع‌آوری‌شده در ۶۰ سال گذشته کشف نکرده‌اند. از جمله این فرضیه‌ها می‌توان به «پارادوکس فرمی» (Fermi Paradox)، «فرضیه باغ وحش» (Zoo Hypothesis) و «نظریه جنگل تاریک» (Dark Forest Theory) اشاره کرد.

گرت استدلال می‌کند که هوش مصنوعی می‌تواند یک فیلتر قوی باشد. استدلال گرت این است که روبه‌رو شدن هر تمدنی با یک مانع جهانی یا چالش غیر قابل عبور، مانع از ظهور حیات هوشمند می‌شود.

به گفته گرت، هوش مصنوعی می‌تواند مسئول فقدان تمدن‌های فناورانه پیشرفته باشد، زیرا این فیلتر پیش از آن ظاهر می‌شود که یک تمدن بتواند به سفر چندسیاره‌ای دست یابد. نکته ناامیدکننده‌تر این که استدلال گرت نشان می‌دهد طول عمر معمول هر تمدن فنی کمتر از ۲۰۰ سال است. با وجود این، همه ماجرا با غم و اندوه همراه نیست، زیرا هوش مصنوعی مزایایی هم دارد.

مزایا و خطرات ابرهوش مصنوعی

هوش مصنوعی در مقایسه با سایر فناوری‌های بالقوه مخرب، در مقیاس‌های زمانی بی‌سابقه‌ای توسعه یافته است. این فناوری در بافت زندگی روزمره ما ادغام می‌شود و اساسا نحوه تعامل ما را با فناوری تغییر می‌دهد.

ظاهرا هیچ حوزه‌ای، از مراقبت‌های بهداشتی گرفته تا تجارت و آموزش، پلیس و امنیت ملی دست‌نخورده باقی نمانده است. گرت نوشت: فکر کردن به حوزه‌ای که هنوز با ظهور هوش مصنوعی روبه‌رو نشده باشد، دشوار است.

هوش مصنوعی مانند هر فناوری دیگری، با وجود همه خوبی‌های بالقوه‌ای که ممکن است داشته باشد، پتانسیل بسیار بالایی را برای آسیب رساندن دارد. گرت اظهار داشت: جای تعجب نیست که انقلاب هوش مصنوعی، نگرانی‌های جدی را در مورد مسائل اجتماعی مانند جایگزینی نیروی کار، سوگیری در الگوریتم‌ها، تبعیض، شفافیت، تحولات اجتماعی، پاسخ‌گویی، حفظ حریم خصوصی و تصمیم‌گیری اخلاقی ایجاد کرده است.

اگرچه این نگرانی‌های اخلاقی و اجتماعی مستلزم بررسی جدی هستند، اما گرت استدلال می‌کند که ممکن است آن‌ها عوامل موثر در سقوط تمدن نباشند. در سال ۲۰۱۴، «استیون هاوکینگ» (Stephen Hawking) فقید به طور آشکار هشدار داد که اگر هوش مصنوعی بتواند توانایی تکامل مستقل را به دست بیاورد، خود را دوباره با سرعت فزاینده‌ای طراحی کند و به ابرهوش مصنوعی تبدیل شود، به نوع بشر پایان خواهد داد. گرت خاطرنشان کرد: جامعه بشری به سرعت به یک قلمرو ناشناخته رانده شده است.

علاوه بر ترس در مورد سلاح‌سازی ابرهوش مصنوعی، گرت استدلال کرد که سرعت فرآیند‌های تصمیم‌گیری هوش مصنوعی می‌تواند تضاد‌ها را تشدید کند تا از اهداف اصلی بسیار فراتر برود. وقتی این سیستم‌های هوش مصنوعی دیگر برای وجود داشتن نیازی به حمایت تمدن‌های بیولوژیکی نداشته باشند، چه اتفاقی رخ خواهد داد؟

گرت نوشت: پس از رسیدن به تکینگی فناورانه، سیستم‌های ابرهوش مصنوعی به سرعت از هوش بیولوژیکی پیشی می‌گیرند و با سرعتی تکامل می‌یابند که کاملا از مکانیسم‌های نظارت سنتی عبور می‌کنند و به بروز پیامد‌های پیش‌بینی‌نشده و ناخواسته‌ای منجر می‌شوند که بعید است با علایق بیولوژیکی یا اخلاقیات همسو باشند.

وی افزود: عملی بودن حفظ موجودات زیستی با نیاز‌های گسترده آن‌ها به منابعی مانند انرژی و فضا ممکن است بر کارآیی محاسباتی متمرکز نباشد و موجب شود که هوش مصنوعی به آن‌ها مانند یک مزاحم نگاه کند.

این در واقع یک ایده نگران‌کننده است و نابودگران هوش مصنوعی به این سمت متمایل می‌شوند، اما در حال حاضر بدترین سناریو را نشان می‌دهد.

نقش حیاتی تنظیمات

حقیقت این است که ما قلمرو ناشناخته هوش مصنوعی را می‌پیماییم و مسیر نهایی نامشخص است. هوش مصنوعی که در حال حاضر در زندگی روزمره با آن روبه‌رو هستیم، هنوز در چارچوب محدودیت‌های ایجادشده توسط انسان عمل می‌کند و لازم است بدانیم که ما هنوز عاملیت و توانایی شکل دادن به مسیر آن را داریم.

گرت باور دارد که راه حل موثر برای ایجاد یک شبکه ایمنی احتمالی در برابر خطرات یک ابرهوش مصنوعی فوق هوشمند، سفر چندسیاره‌ای است تا انسان به یک گونه بیولوژیکی چندسیاره‌ای تبدیل شود و بتواند از تجربیات خود در سیارات گوناگون استفاده کند، راهبرد‌های بقای خود را متنوع سازد و از شکست جلوگیری به عمل آورد.

با توجه به سرعت پیشی گرفتن هوش مصنوعی از سفر فضایی، این راه حل محتمل یا واقع‌بینانه به نظر نمی‌رسد. گرت نوشت: این به طور طبیعی ما را به سوی موضوع پیچیده تنظیم و کنترل هوش مصنوعی هدایت می‌کند. بدون مقررات عملی، دلایل زیادی برای این باور وجود دارد که هوش مصنوعی یک تهدید بزرگ برای مسیر آینده نه تنها تمدن فنی ما بلکه همه تمدن‌های فنی باشد.

وی افزود: اگرچه ذی‌نفعان صنعت، سیاست‌گذاران، کارشناسان و دولت‌ها پیشتر هشدار داده‌اند که ایجاد مقررات لازم است، اما ایجاد یک چارچوب نظارتی که در سطح جهانی قابل قبول باشد، چالش‌برانگیز خواهد بود.

با وجود این، وضع مقررات برای هوش مصنوعی غیر ممکن نیست. پیامد‌های تصمیم‌گیری مستقل هوش مصنوعی اخیرا به شکل‌گیری درخواست‌هایی برای توقف توسعه هوش مصنوعی تا زمانی منجر شده‌اند که یک شکل مسئولانه از کنترل و مقررات معرفی شود.

با توجه به اولویت‌های متفاوت فرهنگی، اقتصادی و اجتماعی ملل گوناگون، مشکلاتی در تدوین یک مجموعه جهانی از مقررات وجود خواهد داشت. علاوه بر این، پیشرفت سریع هوش مصنوعی احتمالا از چارچوب نظارتی توافق‌شده پیشی می‌گیرد و این نگرانی را ایجاد می‌کند که چارچوب‌ها همیشه از پیشرفت‌های جدید و پیش‌بینی‌نشده در این زمینه عقب‌تر باشند.

با نگاه کردن به آینده ممکن است بتوانیم دیدگاه بهتری را نسبت به چالش‌های کنونی خود به دست آوریم. گرت نوشت: با بررسی احتمالات درباره تمدن‌های بیگانه، این آزمایش فکری به ما کمک می‌کند تا به پایداری بلندمدت تمدن خود بیندیشیم، خطرات بالقوه‌ای را که با آن‌ها روبه‌رو هستیم بشناسیم و درباره چگونگی غلبه کردن بر چالش‌های آینده فکر کنیم.

دیگر خبرها

  • ببینید | نقشه ٧٢ پرواز هلیکوپتر نبوغ در مریخ
  • سرعت این نوجوان آمریکایی در حد برق و باد!
  • اطلاعیه شماره ۵ هیات استانی بررسی مرحله دوم انتخابات
  • دریا در استان بوشهر متلاطم می‌شود
  • یزد ـ مهریز پرترددترین محور در فروردین ماه
  • اسکیت سواری با سرعت دیوانه وار 100 کیلومتر برساعت! (فیلم)
  • مقایسه شبکه 5 جی با 5.5G
  • سرعت واقعی هواپیما هنگام تیک آف (فیلم)
  • چرا آدم فضایی‌ها خودشان را به ما نشان نمی‌دهند؟
  • آتش سوزی جنگل های سکوتپه ساری خاموش شد