شناورسازی 35 مغروقه در اروندرود
تاریخ انتشار: ۲۹ مرداد ۱۳۹۵ | کد خبر: ۸۲۸۲۰۹۷
وزارت خارجه مسؤول پیگیری اقدامات حقوقی برای شناورسازی اروند است..
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
منبع: باشگاه خبرنگاران
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.yjc.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «باشگاه خبرنگاران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۸۲۸۲۰۹۷ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
هوش مصنوعی ChatGPT دادگاهی میشود!
به گزارش تابناک، استارتاپ OpenAI که با حمایت مایکروسافت فعالیت میکند، هدف شکایت یک گروه طرفدار حقوق بشر به نام NOYB قرار گرفت. این شکایت بهدلیل اصلاحنشدن اطلاعات اشتباهی است که توسط دستیار هوش مصنوعی ChatGPT تولید میشود.
شاکی پرونده که فردی شناختهشده است، از چت جیپیتی در مورد تاریخ تولدش سؤال کرده است، اما این دستیار هوش مصنوعی بهجای اعلامِ در دسترس نبودن اطلاعات لازم، بارها اطلاعات اشتباه ارائه کرد.
NOYB میگوید OpenAI درخواست شاکی برای اصلاح یا حذف دادهها را رد کرده و مدعی شده است که امکان اصلاح اطلاعات وجود ندارد.
OpenAI همچنین از افشای هر گونه اطلاعات در مورد دادههای پردازششده، منابع و دریافتکنندگان آن خودداری کرده است.
NOYB اعلام کرده که شکایتی را به مقامات مسئول حفظ حریم خصوصی در اتریش ارائه کرده و از آنها خواسته است تا فرایند پردازش داده توسط OpenAI و اقدامات انجامشده برای اطمینان از صحت دادههای شخصی پردازششده توسط مدلهای زبان بزرگ این شرکت را مورد بررسی قرار دهند.
وکیل NOYB در بیانیهای گفت: «کاملاً واضح است که شرکتها در حال حاضر قادر نیستند چتباتهایی مانند چت جیپیتی را با قوانین اتحادیهی اروپا در زمینهی پردازش دادههای افراد مطابقت دهند.» او در ادامه گفت: «اگر یک سیستم نتواند نتایج دقیق و شفافی تولید کند، نمیتوان از آن برای تولید داده در مورد افراد استفاده کرد. این فناوری باید مطابق با الزامات قانونی باشد، نه برعکس.»