حذف پیغامهای خصوصی توهینآمیز از توییتر
تاریخ انتشار: ۲۶ مرداد ۱۳۹۸ | کد خبر: ۲۴۷۹۰۶۰۰
ایتنا - توئیتر قابلیت جدیدی اضافه کرده که دایرکت پیامهایی با محتوای اهانت آمیز را فیلتر میکند. این پیامها در فولدری ذخیره و در اینباره به کاربر هشدار داده میشود.
توئیتر قابلیت جدیدی برای رصد پیامهای خصوصی کاربران ارائه کرده است. این شبکه اجتماعی اعلام کرد مشغول آزمایش فیلتری برای «دایرکت مسج» ( پیامهای مستقیم) با محتوای اهانتآمیز است.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
به گزارش ایتنا از مهر، چند خط اولیه از دایرکت مسج یا همان پیام مستقیم مذکور مخفی میشود و در عوض این عبارت دیده میشود: «این پیام مخفی شده زیرا حاوی محتوای اهانت آمیز است». در این حالت کاربر میتواند آن را ببیند یا حذف کند.
این در حالی است که توئیتر در سال جاری میلادی تلاش کرده با استفاده از فناوری، توئیتهای اهانتآمیر را بدون نیاز به دخالت کارمندان انسانی حذف کند. هرچند چنین سیاستهای الگوریتم محوری کارآمد هستند اما ممکن است آنها نیز پیامهایی را به اشتباه مشخص کنند یا بسیاری از نمونههای خطرناک را بدون فیلتر رها کنند.
در کنار این مورد توئیتر ویژگی «مخفی کردن پاسخ ها»(hide replies) را نیز آزمایش کرد و گزارش توئیتهای اهانتآمیز را تسهیل کرد.
با این وجود بخش بزرگی از محتوای نامناسب و اهانتآمیز در توئیتر به شکل «دایرکت مسج» هستند که حتی ممکن است کاربران را دنبال نکنند. زنان و افراد رنگین پوست به خصوص در معرض آزار و اذیت آنلاین قرار دارند. اگر تنظیمات حساب کاربری فرد طوری باشد که او بتواند پیام مستقیم از هر کاربر دیگری دریافت کند، توئیتر به طور خودکار آن پیام را در فایلی به نام «درخواستهای پیام» قرار میدهد. علاوه بر آن توئیتر دارای ویژگی «فیلتر کیفیت» است که پیامهای بیارزش را از این فولدر پاک میکند.
منبع: ايتنا
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.itna.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «ايتنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۲۴۷۹۰۶۰۰ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
صدای پای هوش مصنوعی در دادگاهها/ سایه جعل نرمافزاری بر پروندههای حقوقی
خبرگزاری علم و فناوری آنا؛ هوش مصنوعی در بسیاری از زمینههای زندگی ما و از جمله در سیستم حقوقی وارد شده و تحولاتی ایجاد کرده است، اما محتوای تولید شده توسط هوش مصنوعی، مانند قوانین جعلی، در منازعات حقوقی نگرانیهای زیادی را برانگیخته است.
دادگاهها برای ارائه پروندههای مبتنی بر قانون به وکلا متکی هستند، اما استفاده از قوانین جعلی ایجاد شده توسط هوش مصنوعی در اختلافات حقوقی این روند را تضعیف میکند. مدلهای هوش مصنوعی بر اساس مجموعه دادههای بزرگ آموزش داده میشوند و قوانین جعلی میسازند؛ و در صورت درخواست کاربر محتوای جدید متنی، تصویری یا شنیداری بسازد.
اگرچه محتوای تولید شده توسط هوش مصنوعی شاید قانعکننده به نظر برسد، اما به دلیل «توهم» هوش مصنوعی میتواند نادرست باشد. این زمانی است که مدل هوش مصنوعی تلاش میکند تا شکافهای دادههای آموزشی خود را پر کند و در نتیجه محتوای نادرست تولید میکند که در نتیجه میتواند در اختلافات حقوقی دردسرساز باشد و به تصمیمات قانونی نادرست بیانجامد.
جنجالهای حقوقی هوش مصنوعی
شناختهشدهترین «پرونده جعلی» که هوش مصنوعی مولد آن را ساخته است به پرونده «ماتا علیه آویانکا» در آمریکا در سال ۲۰۲۳ برمیگردد که در آن وکلا خلاصهای از اتفاقات جعلی و استناد به پرونده را به دادگاه نیویورک ارسال کردند. این خلاصه با استفاده از چت جیپیتی مورد بررسی قرار گرفت و وکلا، غافل از آنکه این نرمافزار میتواند توهم بزند نتوانستند آنرا راستیآزمایی کنند. عواقب این بررسی فاجعهبار بود و پس از فاش شدن این خطا، دادگاه پرونده موکل آنها را رد کرد، وکلا نیز به دلیل سوءنیت تحریم شدند و شرکت حقوقیشان نیز جریمه شد. اقدامات آنان نیز به طور رسمی اعلان عمومی شد.
نمونههای مشهور
با وجود چنین اتفاقات نامطلوبی، نمونههای دیگری همچنان اتفاق میافتند. مایکل کوهن، وکیل سابق دونالد ترامپ، پروندههای وکالت خود را با استفاده از نرمافزار گوگل بارد (ربات مولد هوش مصنوعی) تنظیم میکرد ولی ادعا میکرد که کار خودش بوده و واقعی است. موارد جعلی دیگری از این دست نیز به تازگی در کانادا و بریتانیا جنجالآفرینی کرده است.
چنانچه این روند کنترل نشود، استفاده بیمحابا از هوش مصنوعیِ مولد اعتماد عمومی به سیستم قانونی را تضعیف میکند. قصور مداوم وکلا در استفاده از این ابزارها میتواند باعث گمراهی و ازدحام در دادگاهها شود، به منافع مشتریان آسیب برساند و به طور کلی حاکمیت قانون را تضعیف کند.
ما تصاویری از افراد مشهور را دیدهایم که توسط هوش مصنوعی و به روش جعل عمیق (دیپفیک) ساخته شدهاند. هوش مصنوعی همچنین در آهنگسازی، راندن اتومبیلهای مسابقهای بدون راننده و انتشار اطلاعات نادرست نیز نقش داشته است؛ بنابراین تعجب آور نیست که هوش مصنوعی نیز تأثیر قوی بر سیستمهای حقوقی ما دارد.
دادگاهها در پروندههای دعوی که وکلا آنها را پیگیری میکنند باید بر اساس اطلاعاتی که وکیل ارائه میکند تصمیمگیری کنند، بنابراین چنانچه محتوای پرونده با هوش مصنوعی جعل شود، بسیار نگرانکننده خواهد بود که نه تنها مسائل قانونی و اخلاقی ایجاد میکند، بلکه تهدیدی برای بیاعتمادی به سیستمهای حقوقی جهان است.
قوانین جعلی چگونه به وجود میآیند؟
شکی وجود ندارد که هوش مصنوعی مولد ابزاری قدرتمند با پتانسیل تحول آفرین برای جامعه، از جمله بسیاری از جنبههای سیستم حقوقی است. اما استفاده از آن با مسئولیتها و خطراتی همراه است. وکلا برای به کارگیری دقیق دانش و تجربه حرفهای آموزش دیدهاند و عموماً ریسکپذیر نیستند. با این حال، برخی از وکلای بیاحتیاط گرفتار خطاهای هوش مصنوعی شدهاند.
اگر هوش مصنوعی محتوای نادرست ایجاد کند یا محتوای نادرستی بسازد که به فرایندها قانونی راه پیدا کند، مشکلساز میشود، بهویژه زمانی که با فشار بر وکلا یا عدم دسترسی به خدمات حقوقی همراه باشد. این ترکیب مخرب میتواند منجر به بیدقتی و میانبرهایی در تحقیقات حقوقی و تهیه اسناد شود و مشکلاتی برای حرفه وکالت و عدم اعتماد عمومی به اجرای عدالت ایجاد کند.
اقدامات جهانی
در سرتاسر جهان، قانونگذاران و دادگاهها به روشهای مختلف نسبت به این جریان واکنش نشان دادهاند. چندین دادگاه ایالتی آمریکا راهنمایی، نظرات یا دستوراتی در مورد استفاده مولد از هوش مصنوعی صادر کرده اند که از پذیرش مسئولانه تا ممنوعیت کامل را شامل میشود. انجمنهای حقوقی در بریتانیا و بریتیش کلمبیا و دادگاههای نیوزلند نیز دستورالعملهایی را تدوین کردهاند.
در استرالیا، انجمن وکلای ان اس دابیلو (NSW) یک راهنمای هوش مصنوعی برای وکلای دادگستری دارد و مقالاتی را در مورد استفاده مسئولانه مطابق با قوانین رفتار وکلا منتشر کردهاند.
بسیاری از وکلا و قضات، مانند عموم مردم، درک درستی از هوش مصنوعی مولد دارند و میتوانند محدودیتها و مزایای آن را تشخیص دهند. اما افراد دیگری هم هستند که ممکن است آنقدر آگاه نباشند و نیاز به راهنمایی دارند.
در این میان رویکرد باید اجباری شود: وکلایی که از ابزارهای هوش مصنوعی مولد استفاده میکنند نمیتوانند آن را جایگزینی برای قضاوت و سخت کوشی خود بدانند و باید درستی و قابلیت اطمینان اطلاعاتی گردآوریشده را بررسی کنند.
به طور کلی، هوش مصنوعی مولد پتانسیل تحولآفرینی برای سیستم حقوقی دارد، استفاده از آن با مسئولیتها و خطراتی همراه است. ایجاد تعادل بین استفاده از مزایای هوش مصنوعی و اطمینان از اینکه استفاده از محتوای تولید شده توسط هوش مصنوعی یکپارچگی سیستم قانونی را تضعیف نمیکند، مهم است.
این گزارش از پایگاه اینترنتی کانوِرسِیشن برگردان شده است.
انتهای پیام/
نازنین احسانی طباطبایی