Web Analytics Made Easy - Statcounter

عضو هیئت‌علمی دانشگاه تهران و سرپرست آزمایشگاه پژوهشی فضای سایبر گفت: اگر شبکه ملی اطلاعات به صورت حقیقی شکل بگیرد، غالب کاربران ایرانی با میل خود به آن مهاجرت خواهند کرد.

به گزارش گروه فناوری خبرگزاری دانشجو، سیصد و چهارمین نشست تخصصی کارشناسی اندیشکده فضای مجازی مرکز مطالعات ژرفا؛ و جبهه انقلاب اسلامی در فضای مجازی که با مشارکت دانشکده علوم اجتماعی دانشگاه امام حسین (ع) و جمعی از رسانه‌ها با موضوع «تقابل رویکرد‌های دوفضایی و امتدادی در مدیریت فضای سایبر» با حضور  کاظم فولادی، «عضو هیئت‌علمی دانشگاه تهران و سرپرست آزمایشگاه پژوهشی فضای سایبر» در محل مرکز ژرفا برگزار شد.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

 

وی در ابتدای این نشست گفت: پذیریش سایبر به عنوان مفهومی متناظر با حاکمیت، با پذیرش نگاه دو فضایی سازگاری ندارد و تناقض‌های متعددی به‌ وجود می‌آورد. دیدگاه دوفضایی نوعی از آنارشیسم (Anarchism) یا نفی حاکمیت مطلق را به دنبال دارد که ذات آن به «هرج و مرج» منتهی می‌شود. ترویج کنندگان دیدگاه دوفضایی (Dual-Space) به مدیریت فضای سایبر، دنیایی را معرفی می‌کنند که می‌توان با ابزار تکنولوژیک وارد آن شد و از خدماتی که در آن ارائه می‌شود، مانند «تاکسی‌های اینترنتی» استفاده کرد که در آن کاربر به‌ راحتی می‌تواند مبدأ و مقصد سفر خود را مشخص کند، سپس با فشردن یک دکمه به‌ سادگی نیازش را رفع کند.

 

به گفته وی، این نگاه دوفضایی با استفاده از ابزار جذاب، برای کاربران ترویج می‌شود و مردم بدون آگاهی از واقعیت‌ها و معضلات فضای سایبر، برای تسهیل امور زندگی خود، جذب این فضا می‌شوند.

 

فولادی ادامه داد: حقیقت این است که کاربران و شرکت‌های ارائه‌دهنده‌ی خدمات تنها موجودیت‌های حاضر در تعاملات شکل گرفته در فضای سایبر نیستند؛ بلکه چندین بازیگر مهم دیگر در این تعاملات حضور دارند که از نگاه عموم مردم پنهان هستند. یکی از آن‌ها خود حاکمیتی است که این فضا را ایجاد کرده است و بر آن اشراف کامل دارد. دیگری، مالکان سرویس‌های ارائه شده است. برای مثال، تاکسی‌های اینترنتی نیز در سطح خود قابلیت اعمال حاکمیت دارند، برای مثال مالکان این شرکت‌ها می‌توانند از طریق داده‌کاوی روی کلان‌داده‌ها (Big Data) الگوی رفتاری کاربران خود را ترسیم کنند، سپس با استفاده از این تحلیل‌ها به اعمال حاکمیت بر کاربران خود بپردازند.

 

این استاد دانشگاه در ادامه گفت: ویژگی‌های خاص فضای سایبر حکم می‌کند همانند فضای واقعی (actual space) برای فضای سایبر (cyberspace) نیز قوانین جدی و چه‌ بسا سخت‌گیرانه‌تری داشته باشیم. افتخار به رها بودن این فضا عاری از عقلانیت است؛ مانند کسی که اتوبانی عریض بسازد، اما علائم «راهنمایی و رانندگی» در آن نصب نکند و هیچ پلیسی در آن مستقر نکند و فقط رانندگان را به بهره‌برداری از آن با حداکثر سرعت تشویق کند. در این حالت واضح است که چه فاجعه‌ای رخ می‌دهد.

 

فولادی تصریح کرد: شیوه تعامل و اعتماد کاربران به فضای سایبر بر اساس نوع شناخت آن‌ها از این فضا بر می‌گردد. حدود دو دهه است که گروهی در کشور رویکرد دوفضایی را ترویج می‌کنند. از همین جهت ذهنیت کاربران نیز متأثر از این رویکرد شکل گرفته است. به‌ نوعی می‌توان گفت که تعدادی اسطوره غیرواقعی نسبت به فضای مجازی در ذهن کاربران نقش بسته است. یک اسطوره این است که فضای مجازی به ما خدمات می‌دهد و این خدمات رایگان است. اسطورۀ دیگر باور به این است که ارائه‌دهنده‌ی خدمت محرم ماست و به حریم داده‌های ما تجاوز نمی‌کند.

 

وی بیان کرد: یک اسطوره دیگر این است فضای مجازی همه‌جا در دسترس ماست. اسطوره دیگر این است که هر اشتباهی در فضای مجازی قابل جبران است بدون اینکه لازم باشد غرامت سنگینی پرداخت شود. اسطوره دیگر، تصور این است که تغییر یا پاک کردن هویت در فضای مجازی بسیار ساده است. یک اسطوره‌ی خطرناک دیگر که بسیار رایج است این است که مردم تصور می‌کنند اطلاعات آن‌ها مهم نیست و ارزش خاصی ندارد. اسطوره دیگر هم این است که فعالیت در فضای مجازی آسیبی به محیط زیست نمی‌زند و اصصلاحاً بسیار پاک و تمیز است. باید تاکید کرد که شکل‌گیری این اسطوره‌ها مولود ترویج نگاه دو فضایی به مدیریت فضای مجازی است.

 

این استاد دانشگاه ادامه داد: درباره اسطوره ارائه خدمات در فضای مجازی باید گفت اگر ما از خدمات این فضا استفاده می‌کنیم، در عین حال، به این فضا خدمات هم می‌دهیم. اگر به پلت‌فرم‌های شکل گرفته در وب ۲ نگاه کنید، می‌بینید که ارزش عموم آن‌ها اساساً ناشی از فعالیت کاربران در آنهاست و زیرساخت‌های نرم افزاری و سخت‌افزاری در رده‌های بعدی قرار می‌گیرد. برای مثال شبکۀ اجتماعی فیس‌بوک را در نظر بگیرید که جمعیت آن بیش از جمعیت بزرگترین کشور کره‌ی زمین است.

 

فولادی اظها داشت: تصور «رایگان بودن این خدمات» نیز کاملاً اشتباه است. این خطای راهبردی برگرفته از عدم آگاهی کاربران نسبت به ارزش واقعی اطلاعاتی است که در اختیار یک برنامه قرار می‌دهند. واقعیت این است که ارزش اطلاعات کاربران بسیار بیشتر از آن چیزی است که تصور می‌کنند. اسطوره‌ی دوم، در مورد عدم تجاوز ارائه‌دهندگان خدمت به حریم کاربر، امروزه به‌وضوح شکسته شده است. بسیاری از شرکت‌‍‌های بزرگ ارائه‌دهنده خدمات مانند Google و Facebook به‌صراحت اعلام کرده‌اند که از اطلاعات شخصی کاربران استفاده می‌کنند و آن‌ها را می‌فروشند، هر کاربری هم که مشکلی با این مسئله دارد، امکان خروج از پلتفرم‌های این شرکت‌ها برای آن‌ها فراهم است!

 

وی ادامه داد: اسطوره‌ی دیگر این بود که تصور می‌شود اشتباهات در فضای مجازی به راحتی قابل اصلاح هستند! برای مثال کاربری به اشتباه، پیامی در یک گروه در پیام‌رسان ارسال می‌کند و بعد از اینکه متوجه اشتباه خود می‌شود، این پیام را پاک می‌کند و تصور می‌کند که اثری از آن باقی نمی‌ماند. در صورتی که ممکن است آن پیام به‌طور گسترده بازنشر شده باشد.

 

وی بیان کرد: در خصوص اسطوره هویت، نکته‌ای که باید به آن اذعان کرد این است که رصد فضای سایبر توسط سطوح مختلف مدیریت کشور‌ها امکان‌پذیر است و امکان پنهان کردن کامل این هویت برای کاربر وجود ندارد. به زعم وی گزاره‌ی «اطلاعات یک کاربر ساده به درد کسی نمی‌خورد» باور اشتباه بعدی است که بسیاری از کاربران فضای سایبر دچار آن می‌شوند. نکته اول این است که اطلاعات هر کاربری برای ارائه‌دهندگان خدمات فضای سایبر کاربرد دارد و استفاده می‌شود.

 

به گفته وی، در وهلۀ بعد باید به این نکته توجه کرد که جمع‌آوری اطلاعات هر کاربر زمانی ارزش بیشتری پیدا می‌کند که کنار اطلاعات سایرین قرار می‌گیرد و به دنبال آن امکان تحلیل داده‌های کلان برای ارائه‌دهندۀ خدمات فراهم می‌شود تا هر شخصیت حقیقی یا حقوقی با توجه به نیاز خود از آن‌ها بهره ببرد.

 

فولادی تصریح کرد: بنگاه‌های اقتصادی برای فروش بیشتر، رسانه‌ها برای افزایش اثرگذاری فکری، سیاست‌مداران برای جلب رای مردم و هنرمندان برای جذب دنبال‌کنندگان بیشتر با مقاصد مختلف می‌توانند از مشتریان اطلاعات ما باشند و آن‌ها را خریداری کنند. اگر در گذشته قدرت برتر در اختیار مالکان انرژی بود، امروز حاکم مطلق جهان کسی است که بر فضای سایبر حاکم باشد و داده‌های کلان را در اختیار بگیرد.

 

فولادی عنوان کرد: اسطوره‌ی اشتباه دیگر فاقد ضرر دانستن فعالیت در فضای سایبر برای محیط زیست است. دانشگاه هاروارد در سال ۱۳۸۷ «ه‍. ش» پژوهشی انجام داد که نتایج آن مدتی بعد منتشر شد. یافته‌های این پژوهش حاکی از این است که به ازای هر جستجوی کاربران در جستجوگر گوگل معادل ۷ گرم CO۲ (دی اکسید کربن) وارد هوا می‌شود! بر اساس این محاسبات حجم آلودگی که سوخت‌های فسیلی، دود اتومبیل‌ها و گاز‌های حاصل از سوخت نیروگاه‌ها وارد جو می‌کند، قابل قیاس با آلایندگی حاصل از تکنولوژی‌های فضای سایبر نیست.

 

وی افرود: بنابراین، این دیدگاه که فضای سایبر آسیبی به محیط زیست نمی‌رساند، اساساً یک توهم و ساده‌اندیشی است! در حقیقت تمام ارکان فضای سایبر، به طور خاص رکن محاسبات مقدار زیادی انرژی مصرف می‌کند که حاصل آن آلودگی بیش از پیش فضای حقیقی زیست بشر است.

 

سرپرست آزمایشگاه فضای سایبر دانشگاه تهران تصریح کرد: کشور ما هم عاری از این مسئله نیست. یکی از مسئولین کشور اعلام کرده است که کسی حق اظهار نظر در خصوص مصوبات ستاد کرونا را ندارد! کشور ما بر پایۀ مردم‌سالاری دینی استوار است که هر شهروند ایرانی در آن مجاز به اظهار نظر مستند است، کارشناسان که جای خود دارند. در شرایطی که کمیته علمی ستاد کرونا بار‌ها نظراتی می‌دهد، ولی خود پس از مدتی به نفی آن می‌پردازد، چطور از کارشناسان امر انتظار دارند که انتقادی به عملکرد آن‌ها نداشته باشند! پزشکان سوگند خورده‌اند که مانع ضرر به جان مردم شوند.

 

ای استاد دانشگاه افزود:؛برای مثال، اگر آن‌ها متوجه آسیب سفر‌های نوروزی بودند، چرا سکوت اختیار کردند؟ وظیفۀ آن‌ها حکم می‌کرد که با برقراری ارتباط با افکار عمومی، مردم را از غلط بودن تصمیم ستاد کرونا مطلع کنند. نه اینکه شرایطی فراهم کنند که مدتی بعد آدرس غلط به مردم ارائه شود و عراقی که مرز‌های آن مدت‌ها بسته است، عامل شیوع موج چهارم کرونا بیان شود. چرا اعضای کمیته علمی ستاد کرونابه رسالت خود عمل نمی‌کنند؟ دلیل اینکه خطر تصمیمات اشتباه مجریان را به گوش مردم نمی‌رسانند، چیست؟ اعتقاد داریم تا زمانی که این اسطوره‌ها اصلاح نشوند و رویکرد درستی جایگزین نشود، حتی تغییرات گسترده در دستگاه اجرایی کشور نیز مشکل مدیریت فضای مجازی ما را حل نخواهد کرد.

 

البته منظور ما از مدیریت به‌هیچ وجه اعمال فیلترینگ (به‌معنای قطع دسترسی) نیست. حتی معتقدم این مسئله به روند مدیریت فضای مجازی کمکی نخواهد کرد. قطع دسترسی راهکار پیشنهادی ما نیست، بلکه مهاجرت داوطلبانه چارۀ کار است.

 

وی در خاتمه گفت: این مهاجرت با معرفی یک اپلیکیشن ایرانی برای جایگزینی با نمونه خارجی محقق نمی‌شود. مهاجرت نیازمند یک پلن و پروسه است. در داستان حضرت موسی (ع) که یکی از مأموریت‌های ایشان خروج قوم بنی‌اسرائیل از مصر بود، مراحلی طی شد که آن‌ها آماده مهاجرت شدند؛ بنابراین ما هم باید مراحل مهاجرت را در نظر بگیریم. در ابتدا برای اینکه افکار عمومی آمادۀ مهاجرت شود، ابتدا باید اسطوره‌های ذهنی کاربران را اصلاح کنیم و واقعیت‌ها را بیان کنیم.

 

فولادی اظهار داشت: نخستین اقدام راهبردی برای اقناع کاربران، خروج رسمی تمام مسئولین کشور از پلت‌فرم‌های خارجی خواهد بود. مردم نمی‌پذیرند دسترسی عمومی به یک پلت‌فرم قطع باشد، اما اغلب مسئولین کشور فارغ از جناح بندی‌های سیاسی در آن‌ها فعالیت کنند! هنگامی که جامعه از مجموعه حاکمیت فارغ از هرگونه مرزبندی، صداقت نمی‌بیند، راضی به مهاجرت از این فضا نخواهد شد. در این شرایط عدم صداقت، تلقی جامعه بر این پایه شکل می‌گیرد که ابزار‌های خارجی مزیت‌هایی دارد که مسئولان قصد محروم کردن مردم از آن‌ها را دارند، ولی خودشان استفاده می‌کنند!

 

وی افزود: قاطعانه عرض می‌کنم که اگر شبکه ملی اطلاعات به صورت حقیقی شکل بگیرد، غالب کاربران ایرانی با میل خود به آن مهاجرت خواهند کرد. هنگامی که شبکه ملی اطلاعات امکان درآمدزایی برای کاربر خود دارد حتی آن فردی که فعالیت اقتصادی دارد نیز با اشتیاق استفاده از این شبکه را خواهد پذیرفت. جالب است که بدانید فیلترینگ با روش قطع دسترسی ابداع دولت اصلاحات بود و اسناد متقن آن نیز وجود دارد. همان زمان هم تلاش شد که قشر انقلابی ابداع کننده این مدل از مدیریت در فضای سایبر معرفی شوند.

 

این استاد دانشگاه عنوان کرد: این جریان غرب‌گرا فقط به دنبال کسب منفعت خود است و به دنبال رفع مشکل مردم نیست؛ فضای مجازی را برای فرزند خود مسدود می‌کنند، ولی کودکان ایرانی را در این فضای «ول» بدون مراقبت رها می‌کنند! هیأت اجرایی کشور ده‌ها کار نیمه تمام در عرصه مدیریت کشور دارد؛ این که جلسه بگذارند تا برای اختلال یک برنامه آمریکایی، اپراتور‌ها را جریمه کنند، در حالی که این برنامه حتی مجوز بهره‌برداری در ایران را هم نداشته است، باید ما را حساس کند و جامعه نیز متعجب از این رفتار دوگانه باشد!

منبع: خبرگزاری دانشجو

کلیدواژه: رسانه ملی دانشگاه تهران فضای مجازی شبکه ملی اطلاعات استاد دانشگاه فضای مجازی اسطوره دیگر مدیریت فضای ستاد کرونا فضای سایبر برای مثال ی اطلاعات اسطوره ی داده ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت snn.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «خبرگزاری دانشجو» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۱۷۰۶۶۰۵ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

چند ترفند ساده برای آن‌که هوش مصنوعی، اطلاعات شما را ندزدد

هر محتوایی که در سطح اینترنت مشاهده می‌کنید، به‌احتمال‌زیاد جمع‌آوری شده و برای آموزش نسل کنونی هوش مصنوعی مولد مورداستفاده قرار گرفته است. مدل‌های زبان بزرگ مثل ChatGPT و ابزارهای تولیدکنندهٔ تصویر با انبوهی از داده‌های ما تغذیه می‌شوند. حتی اگر این داده‌ها برای ساخت چت‌بات به کار نروند، می‌توانند در ویژگی‌های دیگر یادگیری ماشین استفاده شوند.

به گزارش خبرآنلاین و به نقل از زومیت، شرکت‌های فناوری برای جمع‌آوری داده‌هایی که به گفته خودشان برای خلق هوش مصنوعی مولد ضروری‌اند، سرتاسر وب را با بی‌توجهی به حقوق مؤلفان، قوانین کپی‌رایت و حریم خصوصی کاربران، کاویده‌اند و از هر داده‌ای که به دست آورده‌اند، برای آموزش هوش مصنوعی استفاده کرده‌اند. شرکت‌هایی هم که انبوهی از اطلاعات کاربران را در اختیار دارند، به دنبال سهمی از سود صنعت هوش مصنوعی هستند.

بر اساس مقاله وایرد، اگر شما هم نگرانید که داده‌هایتان مورداستفادهٔ هوش مصنوعی قرار بگیرد، با ماه همراه شوید تا به بررسی راهکارهای جلوگیری از دسترسی هوش مصنوعی به اطلاعات خصوصی بپردازیم. البته پیش از آن‌که به روش‌های جلوگیری از دسترسی هوش مصنوعی به اطلاعات خصوصی بپردازیم، بهتر است سطح انتظارات را در حد واقع‌بینانه نگه‌داریم. بسیاری از شرکت‌های توسعه‌دهندهٔ هوش مصنوعی از مدت‌ها قبل اقدام به جمع‌آوری گستردهٔ داده‌های وب کرده‌اند؛ بنابراین، احتمالاً هر آنچه تا امروز منتشر کرده‌اید، هم‌اکنون در سیستم‌های آن‌ها ذخیره شده است. این شرکت‌ها دربارهٔ اطلاعاتی که استخراج یا خریداری کرده‌اند، شفاف عمل نمی‌کنند و اطلاعات ما در این زمینه بسیار مبهم است.

شرکت‌ها می‌توانند فرایند انصراف از استفادهٔ داده‌ها را برای آموزش هوش مصنوعی پیچیده کنند. بسیاری از افراد دربارهٔ مجوزهایی که پذیرفته‌اند یا نحوهٔ به‌کارگیری داده‌ها، دید روشنی ندارند. این موضوع مربوط به قبل از زمانی است که به قوانین مختلف، مانند حمایت از حقوق مالکیت فکری و قوانین قدرتمند حفظ حریم خصوصی اروپا، توجه شود. فیس‌بوک، گوگل و شرکت‌های دیگر، در اسناد مربوط به حریم خصوصی خود ذکر کرده‌اند که شاید از داده‌های شما برای آموزش هوش مصنوعی استفاده کنند.

فهرست زیر فقط شامل شرکت‌هایی می‌شود که درحال‌حاضر راهکاری برای منع دسترسی آن‌ها به داده‌های شخصی کاربران برای آموزش مدل‌های هوش مصنوعی ارائه می‌دهند. ذخیره‌سازی فایل‌ها در سرویس‌های ابری، مزایای زیادی دارد؛ اما این فایل‌ها می‌توانند برای مقاصد دیگر نیز مورداستفاده قرار بگیرند. بر اساس اسناد شرکت‌هایی مانند ادوبی و آمازون، داده‌های ذخیره‌شده در فضای ابری آن‌ها می‌تواند برای آموزش الگوریتم‌های یادگیری ماشین به کار رود.

گوگل جمنای

اگر از چت‌بات گوگل جمنای (Gemini) استفاده می‌کنید، باید بدانید کارشناسان انسانی برخی مکالمات شما را برای بررسی و بهبود مدل هوش مصنوعی بازبینی می‌کنند. به‌هرحال، می‌توانید این دسترسی را لغو کنید. بدین منظور جمنای را در مرورگر خود باز کرده، روی بخش Activity کلیک و سپس از منوی کشویی Turn Off را انتخاب کنید. در این قسمت، می‌توانید صرفاً فعالیت جمنای را غیرفعال کنید و یا با انتخاب گزینهٔ Delete data، هم دسترسی را لغو کرده و هم اطلاعات مکالمات گذشته را پاک کنید.

نکتهٔ مهم اینکه با غیرفعال‌سازی دسترسی جمنای به داده‌های شخصی خود، مکالمات آتی شما دیگر برای بازبینی در دسترس نخواهد بود، اما اطلاعات مکالمات قبلی که برای بررسی انتخاب شده‌اند، همچنان تا سه سال نزد گوگل باقی خواهند ماند.

ChatGPT و DALL-E

هنگام استفاده از چت‌بات‌ها، ناخواسته اطلاعات شخصی زیادی را فاش می‌کنیم. OpenAI به‌عنوان توسعه‌دهندهٔ چت‌بات محبوب ChatGPT به کاربران اختیاراتی برای کنترل داده‌هایشان می‌دهد. این اختیار شامل جلوگیری از استفاده از اطلاعات برای آموزش مدل‌های هوش مصنوعی آینده می‌شود.

طبق صفحات راهنمای OpenAI، کاربران وب ChatGPT که حساب کاربری ندارند، باید به بخش تنظیمات (Settings) مراجعه و گزینهٔ Improve the model for everyone را غیرفعال کنند. اگر حساب کاربری دارید و از طریق مرورگر وب وارد شده‌اید، باید به بخش ChatGPT بروید و سپس در مسیر Settings و Data Controls، گزینهٔ Chat History & Training را خاموش کنید. درصورتی‌که از اپلیکیشن‌های موبایل ChatGPT استفاده می‌کنید، به Settings مراجعه کرده و Data Controls را انتخاب کنید و درنهایت گزینهٔ Chat History & Training را خاموش کنید.

صفحات پشتیبانی OpenAI هشدار می‌دهند که تغییر تنظیمات دسترسی به داده‌های شخصی در مرورگر یا دستگاه خاص، روی سایر مرورگرها یا دستگاه‌های شما همگام‌سازی نمی‌شود؛ بنابراین، باید این کار را در هرجایی که از ChatGPT استفاده می‌کنید، انجام دهید.

فعالیت‌های OpenAI فراتر از ChatGPT است. این استارتاپ برای ابزار تولید تصویر Dall-E 3 نیز فرمی در نظر گرفته است که به شما امکان می‌دهد با ارسال آن، تصاویر موردنظر خود را از مجموعه داده‌های آموزشی آینده حذف کنید. در این فرم باید نام، ایمیل، مالکیت حق نشر تصویر، جزئیات تصویر و اصل تصویر را آپلود کنید. OpenAI همچنین می‌گوید اگر حجم زیادی از تصاویر را به‌صورت آنلاین میزبانی می‌کنید که نمی‌خواهید برای آموزش داده‌ها استفاده شوند، شاید اضافه کردن GPTBot به فایل robots.txt وب‌سایت محل میزبانی تصاویر، روش کارآمدتری باشد.

Perplexity

Perplexity استارتاپی است که با استفاده از هوش مصنوعی در جست‌وجوی وب و یافتن پاسخ سؤالات به کاربران کمک می‌کند. این ابزار مثل سایر نرم‌افزارهای مشابه، به‌صورت پیش‌فرض رضایت شما برای استفاده از تعاملات و داده‌هایتان را در جهت بهبود هوش مصنوعی خود دریافت می‌کند. برای غیرفعال کردن این مورد، روی نام کاربری خود کلیک کنید، به بخش Account بروید و AI Data Retention را در حالت غیرفعال قرار دهید.

ادوبی

اگر از حساب کاربری شخصی ادوبی استفاده می‌کنید، غیرفعال کردن این قابلیت به‌سادگی امکان‌پذیر است. بدین منظور باید در صفحهٔ حریم خصوصی ادوبی به بخش Content analysis بروید و کلید مربوطه را خاموش کنید. برای حساب‌های تجاری یا آموزشی، این امکان به‌صورت مجزا برای تک‌تک کاربران وجود ندارد و برای غیرفعال‌سازی آن باید با مدیر سیستم تماس بگیرید.

وردپرس

وردپرس گزینه‌ای برای جلوگیری از اشتراک‌گذاری داده‌ها با سرویس‌های شخص ثالث دارد. برای فعال کردن این قابلیت، در پنل مدیریت وب‌سایت، روی Settings و بعدازآن General و سپس Privacy کلیک کرده و درنهایت تیک گزینهٔ Prevent third-party sharing را بزنید. سخنگوی Automattic می‌گوید: «ما در حال همکاری با خزنده‌های وب ازجمله Common Crawl هستیم تا جلوی دسترسی و فروش غیرمجاز محتوای کاربران را بگیریم.»

Grammarly

در حال حاضر، کاربران عادی گرمرلی (Grammarly) امکان لغو استفاده از داده‌هایشان را برای بهبود مدل یادگیری ماشین این سرویس ندارند. این امکان فقط برای حساب‌های تجاری (Business Account) در دسترس است که به‌صورت خودکار قابل مدیریت بوده و نیازی به درخواست مستقیم کاربر ندارد.

برای لغو دسترسی گرمرلی در حساب‌های تجاری، به تنظیمات حساب کاربری (Account Settings) مراجعه، روی تب Data Settings کلیک و سپس گزینهٔ Product Improvement & Training را غیرفعال کنید. همچنین، حساب‌های تجاری تحت مدیریت مانند حساب‌های آموزشی و حساب‌های خریداری‌شده از طریق نمایندهٔ فروش گرمرلی، به‌صورت خودکار از فرایند آموزش مدل هوش مصنوعی مستثنی هستند.

Quora

Quora ادعا می‌کند درحال‌حاضر از پاسخ‌ها، پست‌ها یا نظرات کاربران برای آموزش هوش مصنوعی استفاده نمی‌کند. این شرکت همچنین هیچ‌گونه دادهٔ کاربری را برای آموزش هوش مصنوعی به فروش نمی‌رساند. به‌هرحالQuora هم گزینه‌ای برای انصراف از این موضوع در نظر گرفته است. برای این کار، به صفحهٔ Settings بروید، روی Privacy کلیک و سپس Allow large language models to be trained on your content را غیرفعال کنید.

البته امکان دارد Quora همچنان از برخی پست‌های خاص برای آموزش مدل‌های زبان بزرگ (LLM) استفاده کند. صفحات راهنمای این شرکت توضیح می‌دهند درصورتی‌که به پاسخ تولیدشده با هوش مصنوعی، پاسخ دهید، شاید اطلاعات آن، برای آموزش هوش مصنوعی مورداستفاده قرار گیرد. این شرکت اشاره می‌کند که احتمال استخراج داده‌ها از طرف شرکت‌های متفرقه نیز وجود دارد.

Tumblr

شرکت Automattic، مالک وب‌سایت‌های Tumblr و WordPress.com، اعلام کرده که با همکاری شرکت‌های هوش مصنوعی قصد دارد از مجموعه داده‌های عظیم و منحصربه‌فرد محتوای منتشرشده در پلتفرم‌های خود برای آموزش هوش مصنوعی استفاده کند. سخنگوی این شرکت تأکید کرده است که ایمیل‌های کاربران و محتوای خصوصی شامل این همکاری نخواهد شد.

درصورتی‌که در Tumblr وبلاگ شخصی دارید، می‌توانید با مراجعه به Settings، انتخاب وبلاگ، کلیک روی آیکون چرخ‌دنده، رفتن به بخش Visibility و فعال کردن گزینهٔ Prevent third-party sharing مانع استفاده از محتوای خود برای آموزش هوش مصنوعی شوید. همچنین بر اساس صفحات پشتیبانی Tumblr، پست‌های صریح، وبلاگ‌های حذف‌شده و وبلاگ‌های دارای رمز عبور یا خصوصی به‌هیچ‌وجه با شرکت‌های دیگر به اشتراک گذاشته نمی‌شوند.

اسلک

شاید برایتان عجیب باشد، اما حتی همان پیام‌های ردوبدل شدهٔ به‌ظاهر بی‌اهمیت در اسلک محل کارتان هم ممکن است برای آموزش مدل‌های این پلتفرم استفاده شوند. بر اساس گفتهٔ معاون بخش محصول اسلک، این پلتفرم از سالیان گذشته در محصولاتش از یادگیری ماشین برای ارائهٔ قابلیت‌هایی مثل پیشنهاد کانال و ایموجی استفاده می‌کند.

اگرچه اسلک از داده‌های مشتریان برای آموزش مدل زبان بزرگ محصول هوش مصنوعی خود استفاده نمی‌کند، اما می‌تواند از تعاملات شما برای بهبود قابلیت‌های یادگیری ماشینی نرم‌افزار بهره ببرد. درصورتی‌که از حساب سازمانی اسلک استفاده می‌کنید، امکان انصراف از این فرآیند وجود ندارد.

تنها راه برای لغو اشتراک اسلک، ارسال ایمیل از طرف مدیر سیستم به آدرس feedback@slack.com است. موضوع ایمیل باید Slack Global model opt-out request باشد و URL سازمان نیز در آن درج شود. اسلک هیچ جدول زمانی برای مدت‌زمان انجام فرایند لغو اشتراک ارائه نمی‌دهد، اما پس از تکمیل آن باید ایمیل تأیید برای شما ارسال کند.

وب‌سایت اختصاصی

اگر وب‌سایت اختصاصی خود را راه‌اندازی کرده‌اید، می‌توانید با به‌روزرسانی فایل robots.txt از ربات‌های هوش مصنوعی بخواهید صفحاتتان را کپی نکنند. بسیاری از وب‌سایت‌های خبری اجازه نمی‌دهند ربات‌های هوش مصنوعی مقالاتشان را مرور کنند. برای مثال، فایل robots.txt وب‌سایت WIRED اجازهٔ دسترسی به ربات‌های OpenAI، گوگل، آمازون، فیس‌بوک، Anthropic و Perplexity و بسیاری دیگر را نمی‌دهد.

این قابلیت صرفاً برای ناشران محتوا کاربرد ندارد. هر وب‌سایتی می‌تواند با اضافه کردن دستور disallow به فایل robots.txt، ربات‌های هوش مصنوعی را از دسترسی به سایت خود منع کند.

۵۴۵۴

برای دسترسی سریع به تازه‌ترین اخبار و تحلیل‌ رویدادهای ایران و جهان اپلیکیشن خبرآنلاین را نصب کنید. کد خبر 1901798 ذوالفقار دانشی

دیگر خبرها

  • چند ترفند ساده برای آن‌که هوش مصنوعی، اطلاعات شما را ندزدد
  • چطور از دسترسی هوش مصنوعی به اطلاعات حساس جلوگیری کنیم؟
  • مدیریت مصرف با روش‌های هوشمند امکان‌پذیر است
  • توخل: رسیدن به فینال امکان‌پذیر است/ کیم بیش از حد طمع کرد
  • سبدگردانی با سرمایه کم امکان‌پذیر است؟
  • کشاورزی در ماه و مریخ: مزرعه‌داری در ورای مدار زمین، امکان‌پذیر است
  • پیشرفت علمی بدون داشتن علوم پایه قوی امکان پذیر نیست
  • حفاظت از اراضی کشاورزی با مشارکت مردم و دستگاه‌های ذی‌ربط امکان‌پذیر است
  • حفاظت از اراضی کشاورزی با مشارکت مردم و دستگاه‌های ذیربط امکان‌پذیر است
  • واکنش کاربران شبکه های اجتماعی به ابراز ندامت اشکان خطیبی | کاش شرایطی فراهم شود تا ...