Web Analytics Made Easy - Statcounter
به نقل از «ایسنا»
2024-04-27@01:56:30 GMT

اتحادیه اروپا توسعه هوش مصنوعی را محدود می‌کند

تاریخ انتشار: ۲۸ دی ۱۳۹۸ | کد خبر: ۲۶۵۵۹۵۵۸

اتحادیه اروپا توسعه هوش مصنوعی را محدود می‌کند

اتحادیه اروپا قصد دارد برای کاهش خطرات احتمالی هوش مصنوعی، قوانین جدیدی برای به کارگیری آنها ارائه دهد.

به گزارش ایسنا و به نقل از گیزچاینا، پیش‌نویس منتشر شده از نامه‌ای در مورد هوش مصنوعی نشان می‌دهد که اتحادیه اروپا قصد دارد قوانین جدیدی را در این زمینه در نظر بگیرد. این قوانین، ابداع‌کنندگان حوزه هوش مصنوعی را محدود خواهد کرد تا اطمینان حاصل شود که توسعه این فناوری‌های جدید با روشی اخلاقی صورت می‌گیرد.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

مقامات اتحادیه اروپا در نظر دارند تا این قوانین جدید را در بخش‌هایی که میزان خطر بالایی دارند، به کار بگیرند. این بخش‌ها، حوزه‌هایی از جمله سلامت و حمل و نقل را در بر دارند. کشورهای عضو اتحادیه اروپا می‌توانند قوانین مربوط به ایمنی و تعیین مسئولیت را ارتقا بدهند. اتحادیه اروپا، اسناد مربوط به این قوانین را در اواسط ماه فوریه سال جاری منتشر خواهد کرد.

تشخیص چهره در مکان‌های عمومی

اتحادیه اروپا علاوه بر این قوانین، قصد دارد فناوری تشخیص چهره را نیز برای مقامات دولتی و در سازمان‌های عمومی به کار بگیرد. این برنامه، قوانین استفاده از سیستم‌هایی مانند تشخیص چهره را در مکان‌های عمومی محدود خواهد کرد. این مقررات نشان می‌دهند که دسترسی سازمان‌های دولتی و خصوصی به فناوری‌های مبتنی بر هوش مصنوعی، محدود خواهد شد؛ بدین ترتیب اتحادیه اروپا می‌تواند خطرات مربوط به این فناوری‌ها را مورد ارزیابی قرار دهد.

این نامه، بخشی از تلاش‌های اتحادیه اروپا برای رسیدن به سطح پیشرفت چین و آمریکا در حوزه هوش مصنوعی به شمار می‌رود. می‌توان گفت که این تلاش‌ها تا حدی، استانداردهای ارزشی اروپا از جمله حریم شخصی کاربران را ارتقا خواهند بخشید.

در این نامه آمده است: بر اساس این قوانین می‌توان چارچوب نظارتی آینده را گامی فراتر برد. این قوانین، محدودیت زمانی برای استفاده از فناوری تشخیص چهره در مکان‌های عمومی را نیز شامل می‌شوند. این روش می‌تواند به ارزیابی تاثیر این فناوری کمک کند و از عهده شناسایی خطرات احتمالی نیز برآید.

انتهای پیام

منبع: ایسنا

کلیدواژه: هوش مصنوعی فناوری تشخیص چهره اتحاديه اروپا

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.isna.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «ایسنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۲۶۵۵۹۵۵۸ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

کیهان: دانشگاه‌های آمریکا و اروپا برای پوشش دانشجویان قوانین سختگیرانه دارند؛ چرا ما نداریم؟

روزنامه کیهان از وضعیت پوشش دانشجویان در دانشگاه‌ها انتقاد کرد!

این روزنامه نوشت: بسیاری از دانشگاه‌های جهان حتی در آمریکا و اروپا در مورد نوع پوشش و آرایش دانشجویان قوانین سختگیرانه وضع کرده و آن‌ها را از پوشیدن لباس‌های نامتعارف و محرک یا آرایش و استفاده از وسایل زینتی غیرمعمول و حتی رفتار‌های نامتناسب با شأن دانشجویی به شدت منع نموده و بعضاً دانشجویانی که قوانین مذکور را رعایت نکنند، اخراج می‌کنند. چرا در کشور ما مسئولان ذی‌ربط تاکنون قوانین لازم در این زمینه را اجرا نمی‌کنند؟

دیگر خبرها

  • تشخیص گرایش سیاسی افراد از روی چهره‌شان توسط هوش مصنوعی
  • ماکرون: اروپا در خطر مرگ قرار دارد
  • کیهان: دانشگاه‌های آمریکا و اروپا هم برای پوشش دانشجویان قوانین سختگیرانه دارند؛ چرا ما نداریم؟
  • کیهان: دانشگاه‌های آمریکا و اروپا برای پوشش دانشجویان قوانین سختگیرانه دارند؛ چرا ما نداریم؟
  • مخاطرات عدم سرمایه‌گذاری متوازن در زیست‌بوم هوش مصنوعی
  • حمایت ایرانسل از رویداد استارتاپی «هوش مصنوعی از داده تا ثروت»
  • بسترسازی برای مشارکت بخش خصوصی در ایجاد پایگاه‌های بزرگ‌داده
  • نشست کارگروه راهبری به‌کارگیری هوش مصنوعی در صنعت نفت برگزار شد
  • نخستین نشست کارگروه راهبری به‌کارگیری هوش مصنوعی در صنعت نفت برگزار شد
  • روند تکامل هوش مصنوعی... از اصول اولیه تا نوآوری‌های مختلف