پایگاه خبری راه پرداخت دارای مجوز به شماره ۷۴۵۷۲ از وزارت فرهنگ و ارشاد اسلامی و بخشی از «شبکه عصر تراکنش» است. راه پرداخت فعالیت خود را از دوم اردیبهشتماه ۱۳۹۰ شروع کرده و اکنون پرمخاطبترین رسانه ایران در زمینه فناوریهای مالی، بانکداری و پرداخت و استارتآپهای فینتک است.
دستورالعمل اتحادیه اروپا برای توسعه اخلاقی هوش مصنوعی منتشر شد
اتحادیه اروپا بهمنظور تشویق کشورهای عضو به توسعه اخلاقمدارانه هوش مصنوعی، یک دستورالعمل هفت بندی را منتشر کرده است.
به گزارش ایسنا و به نقل از انگجت، توسعه هیچیک از فناوریهای امروزی بهاندازه توسعه هوش مصنوعی، نگرانیهای اخلاقی و حتی ترس را برنمیانگیزد و فقط شهروندان عادی نیستند که نگران این مسئله هستند، بلکه شرکتهای فیسبوک، گوگل و دانشگاه استنفورد با تأسیس مراکز تحقیقاتی اخلاق هوش مصنوعی روی آن سرمایهگذاری کردهاند.
اواخر سال گذشته کانادا و فرانسه برای ایجاد یک پیمان بینالمللی برای بحث در مورد مسئولیت هوش مصنوعی همکاری کردند. امروز نیز کمیسیون اروپا دستورالعمل خود را که خواستار «هوش مصنوعی قابلاعتماد» است، منتشر کرد.
با توجه به این دستورالعمل اتحادیه اروپا، هوش مصنوعی باید به اصول پایه اخلاقی و احترام به استقلال بشر، پیشگیری از آسیب، عدالت و پاسخگویی پایبند باشد. این دستورالعمل شامل هفت الزام ذکرشده در زیر میشود و توجه ویژهای به محافظت از قشرهای آسیبپذیر مانند کودکان و افراد معلول دارد. همچنین میگوید که شهروندان باید کنترل کاملی روی اطلاعات خود داشته باشند.
کمیسیون اروپا توصیه میکند که در هنگام توسعه یا استقرار هوش مصنوعی از یک فهرست ارزیابی استفاده شود، اما این دستورالعمل به معنای دخالت در سیاست یا مقررات شرکتها نیست. در عوض یک چارچوب کلی ارائه میدهد.
کمیسیون اروپا در تابستان پیشرو تلاش خواهد کرد تا مناطقی را شناسایی کند که در آن راهنماییهای اضافی ممکن است لازم باشد و چگونگی بهکارگیری این دستورالعمل و توصیههای خود را بهتر میکند.
در اوایل سال ۲۰۲۰ نیز گروهی از متخصصان بازخورد این مرحله آزمایشی را بررسی خواهند کرد. همانطور که پتانسیل ساختن چیزهایی مانند سلاحهای خودکار و الگوریتمهای تولید اخبار جعلی توسعه مییابند، دولتها باید بیشتر در زمینه نگرانیهای اخلاقی موضعگیری کنند.
خلاصهای از دستورالعمل اتحادیه اروپا در زیر آمده است:
- سازمانهای انسانی و نظارت: سیستمهای هوش مصنوعی باید با حمایت از سازمانهای انسانی و حقوق بنیادین آنها برابری را رعایت کنند و موجب کاهش، محدود کردن یا نادیده گرفتن استقلال بشر نشوند.
- استحکام و ایمنی: یک هوش مصنوعی قابلاطمینان به الگوریتمهای امن، قابلاعتماد و قوی برای مقابله با اشتباهات و یا عدم انطباق در تمام مراحل چرخه حیات سیستمهای هوش مصنوعی نیاز دارد.
- حفظ حریم خصوصی و کنترل دادهها: شهروندان باید کنترل کامل بر دادههای خود داشته باشند تا دادههای مربوط به آنها بهمنظور آسیب رساندن و یا تبعیض علیه آنها مورداستفاده قرار نگیرد.
- شفافیت: از ردیابی سیستمهای هوش مصنوعی باید اطمینان حاصل شود.
- تنوع، عدم تبعیض و انصاف: سیستمهای هوش مصنوعی باید طیف وسیعی از تواناییها، مهارتها و الزامات انسانی را در نظر بگیرند و دسترسی آزاد را تضمین کنند.
- رفاه اجتماعی و محیطزیست: سیستمهای هوش مصنوعی باید برای تقویت تغییرات مثبت اجتماعی و افزایش پایداری و مسئولیت زیستمحیطی مورداستفاده قرار گیرند.
- مسئولیتپذیری: باید مکانیزمهایی برای اطمینان از پاسخگویی و مسئولیتپذیری سیستمهای هوش مصنوعی و نتایج آنها ایجاد شود.