کد خبر: 357029
|
۱۳۹۸/۰۸/۱۲ ۱۲:۰۴:۴۴
| |

هوش مصنوعی توسط «پنتاگون» اخلاق‌مدار می‌شود

مقر فرماندهی وزارت دفاع ایالت متحده آمریکا (پنتاگون) در حال تهیه یک پیش‌نویس برای دستورالعمل اخلاق‌مداری هوش مصنوعی مقابل تعصب و سرکشی این فناوری نوین است.

هوش مصنوعی توسط «پنتاگون» اخلاق‌مدار می‌شود
کد خبر: 357029
|
۱۳۹۸/۰۸/۱۲ ۱۲:۰۴:۴۴

اعتمادآنلاین| شرکت‌های فناوری ممکن است در ایجاد زمینه اخلاقی برای هوش مصنوعی دچار مشکل باشند، اما به نظر می‌رسد وزارت دفاع آمریکا در حال تعیین چارچوب و حل این مشکل است.

هیات نوآوری دفاعی پنتاگون به تازگی پیش‌نویس دستورالعمل‌های مربوط به اخلاق‌مداری هوش مصنوعی را در وزارت دفاع آمریکا تهیه کرده است که هدف آن در کنترل داشتن این فناوری در حال ظهور و رشد است.

برخی از این راهبردها مانند نیاز به اعتماد بیشتر به هوش مصنوعی کاربردی‌تر هستند یا مانند رعایت مسئولیت انسانی ریشه در سیاست‌های چندین ساله دارند، اما برخی دیگر برای حوزه‌های عمومی و خصوصی نسبتاً جدید هستند.

این پیش‌نویس خواستار توسعه یک هوش مصنوعی عادلانه است که از تعصب ناخواسته مانند تبعیض نژادی یا تبعیض جنسیتی به دور باشد.

این هیات می‌گوید هوش مصنوعی می‌تواند باعث شود که با افراد، ناعادلانه رفتار شود. همچنین از ارتش خواست که اطمینان حاصل کند نه فقط کدهای هوش مصنوعی، بلکه منابع داده آن نیز بی‌طرفانه باشد. این کار می‌تواند برای هدف قرار دادن شبه‌نظامیان یا به حداقل رساندن تلفات غیرنظامیان مفید باشد.

این پیش‌نویس همچنین خواستار هوش مصنوعی قابل کنترل و رام است که اگر تشخیص داد در حال زدن آسیب‌های غیرضروری است، خود را متوقف کرده یا اختیار خود را به موقع به دست اپراتور انسانی دهد.

این دستورالعمل یک چراغ سبز به توسعه اسلحه‌های کاملا خودکار تحت مدیریت هوش مصنوعی نیست، اما باعث می‌شود احتمال خطا و شیطنت هوش مصنوعی کاهش یابد.

براساس این پیش‌نویس، دستورالعمل نهایی شامل فراخوان برای قابل ردیابی بودن خروجی‌های هوش مصنوعی است که به مردم اجازه دهد ببینند چگونه یک سیستم به نتایج خود رسیده است.

در حالی که این پیش‌نویس امیدوارکننده است، هنوز هم اجرای آن در عمل چالش برانگیز است. دادن وعده یک هوش مصنوعی پاسخگو و قابل اطمینان آسان است، اما اطمینان از اینکه هر شاخه نظامی روی هر پروژه‌ای این ایده آل‌ها را دنبال کند، چیز دیگری است.

چیزی که روشن است، این است که استثناء برای پروژه‌های هوش مصنوعی نباید وجود داشته باشد و استراتژی‌های درست موجود در دستورالعمل‌ها باید از روز اول توسعه یک هوش مصنوعی حاضر باشند.

منبع: ایسنا

اخبار مرتبط سایر رسانه ها
اخبار از پلیکان
تمامی اخبار این باکس توسط پلتفرم پلیکان به صورت خودکار در این سایت قرار گرفته و سایت اعتمادآنلاین هیچگونه مسئولیتی در خصوص محتوای آن به عهده ندارد

دیدگاه تان را بنویسید

اخبار روز سایر رسانه ها
    اخبار از پلیکان
    تمامی اخبار این باکس توسط پلتفرم پلیکان به صورت خودکار در این سایت قرار گرفته و سایت اعتمادآنلاین هیچگونه مسئولیتی در خصوص محتوای آن به عهده ندارد

    خواندنی ها