کد خبر: 604444
|
۱۴۰۲/۰۱/۰۹ ۲۰:۳۸:۲۱
| |

هوش مصنوعی صدای ایلان ماسک را هم درآورد!

گروهی از فعالان فناوری، متخصصان هوش مصنوعی و علاقه‌مندان به این حوزه ازجمله «ایلان ماسک»، مدیرعامل توییتر و «استیو وزنیاک»، هم‌بنیان‌گذار اپل در نامه‌ای سرگشاده از آزمایشگاه‌های هوش مصنوعی درخواست کرده‌اند که تا حداقل ۶ ماه آینده توسعه مدل‌های قدرتمندتر از GPT-۴ را متوقف کنند.

هوش مصنوعی صدای ایلان ماسک را هم درآورد!
کد خبر: 604444
|
۱۴۰۲/۰۱/۰۹ ۲۰:۳۸:۲۱

گروهی از فعالان فناوری، متخصصان هوش مصنوعی و علاقه‌مندان به این حوزه ازجمله «ایلان ماسک»، مدیرعامل توییتر و «استیو وزنیاک»، هم‌بنیان‌گذار اپل در نامه‌ای سرگشاده از آزمایشگاه‌های هوش مصنوعی درخواست کرده‌اند که تا حداقل 6 ماه آینده توسعه مدل‌های قدرتمندتر از GPT-4 را متوقف کنند.

به گزارش دیجیاتو، نامه سرگشاده‌ای که توسط مؤسسه غیرانتفاعی Future of Life منتشر شده و به امضای حدود 1000 نفر ازجمله مدیرعامل Stability AI، هم‌بنیان‌گذار پینترست، هم‌بنیان‌گذار ریپل و «یووال نوح هراری» رسیده، خواستار توقف فوری آموزش مدل‌های هوش مصنوعی پیشرفته‌تر شده است.

در بخشی از این نامه آمده است: «سیستم‌های هوش مصنوعی با هوشمندی قابل رقابت با انسان‌ها می‌توانند ریسک‌های بزرگی را متوجه جامعه و بشریت کنند.» نامه حاضر باور دارد که این ابزارهای پیشرفته می‌توانند تغییر بزرگی را در تاریخ حیات در زمین ایجاد کنند و ازاین‌رو، باید دقیق و با صرف منابع کافی آن‌ها را برنامه‌ریزی و مدیریت کرد.

توسعه هوش مصنوعی باید تحت کنترل دربیاید

این نامه اضافه می‌کند: «متأسفانه این سطح از برنامه‌ریزی و مدیریت فعلاً به‌چشم نمی‌خورد، هرچند که آزمایشگاه‌های هوش مصنوعی در ماه‌های اخیر وارد رقابتی خارج از کنترل برای توسعه و پیاده‌سازی ذهن‌های دیجیتالی قدرتمندتری شدند که هیچ‌کس – نه حتی سازندگانشان – نمی‌توانند آن‌ها را بفهمند و پیش‌بینی یا به‌شکلی قابل اطمینان کنترل کنند.»

«گری مارکوس»، استاد بازنشسته افتخاری دانشگاه نیویورک که از امضاکنندگان این نامه بوده است، درباره آن به رویترز می‌گوید: «این نامه بی‌نقص نیست، اما روحیه درستی دارد: تا زمانی که درک بهتری نسبت به عواقب [این فناوری] پیدا کنیم، باید سرعت توسعه آن را کاهش دهیم. [هوش مصنوعی] می‌تواند آسیب‌های جدی داشته باشد...بازیگران بزرگ این حوزه روزبه‌روز کارهای خود را مخفیانه‌تر پیش می‌برند، درنتیجه کار جامعه برای ایستادگی در برابر آسیب‌های احتمالی این فناوری سخت‌تر می‌شود.»

شرکت OpenAI هنوز به انتشار این نامه واکنشی نشان نداده است. این درخواست در شرایطی مطرح می‌شود که پلیس اتحادیه اروپا هم روز دوشنبه به جمع سازمان‌هایی پیوست که درباره مسائل اخلاقی و حقوقی مدل‌های هوش مصنوعی پیشرفته ازجمله ChatGPT ابراز نگرانی کرده بودند.

 

دیدگاه تان را بنویسید

خواندنی ها