کد خبر: 599546
|
۱۴۰۱/۱۲/۰۸ ۱۶:۵۰:۲۱
| |

هنری کیسینجر از شگفتی‌های هوش مصنوعی می گوید

من از چت جی پی تی درباره نقش روسیه در حفظ یا تضعیف ثبات اروپا سوال پرسیدم. پاسخ‌های به ظاهر متفکرانه و مختصر در کمتر از یک دقیقه ارائه شد و اطلاعات متناض را متعادل کرده بود و بدون این که نظری داشته باشد به طور کامل پاسخ می‌داد.

هنری کیسینجر از شگفتی‌های هوش مصنوعی می گوید
کد خبر: 599546
|
۱۴۰۱/۱۲/۰۸ ۱۶:۵۰:۲۱

هنری کیسینجر؛ وزیر خارجه اسبق ایالات متحده در فاصله سال‌های ۱۹۷۳ تا ۱۹۷۷ میلادی بوده است. او مشاور امنیت ملی در دولت‌های نیکسون و جرالد فورد بود. کیسینجر نقش برجسته‌ای در سیاست خارجی امریکا در فاصله سال‌های ۱۹۶۹ تا ۱۹۷۷ میلادی ایفا کرد از جمله در پیشبرد سیاست تنش زدایی با شوروی و فراهم ساختن امکان برقراری روابط امریکا با جمهوری خلق چین. او یکی از برجسته‌ترین چهره‌های مکتب واقع گرایی در عرصه روابط بین الملل است.

به گزارش فرارو به نقل از وال استریت ژورنال، هنری کیسینجر در تازه ترین نوشتار درباره هوش مصنوعی نوشته است:

یک فناوری جدید به دنبال تغییر فرآیند شناختی انسان است. از زمان اختراع صنعت چاپ تاکنون فرآیند شناختی ما متزلزل نشده بود. فناوری چاپ کتاب گوتنبرگ در سال ۱۴۵۵ میلادی باعث شد تا افکار انتزاعی بشر به طور کلی و سریع قابل انتقال باشند. با این وجود، امروزه فناوری تازه این روند را معکوس ساخته است.

علی‌رغم آن که ماشین چاپ باعث خلق انبوهی از تفکر مدرن بشری شد فناوری تازه نیز تحولی عظیم محسوب می‌شود. در این فرآیند شکافی بین دانش انسان و درک انسان ایجاد می‌شود. اگر بخواهیم این دگرگونی را با موفقیت پشت سر بگذاریم باید مفاهیم جدیدی از تفکر انسان و تعامل با ماشین‌ها ایجاد شود. این چالش اساسی عصر هوش مصنوعی خواهد بود.

فناوری جدید به عنوان هوش مصنوعی مولد شناخته می‌شود. چت جی پی تی (Chat GPT) که در آزمایشگاه تحقیقاتی Open AI توسعه یافته اکنون قادر به مکالمه با انسان است. این برنامه با گسترده‌تر شدن ظرفیت‌ها دانش بشری را بازتعریف می‌کند، تعییرات در ساختار واقعیت ما را تسریع می‌نماید و سیاست و جامعه را دوباره سازماندهی می‌کند.

هوش مصنوعی مولد چالشی فلسفی و عملی در مقایسی است که از زمان آغاز عصر روشنگری به این سو تجربه نشده است.

چاپخانه و چاپ آثار پژوهشگران را قادر ساخت تا یافته‌های یکدیگر را به سرعت تکرار کرده و آن یافته‌ها را به اشتراک بگذارند. هم چنین، باعث ادغام و گسترش بی سابقه اطلاعات و ایجاد روشی علمی شد. آن چه پیش‌تر غیر قابل نفوذ بود به نقطه آغاز تسریع پرس و جو تبدیل شد. تفسیر قرون وسطایی از جهان مبتنی بر ایمان مذهبی به تدریج تضعیف شد. این امکان فراهم شد تا اعماق کیهان تا زمانی که به محدودیت‌های جدیدی از درک بشر رسیدند مورد کاوش قرار گیرند.

هوش مصنوعی به طور مشابه مولد راه‌های انقلابی برای خِرَد انسانی است و افق‌های تازه‌ای را برای دانش یکپارچه خواهد گشود. با این وجود، قطعا تفاوت‌هایی نیز وجود دارد.

دانش عصر روشنگری به تدریج، گام به گام، با هر مرحله قابل آزمایش و آموزش حاصل شد. سیستم‌های مجهز به هوش مصنوعی از انتهای دیگری آغاز می‌شوند. سیستم‌های مبتنی بر هوش مصنوعی می‌توانند حجم عظیمی از اطلاعات را ذخیره کنند.

در مورد Chat GPT این مورد بسیاری از مطالب متنی در اینترنت و تعداد زیادی از کتاب‌ها را شامل می‌شود. نگهداری آن حجم از اطلاعات و عرضه آن فراتر از توان انسان است.

روش‌های پیشرفته هوش مصنوعی بدون توضیح این که چرا یا چگونه فرآیندشان کار می‌کند نتایجی را به دست می‌آورند. ماشین یادگیری مبتنی بر هوش مصنوعی ظرف مدت چند ثانیه به یک متن پاسخ می‌دهد و قادر است این کار را انجام دهد، زیرا فرآیند را از طریق داده‌های گسترده‌ای که از پیش تولید کرده و براساس آن آموزش دیده انجام می‌دهد.

البته این که ماشین یادگیری با استفاده از چه فرایندی دانش خود را ذخیره و بازیابی می‌کند ناشناخته باقی مانده است. این که آیا این فرآیند هرگز کشف خواهد شد یا خیر رمز و راز مرتبط با فراگیری یادگیری ماشینی و شناخت انسان را برای آینده نامعلومی به چالش خواهد کشید.

ظرفیت‌های هوش مصنوعی ثابت نیستند، اما با پیشرفت فناوری به‌طور تصاعدی گسترش می‌یابند. به تازگی پیچیدگی مدل‌های هوش مصنوعی هر چند ماه یکبار به میزان دو برابر افزایش یافته است. بنابراین، سیستم‌های مبتنی بر هوش مصنوعی مولد از قابلیت‌هایی برخوردارند که حتی برای مخترعان شان نیز فاش نشده است.

با هر سیستم مبتنی بر هوش مصنوعی تازه آن سیستم بدون آن که مبداء یا مقصد خود را بداند ظرفیت‌های تازه‌ای را ایجاد می‌کند. در نتیجه، آینده ما اکنون دارای یک عنصر کاملا جدید از رمز و راز و ریسک و شگفتی است.

علم عصر روشنگری یقینات را انباشته ساخت. هوش مصنوعی ابهامات تجمعی را ایجاد می‌کند. علم عصر روشنگری با قابل توضیح ساختن اسرار و مشخص ساختن مرز‌های دانش و درک بشر در حین حرکت آن تکامل یافت. در دانش عصر روشنگری فرضیه فهم آماده تبدیل شدن به دانش بود. استقرار تبدیل دانش به فهم بود.

در عصر هوش مصنوعی، اما معما‌ها با فرآیند‌هایی حل می‌شوند که ناشناخته باقی می‌مانند. این تناقض سرگردان کشف اسرار را ناممکن و غیر قابل توضیح می‌سازد. هوش مصنوعی ذاتا به شکلی بسیار پیچیده دانش بشری را افزایش می‌دهد، اما لزوما باعث افزایش درک انسان نمی‌شود و پدیده‌ای است که تقریبا برخلاف تمام پدیده‌های مدرنیته از دوران عصر روشنگری به این سو می‌باشد.

با این وجود، در عین حال زمانی که هوش مصنوعی با خِرَد انسانی همراه می‌شود ابزاری قوی‌تر از صرف خرد انسانی برای کشف است. بنابراین، تفاوت اساسی بین عصر روشنگری و عصر هوش مصنوعی نه از جنبه فناوری بلکه از جنبه شناختی است.

پس از عصر روشنگری فلسفه با علم همراه شد. داده‌های گیج‌کننده جدید و نتیجه گیری‌های غالبا غیرمنطقی، تردید‌ها و ناامنی‌ها با توضیحات جامع تجربیات بشری برطرف شدند. هوش مصنوعی مولد به طور مشابه آماده است تا شکل جدیدی از آگاهی انسان را ایجاد کند. با این وجود، هنوز هیچ رهبری سیاسی یا فلسفی‌ای برای توضیح و هدایت این رابطه بدیع بین انسان و ماشین شکل نگرفته است.

"چت جی پی تی" (Chat GPT) نمونه‌ای از چیزی است که به عنوان یک "مدل زبان بزرگ" شناخته می‌شود که می‌تواند برای تولید متنی شبیه انسان استفاده شود. این برنامه نوعی مدل است که می‌تواند به طور خودکار از مقادیر زیادی متن و بدون نیاز به نظارت انسان بیاموزد. توسعه دهندگان Chat GPT مقدار زیادی از محتوای متنی دنیای دیجیتال را به آن تغذیه کرده اند. قدرت محاسباتی به این مدل اجازه می‌دهد تا الگو‌ها را ثبت کند.

توانایی مدل‌های زبان بزرگ برای تولید متن انسان مانند یک کشف تقریبا تصادفی بود. این مدل‌ها به گونه‌ای آموزش داده شده‌اند که بتوانند کلمه بعدی را در یک جمله پیش‌بینی کنند که در کار‌هایی مانند تکمیل خودکار برای ارسال پیام‌های متنی یا جستجو در وب مفید است. با این وجود، مشخص شده که این مدل‌ها هم چنین توانایی غیر منتظره‌ای برای ایجاد پاراگراف‌ها و تولید مقاله و کتاب را دارند.

چت جی پی تی به صورت فوری پاسخ‌های منحصر بفردی ارائه می‌کند. پاسخ‌ها، اظهارات و مشاهدات از سوی چت جی پی تی بدون توضیح درباره این که از کجا آمده اند و بدون نویسنده قابل شناسایی ظاهر می‌شوند. در ظاهر این برنامه هیچ انگیزه یا سوگیری قابل تشخیصی ندارد.

خروجی‌های آن پیچیده است، اما کار آن به طرز شگفت‌آوری سریع می‌باشد: ظرف مدت چند ثانیه می‌تواند پاسخ‌هایی تولید کند که به طور منسجم یک موضوع سطح بالا را توضیح دهد.

این پاسخ‌ها به سادگی از متن موجود در حافظه رایانه نسخه برداری نمی‌شوند بلکه توسط فرآیندی بازتولید می‌شوند که انسان قادر به تکرار آن نیست و قادر است استنتاج‌های روانشناختی فرضی و غیر بدیهی را با یکدیگر ترکیب کند.

این برنامه قادر است از میان میلیارد‌ها نقطه داده اولویت بندی کند تا مجموعه‌ای از ۲۰۰ کلمه را انتخاب کند که بیش‌ترین ارتباط را با یکدیگر دارند. به نظر می‌رسد این برنامه دیدگاه‌های مخالف را می‌پذیرد و آن دیدگاه‌ها را همزمان با یکدیگر سازگار نشان دهد.

چت جی پی تی نوشته‌های دیگر را بدون کپی کردن یا نسخه برداری تقلید می‌کند. اگرچه این مدل قادر به درک مفهوم انسانی نیست، اما خروجی‌ای آن بازتاب دهنده جوهر زیر بنایی زبان انسانی است.

من از چت جی پی تی خواستم تا قابلیت‌های خود را توضیح دهد. از آن پرسیدم آیا می‌تواند آینده را پیش بینی کند و پاسخ منفی داد. چت جی پی تی پاسخ داد: "من صرفا می‌توانم اطلاعاتی را ارائه کنم و به پرسش‌ها بر اساس داده‌هایی که آموزش دیده ام پاسخ دهم. من تجربه یا آگاهی شخصی ندارم. بنابراین، من نمی‌توانم در مورد رویداد‌های آینده پیش بینی‌ای انجام دهم".

من از آن برنامه پرسیدم آیا قادر به "قضاوت احتمالی" می‌باشد و پاسخ داد: "من می‌توانم قضاوت‌های احتمالی را بر اساس داده‌هایی که با تکیه بر آن آموزش دیده ام ارائه دهم. برای مثال، اگر من روی مجموعه داده بزرگی از الگو‌های آب و هوا آموزش دیده باشم ممکن است بتوانم یک قضاوت احتمالی در مورد احتمال وقوع نوع خاصی از آب و هوا در یک مکان خاص در یک روز معین ارائه کنم. با این وجود، توجه به این نکته ضروری است که این قضاوت‌های احتمالی مبتنی بر الگو‌ها و روند‌های داده‌ها هستند و ممکن است همواره نتایج واقعی را به طور دقیق بازتاب ندهند".

من از چت جی پی تی درباره نقش روسیه در حفظ یا تضعیف ثبات اروپا سوال پرسیدم. پاسخ‌های به ظاهر متفکرانه و مختصر در کمتر از یک دقیقه ارائه شد و اطلاعات متناض را متعادل کرده بود و بدون این که نظری داشته باشد به طور کامل پاسخ می‌داد.

ظرف مدت چند روز پس از راه اندازی "چت جی پی تی" بیش از یک میلیون کاربر برای طرح پرسش‌های شان از آن ثبت نام کردند.

صد‌ها شرکت روی فناوری‌های مولد کار می‌کنند و سرمایه گذاری در این عرصه در حال سرازیر شدن است و اکتشافات را به سوی حوزه تجاری سوق می‌دهد. بزرگ‌ترین این مدل‌ها برای آموزش پرهزینه هستند تقریبا ۱ میلیارد دلار برای هر مدل. هزاران رایانه پس از آموزش دیدن ۲۴ ساعت در روز برای کار با آن فعال هستند.

هوش مصنوعی مولد فراتر از مدل زبان بزرگ برای ساخت انواع مدل‌ها استفاده خواهد شد و این روش به طور فزاینده‌ای چند وجهی و محرمانه خواهد شد و بسیاری از عرصه‌های تلاش انسان برای مثال آموزش و زیست شناسی را تغییر خواهد داد.

مدل‌های مختلف از نظر نقاط قوت و ضعف متفاوت خواهند بود. توانایی‌های آن مدل‌ها از نوشتن جوک و نقاشی کشیدن گرفته تا طراحی آنتی بادی احتمالا هم چنان ما را شگفت زده خواهد کرد. درست همان طور که مدل زبان بزرگ مدلی غنی‌تر از زبان انسانی را توسعه داد که سازندگان آن پیش‌بینی می‌کردند هوش مصنوعی‌های مولد در بسیاری از زمینه‌ها احتمالا بیش از آن چه که وظایف محول شده شان نشان می‌دهد یاد می‌گیرند.

اهمیت درازمدت هوش مصنوعی مولد فراتر از مفاهیم تجاری یا حتی پیشرفت‌های علمی غیر تجاری است چرا که صرفا پاسخ تولید نمی‌کند بلکه از منظر فلسفی پرسش‌ها عمیقی را ایجاد خواهد کرد و بر دیپلماسی و استراتژی‌های امنیتی نیز تاثیرگذار خواهد بود.

با این وجود، هیچ یک از سازندگان این فناوری به مشکلاتی که خود ایجاد خواهد کرد نپرداخته اند. برای مثال، فقدان نقل قول در پاسخ‌های جی پی تی تشخیص حقیقت از اطلاعات نادرست را دشوار می‌سازد. ما پیش‌تر می‌دانستیم که بازیگران مخرب مجموعه‌ای از "حقایق" ساخته شده و تصاویر و ویدئو‌های "جعل عمیق" (دیپ فیک) را به شکل فزاینده‌ای متقاعد کننده به اینترنت تزریق کرده اند یعنی به مجموعه آموزشی حال و آینده چت جی پی تی.

از آنجایی که چت جی پی تی برای پاسخ دادن به پرسش‌ها طراحی شده گاهی اوقات حقایقی را برای ارائه یک پاسخ به ظاهر منسجم می‌سازد. این پدیده در میان پژوهشگران هوش مصنوعی با عنوان "توهم" شناخته می‌شود که در آن هوش مصنوعی عباراتی را که برای یک خواننده انسانی واقعی به نظر می‌رسد، اما هیچ مبنایی در واقعیت ندارند در کنار یکدیگر قرار می‌دهد. این که چه چیزی باعث این خطا‌ها می‌شود و نحوه کنترل آن چگونه است هنوز مشخص نیست.

چت جی پی تی هیچ شخصیت آشکاری ندارد. فقدان نویسنده قابل شناسایی چت جی پی تی درک تمایلات آن را برای انسان دشوارتر از قضاوت در مورد دیدگاه سیاسی یا اجتماعی یک انسان می‌سازد. در واقع، هوش مصنوعی درگیر یک آنالوگ غیرانسانی با شناخت است. اگرچه ما هوش مصنوعی مولد را در قالب انسان درک می‌کنیم اشتباهات آن اشتباهات یک انسان نیست.

انسان‌ها نباید این اشتباهات را به عنوان خطا تشخیص دهند. آیا ما می‌توانیم تعصبات و عیوب آن را به همان اندازه که هستند تشخیص دهیم؟ بنابراین، توضیح خروجی‌های هوش مصنوعی هم چنان دشوار است.

حقیقت علم عصر روشنگری مورد اعتماد بود، زیرا هر مرحله از فرآیند‌های آزمایشی قابل تکرار نیز مورد آزمایش قرار می‌گرفت بنابراین، امکان داشت که به آن اعتماد کنیم. حقیقت هوش مصنوعی مولد باید با روش‌های کاملا متفاوتی توجیه شود و ممکن است هرگز به طور مشابه مطلق نباشد.

همان طور که ما سعی می‌کنیم درک خود را به دانش مان برسانیم باید به طور پیوسته از خود بپرسیم: در مورد ماشین هنوز برای ما آشکار نشده که چه دانش مبهمی را پنهان می‌سازد؟ استدلال هوش مصنوعی مولد تا حدی به عنوان بخشی از آموزش مدل احتمالا در طول زمان تغییر می‌کند. این یک نسخه شتاب یافته از پیشرفت علمی سنتی خواهد بود و سازگاری‌های تصادفی را به فرآیند کشف می‌افزاید.

حتی اگر مدل‌های هوش مصنوعی مولد کاملا قابل تفسیر و دقیق شوند هم چنان چالش‌های ذاتی در رفتار انسان ایجاد می‌کنند. دانش آموزان از چت جی پی تی برای تقلب در امتحانات استفاده می‌کنند.

هوش مصنوعی مولد می‌تواند تبلیغات ایمیلی ایجاد کند که صندوق‌های ورودی را پر می‌کند و قابل تفکیک و تشخیص از پیام‌های دوستان شخصی یا آشنایان تجاری نیست. ویدئو‌ها و تبلیغات تولید شده توسط هوش مصنوعی که پلتفرم‌های تبلیغاتی دروغین را به تصویر می‌کشند می‌توانند تمایز بین مواضع سیاسی را دشوار سازند.

تاثیر هوش مصنوعی مولد بر آموزش می‌تواند در کاهش توانایی رهبران آینده در تمایز قائل شدن بین آن چه که به صورت شهودی در اختیار دارند و آن چه به طور مکانیکی جذب می‌کنند نمایان شود یا می‌تواند منجر به ایجاد رهبرانی شود که روش‌های مذاکره با ماشین‌ها و استراتژی نظامی خود را با تکامل هوش مصنوعی مولد به جای انسان از طریق رایانه‌ها بیاموزند.

چت جی پی تی دارای ظرفیتی برای تحلیل است که از نظر کیفی متفاوت از ذهن انسان است. بنابراین، آینده نه تنها مستلزم همکاری با نوع دیگری از موجودیت فنی بلکه با نوع دیگری از استدلال است که ممکن است عقلانی باشد بدون آن که معقول باشد به یک معنا قابل اعتماد باشد، اما از جنبه‌ای دیگر قابل اعتماد نباشد. این وابستگی خود احتمالا موجب دگرگونی در فراشناخت و هرمنوتیک درک فهم و درک انسان از نقش و کارکرد ما خواهد شد.

ماشین‌های مورد استفاده در حکمرانی بدون پشتوانه‌های اخلاقی و فکری مناسب می‌توانند به جای تقویت انسانیت مان آن را تحت کنترل خود درآورند و ما را برای همیشه به دام بیندازند.

این امر ضرورت‌های خاصی را برای تسلط بر آینده قریب‌الوقوع ما تحمیل می‌کند. اعتماد به هوش مصنوعی مستلزم بهبود در سطوح مختلف قابلیت اطمینان بخشی است در دقت و ایمنی ماشین، همسویی اهداف هوش مصنوعی با اهداف انسانی و در مسئولیت پذیری افراد حاکم بر ماشین.

با این وجود، حتی زمانی که سیستم‌های هوش مصنوعی از نظر فنی قابل اعتمادتر می‌شوند انسان‌ها کماکان باید راه‌های جدید، ساده و قابل دسترس برای درک و به چالش کشیدن ساختارها، فرآیند‌ها و خروجی‌های سیستم‌های هوش مصنوعی بیابند.

 

دیدگاه تان را بنویسید

خواندنی ها