کد خبر: 474469
|
۱۴۰۰/۰۱/۱۷ ۱۰:۰۰:۰۰
| |

«اعتمادآنلاین» گزارش می‌دهد:

چطور به ابزارهای ترجمه آنلاین آموزش دهیم که تبعیض جنسیتی را کنار بگذارند؟

تبعیض جنسیتی در مترجم‌های آنلاین مثل گوگل ترنسلیت به وضوح قابل مشاهده است. این وضعیت در زبان‌هایی که دارای اسامی مونث و مذکر هستند تحقیق و بررسی شده است. با روش‌های مشخص می‌توان به هوش مصنوعی یاد داد که جنسیت‌گرایی را کنار بگذارد.

چطور به ابزارهای ترجمه آنلاین آموزش دهیم که تبعیض جنسیتی را کنار بگذارند؟
کد خبر: 474469
|
۱۴۰۰/۰۱/۱۷ ۱۰:۰۰:۰۰

اعتمادآنلاین| مژده اصغرزاده- ابزار ترجمه آنلاین به ما کمک می‌کند تا بتوانیم زبان‌های جدید را یاد بگیریم، فراتر از مرزهای زبانی با افراد ارتباط برقرار کنیم و وب‌سایت‌های خارجی را به زبان مادری خود ببینیم؛ اما هوش مصنوعی استفاده‌شده در این ابزارها بی‌نقص نیست. اغلب این ابزارها به جای کنار گذاشتن تعصبات موجود در زبان یا جامعه‌ای خاص، الگوها را تکرار می‌کنند.

به گزارش اعتمادآنلاین ، به نقل از «The Conversation»، این ابزارها در قبال کلیشه‌های جنسیتی آسیب‌پذیرند چون بعضی از زبان‌ها (مثل انگلیسی) اسامی مونث ندارند ولی برخی دیگر (مثل آلمانی) از اسامی مونث و مذکر بهره می‌گیرند. وقتی از زبان انگلیسی به آلمانی ترجمه می‌کنید، ابزارهای ترجمه خود تصمیم می‌گیرند از چه جنسیتی برای واژه‌ای مانند cleaner استفاده کنند. این ابزارها با کلیشه‌ها تطابق دارند و بیشتر واژه‌های مونث را در زبان آلمانی انتخاب می‌کنند.

تعصب جزئی از انسان است، اما هنگامی که به چالش کشیده نشود به عقایدی دگم و منفی بدل خواهد شد. تیم تحقیقاتی این مقاله راهی برای بازآموزی هوش مصنوعی در پیش گرفته‌ تا با استفاده از آموزش هدفدار در ابزارهای ترجمه برای رفع کلیشه‌های جنسیتی از آن بهره برند. این روش می‌تواند در زمینه‌های دیگر نیز مورد استفاده قرار گیرد و به یاری حوزه فناوری بیاید تا به جای تکرار الگوها تعصبات موجود در جامعه را کنار بزند.

الگوریتم‌های مغرضانه

ترجمه ماشینی

الگوریتم‌های هوش مصنوعی اغلب رفتارهای نژادپرستانه یا تبعیض‌آمیزی دارند. گوگل ترنسلیت متهم به اجرای کلیشه‌های جنسیتی است؛ مثلاً در ترجمه‌های پیش‌فرض همه دکترها مرد و پرستارها زن هستند. ابزار تولید زبان GPT-3 که در سال 2020 مقاله‌ای کامل برای گاردین نوشت اخیراً نشان داد که در تولید محتوای زیان‌آور و اطلاعات غلط نیز به طرز اعجاب‌آوری خوب عمل می‌کند.

این ناکارآمدی‌ها در هوش مصنوعی تقصیر سازندگان آنها نیست. دانشگاهیان و فعالان به‌ تازگی در واژه‌نامه آکسفورد به تبعیض جنسیتی پرداخته‌اند. در این واژه‌نامه لغات bitch یا maid به زنان نسبت داده شده است. این مساله نشان می‌دهد حتی واژه‌نامه‌ای که به طور مداوم در حال بازبینی است ممکن است دربردارنده تعصبات قوی باشد که به کلیشه‌ها و جنسیت‌گرایی موجود دامن می‌زند.

هوش مصنوعی این تعصبات را یاد می‌گیرد زیرا در خلأ ساخته نشده و با خواندن، تجزیه و تحلیل و همچنین طبقه‌بندی داده‌های موجود می‌آموزد که چطور فکر و عمل کند. ما در ابزارهای ترجمه تلاش کردیم تا الگوریتم‌ها را در معرض میلیاردها داده متنی قرار دهیم و از آنها خواستیم که الگوها را شناسایی کنند و آنها را یاد گیرند. به این فرایند یادگیری ماشینی می‌گوییم که در کنار دستور زبان و نحو الگوهای متعصبانه را نیز می‌آموزند.

رویارویی با این تعصب

شیوه‌ آسان رویارویی با این جنسیت‌گرایی این است که به رایانه‌ها آموزش دهیم؛ مثلاً به پیکره عکس‌های بیشتری از زنان مهندس اضافه کنیم تا سیستم مترجم هوشمند گمان نکند که تمام مهندس‌ها مرد هستند. البته این شیوه مشکلاتی نیز دارد. به ابزار ترجمه در چند روز میلیاردها واژه آموزش داده می‌شود. تغییر دادن جنسیت تمام واژه‌ها در این شرایط کاری ممکن اما ناکارآمد، هزینه‌بر و پیچیده است. تنظیم جنسیت در زبان‌هایی مثل آلمانی چالش‌برانگیز است چون ممکن است برای منطقی بودن دستور این زبان واژه‌های زیادی را در یک جمله تغییر دهند تا مساله جنسیت‌گرایی حل شود.

نویسندگان این مقاله تصمیم گرفتند به جای این کار دشوار، به سیستم‌های ترجمه هوشمند موجود به طور هدفمند دوباره مطالبی را آموزش دهند. وقتی آنها با ابزارهای تعصب‌گرایانه روبه‌رو شدند تصمیم گرفتند داده‌ها را در مجموعه داده‌های کوچک و جدیدی بگنجانند و کار بازآموزی را انجام دهند.

این روش کمتر زمان می‌برد و لازم است که به مدل‌ها از همان ابتدا آموزش داده شود. نویسندگان مقاله توانستند فقط از چند صد نمونه ترجمه (به جای میلیون‌ها نمونه) استفاده کنند و الگوهای جنسیتی هوش مصنوعی را با به‌کارگیری روش‌های هدفمند تنظیم و مرتب کنند. پس از انجام این کار تنظیم جنسیتی در واژه «مهندسان» 9 برابر بیشتر از روش متعادل‌سازی که پیشتر انجام شده بود روی داد.

محققان با انجام این کار قصد داشتند نشان دهند که مقابله با کلیشه‌های جنسیتی نیازی به تغییر تمام داده‌ها ندارد و تنها با هدف‌‌گیری واژه‌هایی که دارای سوگیری‌های جنسیتی هستند می‌توان به رویارویی با جنسیت‌گرایی پرداخت. می‌توان از این نمونه در آموزش سایر ابزارهای هوش مصنوعی نیز بهره برد.

دیدگاه تان را بنویسید

خواندنی ها