«اعتمادآنلاین» گزارش میدهد:
چطور به ابزارهای ترجمه آنلاین آموزش دهیم که تبعیض جنسیتی را کنار بگذارند؟
تبعیض جنسیتی در مترجمهای آنلاین مثل گوگل ترنسلیت به وضوح قابل مشاهده است. این وضعیت در زبانهایی که دارای اسامی مونث و مذکر هستند تحقیق و بررسی شده است. با روشهای مشخص میتوان به هوش مصنوعی یاد داد که جنسیتگرایی را کنار بگذارد.
اعتمادآنلاین| مژده اصغرزاده- ابزار ترجمه آنلاین به ما کمک میکند تا بتوانیم زبانهای جدید را یاد بگیریم، فراتر از مرزهای زبانی با افراد ارتباط برقرار کنیم و وبسایتهای خارجی را به زبان مادری خود ببینیم؛ اما هوش مصنوعی استفادهشده در این ابزارها بینقص نیست. اغلب این ابزارها به جای کنار گذاشتن تعصبات موجود در زبان یا جامعهای خاص، الگوها را تکرار میکنند.
به گزارش اعتمادآنلاین ، به نقل از «The Conversation»، این ابزارها در قبال کلیشههای جنسیتی آسیبپذیرند چون بعضی از زبانها (مثل انگلیسی) اسامی مونث ندارند ولی برخی دیگر (مثل آلمانی) از اسامی مونث و مذکر بهره میگیرند. وقتی از زبان انگلیسی به آلمانی ترجمه میکنید، ابزارهای ترجمه خود تصمیم میگیرند از چه جنسیتی برای واژهای مانند cleaner استفاده کنند. این ابزارها با کلیشهها تطابق دارند و بیشتر واژههای مونث را در زبان آلمانی انتخاب میکنند.
تعصب جزئی از انسان است، اما هنگامی که به چالش کشیده نشود به عقایدی دگم و منفی بدل خواهد شد. تیم تحقیقاتی این مقاله راهی برای بازآموزی هوش مصنوعی در پیش گرفته تا با استفاده از آموزش هدفدار در ابزارهای ترجمه برای رفع کلیشههای جنسیتی از آن بهره برند. این روش میتواند در زمینههای دیگر نیز مورد استفاده قرار گیرد و به یاری حوزه فناوری بیاید تا به جای تکرار الگوها تعصبات موجود در جامعه را کنار بزند.
الگوریتمهای مغرضانه
الگوریتمهای هوش مصنوعی اغلب رفتارهای نژادپرستانه یا تبعیضآمیزی دارند. گوگل ترنسلیت متهم به اجرای کلیشههای جنسیتی است؛ مثلاً در ترجمههای پیشفرض همه دکترها مرد و پرستارها زن هستند. ابزار تولید زبان GPT-3 که در سال 2020 مقالهای کامل برای گاردین نوشت اخیراً نشان داد که در تولید محتوای زیانآور و اطلاعات غلط نیز به طرز اعجابآوری خوب عمل میکند.
این ناکارآمدیها در هوش مصنوعی تقصیر سازندگان آنها نیست. دانشگاهیان و فعالان به تازگی در واژهنامه آکسفورد به تبعیض جنسیتی پرداختهاند. در این واژهنامه لغات bitch یا maid به زنان نسبت داده شده است. این مساله نشان میدهد حتی واژهنامهای که به طور مداوم در حال بازبینی است ممکن است دربردارنده تعصبات قوی باشد که به کلیشهها و جنسیتگرایی موجود دامن میزند.
هوش مصنوعی این تعصبات را یاد میگیرد زیرا در خلأ ساخته نشده و با خواندن، تجزیه و تحلیل و همچنین طبقهبندی دادههای موجود میآموزد که چطور فکر و عمل کند. ما در ابزارهای ترجمه تلاش کردیم تا الگوریتمها را در معرض میلیاردها داده متنی قرار دهیم و از آنها خواستیم که الگوها را شناسایی کنند و آنها را یاد گیرند. به این فرایند یادگیری ماشینی میگوییم که در کنار دستور زبان و نحو الگوهای متعصبانه را نیز میآموزند.
رویارویی با این تعصب
شیوه آسان رویارویی با این جنسیتگرایی این است که به رایانهها آموزش دهیم؛ مثلاً به پیکره عکسهای بیشتری از زنان مهندس اضافه کنیم تا سیستم مترجم هوشمند گمان نکند که تمام مهندسها مرد هستند. البته این شیوه مشکلاتی نیز دارد. به ابزار ترجمه در چند روز میلیاردها واژه آموزش داده میشود. تغییر دادن جنسیت تمام واژهها در این شرایط کاری ممکن اما ناکارآمد، هزینهبر و پیچیده است. تنظیم جنسیت در زبانهایی مثل آلمانی چالشبرانگیز است چون ممکن است برای منطقی بودن دستور این زبان واژههای زیادی را در یک جمله تغییر دهند تا مساله جنسیتگرایی حل شود.
نویسندگان این مقاله تصمیم گرفتند به جای این کار دشوار، به سیستمهای ترجمه هوشمند موجود به طور هدفمند دوباره مطالبی را آموزش دهند. وقتی آنها با ابزارهای تعصبگرایانه روبهرو شدند تصمیم گرفتند دادهها را در مجموعه دادههای کوچک و جدیدی بگنجانند و کار بازآموزی را انجام دهند.
این روش کمتر زمان میبرد و لازم است که به مدلها از همان ابتدا آموزش داده شود. نویسندگان مقاله توانستند فقط از چند صد نمونه ترجمه (به جای میلیونها نمونه) استفاده کنند و الگوهای جنسیتی هوش مصنوعی را با بهکارگیری روشهای هدفمند تنظیم و مرتب کنند. پس از انجام این کار تنظیم جنسیتی در واژه «مهندسان» 9 برابر بیشتر از روش متعادلسازی که پیشتر انجام شده بود روی داد.
محققان با انجام این کار قصد داشتند نشان دهند که مقابله با کلیشههای جنسیتی نیازی به تغییر تمام دادهها ندارد و تنها با هدفگیری واژههایی که دارای سوگیریهای جنسیتی هستند میتوان به رویارویی با جنسیتگرایی پرداخت. میتوان از این نمونه در آموزش سایر ابزارهای هوش مصنوعی نیز بهره برد.
دیدگاه تان را بنویسید