چگونه اتخاذ یک رویکرد آگاهانه به هوش مصنوعی مجموعه داده های جانبدارانه را کاهش می دهد

مجموعه داده های مغرضانه و هوش مصنوعی اخلاقی

راه حل های مبتنی بر هوش مصنوعی برای اثربخشی به مجموعه داده ها نیاز دارند. و ایجاد این مجموعه داده ها مملو از یک مشکل سوگیری ضمنی در سطح سیستماتیک است. همه مردم از تعصبات (اعم از خودآگاه و ناخودآگاه) رنج می برند. سوگیری ها می تواند به هر شکلی باشد: جغرافیایی، زبانی، اجتماعی-اقتصادی، جنسیتی و نژادپرستانه. و این سوگیری های سیستماتیک در داده ها ذخیره می شوند، که می تواند منجر به محصولات هوش مصنوعی شود که تعصب را تداوم و بزرگ می کند. سازمان‌ها برای کاهش تعصب به مجموعه داده‌ها به رویکردی آگاهانه نیاز دارند.

مثال هایی که مشکل سوگیری را نشان می دهد

یکی از نمونه‌های بارز این سوگیری مجموعه داده‌ها که در آن زمان مطبوعات منفی زیادی را به خود جلب کرد، راه‌حل خواندن رزومه بود که کاندیداهای مرد را نسبت به زنان ترجیح می‌داد. این به این دلیل است که مجموعه داده‌های ابزار استخدام با استفاده از رزومه‌های مربوط به دهه گذشته که اکثر متقاضیان مرد بودند، ایجاد شده بود. داده ها سوگیری بود و نتایج منعکس کننده آن سوگیری بود. 

نمونه‌ای دیگر که به طور گسترده گزارش شده است: در کنفرانس سالانه توسعه‌دهندگان Google I/O، گوگل پیش‌نمایش یک ابزار کمکی پوستی مبتنی بر هوش مصنوعی را به اشتراک گذاشت که به افراد کمک می‌کند تا بفهمند در مورد مسائل مربوط به پوست، مو و ناخن‌هایشان چه می‌گذرد. دستیار پوست بر چگونگی تکامل هوش مصنوعی برای کمک به مراقبت‌های بهداشتی تاکید می‌کند – اما همچنین در پی انتقاداتی مبنی بر اینکه این ابزار برای افراد رنگین‌پوست مناسب نیست، وجود سوگیری در هوش مصنوعی را برجسته می‌کند.

زمانی که گوگل این ابزار را معرفی کرد، این شرکت اشاره کرد:

برای اطمینان از ساختن برای همه، مدل ما عواملی مانند سن، جنس، نژاد و انواع پوست را در نظر می گیرد - از پوست رنگ پریده که برنزه نمی شود تا پوست قهوه ای که به ندرت می سوزد.

گوگل، از هوش مصنوعی برای کمک به یافتن پاسخ برای بیماری های پوستی رایج استفاده می کند

اما مقاله‌ای در Vice می‌گوید Google در استفاده از مجموعه داده‌های فراگیر شکست خورده است:

برای انجام این کار، محققان از مجموعه داده آموزشی 64,837 تصویری از 12,399 بیمار در دو ایالت استفاده کردند. اما از هزاران بیماری پوستی که در تصویر نشان داده شده است، تنها 3.5 درصد مربوط به بیماران مبتلا به انواع پوست فیتزپاتریک V و VI هستند که به ترتیب نمایانگر پوست قهوه ای و پوست قهوه ای تیره یا سیاه هستند. بر اساس این مطالعه، 90 درصد پایگاه داده از افرادی با پوست روشن، پوست سفید تیره تر یا پوست قهوه ای روشن تشکیل شده است. در نتیجه نمونه گیری مغرضانه، متخصصان پوست می گویند که این برنامه ممکن است به تشخیص بیش از حد یا کمتر افرادی که سفیدپوست نیستند منجر شود.

Vice، اپلیکیشن پوستی جدید گوگل برای افرادی با پوست تیره‌تر طراحی نشده است

گوگل در پاسخ گفت که این ابزار را قبل از انتشار رسمی اصلاح خواهد کرد:

ابزار کمکی پوست ما با هوش مصنوعی نتیجه بیش از سه سال تحقیق است. از زمانی که کار ما در Nature Medicine به نمایش گذاشته شد، به توسعه و اصلاح فناوری خود با ترکیب مجموعه داده‌های اضافی که شامل داده‌های اهدایی هزاران نفر و میلیون‌ها تصویر مراقبت‌های پوستی دیگر است، ادامه داده‌ایم.

گوگل، از هوش مصنوعی برای کمک به یافتن پاسخ برای بیماری های پوستی رایج استفاده می کند

به همان اندازه که ممکن است امیدوار باشیم برنامه های هوش مصنوعی و یادگیری ماشینی بتوانند این سوگیری ها را اصلاح کنند ، واقعیت این است: آنها فقط به این صورت هستند هوشمند زیرا مجموعه داده های آنها تمیز است. در به روز رسانی به ضرب المثل قدیمی برنامه نویسی زباله در/خروج زباله، راه حل های هوش مصنوعی فقط به اندازه کیفیت مجموعه داده های آنها از همان ابتدا قوی است. بدون تصحیح از سوی برنامه نویسان، این مجموعه داده ها تجربه پس زمینه ای برای اصلاح خود ندارند – زیرا آنها به سادگی چارچوب مرجع دیگری ندارند.

ساختن مجموعه‌های داده به‌طور مسئولانه در هسته اصلی همه است هوش مصنوعی اخلاقی. و مردم هسته اصلی راه حل هستند. 

هوش مصنوعی هوشیار، هوش مصنوعی اخلاقی است

تعصب در خلاء اتفاق نمی افتد. مجموعه داده های غیراخلاقی یا مغرضانه ناشی از اتخاذ رویکرد اشتباه در مرحله توسعه است. راه مقابله با خطاهای جانبداری اتخاذ یک رویکرد مسئولانه و انسان محور است که بسیاری در صنعت آن را هوش مصنوعی هوشیار می نامند. هوش مصنوعی هوشیار دارای سه جزء حیاتی است:

1. هوش مصنوعی هوشیار انسان محور است

از ابتدای شروع پروژه هوش مصنوعی، در مراحل برنامه ریزی، نیازهای افراد باید در مرکز هر تصمیمی باشد. و این بدان معنی است که همه مردم - نه فقط یک زیر مجموعه. به همین دلیل است که توسعه‌دهندگان باید برای آموزش برنامه‌های هوش مصنوعی به گونه‌ای که فراگیر و عاری از تعصب باشند، به تیمی متنوع از افراد مستقر در سطح جهانی تکیه کنند.

جمع آوری مجموعه داده ها از یک تیم جهانی و متنوع تضمین می کند که سوگیری ها زود تشخیص داده شده و فیلتر می شوند. افراد با قومیت‌ها، گروه‌های سنی، جنسیت، سطح تحصیلات، پس‌زمینه‌های اجتماعی-اقتصادی، و مکان‌های مختلف می‌توانند با سهولت بیشتری مجموعه‌ای از داده‌ها را شناسایی کنند که یک مجموعه از ارزش‌ها را بر دیگری ترجیح می‌دهند، بنابراین تعصبات ناخواسته را از بین می‌برند.

نگاهی به برنامه های صوتی بیندازید. هنگام استفاده از رویکرد هوش مصنوعی و بهره گیری از قدرت مجموعه استعدادهای جهانی ، توسعه دهندگان می توانند عناصر زبانی مانند گویش ها و لهجه های مختلف را در مجموعه داده ها در نظر بگیرند.

ایجاد یک چارچوب طراحی انسان محور از ابتدا بسیار مهم است. راه طولانی به سوی اطمینان از اینکه داده های تولید شده، مدیریت شده و برچسب گذاری شده انتظارات کاربران نهایی را برآورده می کند، پیش می رود. اما این مهم است که انسان ها در طول چرخه عمر توسعه محصول در جریان باشند. 

انسانهای موجود در حلقه همچنین می توانند به ماشین ها کمک کنند تا برای هر مخاطب خاص یک تجربه هوش مصنوعی بهتر ایجاد کنند. در Pactera EDGE، تیم‌های پروژه داده‌های هوش مصنوعی ما که در سطح جهانی قرار دارند، درک می‌کنند که چگونه فرهنگ‌ها و زمینه‌های مختلف می‌توانند بر جمع‌آوری و مدیریت داده‌های آموزشی قابل اعتماد هوش مصنوعی تأثیر بگذارند. آنها ابزارهای لازم را برای علامت گذاری مشکلات ، نظارت بر آنها و رفع آنها قبل از راه اندازی راه حل مبتنی بر هوش مصنوعی دارند.

هوش مصنوعی انسان در حلقه یک پروژه «شبکه ایمنی» است که نقاط قوت افراد - و پیشینه‌های متنوع آنها را با قدرت محاسباتی سریع ماشین‌ها ترکیب می‌کند. این همکاری انسان و هوش مصنوعی باید از ابتدای برنامه ها ایجاد شود تا داده های مغرضانه پایه و اساس پروژه را تشکیل ندهند. 

2. هوش مصنوعی هوشیار مسئول است

مسئولیت پذیری این است که اطمینان حاصل شود که سیستم های هوش مصنوعی عاری از تعصب و مبتنی بر اصول اخلاقی هستند. این در مورد توجه به نحوه، چرایی، و مکان ایجاد داده ها، نحوه سنتز آنها توسط سیستم های هوش مصنوعی و نحوه استفاده از آن در تصمیم گیری است، تصمیماتی که می تواند پیامدهای اخلاقی داشته باشد. یکی از راه‌های یک کسب‌وکار برای انجام این کار این است که با جوامعی که کمتر از آنها نمایندگی می‌کنند کار کند تا فراگیرتر و کمتر تعصب داشته باشد. در زمینه حاشیه نویسی داده ها، تحقیقات جدید نشان می دهد که چگونه یک مدل چند کاره چند حاشیه نویس که برچسب های هر حاشیه نویس را به عنوان یک کار فرعی جداگانه در نظر می گیرد، می تواند به کاهش مسائل بالقوه ذاتی در روش های معمولی حقیقت زمینی کمک کند که در آن اختلاف نظرهای حاشیه نویس ممکن است به دلیل عدم نمایش و بازنمایی باشد. می تواند در تجمیع حاشیه نویسی ها به یک حقیقت پایه نادیده گرفته شود. 

3. قابل اعتماد

قابل اعتماد بودن از شفافیت و توضیح یک کسب‌وکار در نحوه آموزش مدل هوش مصنوعی، نحوه کارکرد آن و اینکه چرا نتایج را توصیه می‌کنند، ناشی می‌شود. یک کسب و کار نیاز به تخصص با بومی سازی هوش مصنوعی دارد تا به مشتریان خود امکان دهد برنامه های هوش مصنوعی خود را فراگیرتر و شخصی تر کنند و به تفاوت های اساسی در زبان محلی و تجربیات کاربران احترام بگذارند که می تواند اعتبار یک راه حل هوش مصنوعی را از یک کشور به کشور دیگر ایجاد کند یا از بین ببرد. به به عنوان مثال، یک کسب و کار باید برنامه های کاربردی خود را برای زمینه های شخصی و محلی، از جمله زبان ها، گویش ها و لهجه ها در برنامه های کاربردی مبتنی بر صدا طراحی کند. به این ترتیب، یک برنامه همان سطح پیچیدگی تجربه صوتی را برای هر زبانی، از انگلیسی گرفته تا زبان‌هایی که کمتر ارائه می‌شوند، به ارمغان می‌آورد.

انصاف و تنوع

در نهایت، هوش مصنوعی متفکر تضمین می‌کند که راه‌حل‌ها بر اساس مجموعه داده‌های منصفانه و متنوعی ساخته می‌شوند که در آن عواقب و تأثیر نتایج خاص قبل از عرضه راه‌حل به بازار نظارت و ارزیابی می‌شوند. ما با توجه و گنجاندن انسان ها در هر بخش از توسعه راه حل، کمک می کنیم تا مطمئن شویم که مدل های هوش مصنوعی تمیز، با حداقل تعصب و تا حد امکان اخلاقی باقی می مانند.

شما چه فکر میکنید؟

این سایت از Akismet برای کاهش هرزنامه استفاده می کند. بدانید که چگونه نظر شما پردازش می شود.