راه حل های مبتنی بر هوش مصنوعی برای اثربخشی به مجموعه داده ها نیاز دارند. و ایجاد این مجموعه داده ها مملو از یک مشکل سوگیری ضمنی در سطح سیستماتیک است. همه مردم از تعصبات (اعم از خودآگاه و ناخودآگاه) رنج می برند. سوگیری ها می تواند به هر شکلی باشد: جغرافیایی، زبانی، اجتماعی-اقتصادی، جنسیتی و نژادپرستانه. و این سوگیری های سیستماتیک در داده ها ذخیره می شوند، که می تواند منجر به محصولات هوش مصنوعی شود که تعصب را تداوم و بزرگ می کند. سازمانها برای کاهش تعصب به مجموعه دادهها به رویکردی آگاهانه نیاز دارند.
مثال هایی که مشکل سوگیری را نشان می دهد
یکی از نمونههای بارز این سوگیری مجموعه دادهها که در آن زمان مطبوعات منفی زیادی را به خود جلب کرد، راهحل خواندن رزومه بود که کاندیداهای مرد را نسبت به زنان ترجیح میداد. این به این دلیل است که مجموعه دادههای ابزار استخدام با استفاده از رزومههای مربوط به دهه گذشته که اکثر متقاضیان مرد بودند، ایجاد شده بود. داده ها سوگیری بود و نتایج منعکس کننده آن سوگیری بود.
نمونهای دیگر که به طور گسترده گزارش شده است: در کنفرانس سالانه توسعهدهندگان Google I/O، گوگل پیشنمایش یک ابزار کمکی پوستی مبتنی بر هوش مصنوعی را به اشتراک گذاشت که به افراد کمک میکند تا بفهمند در مورد مسائل مربوط به پوست، مو و ناخنهایشان چه میگذرد. دستیار پوست بر چگونگی تکامل هوش مصنوعی برای کمک به مراقبتهای بهداشتی تاکید میکند – اما همچنین در پی انتقاداتی مبنی بر اینکه این ابزار برای افراد رنگینپوست مناسب نیست، وجود سوگیری در هوش مصنوعی را برجسته میکند.
زمانی که گوگل این ابزار را معرفی کرد، این شرکت اشاره کرد:
برای اطمینان از ساختن برای همه، مدل ما عواملی مانند سن، جنس، نژاد و انواع پوست را در نظر می گیرد - از پوست رنگ پریده که برنزه نمی شود تا پوست قهوه ای که به ندرت می سوزد.
گوگل، از هوش مصنوعی برای کمک به یافتن پاسخ برای بیماری های پوستی رایج استفاده می کند
اما مقالهای در Vice میگوید Google در استفاده از مجموعه دادههای فراگیر شکست خورده است:
برای انجام این کار، محققان از مجموعه داده آموزشی 64,837 تصویری از 12,399 بیمار در دو ایالت استفاده کردند. اما از هزاران بیماری پوستی که در تصویر نشان داده شده است، تنها 3.5 درصد مربوط به بیماران مبتلا به انواع پوست فیتزپاتریک V و VI هستند که به ترتیب نمایانگر پوست قهوه ای و پوست قهوه ای تیره یا سیاه هستند. بر اساس این مطالعه، 90 درصد پایگاه داده از افرادی با پوست روشن، پوست سفید تیره تر یا پوست قهوه ای روشن تشکیل شده است. در نتیجه نمونه گیری مغرضانه، متخصصان پوست می گویند که این برنامه ممکن است به تشخیص بیش از حد یا کمتر افرادی که سفیدپوست نیستند منجر شود.
Vice، اپلیکیشن پوستی جدید گوگل برای افرادی با پوست تیرهتر طراحی نشده است
گوگل در پاسخ گفت که این ابزار را قبل از انتشار رسمی اصلاح خواهد کرد:
ابزار کمکی پوست ما با هوش مصنوعی نتیجه بیش از سه سال تحقیق است. از زمانی که کار ما در Nature Medicine به نمایش گذاشته شد، به توسعه و اصلاح فناوری خود با ترکیب مجموعه دادههای اضافی که شامل دادههای اهدایی هزاران نفر و میلیونها تصویر مراقبتهای پوستی دیگر است، ادامه دادهایم.
گوگل، از هوش مصنوعی برای کمک به یافتن پاسخ برای بیماری های پوستی رایج استفاده می کند
به همان اندازه که ممکن است امیدوار باشیم برنامه های هوش مصنوعی و یادگیری ماشینی بتوانند این سوگیری ها را اصلاح کنند ، واقعیت این است: آنها فقط به این صورت هستند هوشمند زیرا مجموعه داده های آنها تمیز است. در به روز رسانی به ضرب المثل قدیمی برنامه نویسی زباله در/خروج زباله، راه حل های هوش مصنوعی فقط به اندازه کیفیت مجموعه داده های آنها از همان ابتدا قوی است. بدون تصحیح از سوی برنامه نویسان، این مجموعه داده ها تجربه پس زمینه ای برای اصلاح خود ندارند – زیرا آنها به سادگی چارچوب مرجع دیگری ندارند.
ساختن مجموعههای داده بهطور مسئولانه در هسته اصلی همه است هوش مصنوعی اخلاقی. و مردم هسته اصلی راه حل هستند.
هوش مصنوعی هوشیار، هوش مصنوعی اخلاقی است
تعصب در خلاء اتفاق نمی افتد. مجموعه داده های غیراخلاقی یا مغرضانه ناشی از اتخاذ رویکرد اشتباه در مرحله توسعه است. راه مقابله با خطاهای جانبداری اتخاذ یک رویکرد مسئولانه و انسان محور است که بسیاری در صنعت آن را هوش مصنوعی هوشیار می نامند. هوش مصنوعی هوشیار دارای سه جزء حیاتی است:
1. هوش مصنوعی هوشیار انسان محور است
از ابتدای شروع پروژه هوش مصنوعی، در مراحل برنامه ریزی، نیازهای افراد باید در مرکز هر تصمیمی باشد. و این بدان معنی است که همه مردم - نه فقط یک زیر مجموعه. به همین دلیل است که توسعهدهندگان باید برای آموزش برنامههای هوش مصنوعی به گونهای که فراگیر و عاری از تعصب باشند، به تیمی متنوع از افراد مستقر در سطح جهانی تکیه کنند.
جمع آوری مجموعه داده ها از یک تیم جهانی و متنوع تضمین می کند که سوگیری ها زود تشخیص داده شده و فیلتر می شوند. افراد با قومیتها، گروههای سنی، جنسیت، سطح تحصیلات، پسزمینههای اجتماعی-اقتصادی، و مکانهای مختلف میتوانند با سهولت بیشتری مجموعهای از دادهها را شناسایی کنند که یک مجموعه از ارزشها را بر دیگری ترجیح میدهند، بنابراین تعصبات ناخواسته را از بین میبرند.
نگاهی به برنامه های صوتی بیندازید. هنگام استفاده از رویکرد هوش مصنوعی و بهره گیری از قدرت مجموعه استعدادهای جهانی ، توسعه دهندگان می توانند عناصر زبانی مانند گویش ها و لهجه های مختلف را در مجموعه داده ها در نظر بگیرند.
ایجاد یک چارچوب طراحی انسان محور از ابتدا بسیار مهم است. راه طولانی به سوی اطمینان از اینکه داده های تولید شده، مدیریت شده و برچسب گذاری شده انتظارات کاربران نهایی را برآورده می کند، پیش می رود. اما این مهم است که انسان ها در طول چرخه عمر توسعه محصول در جریان باشند.
انسانهای موجود در حلقه همچنین می توانند به ماشین ها کمک کنند تا برای هر مخاطب خاص یک تجربه هوش مصنوعی بهتر ایجاد کنند. در Pactera EDGE، تیمهای پروژه دادههای هوش مصنوعی ما که در سطح جهانی قرار دارند، درک میکنند که چگونه فرهنگها و زمینههای مختلف میتوانند بر جمعآوری و مدیریت دادههای آموزشی قابل اعتماد هوش مصنوعی تأثیر بگذارند. آنها ابزارهای لازم را برای علامت گذاری مشکلات ، نظارت بر آنها و رفع آنها قبل از راه اندازی راه حل مبتنی بر هوش مصنوعی دارند.
هوش مصنوعی انسان در حلقه یک پروژه «شبکه ایمنی» است که نقاط قوت افراد - و پیشینههای متنوع آنها را با قدرت محاسباتی سریع ماشینها ترکیب میکند. این همکاری انسان و هوش مصنوعی باید از ابتدای برنامه ها ایجاد شود تا داده های مغرضانه پایه و اساس پروژه را تشکیل ندهند.
2. هوش مصنوعی هوشیار مسئول است
مسئولیت پذیری این است که اطمینان حاصل شود که سیستم های هوش مصنوعی عاری از تعصب و مبتنی بر اصول اخلاقی هستند. این در مورد توجه به نحوه، چرایی، و مکان ایجاد داده ها، نحوه سنتز آنها توسط سیستم های هوش مصنوعی و نحوه استفاده از آن در تصمیم گیری است، تصمیماتی که می تواند پیامدهای اخلاقی داشته باشد. یکی از راههای یک کسبوکار برای انجام این کار این است که با جوامعی که کمتر از آنها نمایندگی میکنند کار کند تا فراگیرتر و کمتر تعصب داشته باشد. در زمینه حاشیه نویسی داده ها، تحقیقات جدید نشان می دهد که چگونه یک مدل چند کاره چند حاشیه نویس که برچسب های هر حاشیه نویس را به عنوان یک کار فرعی جداگانه در نظر می گیرد، می تواند به کاهش مسائل بالقوه ذاتی در روش های معمولی حقیقت زمینی کمک کند که در آن اختلاف نظرهای حاشیه نویس ممکن است به دلیل عدم نمایش و بازنمایی باشد. می تواند در تجمیع حاشیه نویسی ها به یک حقیقت پایه نادیده گرفته شود.
3. قابل اعتماد
قابل اعتماد بودن از شفافیت و توضیح یک کسبوکار در نحوه آموزش مدل هوش مصنوعی، نحوه کارکرد آن و اینکه چرا نتایج را توصیه میکنند، ناشی میشود. یک کسب و کار نیاز به تخصص با بومی سازی هوش مصنوعی دارد تا به مشتریان خود امکان دهد برنامه های هوش مصنوعی خود را فراگیرتر و شخصی تر کنند و به تفاوت های اساسی در زبان محلی و تجربیات کاربران احترام بگذارند که می تواند اعتبار یک راه حل هوش مصنوعی را از یک کشور به کشور دیگر ایجاد کند یا از بین ببرد. به به عنوان مثال، یک کسب و کار باید برنامه های کاربردی خود را برای زمینه های شخصی و محلی، از جمله زبان ها، گویش ها و لهجه ها در برنامه های کاربردی مبتنی بر صدا طراحی کند. به این ترتیب، یک برنامه همان سطح پیچیدگی تجربه صوتی را برای هر زبانی، از انگلیسی گرفته تا زبانهایی که کمتر ارائه میشوند، به ارمغان میآورد.
انصاف و تنوع
در نهایت، هوش مصنوعی متفکر تضمین میکند که راهحلها بر اساس مجموعه دادههای منصفانه و متنوعی ساخته میشوند که در آن عواقب و تأثیر نتایج خاص قبل از عرضه راهحل به بازار نظارت و ارزیابی میشوند. ما با توجه و گنجاندن انسان ها در هر بخش از توسعه راه حل، کمک می کنیم تا مطمئن شویم که مدل های هوش مصنوعی تمیز، با حداقل تعصب و تا حد امکان اخلاقی باقی می مانند.