زمان تخمینی مطالعه: 9 دقیقه
هوش مصنوعی قابل توضیح(XAI) به ابزارها و روشهایی اشاره دارد که سیستمهای هوش مصنوعی و نحوه رسیدن آنها به یک خروجی خاص را توضیح میدهند. هوش مصنوعی در تمام حوزههای دنیای دیجیتال امروزی استفاده میشود. مدلهای هوش مصنوعی (AI) در حوزههای مختلف، از مدلهای پیشبینی مبتنی بر رگرسیون گرفته تا الگوریتمهای پیچیده تشخیص اشیاء در یادگیری عمیق، کمک میکنند. به عنوان مثال، مدل CNN تشخیص تومور را در نظر بگیرید که توسط یک بیمارستان برای غربالگری اشعه ایکس بیمار استفاده میشود. اما چگونه یک تکنسین یا بیمار میتوانند به نتیجه آن اعتماد کنند وقتی نمیدانند چگونه کار میکند؟ دقیقاً به همین دلیل است که ما به روشهایی برای درک عوامل مؤثر بر تصمیمگیریهای هر مدل یادگیری عمیق نیاز داریم.
چرا به هوش مصنوعی قابل توضیح (XAI) نیاز داریم؟
پیچیدگی مدلهای یادگیری ماشین بهطور تصاعدی از رگرسیون خطی به شبکههای عصبی چند لایه گرفته تا CNN، ترانسفورماتورها و غیره افزایش یافته است.
معماري و محاسبات رياضي پشت پرده در هوش مصنوعی و یادگیری ماشین آنقدر پيچيده است كه حتی توسط دانشمندان داده نیز قابل رمزگشايي نیست. برای تفسیر و درک آنها به مجموعهای جداگانه از ابزارها نیاز داریم. بیایید به دلایل اصلی این موضوع نگاهی داشته باشیم:
- درک و اعتماد کاربر: با هوش مصنوعی قابل توضیح، شفافیت در نحوه تصمیمگیری افزایش مییابد. این موضوع به نوبه خود باعث افزایش اعتماد کاربران نهایی شده و قابلیت پذیرش نیز با این مفهوم افزایش مییابد.
- انطباق و مقررات: هر شرکتی که از هوش مصنوعی برای ارائه توصیههای بازاریابی، تصمیمگیریهای مالی و غیره استفاده میکند، باید از مجموعهای از مقررات تحمیل شده توسط هر کشوری که در آن فعالیت میکند، پیروی کند. به عنوان مثال، استفاده از PII (اطلاعات شناسایی شخصی) مانند آدرس، جنسیت و سن مشتری در مدلهای هوش مصنوعی غیرقانونی است. با کمک XAI، شرکتها به راحتی میتوانند مطابقت خود را با مقرراتی مانند GDPR (مقررات عمومی حفاظت از دادهها) ثابت کنند.
- شناسایی و حذف تعصب: مدلهای هوش مصنوعی از نظر ریاضی مصون از خطا هستند، اما اخلاق و انصاف را درک نمیکنند. این امر به ویژه در حوزههای مالی، بانکداری و غیره بسیار مهم است. برای مثال، مدل پیشبینی ریسک اعتباری بانک را در نظر بگیرید. اگر این مدل بر اساس محله، منطقه یا جنسیت مشتری امتیاز پرخطری را به مشتری ارائه دهد، آنگاه نسبت به بخش خاصی سوگیری دارد. ابزارهای هوش مصنوعی قابل توصیف میتوانند عوامل تأثیرگذار پشت هر پیشبینی را نشان دهند و به ما کمک کنند سوگیریهای مدل موجود را شناسایی کنیم.
- بهبود مستمر: دانشمندان داده پس از استقرار مدل با مشکلات زیادی مانند کاهش عملکرد، جابجایی دادهها و غیره مواجه میشوند. با درک آنچه پشت پرده هوش مصنوعی قابل توضیح وجود دارد، تیمهای داده برای بهبود و حفظ عملکرد مدل و قابلیت اطمینان، مجهزتر میشوند.
- تشخیص خطا و اشکالزدایی: چالش بزرگی که مهندسان یادگیری ماشین با آن روبرو هستند، اشکالزدایی مدلهای پیچیده با میلیونها پارامتر است. هوش مصنوعی قابل توصیف به شناسایی بخشهای خاص یک مسئله و خطاها در منطق یا دادههای آموزشی سیستم کمک میکند.
روشهای هوش مصنوعی قابل توضیح (XAI)
هوش مصنوعی قابل توصیف ابزارها و فرآیندهایی را برای توضیح ویژگیهای مختلف مدلهای یادگیری ماشین قابل توضیح ساده و مدلهای جعبه سیاه ارائه میدهد. برای مدل های قابل توضیح مانند رگرسیون خطی و لجستیک، اطلاعات زیادی را میتوان از مقدار ضرایب و پارامترها به دست آورد. قبل از اینکه به روشهای مختلف بپردازیم، باید بدانید که مدلهای یادگیری ماشین را میتوان در دو سطح جهانی و محلی توصیف کرد.
توضیح جهانی و محلی مدلهای یادگیری ماشین چیست؟
- توضیحات جهانی Global Explanations: هدف هوش مصنوعی قابل توضیح در سطح جهانی توضیح رفتار مدل در کل مجموعه داده است. این مفهوم بینشی در مورد عوامل اصلی موثر بر مدل، و روند کلی و الگوهای مشاهده شده میدهد. این موضوع برای توضیح دادن به سهامداران هر کسب و کار مفید است که مدل شما چگونه کار میکند. به عنوان مثال، مورد مدلسازی ریسک برای تایید وامهای شخصی به مشتریان را در نظر بگیرید. توضیحات جهانی عوامل کلیدی را که باعث ایجاد ریسک اعتباری در کل مجموعه آن میشوند، بیان میکند و به انطباق با مقررات کمک میکند.
- توضیحات محلیLocal Explanations: هدف XAI در سطح محلی ارائه بینشی در مورد این است که چرا یک تصمیم خاص برای یک ورودی خاص گرفته شده است. مثال از مدلسازی ریسک اعتباری را در نظر بگیرید. فرض کنید بانکی برای مشتریان خود اطلاعات وامهای گرفته شده قبلی را ندارند،و به همین خاطر متوجه عملکرد ضعیف خود میشود.
توضیحات محلی برای محدود کردن سوگیریهای موجود مدل مفیدتر است. حال، بیایید نگاهی اجمالی به چند روش مهم در این حوزه بیندازیم:
- SHAP: این روش به دلیل انعطافپذیری که فراهم میکند، پرکاربردترین روش در هوش مصنوعی قابل توضیح است. ارائه توضیحات در سطح محلی و جهانی اصلیترین مزیتی است که کار ما را آسانتر میکند. کلمه SHAP مخفف Shapley Additive Explanations است.
- نمودارهای وابستگی جزئیPartial Dependence Plot: این تکنیک یکی از سادهترین روشها برای درک چگونگی تعامل ویژگیهای مختلف با یکدیگر و با هدف است. در این روش مقدار یک ویژگی را تغییر میدهیم، در حالی که بقیه را ثابت نگه میداریم و تغییر هدف وابسته را مشاهده میکنیم. این روش به ما امکان میدهد مناطقی را شناسایی کنیم که تغییر در مقادیر ویژگی تأثیر مهمی بر پیشبینی دارد.
- اهمیت ویژگی جایگشتPermutation Feature Importance: این یک روش ساده و شهودی برای یافتن اهمیت ویژگی و رتبهبندی مدلهای جعبه سیاه غیرخطی است. در این روش به طور تصادفی مقدار یک ویژگی را به هم میزنیم یا تغییر میدهیم، در حالی که ویژگیهای باقیمانده ثابت هستند. سپس، عملکرد مدل را با استفاده از معیارهای مربوطه مانند دقت، RMSE و غیره بررسی میکنیم که به صورت تکراری برای همه ویژگیها انجام میشود. هرچه افت عملکرد پس از به هم زدن یک ویژگی بیشتر باشد، اهمیت بیشتری دارد. اگر به هم زدن یک ویژگی تاثیر بسیار کمی داشته باشد، حتی میتوانیم متغیر را برای کاهش نویز حذف کنیم.
- LIME: این مدل مخفف Local Interpretable Model-Agnostic Explanations است به طور گسترده برای توضیح مدلهای جعبه سیاه در سطح محلی استفاده میشود. وقتی مدلهای پیچیدهای مانند CNN داریم، LIME از یک مدل ساده و قابل توضیح برای درک پیشبینی آن استفاده میکند. برای درک آسان تر، بیایید ببینیم LIME چگونه به صورت گام به گام کار میکند:
- نقطه محلی خود را مشخص کنید: پیشبینی خاصی را انتخاب کنید که میخواهید توضیح دهید (به عنوان مثال، چرا یک تصویر توسط CNN به عنوان گربه طبقهبندی شده است).
- ایجاد تغییرات: تغییرات جزئی در دادههای ورودی ایجاد کنید (به عنوان مثال، پیکسلهای کمی تغییر یافته در تصویر).
- پیشبینی با مدل اصلی: ورودی را به CNN ارسال کنید و کلاس خروجی پیشبینیشده را برای هر تغییر دریافت کنید.
- یک مدل توضیحی بسازید: یک مدل خطی ساده را برای توضیح رابطه بین تغییرات و پیشبینیهای مدل آموزش دهید.
- توضیح دهنده را تفسیر کنید: اکنون میتوانید مدل توضیح دهنده را با هر روشی مانند اهمیت ویژگی، PDP و غیره تفسیر کنید تا بفهمید کدام ویژگیها نقش مهمی در پیشبینی اصلی داشتند.
کاربردهای دنیای واقعی هوش مصنوعی قابل توضیح
هوش مصنوعی قابل توضیح پلی است که بین دنیای فناوری و انسانها اعتماد ایجاد میکند. بیایید به چند مثال قدرتمند هوش مصنوعی قابل توضیح در دنیای روزمره خود نگاهی داشته باشیم:
- شیوه های وام دهی منصفانه: هوش مصنوعی قابل توضیح (XAI) میتواند توضیحات روشنی را برای رد وام به بانکها ارائه دهد. کسبوکارها میتوانند از ریسک گریزان باشند و همچنین اعتماد پایگاه مشتریان خود را بهبود بخشند.
- حذف سوگیری در استخدام: بسیاری از شرکتها از سیستمهای هوش مصنوعی برای بررسی اولیه تعداد زیادی از برنامههای شغلی استفاده میکنند. ابزارهای XAI میتوانند هرگونه سوگیری تعبیهشده در الگوریتمهای استخدام مبتنی بر هوش مصنوعی را آشکار کنند. این موضوع روشهای استخدام منصفانه را بر اساس شایستگی و نه بر اساس تعصبات پنهان تضمین میکند.
- افزایش استفاده از وسایل نقلیه خودران: امروز چند نفر از شما به یک ماشین بدون راننده اعتماد خواهید کرد؟ هوش مصنوعی قابل توصیف میتواند فرآیند تصمیمگیری خودروهای خودران در جاده را توضیح دهد، مانند تغییر خط یا مانورهای اضطراری. این باعث افزایش اعتماد مسافران میشود.
- بهبود تشخیصهای پزشکی: XAI میتواند با ارائه توضیحی فوری از خروجیهای مدل یا تشخیصها، شفافیت را در فرآیند تشخیصی فراهم کند. این موضوع به متخصصان پزشکی اجازه میدهد تا دید جامعتری از مورد بیمار در دست داشته باشند.
نتیجه گیری
اگر قرار است هوش مصنوعی قابل توضیح مبتنی بر یادگیری عمیق بخشی جداییناپذیر از پیشرفت کسبوکار ما باشد، باید از شیوههای مسئولانه و اخلاقی پیروی کنیم. هوش مصنوعی قابل توضیح ستونی برای توسعه و نظارت بر هوش مصنوعی است. با این مقاله امیدوارم درک خوبی از روشهای اصلی هوش مصنوعی قابل توصیف، مزایا و محدودیتهای آنها داشته باشید. در میان روشهای مختلف XAI موجود، باید بر اساس نیازهای خود برای توضیحات جهانی یا محلی، اندازه مجموعه دادهها، منابع محاسباتی موجود، و غیره انتخاب کنید. توضیحات جهانی ممکن است تفاوتهای ظریف نقاط داده را در بر نگیرد. توضیحات محلی نیز میتواند از نظر محاسباتی گران باشد، به خصوص برای مدلهای پیچیده.