زمان تخمینی مطالعه: 5 دقیقه
محققان کوانتینیوم در حال ایجاد نسل جدیدی از سیستمهای هوش مصنوعی (AI) هستند که هم قابل تفسیر و هم پاسخگو هستند و ماهیت غیرشفاف فناوریهای هوش مصنوعی «جعبه سیاه» فعلی را به چالش میکشند. این تیم به رهبری دکتر استفان کلارک، رئیس هوش مصنوعی در Quantinuum، مقالهای را منتشر کرد که نشاندهنده تغییر به سمت ایجاد راهی برای روشن کردن مفاهیم جعبه سیاه هوش مصنوعی هستند تا کاربران بتوانند آنها را درک کنند و به آن اعتماد کنند و نگرانیهای دیرینه درباره فرآیندهای تصمیمگیری و پیامدهای هوش مصنوعی را برطرف کند.
در قلب رمز و راز هوش مصنوعی این سوال وجود دارد که ماشینها چگونه یاد میگیرند و تصمیم میگیرند، فرآیندی که به دلیل ماهیت پیچیده شبکههای عصبی مصنوعی(مدلهای کامپیوتری الهامگرفته از مغز انسان) عمدتاً مبهم باقی مانده است. ناشناخته بودن شبکههای عصبی باعث به وجود آمدن چیزی شده است که به عنوان موضوع «تفسیرپذیری» در هوش مصنوعی شناخته میشود و هشدارهایی را درباره خطرات احتمالی هوش مصنوعی در زمانی که عملکرد و دلایل منطقی آن غیرقابل درک باقی میماند ایجاد میکند.
این تیم اشاره میکند که: «در Quantinuum مدتی است که روی این موضوع کار میکنیم و قبل از رایج شدن سیستمهای هوش مصنوعی مانند LLM های مولد شروع کردیم. در تیم هوش مصنوعی خود در آکسفورد، ما بر روی توسعه چارچوبهایی برای “مدلهای ترکیبی” هوش مصنوعی متمرکز شدهایم. مقاصد و اهداف ما ساختن هوش مصنوعی قابل تفسیر و پاسخگویی است. ما این کار را تا حدی با استفاده از یک نوع ریاضی به نام «نظریه دستهبندی» انجام میدهیم که در همه چیز از برنامهنویسی کامپیوتری کلاسیک گرفته تا علوم اعصاب استفاده شده است.
با این حال، تحقیقات کوانتینیوم با به کارگیری از تئوری دستهبندی، شاخهای از ریاضیات، که به دلیل توانایی آن در پل زدن زمینههای متفاوت از برنامه نویسی کامپیوتری کلاسیک تا علوم اعصاب شناخته میشود، رویکردی نوآورانه برای تفسیرپذیری ارائه میدهد. این مفهوم همانطور که توسط ریاضیدان جان باز توصیف شده است، چارچوبی امیدوارکننده برای ساختارشکنی و درک سیستمها و فرآیندهای زیربنایی شناخت هوش مصنوعی ارائه میدهد..
مقاله اخیر این تیم به کاربرد مدلهای ترکیبی و تئوری دستهبندی برای بهبود شفافیت هوش مصنوعی، بهویژه در وظایف تشخیص تصویر میپردازد. با تکیه بر این مدلها، محققان Quantinuum نشان دادهاند که چگونه ماشینها، از جمله رایانههای کوانتومی، میتوانند مفاهیمی مانند شکل، رنگ، اندازه و موقعیت را به شیوهای که هم قابل تفسیر و هم پاسخگو باشد، یاد بگیرند.
محققان Quantinuum به ما هشدار میدهند که این را به عنوان یک تمرین تئوری در نظر نگیریم، و اضافه میکنند که این تحقیق ریشه در چشماندازی برای هوش مصنوعی دارد که از جذابیت فعلی مدلهای زبان بزرگ (LLM) فراتر میرود. این کار با تمرکز بر اصول اساسی که شفافیت و مسئولیتپذیری را ترویج میکند، گام مهمی را در جهت رسیدگی به نگرانیهای ایمنی مرتبط با سیستمهای هوش مصنوعی نشان میدهد. توانایی کاربران برای درک اینکه چرا یک سیستم هوش مصنوعی تصمیمات خاصی میگیرد، برای اطمینان از اینکه هوش مصنوعی میتواند مفید باشد و خطرات آسیب ناخواسته را کاهش دهد، بسیار مهم است.
Ilyas Khan، بنیانگذار، مدیر ارشد محصول و همچنین نایب رئیس Quantinuum، بر به موقع بودن و اهمیت این تحقیق تأکید کرد و پیشنهاد کرد که تأثیر آن بر سیستمهای هوش مصنوعی آینده هم قابل توجه و هم قریب الوقوع خواهد بود. او میگوید «در محیط فعلی که در مورد مسئولیتپذیری و شفافیت در هوش مصنوعی صحبت میشود، ما مجموعهای از تحقیقات را داریم که واقعاً مهم بوده و اساساً بر نسل بعدی سیستمهای هوش مصنوعی تأثیر میگذارد.»
پیامدهای کار کوانتینیوم فراتر از کار آکادمیک صرف است و بر ابهام زدایی از جعبه سیاه هوش مصنوعی کمک بزرگی است. همانطور که محاسبات کوانتومی به تکامل خود ادامه میدهد و قدرت محاسباتی بیسابقهای را ارائه میکند، برنامههای کاربردی مدلهای هوش مصنوعی شفاف و قابل تفسیر بیان میکنند که به همان اندازه که عمیق هستند متنوع باشند. از افزایش دقت و قابلیت اطمینان تصمیمات مبتنی بر هوش مصنوعی تا تقویت اعتماد و همکاری بین انسانها و ماشینها، تغییر به سمت هوش مصنوعی شفاف میتواند چشم انداز فناوری ما را دوباره تعریف کند. این مقاله بخشی از کار بزرگتری در محاسبات کوانتومی و هوش مصنوعی است. این تیم مینویسد که با ادامه بررسی پتانسیلهای گسترده این رویکرد توسط جامعه تحقیقاتی، نوید آیندهای که در آن سیستمهای هوش مصنوعی نه تنها قدرتمند باشند، بلکه قابل درک و پاسخگو باشند، به طور فزایندهای ملموس میشود. آنها مینویسند که چشم انداز آنها برای نسل جدیدی از هوش مصنوعی، دیدگاهی است که میتواند با اطمینان و اعتماد به طور کامل در جامعه حظور داشته باشد و مانند جعبه سیاه هوش مصنوعی مبهم نباشد.