زمان تخمینی مطالعه: 5 دقیقه
مطالعه نشان میدهد که مدلهای محاسباتی آموزشدیده برای انجام وظایف شنوایی، ساختار درونی مشابه قشر شنوایی انسان را نشان میدهند.
مدلهای محاسباتی که ساختار و عملکرد سیستم شنوایی انسان را تقلید میکنند میتوانند به محققان در طراحی سمعکهای بهتر، کاشت حلزون و رابطهای مغز و ماشین کمک کنند. یک مطالعه جدید از MIT نشان داده است که مدلهای محاسباتی مدرن مشتق شده از یادگیری ماشینی به این هدف نزدیکتر میشوند.
در بزرگترین مطالعه انجام شده بر روی شبکههای عصبی عمیق که برای انجام وظایف شنوایی آموزش دیدهاند، تیم MIT نشان داد که اکثر این مدلها بازنماییهای درونی تولید میکنند که ویژگیهای بازنماییهایی را که در مغز انسان هنگام گوش دادن به صداهای مشابه مشاهده میشود، به اشتراک میگذارند.
این مطالعه همچنین بینشی در مورد چگونگی آموزش بهترین این نوع مدل ارائه میدهد: محققان دریافتند که مدلهایی که بر روی ورودی شنیداری از جمله نویز پسزمینه آموزش دیدهاند، الگوهای فعالسازی قشر شنوایی انسان را بیشتر تقلید میکنند.
جاش مک درموت، دانشیار مغز و علوم شناختی در MIT، عضو موسسه مک گاورن MIT برای تحقیقات مغز و مرکز مغزها، ذهن ها و ماشینها، و نویسنده ارشد این مطالعه میگوید:”آنچه این مطالعه را متمایز میکند این است که جامع ترین مقایسه این نوع مدلها با سیستم شنوایی تاکنون است. این مطالعه نشان میدهد که مدلهایی که از یادگیری ماشینی مشتق شدهاند، گامی در مسیر درست هستند، و سرنخهایی در مورد اینکه چه چیزی آنها را به مدلهای بهتری از مغز تبدیل میکند، به ما میدهد.”
مدلهای شنوایی
شبکههای عصبی عمیق به عنوان بخشی از هوش مصنوعی، مدلهای محاسباتی هستند که از لایههای زیادی از واحدهای پردازش اطلاعات تشکیل شدهاند که میتوانند بر روی حجم عظیمی از دادهها برای انجام وظایف خاص آموزش داده شوند. این نوع مدل به طور گسترده در بسیاری از کاربردها مورد استفاده قرار گرفته است و دانشمندان علوم اعصاب شروع به بررسی این امکان کردهاند که این سیستمها همچنین میتوانند برای توصیف چگونگی انجام وظایف خاص مغز انسان مورد استفاده قرار گیرند.
هنگامی که یک شبکه عصبی در حال انجام یک کار است، واحدهای پردازش آن الگوهای فعال سازی را در پاسخ به هر ورودی صوتی که دریافت میکند، مانند یک کلمه یا نوع دیگری از صدا، تولید میکنند. این مدلهای نمایش ورودی را میتوان با الگوهای فعالسازی که در اسکنهای مغزی fMRI از افرادی که به همان ورودی گوش میدهند، مقایسه کرد.
در سال 2018، مک درموت و یکی از دانشجویانش گزارش دادند که وقتی یک شبکه عصبی را برای انجام وظایف شنوایی (مانند تشخیص کلمات از سیگنال صوتی) آموزش دادند، بازنماییهای داخلی تولید شده توسط این مدل شباهتهایی را با آنچه در اسکن های fMRI مشاهده میشد نشان داد. افرادی که به صداهای مشابه گوش میدهند
از آن زمان، این نوع مدلها به طور گسترده مورد استفاده قرار گرفتند، بنابراین گروه تحقیقاتی مکدرموت تصمیم گرفت مجموعه بزرگتری از مدلها را ارزیابی کند تا ببیند آیا توانایی تقریبی بازنماییهای عصبی دیدهشده در مغز انسان ویژگی کلی این مدلها است یا خیر.برای این مطالعه، محققان 9 مدل شبکه عصبی عمیق در دسترس عموم را که برای انجام وظایف شنوایی آموزش دیده بودند، تجزیه و تحلیل کردند و همچنین 14 مدل از خود را بر اساس دو معماری متفاوت ایجاد کردند. اکثر این مدلها برای انجام یک کار واحد آموزش دیده بودند – تشخیص کلمات، شناسایی گوینده، تشخیص صداهای محیطی و شناسایی ژانر موسیقی – در حالی که دو نفر از آنها برای انجام چندین کار آموزش دیده بودند.
هنگامی که محققان این مدلها را با صداهای طبیعی ارائه کردند که به عنوان محرک در آزمایشهای fMRI انسانی استفاده شده بود، دریافتند که نمایشهای مدل داخلی تمایل به نشان دادن شباهتهایی با آنهایی که توسط مغز انسان ایجاد میشود را نشان میدهد. مدلهایی که بازنمایی آنها بیشتر شبیه به آنچه در مغز دیده میشود، مدلهایی بودند که در بیش از یک کار آموزش دیده بودند و بر روی ورودی شنیداری که شامل نویز پس زمینه بود آموزش دیده بودند.
پردازش سلسله مراتبی
مطالعه جدید همچنین از این ایده حمایت میکند که قشر شنوایی انسان درجاتی از سازماندهی سلسله مراتبی دارد، که در آن پردازش به مراحلی تقسیم میشود که از عملکردهای محاسباتی متمایز پشتیبانی میکنند. همانطور که در مطالعه سال 2018، محققان دریافتند که بازنمایهای تولید شده در مراحل اولیه مدل بسیار شبیه به آنچه در قشر شنوایی اولیه دیده میشود، در حالی که بازنماییهای تولید شده در مراحل مدل بعدی بیشتر شبیه آن هایی است که در مناطق مغزی فراتر از قشر اولیه ایجاد میشود.علاوه بر این، محققان دریافتند که مدلهایی که در وظایف مختلف آموزش دیده بودند، در تکرار جنبههای مختلف شنوایی بهتر بودند. برای مثال، مدلهایی که در یک تکلیف مرتبط با گفتار آموزش دیدهاند، شباهت بیشتری به حوزههای انتخابی گفتار داشتند.
آزمایشگاه مک درموت اکنون قصد دارد از یافتههای خود برای توسعه مدلهایی استفاده کند که حتی در باز تولید پاسخهای مغز انسان موفقتر باشند. علاوه بر کمک به دانشمندان برای یادگیری بیشتر در مورد نحوه سازماندهی مغز، چنین مدلهایی میتوانند برای کمک به توسعه سمعکهای بهتر، کاشت حلزون و رابط های مغز و ماشین نیز مورد استفاده قرار گیرند.
به گفته مک درموند “هدف رشته ما این است که به یک مدل کامپیوتری دست پیدا کنیم که بتواند پاسخها و رفتار مغز را پیش بینی کند. ما فکر میکنیم که اگر در رسیدن به آن هدف موفق باشیم، درهای زیادی را باز خواهد کرد.»
منبع: اخبار MIT
2 پاسخ
با سلام
امیدوارم روزی هوش مصنوعی درمانی برای تمام آلام بشر باشد
با تشکر از شما که وقت گذاشتین. به آن امید نفس می کشیم
تیم پشتیبانی الکتروهایو