زمان تخمینی مطالعه: 7 دقیقه
مسائلی وجود دارند که در خط مقدم ضروریات اخلاق در هوش مصنوعی در دنیای واقعی هستند. برخی از این موارد عبارتند از:
مدلهای پایه و هوش مصنوعی مولد
انتشار ChatGPT در سال 2022 نقطه عطف واقعی برای هوش مصنوعی بود. تواناییهای ربات چت شرکت OpenAI از نوشتن خلاصههای قانونی گرفته تا اشکالزدایی کدها مجموعه جدیدی از امکانات را برای آنچه که هوش مصنوعی میتواند انجام دهد و چگونه میتوان آن را در تقریباً همه صنایع اعمال کرد، باز کرد. چت جی پی تی و ابزارهای مشابه بر اساس مدلهای پایهی هوش مصنوعی ساخته شدهاند که میتوانند با طیف وسیعی از وظایف پایین دستی سازگار شوند.
مدلهای بنیاد معمولاً مدلهای مولد در مقیاس بزرگ هستند که از میلیاردها پارامتر تشکیل شدهاند که بر روی دادههای بدون برچسب با استفاده از نظارت شخصی آموزش داده میشوند. این کار به مدلهای پایه اجازه میدهد تا به سرعت آنچه را که در یک زمینه آموختهاند را در زمینه دیگری اعمال کنند، و آنها را بسیار سازگار و قادر به انجام طیف گستردهای از وظایف مختلف میکند. با این حال، بسیاری از مسائل بالقوه و نگرانیهای اخلاقی در مورد مدلهای بنیادی وجود دارد که معمولاً در صنعت فناوری مانند سوگیری، تولید محتوای نادرست، عدم قابلیت توضیح، استفاده نادرست و تأثیر اجتماعی شناخته میشوند. بسیاری از این مسائل به طور کلی با هوش مصنوعی مرتبط هستند، اما با توجه به قدرت و در دسترس بودن مدلهای پایه، فوریت جدیدی پیدا میکنند.
یکتایی تکنولوژیکی
در حالی که ضروریات اخلاق در هوش مصنوعی توجه عمومی زیادی را به خود جلب میکند، بسیاری از محققان نگران این ایده نیستند که هوش مصنوعی در آینده نزدیک از هوش انسانی پیشی بگیرد. این مفهوم به عنوان ابرهوش نیز شناخته میشود، که نیک بوستروم آن را به عنوان «هر عقلی که عملاً در هر زمینهای، از جمله خلاقیت علمی، خرد عمومی، و مهارتهای اجتماعی، بسیار بهتر از بهترین مغزهای انسان عمل میکند» تعریف میکند.
علیرغم این واقعیت که هوش مصنوعی و ابرهوش قوی در جامعه قریب الوقوع نیست، ایده آن سؤالات جالبی را ایجاد میکند زیرا ما استفاده از سیستمهای خودران مانند اتومبیلهای خودران را در نظر میگیریم. این غیرواقعی است که فکر کنیم یک خودروی بدون راننده هرگز دچار سانحه رانندگی نمیشود، اما در این شرایط چه کسی مسئول و مقصر است؟ آیا هنوز باید وسایل نقلیه خودران را دنبال کنیم یا ادغام این فناوری را محدود میکنیم تا فقط وسایل نقلیه نیمه خودران ایجاد کنیم که ایمنی را در بین رانندگان ارتقا میدهد؟ هیئت منصفه هنوز در این مورد صحبت نمیکند، اما اینها انواع بحثهای اخلاقی هستند که با توسعه فناوری جدید و خلاقانه هوش مصنوعی در حال وقوع هستند.
تاثیر هوش مصنوعی بر مشاغل
در حالی که بسیاری از افکار عمومی درباره هوش مصنوعی بیشتر بر روی از دست دادن شغل افراد متمرکز است، این نگرانی احتمالاً باید دوباره اصلاح شود. زیرا با هر فناوری جدید و به ظاهر مخربی که میبینیم تقاضای بازار برای نقشهای شغلی خاص تغییر میکند. به عنوان مثال، وقتی به صنعت خودرو نگاه میکنیم، بسیاری از تولیدکنندگان، بر روی تولید خودروهای الکتریکی تمرکز میکنند تا با ابتکارات سبز هماهنگ شوند. با این کار صنعت انرژی از بین نمیرود، اما منبع انرژی در حال تغییر از مصرف سوخت به برق است. هوش مصنوعی باید به روشی مشابه مورد بررسی قرار گیرد، جایی که هوش مصنوعی تقاضای مشاغل را به بخشهای دیگر منتقل میکند.
با رشد و تغییر هر روز دادهها، باید افرادی وجود داشته باشند که به مدیریت این سیستمها کمک کنند. برای رسیدگی به مشکلات پیچیدهتر در صنایعی که احتمالاً تحت تأثیر تغییرات تقاضای شغلی قرار میگیرند، مانند خدمات به مشتریان، هنوز هم باید منابعی وجود داشته باشد. جنبه مهم ضروریات اخلاق در هوش مصنوعی و تأثیر آن بر بازار کار، کمک به انتقال افراد به این حوزههای جدید تقاضای بازار است.
حریم خصوصی
حریم خصوصی معمولاً در زمینه محرمانگی دادهها، حفاظت و امنیت دادهها مورد بحث قرار میگیرد، و این نگرانیها به سیاست گذاران اجازه داده است در سالهای اخیر گامهای بیشتری در این حوزه بردارند. به عنوان مثال، در سال 2016، قانون GDPR برای محافظت از دادههای شخصی افراد در اتحادیه اروپا و منطقه اقتصادی اروپا ایجاد شد و به افراد کنترل بیشتری بر دادههای خود داد.
در ایالات متحده، ایالتهای جداگانه در حال توسعه سیاستهایی هستند، مانند قانون حفظ حریم خصوصی مصرف کنندگان کالیفرنیا (CCPA) که از کسب و کارها میخواهد که مصرف کنندگان را در مورد جمع آوری دادههای خود آگاه کنند. این قانون اخیر شرکتها را مجبور کرده است که در نحوه ذخیره و استفاده از دادههای شناسایی شخصی (PII) تجدید نظر کنند. در نتیجه، سرمایهگذاری در حوزه امنیت به اولویت فزایندهای برای کسبوکارها تبدیل شده است، زیرا آنها به دنبال حذف هرگونه آسیبپذیری و فرصتهایی برای نظارت، هک و حملات سایبری هستند.
تعصب و تبعیض
مواردی از تعصب و تبعیض(Bias and discrimination) در تعدادی از سیستمهای هوشمند، سوالات اخلاقی زیادی را در مورد ضروریات اخلاق در هوش مصنوعی ایجاد کرده است. چگونه میتوانیم در برابر تعصب و تبعیض محافظت کنیم، وقتی مجموعه دادههای آموزشی میتوانند خود را در معرض تعصب قرار دهند؟ در حالی که شرکتها معمولاً اهداف خوبی در مورد تلاشهای اتوماسیون خود دارند، آمازون در تلاش خود برای خودکارسازی و سادهسازی یک فرآیند، ناخواسته نامزدهای شغلی بالقوه را بر اساس جنسیت برای نقشهای فنی باز جدا کرد و در نهایت مجبور شدند پروژه را کنار بگذارند. با ظهور رویدادهایی مانند این، هاروارد بیزینس ریویو سؤالات مهم دیگری را در مورد استفاده از هوش مصنوعی در شیوههای استخدام مطرح کرده است، مانند اینکه هنگام ارزیابی یک نامزد برای یک نقش باید از چه دادههایی استفاده کنید.
تعصب و تبعیض به عملکرد منابع انسانی نیز محدود نمیشود. میتوان آن را در تعدادی از برنامههای کاربردی از نرم افزار تشخیص چهره گرفته تا الگوریتمهای رسانههای اجتماعی یافت. همانطور که کسبوکارها از خطرات هوش مصنوعی آگاهتر میشوند، بحث در مورد اخلاق و ارزشهای هوش مصنوعی نیز فعالتر شده است. به عنوان مثال، سال گذشته، مدیرعامل IBM، آرویند کریشنا، به اشتراک گذاشت که IBM محصولات تشخیص و تجزیه و تحلیل چهره IBM با هدف کلی خود را پایان داده است، و تأکید کرد که «IBM قاطعانه مخالف استفاده از هر فناوری، از جمله فناوری تشخیص چهره ارائه شده توسط سایر فروشندگان، برای نظارت، مشخصات نژادی، نقض حقوق و آزادیهای اولیه بشر، یا هر هدفی که با ارزشها و اصول اعتماد و شفافیت ما سازگار نیست میباشد.»
مسئوليت
هیچ قانون جهانی و فراگیر وجود ندارد که ضروریات اخلاق در هوش مصنوعی را تنظیم کند، اما بسیاری از کشورها در تلاش هستند تا آنها را به صورت محلی توسعه دهند و اجرا کنند. برخی از مقررات هوش مصنوعی امروز در حال اجرا هستند و بسیاری دیگر نیز در آینده ارائه خواهند شد. برای پر کردن این شکاف، چارچوبهای اخلاقی به عنوان بخشی از همکاری بین اخلاقشناسان و محققان برای کنترل ساخت و توزیع مدلهای هوش مصنوعی در جامعه پدیدار شدهاند. با این حال، در حال حاضر، اینها فقط برای راهنمایی هستند، و تحقیقات نشان میدهد که ترکیبی از مسئولیتهای توزیع شده و فقدان آینده نگری در مورد پیامدهای بالقوه لزوماً برای جلوگیری از آسیب به جامعه مفید نیست.