زمان تخمینی مطالعه: 3 دقیقه
هوش مصنوعی بر اساس نحوه طراحی، توسعه، آموزش، تنظیم و استفاده از آن عمل میکند، و اصول ایجاد اخلاق در هوش مصنوعی در مورد ایجاد اکو سیستمی از استانداردهای اخلاقی و حفاظها در تمام مراحل چرخه حیات یک سیستم هوش مصنوعی است. سازمانها، دولتها و محققان به طور یکسان شروع به جمع آوری چارچوبهایی برای رسیدگی به نگرانیهای اخلاقی فعلی در هوش مصنوعی و شکل دادن به آیندهکاری در این زمینه کردهاند. در حالی که هر روز ساختار بیشتری به این دستورالعملها تزریق میشود، در مورد ترکیب موارد زیر توافق نظر وجود دارد:
حکومت
حکمرانی اقدام سازمان برای نظارت بر چرخه حیات هوش مصنوعی از طریق سیاستها و فرآیندهای داخلی، کارکنان و سیستمها است. حکمرانی کمک میکند تا اطمینان حاصل شود که سیستمهای هوش مصنوعی طبق اصول و ارزشهای سازمان، همانطور که ذینفعان انتظار دارند و طبق مقررات مربوطه لازم است، عمل میکنند. یک برنامه حکومتی موفق خواهد توانست موارد زیر را انجام دهد:
- نقشها و مسئولیتهای افرادی که با هوش مصنوعی کار میکنند را تعریف کند
- به همه افراد درگیر در چرخه حیات هوش مصنوعی درباره ساختن هوش مصنوعی به روشی مسئولانه آموزش دهد
- ایجاد فرآیندهایی برای ساخت، مدیریت، نظارت و برقراری ارتباط در مورد خطرات هوش مصنوعی
- از ابزارهایی برای بهبود عملکرد و قابلیت اعتماد هوش مصنوعی در طول چرخه عمر هوش مصنوعی استفاده کند
اصول و حوزه های تمرکز
رویکرد یک سازمان به اخلاق در هوش مصنوعی میتواند با اصولی هدایت شود که میتواند در محصولات، خطمشیها، فرآیندها و شیوهها در سراسر سازمان اعمال شود تا به هوش مصنوعی قابل اعتماد کمک کند. این اصول باید حول محورها و زمینههای تمرکز، مانند توضیحپذیری یا انصاف، که استانداردها را میتوان بر اساس آنها توسعه داد و رویهها را همسو کرد، ساخته و پشتیبانی شود.
وقتی هوش مصنوعی با اصول اخلاقی ساخته شده باشد، میتواند پتانسیل فوق العادهای را برای تأثیرگذاری بر جامعه داشته باشد. امروزه ما شروع به دیدن این موضوع در ادغام آن در حوزههای مراقبتهای بهداشتی، مانند رادیولوژی کردهایم. گفتگو پیرامون اخلاق هوش مصنوعی نیز برای ارزیابی مناسب و کاهش خطرات احتمالی مرتبط با کاربردهای هوش مصنوعی، با شروع مرحله طراحی، مهم است.