اخلاق در هوش مصنوعی

اخلاق در هوش مصنوعی

  • توسط : معصومه حیدری
  • در : ۱۴۰۰-۰۳-۰۴
  • در : دانستنیها

مقدمه

جایگاه اخلاق در هوش مصنوعی چیست؟ در دنیایی زندگی می کنیم که روز به روز بیش تر با دنیای دیجیتال و هوش مصنوعی ادغام می شود. لذا اخلاق هوش مصنوعی از مواردی است که امروزه مورد توجه افراد زیادی قرار گرفته است. اخلاق هوش مصنوعی یا Ethics of artificial intelligence، مربوط به اخلاق تکنولوژی است که به صورتی خاص به ربات ها و هوش مصنوعی مرتبط است.

وقتی که هوش مصنوعی و اخلاق به هم می رسند.

جایگاه اخلاق در هوش مصنوعی چیست؟ آیا در نظر گرفتن مجموعه ای از اصول واقعاً موثر خواهد بود؟ رفتار هوش مصنوعی به چه شکل است؟

جایگاه اخلاق در هوش مصنوعی چیست؟

جایگاه اخلاق در هوش مصنوعی چیست؟

با توجه به هشدارهای جدی در مورد آینده هوش مصنوعی در طی چند سال گذشته، حوزه اخلاق هوش مصنوعی به نوعی فعالیت مبدل شده است.

این هشدارها از طرف متخصصان مختلفی از جمله نیک بوستروم (Nick Bostrom) دانشگاه آکسفورد و همچنین از طرف چهره های عمومی بیش تری، مثل الون ماسک (Elon Musk) و  استیون هاوکینگ (Stephen Hawking) بیان شده است. تصویری که این اشخاص از آینده هوش مصنوعی متصور هستند، تاریک است.

بسیاری از افراد برای هدایت محققان هوش مصنوعی و کمک به آن ها جهت مذاکره در مورد پیچ ​​و خم های اخلاق و رفتار انسانی، مجموعه ای از اصول را در نظر گرفته اند. مقاله ای در هوش ماشینی نیچر (Nature Machine Intelligence) چنین ادعا کرده که هر چند وجود چنین اصولی، قابل ستایش است، اما باز هم جامعه هوش مصنوعی اخلاقی که مورد نیاز است را نخواهیم داشت.

به طور کلی زمینه اخلاق هوش مصنوعی، با دو حوزه مرتبط است، اولین حوزه اخلاق در هوش مصنوعی، مربوط به راهنمایی انسان هایی است که هوش مصنوعی را توسعه می دهند، و دیگری اخلاق ماشینی، گه راهنمای رفتار اخلاق هوش مصنوعی یا ربات ها است. با این وجود، این دو حوزه به راحتی از هم جدا نمی شوند.

جایگاه اخلاق در هوش مصنوعی چیست؟

جایگاه اخلاق در هوش مصنوعی چیست؟

اخلاق ماشینی سابقه ای طولانی دارد. در سال ۱۹۵۰، آیزاک آسیموف (Isaac Asimov)، نویسنده بزرگ داستان های علمی، به طور واضح سه قانون رباتیک معروف خود را در اثر خود، I، Robot بیان کرد و آن ها را به ترتیب زیر پیشنهاد نمود:

  • یک ربات ممکن نیست به بشر آسیب برساند، یا از طریق بی تحرکی موجب آسیب به انسان شود.
  • لازم است تا یک ربات از دستوراتی که انسان به او می دهد پیروی کند، مگر در شرایطی که این دستورات مغایرتی با قانون اول داشته باشد.
  • یک ربات باید از موجودیت خودش محافظت کند، به شرطی این که چنین محافظتی مغایرتی با قانون اول یا دوم نداشته باشد.

بعدها قانون صفر نیز اضافه شد:

  • یک ربات ممکن نیست به انسانیت آسیب رساند و یا از طریق بی تحرکی، موجب آسیب به انسانیت شود.

این قوانین با همت آسیموف (و سردبیر John W Campbell ) در مورد چگونگی اطمینان از عدم ایجاد یک سیستم هوشمند مصنوعی به سازندگان آن بود: ویژگی ایمنی طراحی شده برای تولید ربات های دوستانه و خیرخواه.

آسیموف این سه قانون را در نوشته های مختلفی مورد بررسی قرار داد. در حالی که این قوانین تنها یک وسیله ادبی بودند، اما با این وجود، توانستند حوزه اخلاق هوش مصنوعی را در دنیای واقعی بیدار کنند.

در سال ۲۰۰۴، اقتباس سینمایی I، Robot به همراه یک هوش مصنوعی منتشر شد که تفسیر آن از این سه قانون، منجر به طرحی برای تسلط بر انسان ها شد.

جایگاه اخلاق در هوش مصنوعی چیست؟

جایگاه اخلاق در هوش مصنوعی چیست؟

جهت برجسته کردن ایرادات در اصول اخلاقی این سه قانون، سازمانی موسوم به Singularity Institute for Artificial Intelligence (در حال حاضر موسسه تحقیقات هوش ماشین) با سرپرستی محقق آمریکایی هوش مصنوعی الیازر یودکوفسکی (Eliezer Yudkowsky)، پروژه ای آنلاینی به نام سه قانون ناامن (Three Laws Unsafe) را مطرح کرد.

یودکوفسکی (یک نظریه پرداز در رابطه با خطرات ناشی از هوش مصنوعی فوق العاده هوشمند و طرفدار ایده Friendly AI)، بیان نمود که اگر هوش مصنوعی در هر صورت به مرحله ای که در داستان های آسیموف به تصویر کشیده شده است، توسعه پیدا کند، به طور ناامید کننده ای ساده انگارانه است.

علیرغم پذیرش گسترده مشکلات این سه قانون، تعداد زیادی از سازمان ها، از شرکت های خصوصی گرفته تا دولت ها، بر پروژه هایی جهت توسعه سیستم های مبتنی بر اصول اخلاقی هوش مصنوعی پافشاری می کنند.

این تمرکز همیشگی بر اصول اخلاقی تا حدودی به این خاطر است که اصول اخلاقی هوش مصنوعی می تواند هم مختص محققان هوش مصنوعی و همچنین هوش هایی که آن ها توسعه می دهند، باشد. این در حالی است که سه قانون یاد شده، تنها برای کنترل رفتار هوش مصنوعی طراحی شده است. به عبارتی می توان گفت که رفتار اخلاقی هوش مصنوعی، تا حدی زیادی بازتاب رفتار اخلاقی افرادی است که آن ها را طراحی و اجرا می کنند و به همین خاطر، این دو حوزه اخلاق هوش مصنوعی به صورت جدایی ناپذیری با یکدیگر پیوند خورده اند.

لذا در صورتی که بخواهیم از برخی از سناریوهای وحشتناک و فاجعه بار پیش بینی شده توسط منتقدان هوش مصنوعی پیشگیری کنیم، نیاز است تا در توسعه هوش مصنوعی، اصول اخلاقی را به شدت در نظر بگیریم.

مقاله ای که توسط AI4People، ابتکاری از سازمان غیر انتفاعی بین المللی Atomium-European Institute for Science, Media and Democracy منتشر شد، بیان می کند که بسیاری از این پروژه ها مجموعه ای از اصول را تهیه کرده اند که شباهت زیادی به اصول اخلاق پزشکی دارند: سود رسانی (انجامش فقط خوب است)، عدم بدرفتاری (انجامش هیچ ضرری نمی رساند)، خودمختاری و استقلال (قدرت انسان در تصمیم گیری های فردی) و عدالت.

از نظر برخی افراد، این همگرایی به عنوان اصول راهنمای احتمالی جهت توسعه هوش مصنوعی در آینده، اعتبار زیادی به آن ها می دهد.

با این حال، برنت میتل اشتات (Brent Mittelstadt) از انستیتوی اینترنت آکسفورد و موسسه آلن تورینگ دولت انگلیس (یک اخلاق شناس که تحقیقات او اصولاً مربوط به اخلاق دیجیتال در رابطه با الگوریتم ها، یادگیری ماشین، هوش مصنوعی، تحلیل پیش بینی، سیستم های متخصص پزشکی و داده های بزرگ است) استدلال می کند که چنین رویکردی که اصول گرایی نامیده می شود آن چنان که ممکن است امیدوار کننده نیست.

جایگاه اخلاق در هوش مصنوعی چیست؟

جایگاه اخلاق در هوش مصنوعی چیست؟

میتل اشتات ذکر می کند که تفاوت های بسیاری بین رشته های پزشکی و تحقیقات هوش مصنوعی وجود دارد که ممکن است به خوبی اثر اصول اخلاقی ذکر شده را تضعیف کند.

اولین استدلال وی مربوط به اهداف مشترک و وظایف امانتداری است، وظایفی که در آن افراد متخصص مورد اعتماد، از جمله پزشکان، منافع دیگران را برتر از منافع خود می بینند. به طور واضح، پزشکی با اهدافی چون ارتقاء سلامت و رفاه بیماران پیوند خورده است و میتل اشتات بیان می کند که این یک تعریف کیفیت حرفه برای پزشکان است که بخشی از جامعه اخلاقی با اهداف، ارزش ها و آموزش مشترک می باشد.

اما نمی توان برای حوزه تحقیقات هوش مصنوعی، همین صحبت ها را بیان نمود. میتل اشتات در ادامه ذکر می کند که هوش مصنوعی توسط بخش خصوصی جهت استقرار در زمینه های عمومی (به عنوان مثال مجازات کیفری) و همچنین خصوصی (به عنوان مثال بیمه) توسعه یافته است. لذا اهداف اصلی توسعه دهندگان، کاربران و افراد متاثر، لزوماً همسو نیستند.

به همین ترتیب، وظایف امانت دارانه مشاغل و مکانیزم های اداری آن ها در تحقیقات هوش مصنوعی خصوصی وجود ندارد.

وی بیان می دارد: توسعه دهندگان هوش مصنوعی به خدمات عمومی، كه در سایر مشاغل نیاز است تا پزشكان، منافع عمومی را در برابر رقابت های تجاری یا منافع مدیریتی حمایت كنند،  متعهد نیستند. در تحقیقات هوش مصنوعی، منافع عمومی بر منافع تجاری برتری ندارند.

میتل اشتات استدلال می کند که در حالی که پزشکی دارای یک فرهنگ حرفه ای است که تعهدات اخلاقی ضروری و ویژگی های برجسته ای که به پزشکان یونان باستان برمی گردد را نشان می دهد، توسعه هوش مصنوعی دارای سابقه، فرهنگ و هویت حرفه ای قابل مقایسه و یا چارچوب های اخلاقی حرفه ای مشابه با پزشکی را ندارد.

مدت زیادی طول کشید تا پزشکی توانست از اشتباهات خود و نواقص حداقل راهنمایی های ارائه شده به دست سنت بقراط، درس بگیرد. که در اصول گرایی مدرن، رفتار مناسب، تدوین شده  است که راهنمایی های اخلاقی رضایت بخش و کاملی را ارائه می دهد.

روشن است که تحقیقات هوش مصنوعی به مانند پزشکی قدمت نداشته و فرصت های غنی تاریخی جهت یادگیری را در این تکنولوژی نمی بینیم. البته مسئله مهم تر و پیچیده تر این است که زمینه استفاده از دارو نسبتاً محدود است، در حالی که هوش مصنوعی می تواند در هر زمینه ای که شامل تخصص انسانی باشد، به کار گرفته شود که این امر منجر به کاملاً چند رشته ای و میان رشته ای شدن هوش مصنوعی می شود، با محققانی که از رشته ها و زمینه های حرفه ای مختلف، که دارای تاریخ، فرهنگ، ساختارهای تشویقی و تعهدات اخلاقی هستند، آمده اند.

این امر توسعه هر چیز دیگری غیر از اصول کاملاً قابل قبول جهت هدایت افراد و فرایندهای مسئول برای توسعه، استقرار و اداره هوش مصنوعی در زمینه های کاملاً متفاوت استفاده را دشوار می کند. میتل اشتات می گوید، این مسئله ترجمه این موارد به یک عمل خوب واقعی است. او هشدار می دهد که در این سطح از انتزاع، هدایت قابل فهم ممکن است غیرممکن باشد.

جایگاه اخلاق در هوش مصنوعی چیست؟

جایگاه اخلاق در هوش مصنوعی چیست؟

سرانجام، نویسنده به کمبود نسبی مکانیسم های پاسخگویی قانونی و حرفه ای در تحقیقات AI اشاره می کند. در حالی که پزشکی دارای لایه های متعددی از حمایت قانونی و حرفه ای جهت حفظ استانداردهای حرفه ای می باشد، اما چنین مواردی تا حد زیادی در توسعه هوش مصنوعی دیده نمی شود. میتل اشتات از تحقیقاتی استفاده می کند که نشان می دهد که کدهای اخلاقی، بدون این که این کدها در فرهنگ سازمانی جاسازی شده و به طور فعال اجرا شوند، به خودی خود منجر به رفتار اخلاقی نمی شوند.

وی در ادامه می نویسد: تعهد جدی و طولانی مدت به چارچوب های خودگردان را نمی توان مسلم دانست که این یک مشکل است.

سپس میتل اشتات این گونه نتیجه گیری می کند: ما باید در برگزاری وفاق عمومی پیرامون اصول سطح بالا که اختلافات اصولی و عمیق سیاسی را پنهان می کند، تردید داشته باشیم.

 وی این گونه استدلال می کند که تحقیقات هوش مصنوعی نیاز به توسعه ساختارهای پاسخگوی بسیار مشهود در سطح سازمانی و همچنین تشویق اقدامات اخلاقی واقعی در این زمینه برای اطلاع از اصول سطح بالاتر را دارد، نه این که فقط به اصول گرایی از بالا به پایین اعتماد کند. به همین ترتیب، وی معتقد به تمرکز بر اخلاق سازمانی است تا اخلاق حرفه ای، در حالی که هم زمان خواستار حرفه ای شدن توسعه هوش مصنوعی (در برخی موارد از طریق صدور مجوز برای توسعه دهندگان پرخطر هوش مصنوعی) نیز می باشد.

پیشنهاد نهایی وی برای آینده اخلاق در هوش مصنوعی این است که محققان هوش مصنوعی را ترغیب کند که با مسائل اخلاقی به صورت طرح مشکلاتی که حل شدند، رفتار نکنند. وی می افزاید: احمقانه است که تصور کنیم که می توان سوالات اصولی بسیار قدیمی و پیچیده را تنها با اصلاحات فنی و یا طراحی خوب حل نماییم.

جایگاه اخلاق در هوش مصنوعی چیست؟

جایگاه اخلاق در هوش مصنوعی چیست؟

اختلافات اصولی غیرقابل حل باید در نظر گرفته، از آن ها استقبال شود، زیرا آن ها می توانند هم ملاحظات اخلاقی جدی و هم تنوع اندیشه ها را منعکس می کنند و نمایانگر شکست نیستند و نیازی به حل ندارند. لذا اخلاق فرایند است و نه مقصد.

کلام پایانی

با توجه به سرعت بسیار چشمگیر رشد هوش مصنوعی یا AI و کاربردهای آن در زمینه‌ های گوناگون، باید دانست که جایگاه اخلاق در هوش مصنوعی چیست؟ تعهد به اخلاق در هوش مصنوعی هم مربوط به توسعه دهندگان می باشد و هم مربوط به استفاده کنندگان از این تکنولوژی.