اعتماد به هوش مصنوعی تا چه میزان؟

اعتماد به هوش مصنوعی تا چه میزان؟

  • توسط : معصومه حیدری
  • در : ۱۴۰۰-۰۳-۰۴
  • در : دانستنیها

مقدمه

در مورد اعتماد به هوش مصنوعی چقدر می دانید؟ چگونه می توانیم به هوش مصنوعی اعتماد کنیم؟ آیا می توان به تصمیمات گرفته شده توسط هوش مصنوعی اعتماد کرد؟ در صورتی که هوش مصنوعی، فرآیندها و همچنین داده‌ های مورد تحلیل شفاف نباشد، آیا می­ توان مطمئن باشیم که تصمیمات اتخاذ شده  دقیق و درست هستند؟ در ادامه اعتماد به هوش مصنوعی را بیش تر مورد بررسی قرار می دهیم.

چگونه می توانیم به هوش مصنوعی اعتماد کنیم؟

چگونه می توانیم به هوش مصنوعی اعتماد کنیم؟

چگونه می توانیم به هوش مصنوعی اعتماد کنیم؟

اضطراب ماشینی فقط در موارد علمی تخیلی موجود نیست، بلکه به دنیای واقعی ما نیز رخنه کرده است.

حقیقت انسان بودن این است که هرگز به طور واقعی از افکار دیگر افراد، به جز خودمان آگاه نخواهیم بود. لذا تنها آگاهی کاملی که داریم، اطلاع از افکار و عقیده های خودمان است و آن چه که ما در مورد دیگران حتی نزدیک ترین و عزیزترین کسان خود می دانیم، تنها ناشی از حدس و گمان و یا گفتار و کردار و تصمیم گیری های آن ها است.

بنابراین، در جهانی که امروزه به صورت فزاینده ای توسط عوامل غیر انسانی از جمله ربات ها و هوش مصنوعی پر شده و می شود، ناشناخته بودن ذهن مبدل به نوع جدیدی از اضطراب شده است. اگر چه می توان نتیجه گرفت که فرایندهای فکری و انگیزه های سایرین به لطف بیولوژی مشترکمان باید به طور گسترده ای با خودمان هم خوانی داشته باشند، اما چنین همگرایی ذهنی با ماشین ها وجود ندارد.

در صورتی که از افکار هوش مصنوعی اطلاعی نداریم، پس چگونه می توانیم به آن اعتماد کنیم؟

اعتماد به هوش مصنوعی - چگونه می توانیم به هوش مصنوعی اعتماد کنیم؟

اعتماد به هوش مصنوعی – چگونه می توانیم به هوش مصنوعی اعتماد کنیم؟

در طی سالیان گذشته، این اضطراب منبع الهام بخش تعدادی از نویسندگان داستان های علمی – تخیلی (SF) بوده است. SF ادبیات تغییر برای جوامع اشباع شده از تکنولوژی است و اغلب به ما کمک می کند تا روند در حال تحول متقابل را بررسی کنیم: همان طور که ما فن آوری را توسعه داده، پالایش می کنیم، آن شروع به بازتعریف شیوه های زندگی و تفکر ما کرده، که به نوبه خود خواسته های جدید فن آوری را ایجاد می کند.

همان طور که فردریک جیمسون (منتقد ادبی آمریکایی) بیان کرده است، عملکرد SF دادن تصویری از آینده به ما نیست، بلکه جهت آشنایی و تغییر ساختار تجربیات حال حاضر خودمان است.

از همان روزهای ابتدایی SF، انگیزه ها و دلایل عملکرد ربات ها جذابیت زیادی ایجاد کرده بوده است. ایزاک آسیموف (Isaac Asimov) در بسیاری از داستان های کوتاه خود، توضیحاتی در رابطه با رفتار ماشین ها (که اغلب تا حدودی بدبینانه بوده)، را داشته است. تمرکز چنین داستان هایی بر این عقیده بود که ممکن است خود ربات ها بتوانند در مورد تفکرات و رفتارهای خود، به انسان ها توضیح بدهند. این توضیحات برای شکل گیری اعتماد بسیار حیاتی است.

رابین آر مورفی (Robin R Murphy)، از دانشگاه A&M تگزاس، در مقاله ای در مجله Science Robotics، مثالی از رابطه ی بین توضیحات ماشین و اعتماد انسان به آن ها آورده است.

وی به داستانی در سال ۱۹۷۲ به نام Long Shot، که توسط نویسنده فعال داستان های علمی آمریکایی Vernor Vinge نوشته شده، اشاره می کند. در این داستان یک سفینه فضایی رباتیک از برنامه پرواز تعیین شده اش منحرف می شود، اما این ربات بعدا توضیح خواهد داد که به دلیل موقعیت حساس زمانی، سفینه قادر به مشورت با ناظران انسانی نبوده است. بنابراین در این سناریو بی اعتمادی از بین می رود، زیرا ربات قادر به توضیح دادن اقدامات خود بوده است.

اعتماد به هوش مصنوعی - چگونه می توانیم به هوش مصنوعی اعتماد کنیم؟

اعتماد به هوش مصنوعی – چگونه می توانیم به هوش مصنوعی اعتماد کنیم؟

در اغلب موارد، ارتباط عمیقی بین داستان علمی و علم وجود دارد. همچنین در ساینس رباتیک (Science Robotics)، تیمی از محققان بین المللی هوش مصنوعی به رهبری دیوید گانینگ (David Gunning) از آژانس پروژه های تحقیقاتی پیشرفته دفاعی ایالات متحده (DARPA) گزارش روشنی از آن چه که در تحقیقات فعلی هوش مصنوعی به عنوان هوش مصنوعی قابل توضیح یا XAI شناخته می شود، ارائه می دهد.

نویسندگان نوشته اند که یک سیستم XAI باید قادر باشد تا در مورد قابلیت ها و افکار خود توضیح دهد. به طور مثال باید بتواند توضیح دهد که چه کاری انجام داده است، اکنون چه می کند، چه چیزی در ادامه رخ خواهد داد و اطلاعات قابل توجهی را که در حال انجام آن است را، بیان کند.

این امر در حال حاضر از اهمیت ویژه ای برخوردار است، زیرا اغلب رفتارهای هوش مصنوعی بر مبنای نحوه یادگیری آن ها است و یادگیری ماشینی (ML) نیز غالباً فرایندی دشوار و مبهم است. آن ها ادامه می دهند که هدف XAI این است که در دنیایی که با هوش مصنوعی ادغام شده است، شرح توضیحات برای کاربران امری ضروری است. در این صورت می توان این شرکای جدید و هوشمند مصنوعی را بیش تر درک کرد، به آن ها اعتماد کرد و به طور موثر مدیریت نمود.

جالب توجه است که گانینگ و همکارانش به یک مسئله اشاره نموده اند: موثرترین متدها که به وسیله آن ها ماشین ها آموزش می بینند، اغلب دارای کم ترین توضیح می باشند و قابل توضیح ترین المان های قابل تصمیم گیری ماشین، اغلب کم ترین تعریف قابل توضیح هستند.

اعتماد به هوش مصنوعی - چگونه می توانیم به هوش مصنوعی اعتماد کنیم؟

اعتماد به هوش مصنوعی – چگونه می توانیم به هوش مصنوعی اعتماد کنیم؟

این امر منجر به یک تحقیق عمده در مورد XAI در شماره اخیر Science Robotics شده است که هم تیم مورفی و هم گانینگ در مورد آن اظهار نظر می کنند.

محققان آمریكایی به سرپرستی مارك ادموندز (Mark Edmonds)، فنگ گائو (Feng Gao)، هانگسین لیو (Hangxin Liu) و زو زی (Xu Xie) از دانشگاه كالیفرنیا در لس آنجلس، یافته های تحقیق تجربی شان را در رابطه با افزایش اعتماد انسان به ربات ها و هوش مصنوعی با کمک XAI گزارش داده اند.

XAI در ابتدای راه است، زیرا اغلب محققان بیش تر از استخراج توضیحی درباره این عملکرد، بر روی عملکرد وظیفه AI تمرکز کرده اند. همچنین با توجه به استراتژی های متفاوت ML، با سطوح مختلف توضیح پذیری این امر مختل می شود. که دو مثال عمده وجود دارد: آنالیز وظیفه سطح نمادین، ​​مانند درختان تصمیم، و ML مبتنی بر شبکه های عصبی عمیق (DNN).

اعتماد به هوش مصنوعی - چگونه می توانیم به هوش مصنوعی اعتماد کنیم؟

اعتماد به هوش مصنوعی – چگونه می توانیم به هوش مصنوعی اعتماد کنیم؟

اگر چه برای انسان توضیح اولین مورد آسان است، اما تعریف این که چه طور دقیقاً سیستم به آن دانش سطح نمادین می رسد، بسیار دشوار است. مشکل دیگر این است که DNN ها در تولید دقیق راندمان فعالیت عالی هستند (حداقل در بعضی مناطق) اما توضیح این که چگونه آن ها این کار را انجام می دهند به روشی که بشر بتواند بفهمد، تقریباً غیر ممکن است.

ادموندز و همکارانش تصمیم گرفتند این دو استراتژی (برنامه ریزی نمادین و یک سیستم مبتنی بر لمس مبتنی بر DNN) را با استفاده از یک سیستم محاسباتی معروف به تجزیه گر ارلی (Earley) تعمیم یافته یا GEP یکپارچه کنند. با استفاده از این روش، آن ها یک سیستم رباتیک را برای باز کردن در بطری های دارو آموزش دادند، این یک عملیات پیچیده بوده که با توجه به انواع مکانیزم های ایمنی طراحی شده است.

ماشین مربوطه بر اساس داده های جمع آوری شده توسط انسان ها با استفاده از پوشیدن دستکش لمسی دارای سنسورهای نیرو، جهت گرفتن هر دو حالت و نیروهای درگیر در تظاهرات انسانی در زمان باز کردن بطری های دارو، آموزش داده شده بود. این کار با درخواست از ربات برای باز کردن بطری هایی با طراحی های متنوع، پیچیده تر شد (برخی از آن ها در مرحله یادگیری نشان داده نشده بودند).

یکی از یافته های اولیه این بود که این متد یکپارچه از لحاظ عملکرد دقیق وظیفه نسبت به استراتژی های نمادین یا DNN به خودی خود یک فرم کاملاً عالی از ML است. محققان بیان نموده اند که نتایج به دست آمده تأیید می کند که با ادغام این روش ها، رباتی با بالاترین عملکرد خواهیم داشت.

اعتماد به هوش مصنوعی - چگونه می توانیم به هوش مصنوعی اعتماد کنیم؟

اعتماد به هوش مصنوعی – چگونه می توانیم به هوش مصنوعی اعتماد کنیم؟

اما توضیحات چطور؟

قسمت دوم آزمایش آن ها به صورت روانشناختی بود و برای تست این که کدام استراتژی ML توضیحاتی در مورد رفتار ربات، که منجر به بالاترین سطح اعتماد انسان به سیستم می شود، طراحی شد.

با ترغیب کردن شرکت کنندگان به پیش بینی اقدامات ربات در تلاش برای باز کردن بطری هایی که قبلاً با آن روبرو نشده بود، اندازه گیری شد.

اما دقیقاً منظور از اعتماد چیست؟ این تیم از دو معیار استفاده کردند. یک نفر سوالاتی را از شرکت کنندگان می پرسید، از جمله شما تا چه حد به ربات ها اعتماد دارید / آیا اعتقاد دارید که این ربات قادر به باز کردن در یک بطری دارو باشد؟ از نمره بین ۰ تا ۱۰۰؟ دیگری بر اساس این ایده که، هر چه اعتقاد انسان به شایستگی و عملکرد ماشین بیش تر شود، اعتماد انسان به ماشین نیز بیش تر خواهد شد و با ترغیب شرکت کنندگان به پیش بینی اقدامات ربات، جهت باز کردن طرح هایی از بطری که قبلاً با آن مواجه نشده بود، انجام شد.

این شرکت کنندگان به ۵ گروه تقسیم شدند و توضیحات متفاوتی برای آن ها ارائه شد: گروه مبانی بدون توضیح، گروه توضیح نمادین، ​​گروه توضیح لمسی، گروه توضیح GEP و گروه توضیح متن. بر اساس معیارهای اعتماد بالا، گروه های نمادین و GEP نسبت به گروه های مبانی، لغوی و مبتنی بر متن، اعتماد بیش تری به ربات داشتند، نتیجه به دست آمده حاکی از این است که به طور کلی، به نظر می رسد که انسان ها به توضیحات نمادین تصمیمات داخلی ربات در زمان واقعی، برای توالی های عملیاتی انجام شده جهت ایجاد اطمینان به ماشین هایی که وظایف پیچیده چند مرحله ای انجام می دهند، نیاز دارند.

یک بار دیگر شکاف بین عملکرد وظیفه و توضیح پذیری نشان داده شد: سهم سیستم DNN لمسی در یادگیری ماشین از اهمیت حیاتی برخوردار است، اما ثابت می کند که حداقل رضایت بخشی جهت توضیح و جلب اعتماد انسان است.

اعتماد به هوش مصنوعی - چگونه می توانیم به هوش مصنوعی اعتماد کنیم؟

اعتماد به هوش مصنوعی – چگونه می توانیم به هوش مصنوعی اعتماد کنیم؟

این تیم نتیجه گرفت که این شکاف ممکن است، زیرا هیچ الزامی وجود ندارد که مولفه هایی که مسئول تولید توضیحات بهترند، همان مولفه های موثر در انجام وظیفه باشند. آن ها اهداف مختلف را بهینه می كنند. این واگرایی همچنین حاکی از این است که جامعه رباتیک باید مولفه های مدلی را اتخاذ کنند که اعتماد انسان را به خود جلب کند و در عین حال این مولفه ها را با مولفه هایی با کارایی بالا ادغام کنند تا اعتماد انسان و عملکرد موفقیت آمیز آن به حداکثر برسد.

از آن جایی که عوامل ماشین نقش فزاینده ای در جامعه دارند، نیاز به اعتماد بیش تر اهمیت بیش تری پیدا می کند. این تحقیق نشان می دهد که ربات ها و هوش مصنوعی طراحی شده با مدل های قابل توضیح، گام مهمی در جهت ادغام ربات ها در زندگی و کار روزمره است.

کلام پایانی

در دنیایی که هر روزه بیش تر و بیشتر با دنیای AI ادغام می شود، اعتماد به هوش مصنوعی نکته ای ضروری است که باید به آن توجه نمود. شفافیت جهت ایجاد اعتماد دارای اهمیت است، لذا با توضیح چرایی و چگونگی تصمیمات اتخاذ شده، XAI قادر خواهد بود تا هم به مشتریان و هم به شرکت ها کمک کرده، موجب درک نیاز آن ها شده و نتیجه متفاوت و سودمندی دریافت شود.