روش سئو: پژوهشگاه گروه مطالعات اخلاقی فضای مجازی با بررسی موضوع اخلاق و هوش مصنوعی، به این پرسش پاسخ می دهد كه آیا هوش مصنوعی به اندازه انسان ها خوب است؟
به گزارش روش سئو به نقل از پژوهشگاه فضای مجازی، وقتی بحث بر سر اصول اخلاقی هوش مصنوعی و این که چگونه فناوری می تواند اشتباه کند، پیش می آید، غالباً ذهن مردم تحت تأثیر صحنه های فیلم های هالیوودی قرار می گیرد. این که چه اتفاقی می افتد اگر این ابزار مقابل ما برانگیخته شود و آغاز به تیراندازی به مردم در خیابان کند؟! گرچه ما باید پذیرای همه احتمالات باشیم، اما نگرانی های اساسی تری نیز در مورد اخلاقیات هوش مصنوعی وجود دارد. در طول تاریخ، ارائه چندین اختراع در حوزه فناوری بحث در مورد اصول اخلاقی در زمینه استفاده و یا حتی وجود آن فناوری را دامن زده است؛ همین طور با پررنگ تر شدن هوش مصنوعی در جامعه و مسائل اخلاقی پیرامون آن احساس نیاز به برنامه ای جامع برای رسیدگی به مسائل اخلاقی و چارچوب های آن بیشتر شد. در ادامه، نگاهی به جنبه های مختلف اخلاق و هوش مصنوعی خواهیم داشت. مبحث انصاف در نخستین روز کنفرانس مجازی EmTech Asia۲۰۲۰، دانشمند مشهور پیتر نورویگ، مدیر بخش تحقیقات گوگل، در مورد مسئله انصاف در اجرای هوش مصنوعی سخنرانی کرد. وی نمونه ای از نتایج جستجوی تصاویر در گوگل را نمایش داد. در گذشته، هنگامی که کاربران کلمه کلیدی «دکتر» را جستجو می کردند، تنها احتمال نمایش تصاویری شبیه به مردان قفقازی با کت های آزمایشگاهی سفید وجود داشت. اما امروزه تنوع جنسیتی و نژادی بیشتری در نتایج قابل مشاهده می باشد. نورویگ این نتایج را حاصل کیفیت داده ها و فرآیندهای تصمیم گیری می داند و همین طور اشاره می کند اگر انصاف بوسیله عدم آگاهی حاصل شود، همچنان مشکل باقی مانده است. به این معنا که اگر انصاف در ارائه نتایج، حاصل تلاش انسانی و دانشمندان نبوده و تنها به سبب کیفیت داده ها به دست آید، باز هم بطور آگاهانه انصاف رعایت نشده است. بدین سبب برای اطمینان از صحت عملکرد آن این عمل باید بوسیله تلاش آگاهانه دانشمندان و مهندسان صورت گیرد که می تواند روند پیچیده ای داشته باشد. وی تاکید می کند: «هدف ما این است که مردم را متقاعد نماییم در این عرصه انصاف وجود دارد.» وی به توسعه دهندگان محصولات سفارش کرد که همیشه به موارد زیر توجه داشته باشند: هنگامی که یکی از حضار در مورد میزان موفقیت شرکت های فناوری در کوشش برای کاهش تعصبات سؤال کرد، نورویگ می گوید که این فهرست به توسعه دهندگان کمک کرده است تا با آگاهی بیشتری در این مورد، کار را پیش ببرند. ما همین طور به اضافه کردن عوامل جدید ادامه می دهیم. در گذشته ما بر روی امنیت داده تمرکز داشتیم؛ اما حالا بر روی انصاف در ارائه محتوا نیز متمرکز شده ایم. کار انسانی کار انسانی بخشی است که هنگام صحبت درباره هوش مصنوعی به آن اشاره ای نمی گردد. نادیده گرفتن جنبه کار انسان اغلب هنگام بحث در مورد هوش مصنوعی و اخلاق ممکنست حیرت انگیز باشد. اما مری گری انسان شناس در کتاب خود، درباره نیروی انسانی نامرئی صحبت می کند که برای پیاده سازی هوش مصنوعی به شکلی که امروزه شاهد آن هستیم، در تلاش است. گری تاکید می کند: از آن جا که این افراد تا حد زیادی کنترل نشده اند و نظارتی روی خود ندارند، به آسانی یک بارمصرف تلقی شده و اغلب بعنوان کمک موقتی در نظر گرفته می شوند. این افراد در حال کار بر روی وظایفی مانند برچسب گذاری داده ها بوده و جمعیت رو به رشدی از افراد ارائه دهنده خدمات را دربر می گیرند. اما گری این نوع کار را بعنوان کار شبح تعریف می کند. برای اینکه شرایط کار اغلب موجب کاهش ارزش کاری آنها و پنهان کردن افرادی می شود که به نتایج جستجوی بهتر در پروژه های دنیای استارت آپ کمک می کنند. گرچه ممکنست این چشم انداز در ابتدا دلهره آور به نظر برسد؛ اما گری بیان می کند که این مشاغل می توانند خصوصاً در زمان بحران بهداشت جهانی، مشابه وضعیت فعلی، ارزش کسب کنند. اما اقداماتی نیز برای جلوگیری و توقف سوءاستفاده از آنها وجود دارد. وی تاکید کرد که هم اکنون هیچ قانونی وجود ندارد که کارگران قراردادی را اداره کند و خود مردم باید برای ایجاد چنین قانونی پافشاری کنند. وی هشدار داد: بازار قرار نیست این مشکل را برطرف کند. فناوری و انسان در ماه فوریه ۲۰۲۰، در یک کارگاه آموزشی که در واتیکان برگزار شد، پاپ فرانسیس گفت: کهکشان دیجیتال و خصوصاً هوش مصنوعی در قلب تغییرات تاریخی است که ما در حال تجربه آن هستیم. این نشان دهنده اهمیت فناوری هوش مصنوعی در زندگی امروز ماست. در حالت ایده آل، ما می خواهیم آنرا به اخلاقی ترین شکل ممکن پیاده سازی نماییم. اما حالا که پیچیدگی مسئله انصاف در اجرای هوش مصنوعی و سایر مسائل عملیاتی پشت آنرا دیده ایم، زمان آن رسیده است که این سؤال بزرگ را بررسی کنیم: آیا فناوریِ تنها به اندازه انسان پشت آن خوب است؟ این ممکنست استدلال موجود درباب چاقو را به شما یادآوری کند: بعنوان یک ابزار نه بد است و نه خوب. ارزش آن به فردی که از آن استفاده می نماید و این که به چه دلیل از آن استفاده می نماید، بستگی دارد. آیا این بدین معناست که نگرانی های ما واقعی هستند؟ این که هوش مصنوعی چاقویی بیش نیست و فقط می توان امیدوار بود که به دست فرد اشتباهی نیفتد! نورویگ پیام امیدوارکننده ای دراین زمینه می دهد. زمانی که یکی از حضار این نگرانی را در ارتباط با مسائل اخلاقی در هوش مصنوعی بیان می کند، نورویگ به او یادآوری می کند که چرا انسان ها در وهله اول در حال توسعه فناوری هستند. او تاکید می کند: ما سیستمی را مدنظر قرار داده ایم که در آن، فناوری ها بتوانند بهتر از ما عمل کنند. بطور کلی، پیشرفت فناوری برای همه به مفهوم زندگی بهتر است. هوش مصنوعی پتانسیل گسترده ای دارد و مسئولیت اجرای آن به عهده ما است تا سیستم هایی ارائه دهیم که توانایی رعایت اخلاقیات را مشابه بهترین حالت انسانی داشته باشند.
منبع: روش سئو