افراد مشهور بسیاری داریم که به اظهارنظر های اغراق آمیز در رابطه با هوش مصنوعی شهره هستند. در سال ۲۰۱۴، ایلان ماسک – مدیرعامل Tesla Motors و SpaceX- تحقیقات گسترده حوزه هوش مصنوعی را با احضار شیطان مقایسه کرد و بدافزار HAL 9000 از 2001: A Space Odyssey را یک چیز حقیر در مقایسه با هوش مصنوعی آینده دانست. همان سال بود که استیون هاوکینگ -فیزیکدان پرآوازه- توسعه هوش مصنوعی را بزرگترین اشتباه تاریخ بشر دانست.
ولی مارک ریدل که محقق هوش مصنوعی از موسسه تکنولوژی جورجیا است، به این اندازه نگران نیست.
من فکر نمیکنم به نقطهای برسیم که هوش مصنوعی به تهدید بزرگی برای ما تبدیل شود. من به سناریوهای تکینگی که معتقدند هوش مصنوعی توسعه مییابد و در نهایت تصمیم میگیرد که ما برای آنها بد هستیم، اعتقادی ندارم.
شرایط فعلی هوش مصنوعی به هیچ وجه حتی نزدیک به جایگاهی نیست که ایلان ماسک، هاوکینگ و ترمیناتور۲ راجع به آن هشدار میدهند. با این حال پیشرفتهایی نیز در این زمینه صورت گرفته است. برای مثال ماشینهای خودران را در نظر بگیرید. مسئله اینجاست که این ماشینها در هنگام انتقال ما از نقطهای به نقطهای دیگر طبق کدام ارزشها عمل کنند تا آسیبی به ما وارد نشود؟
ریدل بهترین پیشنهادی که برای انتقال ارزشهای انسانی به روباتها دارد، مطالعه داستانهایی است که ارزشهای انسانی را در قلب خود دارند. تئوری این است که اگر هوش مصنوعی روزی قادر به مطالعه کتاب مقدس باشد میتواند ارزشهای انسانی را بداند و فرق میان شیطانی و الهی را درک کند.
ریدل تاکید میکند که هوش مصنوعی به این دلیل که خطرناک است به ما آسیبی نمیرساند بلکه آسیب آن از آن جهت به ما میرسد که نمیداند خطر چیست. ما باید فرهنگ و ارزشها را به هوش مصنوعی منتقل کنیم.
مسئله اینجاست که ما لیست بزرگی از رفتارهای درست و غلط نداریم. در عوض داستانهای فراوانی داریم که مثالهای زیادی از مردان و زنان خوب و بد دارند. ما یک دستورالعمل مشخص برای فرهنگ انسانی نداریم، بلکه مجموعهای از اثار افرادی را داریم که ارزشها و باورهایشان را به نمایش میگذارند.
ریدل و همکار او برنت هاریسون این روش را در مقالهای با عنوان استفاده از داستان برای آموزش ارزشهای انسانی به هوش مصنوعی تشریح کردهاند. تحقیقات آنها بر پایه پروژهی قدیمیتری به نام Scheherazade بنا شده است، هوش مصنوعی که قادر است با مطالعه داستانهای علمی تخیلی، داستانهای جدیدی را روایت کند. آنها با استفاده از این روش، هوش مصنوعی جدیدی به نام Quixote ساختهاند که میتواند به یک هوش مصنوعی بهترین روش انجام کار را بیاموزد.
بعنوان مثال دریافت دارو از داروخانه را در نظر بگیرید. اگر روباتی داشته باشید که برپایه معیارهای کارایی بالاتر عمل کند، ممکن است برای دریافت دارو به داخل داروخانه برود و داروها را بدزدد. این به معنای آن نیست که هوش مصنوعی شیطانی و وحشتناک است، او فقط نمیداند که نحوه صحیح دریافت دارو چگونه است. اینها رفتارهایی است که افراد با زندگی در جامعه، دنبال کردن رفتارهای اجتماعی و تقلید رفتار دیگران میاموزند.
این هوش مصنوعی به خاطر تقلید رفتارهای انسانی تشویق میشود و در صورت خطور از آنها تنبیه خواهد شد.
اینجاست که سوال مهم و بعدی مطرح میشود. با توجه به اینکه تمامی داستانها و راویان ما قدرت تشخیص خوب از بد را نداشته اند، چه داستانها و کتابهایی برای معرفی به هوش مصنوعی باید انتخاب شوند؟ برای مثال رابین هود داستان جذابی است ولی جنایت زیادی در آن اتفاق میافتد و یا اینکه کتاب مقدس برای دنیای امروز کافی نیست.
این سوال بیشتر یک سوال سیاسی است و شاید روزی کمیتههای خاصی برای تعیین آن مشخص شوند. ولی امروز با توجه به توسعه بزرگداده (Big Data) بهتر است همه محتوای یک فرهنگ و تمامی کتابهایش از تخیلی و عاشقانه گرفته تا مذهبی و سیاسی وارد ذهن هوش مصنوعی شوند. چراکه هرقدر تعداد مثال ها بیشتر باشد رسیدن به یک رفتار میانه منطقی راحتتر خواهد بود.
فوقالعاده میشد اگر میتوانستیم به هوش مصنوعی بیاموزیم بهتر از ما عمل کند ولی این چیزی نیست که بتوان با کدنویسی به آن رسید. حتی Isaac Asimov هم زمانی که در سال ۱۹۴۲ قوانین سه گانه روباتیک را وضع کرد به این شهود رسیده بود. حال به دنبال روباتی هستیم که باندازه خودمان خوب باشد، با امید به اینکه باندازه کافی خوب هستیم.
یک پاسخ ارسال کنید.