سازگار با انسان

«سازگار با انسان» با نام کامل  «سازگار با انسان: هوش مصنوعی و مسئله‌ی کنترل» نوشته استوارت راسل (نویسنده و دانشمند علوم کامپیوتر اهل انگلستان، متولد ۱۹۶۲) که در سال ۲۰۱۹ منتشر شده است. این کتاب به بررسی خطرات احتمالی هوش مصنوعی برای انسان پرداخته است.

درباره‌ی سازگار با انسان

سازگار با انسان: هوش مصنوعی و مسئله‌ی کنترل کتابی است که توسط دانشمند کامپیوتر استوارت جی راسل در سال ۲۰۱۹ منتشر شد. این کتاب ادعا می‌کند که خطر هوش مصنوعی پیشرفته برای بشریت، با وجود عدم اطمینان در مورد پیشرفت آینده در هوش مصنوعی، یک نگرانی جدی است. همچنین رویکردی برای مشکل کنترل هوش مصنوعی پیشنهاد می‌کند.

راسل در این کتاب سه اصل را برای هدایت توسعه ماشین‌های سودمند فهرست می‌کند. او تأکید می‌کند که این اصول قرار نیست به صراحت در ماشین‌ها کدگذاری شوند. بلکه برای توسعه دهندگان انسانی در نظر گرفته شده اند. اصول به شرح زیر هستند:

  1. تنها هدف ماشین این است که تحقق ترجیحات انسانی را به حداکثر برساند.
  2. ماشین در ابتدا در مورد اینکه اولویت‌ها چه هستند نامطمئن است.
  3. منبع نهایی اطلاعات در مورد ترجیحات انسان، رفتار انسان است.

ترجیحاتی که راسل به آن‌ها اشاره می کند “همه چیز را شامل می شود؛ آنها هر چیزی را که ممکن است به آن اهمیت دهید، به طور دلخواه در آینده ای دور پوشش می دهند.” عدم قطعیت به حدی است که برخی احتمالات، که ممکن است بسیار اندک باشد، باید به هر ترجیح منطقی ممکن انسانی نسبت داده شود.

راسل یادگیری تقویتی معکوس را بررسی می کند، که در آن ماشین تابع پاداش را از رفتار مشاهده شده استنباط می کند، به عنوان مبنایی ممکن برای مکانیزمی برای یادگیری ترجیحات انسانی.

کتاب سازگار با انسان در وب‌سایت goodreads دارای امتیاز ۴.۰۹ با بیش از ۳۶۰۰ رای و ۴۶۰ نقد و نظر است. این کتاب در ایران با ترجمه‌ای از فرهاد وداد به بازار عرضه شده است.

خلاصه‌ی سازگار با انسان

راسل کتاب سازگار با انسان را با این ادعا شروع می کند که مدل استاندارد تحقیق هوش مصنوعی، که در آن تعریف اولیه موفقیت در دستیابی به اهداف سفت و سخت مشخص شده توسط انسان بهتر و بهتر می شود، به طرز خطرناکی اشتباه است. چنین اهدافی ممکن است منعکس کننده آن چیزی نباشد که طراحان انسانی قصد دارند، مانند عدم توجه به ارزش های انسانی که در اهداف گنجانده نشده است.

 اگر هوش مصنوعی توسعه یافته بر اساس مدل استاندارد، فوق هوشمند شود، احتمالاً ارزش های انسانی را به طور کامل منعکس نمی کند و می تواند برای بشریت فاجعه بار باشد. راسل ادعا می کند که دقیقاً به دلیل اینکه جدول زمانی توسعه هوش مصنوعی در سطح انسانی یا فوق هوشمند بسیار نامشخص است، تحقیقات ایمنی باید در اسرع وقت آغاز شود، زیرا همچنین کاملاً نامشخص است که تکمیل چنین تحقیقاتی چقدر طول می‌کشد.

راسل استدلال می کند که ادامه پیشرفت در قابلیت هوش مصنوعی به دلیل فشارهای اقتصادی اجتناب ناپذیر است. چنین فشارهایی را می‌توان در توسعه فناوری‌های هوش مصنوعی موجود مانند ماشین‌های خودران و نرم‌افزار دستیار شخصی مشاهده کرد. علاوه بر این، هوش مصنوعی در سطح انسان می تواند تریلیون ها دلار ارزش داشته باشد. راسل سپس به بررسی بحث های جاری پیرامون ریسک هوش مصنوعی می پردازد.

او تعدادی از استدلال‌های رایج را که خطر هوش مصنوعی را رد می‌کنند، رد می‌کند و بیشتر تداوم آنها را به قبیله‌گرایی نسبت می‌دهد- محققان هوش مصنوعی ممکن است نگرانی‌های مربوط به خطر هوش مصنوعی را «حمله» به حوزه خود ببینند. راسل تکرار می کند که دلایل قانونی برای جدی گرفتن نگرانی های مربوط به ریسک هوش مصنوعی وجود دارد و فشارهای اقتصادی ادامه نوآوری در هوش مصنوعی را اجتناب ناپذیر می کند.

سپس راسل رویکردی را برای توسعه ماشین‌های سودمندی که بر احترام به انسان تمرکز دارند، پیشنهاد می‌کند. بر خلاف مدل استاندارد هوش مصنوعی، که در آن هدف سفت و سخت و قطعی است، این رویکرد باعث می‌شود که هدف واقعی هوش مصنوعی نامشخص باقی بماند، در حالی که هوش مصنوعی تنها به اطمینان در مورد آن نزدیک می‌شود زیرا اطلاعات بیشتری در مورد انسان و جهان به دست می‌آورد.

این عدم اطمینان، در حالت ایده آل، از سوء تفاهم فاجعه آمیز ترجیحات انسانی جلوگیری می کند و همکاری و ارتباط با انسان ها را تشویق می کند. راسل در پایان خواستار نظارت بیشتر بر تحقیق و توسعه هوش مصنوعی و همچنین درون نگری فرهنگی در مورد میزان مناسب خودمختاری برای حفظ در دنیای تحت سلطه هوش مصنوعی است.

 

چنانچه به کتاب سازگار با انسان علاقه دارید، می‌توانید در بخش معرفی برترین آثار علمی در وب‌سایت هر روز یک کتاب، با دیگر نمونه‌های مشابه نیز آشنا شوید.