هوش مصنوعی پیشرفته اغلب به‌عنوان موجودی هراسناک در نظر گرفته می‌شود؛ اما چنین هوشی به باور برخی می‌تواند دنیا را بهتر از ما انسان‌ها اداره کند.

هنگامی که افراد به صحبت درباره‌ی هوش مصنوعی فوق مدرن می‌پردازند، به‌طور معمول دچار ترس و نگرانی می‌شوند و این‌گونه پیش‌بینی می‌کنند که چنین هوشی می‌تواند خود نحوه‌ی یادگیری را فرا گیرد و پیشرفته‌تر از آن شود که انسان قادر به درکش باشد. چنین الگوریتم پیشرفته‌ای با قرارگیری در دست افراد خطرناک یا احتمالا به‌صورت خودکار می‌تواند به سلطه بر حکومت‌ها و ارتش‌های جهان دست یابد، دستیابی به سطوحی از نظارت یا جاسوسی به سبک داستان‌های جورج اورول، تقلب و دستکاری، کنترل جوامع بر جوامع و احتمالا حتی کنترل کل عرصه‌های منازعه‌ی سلاح‌های مرگ‌بار خودکار نظیر پهپادهای نظامی را امکان‌پذیر کند.

اما برخی از متخصصان هوش مصنوعی، چنین ترس‌هایی را بی‌اساس می‌دانند و معتقدند که در واقع، هوش مصنوعی فوق پیشرفته می‌تواند در اداره‌ی دنیا، عملکرد بهتری از انسان‌ها داشته باشد. این ترس‌ها به‌خودی خود خطر اصلی محسوب می‌شوند؛ زیرا می‌توانند به‌عنوان مانعی بر سر راه پیشرفت انسان قرار گیرند. توماس میکولوف، پژوهشگر هوش مصنوعی در فیسبوک، ماه گذشته در کنفرانس «هوش مصنوعی سطح انسان» گفت:

شاید عدم دستیابی به هوش مصنوعی، خطر اصلی برای بشریت باشد.

وی در ادامه توضیح داد که ما انسان‌ها به‌عنوان یک گونه در اتخاذ تصمیم‌هایی که در طولانی‌مدت به صلاحمان هستند، عملکرد بسیار ضعیفی داریم. مردم، بی‌اطلاع از (یا بی‌علاقه به) اینکه چگونه موجب فرسایش آهسته و احتمالا برگشت‌ناپذیر کل سیاره می‌شوند، جنگل‌های بارانی و دیگر اکوسیستم‌ها را به‌منظور برداشت مواد خام از بین بردند. اما یک سامانه‌ی هوش مصنوعی پیچیده احتمالا می‌تواند از ما در برابر عواقب ناشی از کوته‌بینی خودمان محافظت کند.

تولید چوب مصنوعی ضد آب و ضد آتش
مشاهده

میکولوف در ادامه افزود:

ما به‌عنوان انسان‌ها در پیش‌بینی آنچه در آینده‌ی بسیار دور، احتمالا ۲۰ تا ۳۰ بعد اتفاق خواهد افتاد، عملکرد بسیار بدی داریم. شاید ساخت هوشی که در نوع خاصی از رابطه‌ی همزیستی، به‌شدت باهوش‌تر از انسان باشد، بتواند به ما در جلوگیری از برخی فجایع آینده کمک کند.

بدیهی است که افرادی همچون میکولوف که معتقد به خیرخواهی هوش مصنوعی هستند، در اقلیت قرار دارند. در طول کنفرانس یادشده، بسیاری از دیگر سخنرانان، بیشتر با صحبت درباره‌ی به‌کارگیری هوش مصنوعی برای اهداف خطرناک یا سو‌ء استفاده توسط افراد تبهکار، به بیان ترس‌های رایج از هوش مصنوعی پرداختند. البته پرواضح است که ما نباید این نگرانی‌ها را به سخره یا دست‌کم بگیریم.

Artificial Intelligence

هوش مصنوعی پیچیده‌ای که می‌تواند تقریبا هرگونه وظیفه‌ی شناختی قابل انجام برای انسان را حتی بهتر از او انجام دهد، اغلب به‌عنوان آرزویی دست‌نیافتنی در نظر گرفته می‌شود و ما هنوز مطمئن نیستیم که آیا ساخت چنین هوشی اصلا امکان‌پذیر خواهد بود یا نه. علاوه‌بر این، هرچند آینده‌ی هوش مصنوعی پیشرفته نویدبخش است؛ اما در عین حال سوال‌های اخلاقی بسیاری را به‌دنبال دارد. ما احتمالا هنوز از تمام سوال‌هایی که باید به آن‌ها پاسخ دهیم، اطلاع نداریم.

با این حال، بسیاری از اعضای پنل در کنفرانس هوش مصنوعی در سطح انسان، به اتفاق معتقدند که پیش از نیاز به چنین هوشی، باید بر سر قوانین لازم تصمیم‌گیری کنیم. آیا زمان ایجاد توافقنامه‌های بین‌المللی، هیئت‌های اخلاقی و سازمان‌های نظارتی با کنترل بر دولت‌ها، شرکت‌های خصوصی و دانشگاه‌ها فرا نرسیده است؟ ایجاد چنین نهادها و پروتکل‌هایی این احتمالات را کاهش می‌دهد که یک دولت متخاصم، پژوهشگری بی‌اطلاع یا حتی دانشمندی دیوانه، سامانه‌ی هوش مصنوعی مخربی را طراحی و رها کند یا به نحوی دیگر از الگوریتم‌های پیشرفته به‌عنوان سلاح بهره بگیرد. در این صورت، حتی اگر حادثه‌ای شرورانه در هر کجای جهان اتفاق بیافتد، این سامانه‌ها به ما اطمینان می‌دهند که قادر به مهار آن خواهیم بود.

مسدود شدن صفحه برنده نوبل فیزیک در ویکی پدیا به دلیل نداشتن شهرت کافی
مشاهده

با وضع این قوانین و مقررات حفاظتی، به احتمال بسیار زیاد می‌توانیم آینده‌ای را پدید آوریم که سامانه‌های پیشرفته‌ی هوش مصنوعی در آن به‌صورت مسالمت‌آمیز در کنارمان زندگی کنند و احتمالا ما را از دست خودمان نیز نجات دهند.