پایگاه خبری تحلیلی تیتربرتر

تقویم تاریخ

امروز: پنج شنبه, ۰۶ ارديبهشت ۱۴۰۳ برابر با ۱۶ شوّال ۱۴۴۵ قمری و ۲۵ آوریل ۲۰۲۴ میلادی
جمعه, ۰۴ مرداد ۱۳۹۸ ۱۰:۵۰
۶
۰
نسخه چاپی

دلیل ترس انسان از فوق هوش چیست؟

دلیل ترس انسان از «فوق هوش» چیست؟
با پیشرفت روز افزون علم، نفوذ هوش مصنوعی در زندگی ما بیشتر و بیشتر می‌شود. اما شاید نگرانی که در بین عموم وجود داشته باشد، بیش اندازه شدن این نفوذ باشد.

از همان ابتدایی‌ترین روزهای ساخته شدن کامپیوترها، بودند اشخاصی که ذهنشان درگیر این مساله شده است. کتاب‌ها، فیلم‌ها و آثار ادبی-هنری بسیاری چه از وجه علمی و چه از نگاه تخیلی، درباره‌ی هوش مصنوعی، ساخته شده است. در این مقاله‌ی تحلیلی، سعی شده، مساله‌ی هوش مصنوعی به دقت موشکافی شود و احتمال کسب خصلت‌های انسانی، مثل اراده و اختیار توسط هوش مصنوعی و ماشین‌های هوشمند، مورد بررسی قرار بگیرد. با زومیت همراه باشید.

هوش مصنوعی واقعی، می‌تواند دنیا را نابود کند. به فرض این که چیزی به نام هوش مصنوعی واقعی، اصولا ممکن باشد.

پاول فورد، نویسنده‌ی این مقاله در وب‌سایت MIT Technology Review، خاطره‌ای را این‌گونه آغاز می‌کند: "سال‌ها پیش، با یکی از دوستانم که مدیر یک استارت‌آپ بوده، قهوه می‌خوردیم. او به تازگی چهل ساله شده بود. پدرش بیمار بود و از ناحیه‌ی کمر، ناراحتی‌هایی داشت. دوست من، خودش را در آستانه‌ی دهه‌ی جدیدی از عمرش، غرق در زندگی می‌یافت. او گفت: «به من نخند، اما من روی تکینگی حساب می‌کردم.» "

دوست من در حوزه‌ی تکنولوژی کار می‌کرد. وی به چشم خود تغییراتی که باعث سریع‌تر شدن ریزپردازنده‌ها و شکل گرفتن شبکه‌ها شده بود را دیده بود. برای او، اتفاق مهمی نبود که باور داشته باشد قبل از میان‌سالی‌اش، هوش ماشین‌ها، از انسان‌ها فراتر خواهند رفت.(لحظه‌ای که آینده‌پژوهان به آن لحظه‌ی تکینگی می‌گویند.) یک هوش مصنوعی خارق‌العاده، اگر خیرخواه انسان‌ها باشد، در زمان کوتاهی، رمزهای ژنتیکی انسان را بررسی خواهد کرد و رمز جوانی ابدی را برای ما آشکار خواهد ساخت.  یا در حداقلی‌ترین حالت، خواهد توانست راه بهبودی درد کمر را مشخص کند.

ولی اگر هوش مصنوعی به وجود آمده، آن‌قدرها هم خیرخواه نبود چه؟ نیک بوستروم (Nick Bostrom)، فیلسوفی که انستیتوی بشریت در دانشگاه آکسفورد (Future of Humanity Institute at the University of Oxford) را مدیریت می‌کند، در کتابش با نام فوق هوش (Superintelligence)، سناریوی بالا را شرح داده است. کتاب وی باعث به وجود آمدن مناظرات و بحث‌های بسیاری درباره‌ی آینده‌ی هوش مصنوعی شده است.

ماشینی را تجسم کنید که برنامه‌ریزی شده است تا حداکثر کلیپس کاغذ که ممکن است را تولید کند و ما می‌توانیم آن را «حداکثرکننده‌ی کلیپس کاغذ/paper-clip maximizer» بنامیم. حالا تصور کنید به هر دلیلی، همین ماشین، به شکل فوق‌العاده‌ای هوشمند شده است. با توجه به هدف این ماشین، ممکن است تصمیم بگیرد که کلیپس‌های کاغذی جدید و بیش‌تری تولید کند؛ تا آن‌جا که به سبک شاه میداس عملا همه چیزی را به کلیپس کاغذ تبدیل خواهد کرد.

ممکن است بگویید جای نگرانی نیست؛ می‌توانیم برنامه‌ریزی کنیم که به عنوان مثال دقیقا یک میلیون کلیپس کاغذ درست کند و بعد از کار بایستد. ولی اگر این ماشین، بعد از درست کردن کلیپس‌ها تصمیم گرفت عملکرد خودش را نیز بررسی کند، چه؟ آیا تعداد کلیپس‌ها را درست شمرده است؟ قطع به یقین، برای این کار نیاز است که ماشین، هوشمندتر شود. ماشین فوق‌هوش، نوعی مواد خام محاسباتی که هنوز ابداع نشده است را تولید می‌کند و به وسیله‌ی آن، هر شک و شبهه‌ای را بررسی خواهد کرد. اما هر شبهه‌ی تازه‌ای، شبهه‌های دیجیتالی جدیدی را حاصل خواهد شد و همین‌طور تا جایی ادامه پیدا می‌کند که هر چه روی زمین است به آن مواد خام محاسباتی تبدیل شود. البته به جز یک میلیون کلیپس کاغذ که ابتدا ساخته است!

نیک بوستروم باور ندارد که ماشین حداکثرکننده‌ی کلیپس کاغذ به طور دقیق عمل خواهد کرد. این یک آزمایش فکری است. آزمایشی که طراحی شده تا نشان دهد حتی سیستم‌های بسیار دقیق نیز در مهار کردن هوش مفرط ماشین‌ها، شکست می‌خورند. اما پروفسور بوستروم به این موضوع اعتقاد دارد که فوق‌هوش می‌تواند به وجود بیاید و مفید هم باشد. و البته وی فکر می‌کند که فوق هوش ممکن است تصمیم بگیرد که دیگر به انسان‌ها نیازی ندارد؛ یا از این قبیل رفتارها که باعث نابودی جهان خواهد شد. در همین راستا، عنوان فصل هشتم کتاب وی، این‌چنین انتخاب شده است: «آیا پیامدهای فوق‌هوش، به طور پیش‌فرض، نابودکننده و مخرب خواهد بود؟»

اراده
آلن تورینگ در سال ۱۹۵۰ میلادی تئوری‌ای مطرح کرده است که می‌گوید ماشین‌ها، می‌توانند مثل یک بچه مورد آموزش و تدریس قرار بگیرند.
این پرسش که «آیا کامپیوترها قادر به فکر کردن هستند؟» از ابتدای به وجود آمدن کامپیوترها، بر دنیای این ماشین‌ها، سایه افکنده بود. آلن تورینگ در سال ۱۹۵۰ میلادی تئوری‌ای مطرح کرده است که می‌گوید ماشین‌ها، می‌توانند مثل یک بچه مورد آموزش و تدریس قرار بگیرند. جان مک‌کارتی (John McCarthy) مخترع زبان برنامه‌نویسی لیسپ (LISP)، اصطلاح «هوش مصنوعی-Artificial Intelligence» را در سال ۱۹۵۰ میلادی ابداع کرده است.

به موازات این که محققان حوزه‌ی هوش مصنوعی در دهه‌های ۱۹۶۰ و ۱۹۷۰ میلادی شروع به استفاده از کامپیوترها برای شناسایی عکس‌ها، ترجمه زبان‌های مختلف به یک‌دیگر و درک دستورالعمل‌ها در زبان معمولی و نه فقط در کدها کردند، این ایده که کامپیوترها نهایتا قادر به صحبت و تفکر-و بنابراین قادر به انجام اعمال شرورانه- خواهند بود، به جریان فرهنگی غالب نفوذ کرد. علاوه بر فیلم ۲۰۰۱: یک اودیسه فضایی (2001: A Space Odyssey) که غالبا به آن ارجاع داده می‌شود، فیلم دیگری در دهه ۱۹۷۰ با نام کلوسوس: پروژه‌ی فوربین (Colossus: The Forbin Project) تصوری را به جامعه القاء می‌کرد که نهایتا کامپیوترها، جهان را به مرز نابودی هسته‌ای و  زمستان هسته‌ای خواهند کشاندو ۱۳ سال پس از این فیلم نیز، همین موضوع، دست‌مایه‌ی اثر دیگری به نام بازی جنگ (WarGames) شد. همین‌طور گذشت تا بالاخره  در سال ۱۹۷۳، آدم مصنوعی‌های فیلم جهان غرب (Westworld) به کلی دیوانه شدند و شروع به کشتار مردم دنیا کردند.

 زمانی که تحقیقات روی هوش مصنوعی، به نتایج بلندپروازانه‌ای که مد نظر بود، نرسید، بودجه‌های مربوط به این تحقیقات به شدت کاهش یافت و با این اتفاق، «زمستان هوش مصنوعی» آغاز شد. اما در همین شرایط نیز، شعله‌ی ماجراهای ماشین‌های هوشمند و هوش مصنوعی، در طول دهه‌های ۱۹۷۰ و ۱۹۸۰ میلادی، توسط نویسندگان، دانشمندان و کارآفرینان بسیاری، روشن نگه داشته شد. این گونه افراد شامل نویسندگان علمی تخیلی مانند ورنور وینج (Vernor Vinge) که مفهوم تکینگی (Singularity) را به عامه مردم شناساند، بودند. و هم‌چنین محققان فعال در عرصه‌ی روباتیک، هم‌چون هانس موراوک (Hans Moravec)، متخصص بینش کامپیوتری، و مهندس و هم‌چنین کارآفرینی مانند ری کرزویل (Ray Kurzweil) نویسنده‌ی کتاب «دوران ماشین‌های معنوی - The Age of Spiritual Machines» که در ۱۹۹۹ میلادی منتشر شده است، می‌شوند.

در حالی که آلن تورینگ، یک نوع هوش مصنوعی شبیه به هوش انسانی را فرض قرار داده بود، افرادی مثل وینج، موراوک و کرزویل فراتر از این می‌اندیشیدند: هنگامی که یک کامپیوتر به طور مستقل قادر باشد برای دستیابی به اهدافش راه‌های مختلفی ابداع کند، بسیار محتمل خواهد بود که آن کامپیوتر، قادر به تفکر و اندیشیدن نیز باشد؛ و هنگامی که بتواند فکر کند، خواهد توانست نرم‌افزارهایش را اصلاح و خودش را هوشمندتر کند. خلاصه این که، چنین کامپیوتری، قادر خواهد بود به تنهایی سخت‌افزارهای خودش را طراحی کند.

آن طور که کرزویل می‌گوید، چنین اتفاقاتی، باعث به وجود آمدن دوره‌ی جدید و زیبایی خواهد شد. برخی ماشین‌ها، فهم و صبر کافی را خواهند داشت (که با تریلیونیم ثانیه اندازه‌گیری خواهد شد) تا بتوانند مشکلات برجسته‌ی نانوتکنولوژی و پرواز فضایی را برطرف سازند. این ماشین‌ها، شرایط بشر را بهبود خواهند بخشید. و برای ما شرایطی فراهم خواهند کرد که بتوانیم آگاهی‌ها و دانسته‌های خود را در یک قالب دیجیتالی جاودانه، نگه‌داری کنیم. و به این شکل، اطلاعات در سرتاسر کهکشان پخش خواهد شد.

از طرف دیگر، می‌توانید دقیقا نقطه‌ی مقابل این‌طور خوش‌بینی‌های زیبا را تصور کنید. استیون هاوکینگ (Stephen Hawking) هشدار داده است که در چنین شرایطی، به این دلیل که انسان‌ها قادر به رقابت با هوش مصنوعی بسیار پیشرفته نخواهند بود، ممکن است نژاد انسان از بین برود.

الون ماسک (Elon Musk)، کارآفرین، پس از مطالعه کتاب فوق‌هوش، در حساب توییتر خود، چنین نوشته است که: «امیدوارم ما فقط حامل بیولوژیکی برای فوق‌هوش نباشیم. متاسفانه این مساله روزبه‌روز بیش‌تر محتمل می‌شود.» پس از آن، الون ماسک، مبلغ ۱۰ میلیون دلار به «انستیتو آینده زندگی» کمک مالی کرد. نه به این دلیل که در مرکز بوستروم گیج شده بود، بلکه این انستیتو مرکزی است که در آن «برای کاهش خطرات پیش روی بشر فعالیت می‌شود». فعالیت‌هایی که در اثر آن‌ها، «گسترش هوش مصنوعی در حد انسان» به وقوع خواهد پیوست.

بروکس می‌گوید: حداقل برای چند صد سال آینده، نگران وجود هوش مصنوعی شرور نباشید.

در این‌جاست که افرادی مانند بروکس پایه‌گذار آیروبات (iRobot) و ریتینک روباتیک (Rethink Robotics) وارد عمل می‌شوند.حتی اگر تشخیص گربه توسط کامپیوتر–در مقایسه با قابلیت‌های کامپیوترهای اولیه، پیشرفت قابل ملاحظه‌ای باشد، هنوز هم کامپیوتر هیچ ارده‌ای ندارد. یک ماشین نمی‌تواند هیچ درکی درباره‌ی این‌که گربه چطور موجودی است و یا اتفاقات دیگری که در عکس رخ می‌دهد و افکار بی‌شماری که انسان‌ها دارند، داشته باشد.با این نگاه، هوش مصنوعی، احتمالا می‌تواند به تولید ماشین‌های هوشمند منجر شود؛ اما، این کار به تلاشی بیش از تصور افرادی مانند بوستروم، نیاز دارد. حتی اگر این اتفاق نیز رخ دهد، این هوش لزوماً منجر به ادراک نمی‌شود. بروکس اخیراً در سایت Edge.org نوشته است «اگر با مشاهده‌ی وضعیت کنونی هوش مصنوعی، تصور کنیم در حال دستیابی به فوق‌هوش هستیم، مانند زمانی است که کارکرد موثر مورتورهای احتراقی داخلی را ببینیم و با دیدن آن‌ها به این نتیجه برسیم که در حال دستیابی به تکنولوژی سرعتی بیشتر از سرعت نور هستیم.» او می‌گوید: «حداقل برای چند صد سال آینده، نگران وجود هوش مصنوعی شرور نباشید.»

هوش مصنوعی و خطرات آن

آرِند هینتز، استادیار زیست‌شناسی یکپارچه و علوم کامپیوتر و مهندس از دانشگاه ایالتی میشیگان، به‌عنوان یک توسعه‌دهنده‌ی هوش مصنوعی به آسیب‌شناسی این ماشین‌ها می‌پردازد و به ترس‌هایی که در مورد آن‌ها وجود دارد، پاسخ می‌دهد:

به‌عنوان یک محقق حوزه‌ی هوش مصنوعی گاهی با این ایده روبه‌رو می‌شوم که اکثر مردم ازآنچه ممکن است هوش مصنوعی به آن تبدیل شود، هراس دارند. شاید این مسئله تعجب‌آور نباشد؛ این ترس به دلیل نگاهی است که تاریخ و صنعت سینما به ما داده‌اند؛ نگاهی که به ما ترس از سلطه‌ی سایبرنتیک را القا می‌کند و همان‌طور که در فیلم ماتریکس دیده‌اید، به ما هشدار می‌دهد که نیروهایی خواهند آمد و ما را به‌عنوان باتری‌های انسانی در محفظه‌هایی زندانی می‌کنند. برای من که به‌عنوان توسعه‌دهنده‌ی هوش مصنوعی از مدل‌های کامپیوتری برای تکامل آن استفاده می‌کنم، فکر کردن به این موضوع که در آینده این موجودات بی‌گناه مجازی به هیولاهایی تبدیل خواهند شد، دشوار است. آیا ممکن است من به‌عنوان ویرانگر دنیا شناخته شوم؛ همان‌طور که اوپِن‌هایمِر بعد از رهبری کردن ساخت اولین بمب اتمی، به سرزنش خود پرداخت؟

با این کار من معروف خواهم شد اما شاید حق با منتقدان باشد. شاید من نباید از این سؤال دوری‌ کنم که به‌عنوان یک متخصص هوش مصنوعی، کدام جنبه از آن برای من هراس‌انگیز است؟

 ترس از اتفاقات پیش‌بینی نشده

کامپیوتر اچ‌اِی‌اِل ۹۰۰۰ که آرتور سی.کلارک، نویسنده‌ی داستان علمی تخیلی، در رؤیای خود داشت و اِستَنلی کوبریک، کارگردان فیلم ۲۰۰۱: یک ادیسه‌ی فضایی، به زندگی ما آورد، مثال خوبی است از سیستمی که به دلیل پیامدهای ناخواسته، شکست خورد.

در اکثر سیستم‌های پیچیده مانند کشتی تایتانیک، شاتل فضایی ناسا، نیروگاه هسته‌ای چرنوبیل مهندسان لایه‌های بسیاری از اجزای مختلف را با یکدیگر ترکیب می‌کنند. طراحان ممکن است به‌خوبی این موضوع را بدانند که هر جزء به‌تنهایی چگونه کار می‌کند؛ اما گاهی از این موضوع که قطعات در ارتباط با یکدیگر چگونه کار می‌کنند، آگاهی کافی ندارند؛ نتیجه‌ی این آگاهی کم، سیستمی است که هرگز به‌طور کامل درک نمی‌شود و ممکن است در راه‌های پیش‌بینی‌نشده شکست بخورد؛ در هر فاجعه‌ای نظیر غرق شدن یک کشتی، انفجار دو شاتل فضایی و گسترش آلودگی‌های رادیواکتیو در اروپا و آسیا، اشتباهات کوچک با هم ترکیب می‌شوند و یک فاجعه را به وجود می‌آورند.

بیشتر بخوانید:هوش مصنوعی پیشرفته در آینده نیازی به اجازه‌ی انسان نخواهد داشت

در تحقیقات هوش مصنوعی نیز ممکن است چنین اشتباهاتی رخ دهد. ما به آخرین دستاوردهای علوم شناختی و ادراکی نگاهی می‌اندازیم، آن‌ها را به الگوریتم تبدیل می‌کنیم و به سیستم‌های موجود می‌افزاییم؛ در این راه ما مهندسان تلاش می‌کنیم بدون آنکه در قدم اول هوش یا شناخت را درک کنیم، هوش مصنوعی را بسازیم.

سیستم‌هایی مانند واتسون آی‌بی‌ام و آلفای گوگل به شبکه‌های عصبی مصنوعی و حجم عظیمی از توان پردازشی تجهیز شده‌اند و شاهکارهای چشمگیری انجام داده‌اند؛ اما اگر این ماشین‌ها اشتباهی مرتکب شوند دیگر نمی‌توانند استاد بازی گو را شکست دهند یا در بازی جِپِردی شکست می‌خورند. عواقب این اشتباهات دنیا را تغییر نمی‌دهد؛ درواقع بدترین اتفاقی که ممکن است رخ دهد این است که فردی مقداری از پولی را که روی موفقیت هوش مصنوعی شرط‌بندی کرده است، از دست بدهد؛ اما چون طراحی هوش مصنوعی در حال پیچیده‌تر شدن است و پردازنده‌های کامپیوتر نیز سریع‌تر شده‌اند، مهارت این سیستم‌ها افزایش می‌یابد.

این امر باعث می‌شود حتی اگر خطر پیامدهای ناخواسته افزایش یابد، مسئولیت‌های بیشتری به این سیستم‌ها بدهیم؛ و ازآنجایی‌که انسان جایزالخطا است، به نظر می‌رسد که به‌ وجود آوردن سیستمی کاملاً ایمن غیر ممکن باشد.

ترس از سوء‌استفاده

ازنظر من عواقب ناخواسته در گونه‌های مختلف هوش مصنوعی که با استفاده از روشی بانام نورو اوولوشن درحال‌توسعه‌ی آن‌ها هستم، زیاد نگران‌کننده نیست. من محیطی مجازی خلق می‌کنم و موجودات دیجیتال را با ذهنی که برای انجام وظایف پیچیده آموزش می‌بیند، تکامل می‌دهم. عملکرد این مخلوقات مورد ارزیابی قرار می‌گیرد و آن‌هایی که بهترین عملکرد را دارند برای تولید مجدد انتخاب می‌شوند و نسل بعدی هوش مصنوعی را می‌سازند؛ بعد از تولید چندین نسل، این مخلوقات ماشینی تکامل پیدا می‌کنند و توانایی‌های ادراکی کسب می‌کنند.

همین‌الان ما در حال برداشتن قدم‌هایی کوچک برای تکامل این ماشین‌ها هستیم؛ تکاملی که باعث می‌شود هوش مصنوعی بتواند وظایف ناوبری ساده را انجام دهد، تصمیماتی ساده بگیرد یا چند بایتی را به خاطر بیاورد؛ اما به‌زودی ما ماشین‌هایی تکامل خواهیم داد که می‌توانند وظایف پیچیده‌تری را اجرا کنند و فهم عمومی بسیار بهتری داشته باشند. درنهایت ما امیدواریم که بتوانیم ماشینی هم‌سطح با هوش انسانی ایجاد کنیم.

در طول این مسیر و در روند تکامل هوش مصنوعی، ما ارور‌ها و مشکلات را پیدا خواهیم کرد و آن‌ها را حذف می‌کنیم. در هر نسل، ماشین‌ها بهتر می‌توانند ارورهای ایجادشده در نسل قبلی را برطرف کنند؛ این کار باعث می‌شود شانس پیدا کردن پیامدهای ناخواسته در شبیه‌سازی‌ها افزایش یابد و بتوانیم قبل از آنکه این مشکلات وارد دنیای واقعی شوند، آن‌ها را حذف کنیم.

مورد دیگری که احتمال آن کمتر است، استفاده از این سیر تکاملی برای تأثیر گذاشتن بر اخلاق سیستم‌های هوش مصنوعی است. این فرایند همانند صفات اخلاقی در انسان‌ها است؛ صفاتی مانند امانت‌داری و نوع‌دوستی که درنتیجه‌ی سیرتکاملی انسان‌ها به وجود آمده‌اند و به‌عنوان فاکتورهایی برای ادامه‌ی زندگی در نظر گرفته می‌شوند.

ما می‌توانیم محیط‌های خود را به‌صورت مجازی برای ایجاد برتری تکاملی در ماشین‌ها به‌گونه‌ای تنظیم کنیم تا صفاتی مانند محبت، صداقت و یکدلی را به آن‌ها نشان دهیم؛ این ممکن است راهی باشد تا خدمتکارانی فرمانپذیرتر یا همراهانی قابل‌ اعتماد توسعه دهیم و ربات‌های قاتل و بی‌رحم کمتری به وجود آوریم.

 باوجوداینکه نورو اوولوشن این امکان را دارد که احتمال به‌وجود آمدن پیامدهای ناخواسته را کاهش دهد؛ اما نمی‌تواند مانع سوءاستفاده از هوش مصنوعی شود؛ بااین‌وجود این مسئله یک مشکل علمی نیست و مشکلی اخلاقی است؛ به‌عنوان یک دانشمند، من متعهد هستم تا به‌درستی یافته‌های حاصل از آزمایش‌هایم را گزارش دهم؛ چه این نتایج موردپسند من باشند، چه نباشند. دوست‌ داشتن یا موافقت برای من مورد توجه نیست، مهم‌ این است که بتوانیم یافته‌هایمان را بازگو کنیم.

ترس از اولویت‌های اشتباه اجتماعی

دانشمند بودن من را از انسان بودن مبرا نمی‌کند و من باید در پاره‌ای از موارد با آرزوها و ترس‌هایم مجددا ارتباط برقرار کنم. به‌عنوان موجودی اخلاقی و سیاسی، من باید پیامدهای احتمالی کار خود و تأثیرات احتمالی آن بر جامعه را در نظر بگیرم. ما به‌عنوان جامعه‌ی محققان هنوز به یک ایده‌ی واضح در مورد هوش‌ مصنوعی و چیزی که به آن تبدیل می‌شود نرسیده‌ایم؛ یکی از علت‌های این مسئله این است که ما هنوز در مورد قابلیت‌های هوش مصنوعی اطلاعی نداریم؛ اما نیاز داریم که در مورد نتایج مطلوب حاصل از هوش مصنوعی پیشرفته، تصمیم بگیریم.

یکی از مناطق بزرگی که تحت تأثیر هوش مصنوعی قرار دارد، فعالیت‌های انسانی است؛ ربات‌ها در حال حاضر کارهای فیزیکی مانند جوش‌کاری قسمت‌های مختلف خودروها را انجام می‌دهند. در آینده‌ای نزدیک ممکن است آن‌ها فعالیت‌های ادراکی و شناختی را که تا به امروز تنها به انسان‌ها اختصاص داشته است، انجام دهند؛ خودروهای خودران می‌توانند جایگزین راننده‌های تاکسی شوند؛ هواپیماهای خودپرواز می‌توانند جایگزین خلبان‌ها شوند. به‌جای کمک‌های گروه پزشکی در اورژانس، بیماران می‌توانند توسط یک سیستم متخصص مورد معاینه قرار گیرند و با دسترسی فوری به پایگاه اطلاعات پزشکی که تا به آن روز جمع‌آوری شده است، نوع بیماری آن‌ها تشخیص داده شود و جراحی‌های به‌وسیله‌ی رباتی خستگی‌ناپذیر و با دستانی کاملا بدون لرزش انجام شود.

مشاوره‌ی حقوقی می‌تواند از پایگاه داده‌های حقوقی به دست آید؛ مشاوره‌ی مالی و سرمایه‌گذاری نیز می‌تواند از سیستم پیش‌بینی بازار به دست آید. شاید روزی فرارسد که تمام شغل‌های انسانی به‌وسیله‌ی ماشین‌ها انجام شوند؛ حتی کار توسعه‌ی هوش مصنوعی که من به آن مشغول هستم به‌وسیله‌ی تعداد زیادی از ماشین‌های خستگی‌ناپذیر در تحقیقات هوش مصنوعی، سریع‌تر انجام شود.

در جامعه‌ی امروزی ما، اتوماسیون انسان‌ها را از کار برکنار کرده است و صاحبان ماشین‌ها را پولدارتر و دیگر افراد را فقیرتر کرده است. این مشکل یک مسئله‌ی علمی نیست و باید از نقطه‌نظر سیاسی و اجتماعی و اقتصادی حل شود. تحقیقات و سیاست‌های یک توسعه‌دهنده نمی‌تواند این موارد را تغییر دهد؛ اما با همکاری همه‌، می‌توانیم شرایطی ایجاد کنیم که در آن هوش مصنوعی به‌جای ایجاد فاصله بین افراد پولدار و ضعیف، برای همه سودمند باشد.

ترس از سناریو‌های کابوس مانند

با مجسم کردن اچ‌اِی‌اِل ۹۰۰۰، ترمیناتور یا هر داستان تخیلی دیگری که هوش‌ مصنوعی فرابشری دارند، این سؤال به وجود می‌آید که اگر هوش‌ مصنوعی به پیشرفت خود ادامه دهد و به سطحی فراتر از هوش انسانی برسد، آیا این سیستم‌های فوق‌العاده هوشمند یا حداقل یکی از آن‌ها، به این نتیجه می‌رسد که دیگر به انسان‌ها نیازی نیست؟ ما انسان‌ها چگونه وجود خودمان را در نظر این هوش‌های فرابشری که کارهایی فراتر از توانایی‌های انسان انجام می‌دهند، توجیه می‌کنیم؟ آیا ما می‌توانیم مانع از انقراض خود به‌وسیله‌ی ماشین‌هایی شویم که زمانی برای کمک به ما خلق شده‌اند؟ سؤال کلیدی در این سناریو این است: چرا باید یک هوش فرابشری انسان‌ها را زنده نگه دارد؟

من ممکن است درباره‌ی خودم با این هوش‌ فرابشری گفت‌وگو کنم و به او بگویم فرد خوبی هستم که ممکن است کمک کرده باشد تا هوش‌ مصنوعی به این مرحله برسد. همچنین ممکن است که التماس کنم که هوش‌ فرابشری من را به‌عنوان شخصی بامحبت و دلسوز زنده نگه دارد. من می‌توانم درباره‌ی ارزشمند بودن تنوع با این هوش‌ فرابشری گفت‌وگو کنم و به او بگویم  وجود بشریت با وجود داشتن جهانی بسیار بزرگ، ممکن است اصلا اهمیتی نداشته باشد؛ اما من به نمایندگی از تمام بشریت صحبت نمی‌کنم و آوردن استدلالی قانع‌کننده برای ادامه‌ی حیات تمام انسان‌ها کار دشواری است.

وقتی که با نگاهی دقیق‌تر به خودمان می‌نگریم، اشتباهات بسیاری می‌بینم: ما انسان‌ها از هم متنفریم، با یکدیگر می‌جنگیم، دانش، غذا یا کمک‌های پزشکی را به‌طور عادلانه توزیع نمی‌کنیم و سیاره‌ی خود را آلوده می‌کنیم. موارد خوب بسیاری نیز در دنیا وجود دارد؛ اما تمام بدی‌های ما باعث ضعف در گفتمان و درخواست ادامه‌ی حیات از هوش‌ فرابشری می‌شود.

خوشبختانه، در حال حاضر احتیاجی نداریم که وجود خودمان را برای این ماشین‌ها توجیه کنیم. ما مدت‌زمانی بین ۵۰ تا ۲۵۰ سال وقت داریم که البته این فرصت زمانی به‌سرعت توسعه‌ی هوش‌ مصنوعی نیز بستگی دارد و در این مدت می‌توانیم به‌عنوان گونه‌ای از حیات گرد هم بیاییم و برای این سؤال که چرا هوش‌ فرابشری نباید ما را از صحنه‌ی حیات پاک کند، جوابی قانع‌کننده پیدا کنیم.

هر کدام از ما چه به‌صورت انفرادی و چه در قالب جامعه، باید خود را برای این سناریوهای کابوس مانند آماده کنیم و با استفاده از زمانی که برایمان باقی‌ مانده است دلیلی برای ادامه‌ی حیاتمان پیدا کنیم؛ اما راه دیگر این است که به این باور برسیم که این اتفاق هرگز نخواهد افتاد تا دیگر نگران این مسئله نباشیم.

اما بدون در نظر گرفتن تهدیدات فیزیکی‌ که هوش‌ فرابشری ممکن است داشته باشد، این ماشین‌ها می‌توانند تهدیدهایی سیاسی و اقتصادی‌ برای ما باشند. اگر ما راهی برای توزیع ثروت بین تمام انسان‌ها پیدا نکنیم، نظامی سرمایه‌داری پدید می‌آوریم که در آن هوش‌ مصنوعی تنها در خدمت کسانی است که تمام ابزارهای تولید را  در اختیار دارند.



+ 6
مخالفم - 5
نظرات : 0
منتشر نشده : 0

شما هم می توانید دیدگاه خود را ثبت کنید



کد امنیتی کد جدید

تمام حقوق مادی و معنوی این پایگاه محفوظ و متعلق به سایت تیتربرتر می باشد .
هرگونه کپی و نقل قول از مطالب سايت با ذكر منبع بلامانع است.

طراحی سایت خبری