تیتربرتر ؛ اکنون ماسک از لزوم قانونگذاری برای کنترل روند توسعهی هوش مصنوعی میگوید؛ حتی اگر این قوانین شرکت تسلا (که خود مشغول توسعهی هوش مصنوعی برای خودروهای خودران است) را نیز تحت تأثیر قرار بدهد.
ایلان ماسک علاوه بر تسلا و اسپیس ایکس، ازجمله بنیانگذاران OpenAI نیز است؛ شرکتی که از پیشگامان توسعهی «هوش جامع مصنوعی» (AGI) بهشمار میرود. OpenAI ادعا میکند که میتواند ماشینی با توانایی استدلال انسانی بسازد و علاوهبر تعبیهکردن سازوکارهای امنیتی، تمام روند رسیدن به چنین دستاوردی را بهصورت شفاف با عموم بهاشتراک بگذارد.
اگر پیگیر اخبار فناوری در سالهای گذشته بوده باشید، حتما اطلاع دارید که ایلان ماسک یکی از جدیترین منتقدان توسعهی بدون مرز هوش مصنوعی است و در ابراز ترس خود از این فناوری ابایی ندارد. اظهار نظرهای ماسک دربارهی خطرات هوش مصنوعی همواره مورد توجه رسانهها قرار میگیرد؛ نظراتی مانند «خطرناکتر بودن هوش مصنوعی از بمب اتم»، «آغاز جنگ جهانی سوم بهوسیلهی هوش مصنوعی» و «مقایسهی توسعهی بدون کنترل هوش مصنوعی با احضار کردن شیطان». در مورد اخیر، بهنظر میرسد ماسک از این نگران است که OpenAI نتواند وعدههای خود را عملی کند. پس از اینکه MIT Technology Review گزارشی از فرهنگ مخفیکاری در OpenAI منتشر کرد، ماسک دربارهی داریو آمودی (مهندس سابق گوگل که اکنون از مقامات ارشد OpenAI است) هشدار داده و گفته بود که نمیتوان در زمینهی اولویتگذاریهای امنیتی مرتبط با هوش مصنوعی به او اعتماد کرد.
سال ۲۰۱۹ اوپن ایآی مایکروسافت را بهعنوان «شریک ارجح» خود معرفی کرد. ردموندیها پیش از این یک میلیارد دلار در این شرکت سرمایهگذاری و منابع زیرساخت عظیم آژور خود را دراختیار آنها قرار داده بودند. نگرانی اصلی، تبدیلشدن OpenAI از یک سازمان غیرانتفاعی به شرکتی سودمحور است که فناوری هوش مصنوعی خود را دراختیار شرکتهای ثالث قرار خواهد داد.
خطر هوش مصنوعی برای اینترنت
ترس ایلان ماسک از هوش مصنوعی موضوع جدیدی نیست. مدیرعامل نابغهی تسلا و اسپیس ایکس که خیلیها او را نسخهی واقعی مرد آهنی میدانند، تا به حال بارها نسبت خطرات احتمالی هوش مصنوعی هشدار داده است.
در جدیدترین این اظهارات، ماسک با اشاره به اختلالات اخیر به وجود آمده در اینترنت بر اثر حمله به شرکت Dyn، با به اشتراک گذاشتن مطلبی از اکونومیست در حساب توییتر خود نوشته است:
در استفاده از هوش مصنوعی پیشرفته برای چنین حملاتی، تنها بحث زمان مطرح است. اینترنت بطور خاص نسبت به الگوریتمهای گرادیان نزولی (gradient descent) آسیب پذیر است.
این اولین باری نیست که ماسک پیشبینیهای تاریکی از آیندهی هوش مصنوعی انجام میدهد. او پیش از این روباتهای فوق هوشمند را از سلاحهای اتمی خطرناکتر توصیف کرده بود و با کمک ۱۰ میلیون دلاری به بنیاد «آیندهی حیات» (Future of Life، سازمانی که ماموریت دارد تا مطمئن شود هوش مصنوعی در آینده بر علیه انسان قیام نکند) جدی بودن خود در کنترل هوش مصنوعی را نشان داده بود.
نکتهی جالب توجه دیگر، رد و بدل شدن توییتهای حاوی اصطلاحات تخصصی بین ایلان ماسک و دیگر کاربران توییتر است؛ توییتهایی که به دلیل پیچیدگی، تعجب بسیاری از کاربران را برانگیخته است. برای مثال کاربری در جواب توییت ایلان ماسک نوشته است:
مخالفم. الگوریتم گرادیان نزولی در مسائل [تئوری] گراف در مینیمم نسبی (موضعی) گیر میکند. برای این کار به ANNs (شبکههای عصبی) دینامیکِ چند عاملی نیاز است.
ماسک نیز در جواب گفته است:
حتماً [در صورت استفاده از هوش مصنوعی] میلیونها عامل (agent) وجود خواهند داشت که به صورت همزمان روی شبیه سازی مونته کارلو کار کنند و با تجمیع نتایج، نقشهای از نقاط ضعف بسازند.
آمادگی ماسک برای بحث در این سطح فنی نشان میدهد که نگرانیاش بی پایه و اساس نیست و میداند که دقیقاً دربارهی چه چیزی صحبت میکند.
ماسک تنها شخصیت مشهور دنیای تکنولوژی نیست که در مورد هوش مصنوعی احساس نگرانی میکند. پیش از این استیون هاوکینگ و استیو وزنیاک نیز نگرانی خود نسبت به خطرات احتمالی هوش مصنوعی را ابراز کرده بودند.