پایگاه خبری تحلیلی تیتربرتر

تقویم تاریخ

امروز: جمعه, ۱۰ فروردين ۱۴۰۳ برابر با ۱۹ رمضان ۱۴۴۵ قمری و ۲۹ مارس ۲۰۲۴ میلادی
جمعه, ۰۲ اسفند ۱۳۹۸ ۱۵:۴۶
۱۱
۰
نسخه چاپی

پیش بینی های تاریک ایلان ماسک درباره هوش مصنوعی

پیش بینی های تاریک ایلان ماسک درباره «هوش مصنوعی»
سال گذشته در جریان کنفرانس جهانی هوش مصنوعی در شانگهای چین، ایلان ماسک درباره‌ی خطرات ناشی از استفاده از هوش مصنوعی، قبل از اینکه بشر به درک درستی از آن برسد هشدار داد.

تیتربرتر ؛ اکنون ماسک از لزوم قانون‌گذاری برای کنترل روند توسعه‌ی هوش مصنوعی می‌گوید؛ حتی اگر این قوانین شرکت تسلا (که خود مشغول توسعه‌ی هوش مصنوعی برای خودروهای خودران است) را نیز تحت تأثیر قرار بدهد.

ایلان ماسک علاوه بر تسلا و اسپیس ایکس، ازجمله بنیان‌گذاران OpenAI نیز است؛ شرکتی که از پیشگامان توسعه‌ی «هوش جامع مصنوعی» (AGI) به‌شمار می‌رود. OpenAI ادعا می‌کند که می‌تواند ماشینی با توانایی استدلال انسانی بسازد و علاوه‌بر تعبیه‌کردن سازوکارهای امنیتی، تمام روند رسیدن به چنین دستاوردی را به‌صورت شفاف با عموم به‌اشتراک بگذارد.

اگر پیگیر اخبار فناوری در سال‌های گذشته بوده باشید، حتما اطلاع دارید که ایلان ماسک یکی از جدی‌ترین منتقدان توسعه‌ی بدون مرز هوش مصنوعی است و در ابراز ترس خود از این فناوری ابایی ندارد. اظهار نظرهای ماسک درباره‌ی خطرات هوش مصنوعی همواره مورد توجه رسانه‌ها قرار می‌گیرد؛ نظراتی مانند «خطرناک‌تر بودن هوش مصنوعی از بمب اتم»، «آغاز جنگ جهانی سوم به‌وسیله‌ی هوش مصنوعی» و «مقایسه‌ی توسعه‌ی بدون کنترل هوش مصنوعی با احضار کردن شیطان». در مورد اخیر، به‌نظر می‌رسد ماسک از این نگران است که OpenAI نتواند وعده‌های خود را عملی کند. پس از اینکه MIT Technology Review گزارشی از فرهنگ مخفی‌کاری در OpenAI منتشر کرد، ماسک درباره‌ی داریو آمودی (مهندس سابق گوگل که اکنون از مقامات ارشد OpenAI است) هشدار داده و گفته بود که نمی‌توان در زمینه‌ی اولویت‌گذاری‌های امنیتی مرتبط با هوش مصنوعی به او اعتماد کرد.

سال ۲۰۱۹ اوپن ای‌آی مایکروسافت را به‌عنوان «شریک ارجح» خود معرفی کرد. ردموندی‌ها پیش از این یک میلیارد دلار در این شرکت سرمایه‌گذاری و منابع زیرساخت عظیم آژور خود را دراختیار آن‌ها قرار داده بودند. نگرانی اصلی، تبدیل‌شدن OpenAI از یک سازمان غیرانتفاعی به شرکتی سودمحور است که فناوری هوش مصنوعی خود را دراختیار شرکت‌های ثالث قرار خواهد داد. 

خطر هوش مصنوعی برای اینترنت

ترس ایلان ماسک از هوش مصنوعی موضوع جدیدی نیست. مدیرعامل نابغه‌ی تسلا و اسپیس ایکس که خیلی‌ها او را نسخه‌ی واقعی مرد آهنی می‌دانند، تا به حال بارها نسبت خطرات احتمالی هوش مصنوعی هشدار داده است.

در جدیدترین این اظهارات، ماسک با اشاره به اختلالات اخیر به وجود آمده در اینترنت بر اثر حمله به شرکت Dyn، با به اشتراک گذاشتن مطلبی از اکونومیست در حساب توییتر خود نوشته است:

در استفاده از هوش مصنوعی پیشرفته برای چنین حملاتی، تنها بحث زمان مطرح است. اینترنت بطور خاص نسبت به الگوریتم‌های گرادیان نزولی (gradient descent) آسیب پذیر است.

این اولین باری نیست که ماسک پیش‌بینی‌های تاریکی از آینده‌ی هوش مصنوعی انجام می‌دهد. او پیش از این روبات‌های فوق هوشمند را از سلاح‌های اتمی خطرناک‌تر توصیف کرده بود و با کمک ۱۰ میلیون دلاری به بنیاد «آینده‌ی حیات» (Future of Life، سازمانی که ماموریت دارد تا مطمئن شود هوش مصنوعی در آینده بر علیه انسان قیام نکند) جدی بودن خود در کنترل هوش مصنوعی را نشان داده بود.

نکته‌ی جالب توجه دیگر، رد و بدل شدن توییت‌های حاوی اصطلاحات تخصصی بین ایلان ماسک و دیگر کاربران توییتر است؛ توییت‌هایی که به دلیل پیچیدگی، تعجب بسیاری از کاربران را برانگیخته است. برای مثال کاربری در جواب توییت ایلان ماسک نوشته است:

مخالفم. الگوریتم گرادیان نزولی در مسائل [تئوری] گراف در مینیمم نسبی (موضعی) گیر می‌کند. برای این کار به ANNs (شبکه‌های عصبی) دینامیکِ چند عاملی نیاز است.

ماسک نیز در جواب گفته است:

حتماً [در صورت استفاده از هوش مصنوعی] میلیون‌ها عامل (agent) وجود خواهند داشت که به صورت همزمان روی شبیه سازی مونته کارلو کار کنند و با تجمیع نتایج، نقشه‌ای از نقاط ضعف بسازند.

www.titrebartar.com

 

آمادگی ماسک برای بحث در این سطح فنی نشان می‌دهد که نگرانی‌اش بی پایه و اساس نیست و می‌داند که دقیقاً درباره‌ی چه چیزی صحبت می‌کند.
ماسک تنها شخصیت مشهور دنیای تکنولوژی نیست که در مورد هوش مصنوعی احساس نگرانی می‌کند. پیش از این استیون هاوکینگ و استیو وزنیاک نیز نگرانی خود نسبت به خطرات احتمالی هوش مصنوعی را ابراز کرد‌ه بودند.



+ 11
مخالفم - 9
نظرات : 0
منتشر نشده : 0

شما هم می توانید دیدگاه خود را ثبت کنید



کد امنیتی کد جدید

تمام حقوق مادی و معنوی این پایگاه محفوظ و متعلق به سایت تیتربرتر می باشد .
هرگونه کپی و نقل قول از مطالب سايت با ذكر منبع بلامانع است.

طراحی سایت خبری