پایگاه خبری تحلیلی تیتربرتر

تقویم تاریخ

امروز: شنبه, ۰۸ ارديبهشت ۱۴۰۳ برابر با ۱۸ شوّال ۱۴۴۵ قمری و ۲۷ آوریل ۲۰۲۴ میلادی
چهارشنبه, ۰۱ فروردين ۱۴۰۳ ۲۳:۵۱
۰
۰
نسخه چاپی

پروژه مخفی و خطرناک *Q چیست؟

پروژه مخفی و خطرناک *Q چیست؟
این پروژه‌ مخفی و ظاهراً خطرناک *Q که می‌گویند اولین مدل هوش مصنوعی با قابلیت‌های فرا انسانی است.

تیتربرتر: بسیار محدود ما از برنامه‌های OpenAI خودش را زمانی آشکار کرد که رویترز و وب‌سایت تکنولوژی‌محور The Information در دو گزارش جداگانه نوشتند که پیش از اخراج آلتمن، چندین پژوهشگر OpenAI نگرانی‌هایی درباره‌ی پیشرفت بزرگ پروژه‌ای ظاهراً خطرناک مطرح کرده بودند؛ پروژه‌ی الگوریتم‌محوری با نام مرموز *Q (بخوانید کیواستار).

رویترز به نقل از منبعی ناشناس نوشت: «مدل جدید به‌کمک منابع محاسباتی عظیم توانست برخی مسائل ریاضی خاص را حل کند. اگرچه این مسائل در سطح مقطع ابتدایی بود، موفقیت صددرصد در حل آن‌ها پژوهشگران را به موفقیت آینده‌ی *Q بسیار خوش‌بین کرده است.»

وب‌سایت The Information هم نوشت *Q پیشرفت چشم‌گیری است که به توسعه‌ی «مدل‌های هوش مصنوعی بسیار قدرتمندتر» منجر خواهد شد و اینکه «سرعت توسعه‌ی این پروژه برخی از پژوهشگرانی را که نگران امنیت هوش مصنوعی بودند، ترساند.»

پروژه‌ی مرموز *Q چیست؟

آنچه در گزارش‌ها خواندیم می‌گوید کیواستار الگوریتمی است که می‌تواند مسائل ریاضی مقطع ابتدایی را طوری که هرگز نمونه‌اش را ندیده‌ایم، حل کند. شاید فکر کنید حل این مسائل چندان قابل‌توجه نیست؛ به‌هرحال، اگر کودکی ۱۰، ۱۱ ساله بتواند آن‌ها را حل کند، پس حتی ضعیف‌ترین هوش مصنوعی هم باید به‌راحتی از پس حل آن برآید. اما در دنیای AI داستان متفاوت است؛ طوری که برخی از پژوهشگران OpenAI ظاهراً بر این باورند که کیواستار می‌تواند اولین نشانه‌‌ی بهبود توانایی «استدلال» یا همان استفاده از منطق برای حل مسائل جدید در مدل‌های هوش مصنوعی باشد.

سال‌ها است پژوهشگران در تلاش‌اند مدل‌‌های هوش مصنوعی را به‌جایی برسانند تا بتوانند مسائل ریاضی را به‌درستی حل کنند. مدل‌های زبانی چون GPT-4 که در چت‌بات ChatGPT به‌کار رفته است، می‌توانند به‌طور بسیار محدودی از پس مسائل ریاضی برآیند، اما نه درحدی که در تمام سناریوها قابل‌اطمینان باشد.

ما درحال‌حاضر الگوریتم یا حتی معماری مناسبی نداریم که بتوانیم با استفاده از هوش مصنوعی، مسائل ریاضی را به‌طور قابل‌ اطمینانی حل کنیم. یادگیری عمیق و شبکه‌های عصبی موسوم‌به ترنسفورمر که زیربنای توسعه‌ی مدل‌های زبانی است، در پیدا کردن الگو و تشخیص گربه از درخت عالی هستند، اما صرف بهره‌مندی از این قابلیت برای دستیابی به هوش مصنوعی قوی کافی نیست.

جالب است بدانید برای تست قدرت استدلال مدل هوش مصنوعی از ریاضی به‌عنوان بنچ‌مارک استفاده می‌کنند؛‌ چون طرح مسئله‌ی جدید برای پژوهشگران ‌آسان است و رسیدن به راه‌حل به درک مفاهیم انتزاعی و برنامه‌ریزی گام‌به‌گام نیاز دارد.

توانایی استدلال یکی از عناصر کلیدی و درعین‌حال همچنان غایب سیستم‌های هوش مصنوعی هوشمندتر و همه‌منظوره است؛ همان‌ سیستمی که OpenAI آن را «هوش عمومی مصنوعی» معروف‌به AGI می‌نامد. به‌گفته‌ی این شرکت، چنین سیستمی اگر پا به دنیای واقعی بگذارد، در اکثر کارها از انسان بهتر خواهد بود و اگر روزی بخواهد از کنترل انسان خارج شود، فاجعه‌ی جهانی رخ خواهد داد.

زمانی‌که گزارش‌های مربوط به کیوستار را کنار هم می‌گذاریم و آن‌ها را به جنجالی‌ترین مشکلات هوش مصنوعی این روزها ربط می‌دهیم، به پروژه‌ای می‌رسیم که OpenAI آن را چیزی حدود هفت ماه پیش در ماه می معرفی کرد و مدعی شد که به‌کمک تکنیکی به‌نام «نظارت بر فرایند» (Process Supervision) به نتایج قدرتمند جدیدی دست پیدا کرده است.

در این پروژه، ایلیا سوتسکیور، دانشمند ارشد و یکی از بنیان‌گذاران OpenAI نقش داشت که مهره‌ی اصلی اخراج سم آلتمن از شرکت بود؛ هرچند بعد از بحران OpenAI از تصمیمش برگشت و آلتمن را با آغوش باز پذیرفت. به‌گفته‌ی The Information، ایلیا رهبری توسعه‌ی کیواستار را برعهده داشته است.

سم آلتون
سم آلتون

 

خالق ChatGPT همچنان درباره پروژه رازآلود *Q سکوت می‌کند

سم آلتمن، مدیرعامل OpenAI، با وجود اینکه قبلاً بیان کرده بود شرکتش مانند یک کشتی در حال غرق شدن است، هنوز درباره‌ی پروژه‌ی مخفی کیواستار سکوت می‌کند.

برخی گمانه‌زنی‌ها اخراج آلتمن و کودتای ناموفقی که در اواخر سال ۲۰۲۳ در OpenAI انجام گرفت را به پروژه‌ی پر ابهام و نگران‌کننده‌ی کیواستار مربوط دانسته‌اند؛ با این حال، خالق ChatGPT از پاسخ به هرگونه سؤال درباره‌ی کیواستار خودداری می‌کند. آلتمن در مصاحبه‌ی اخیر خود با پادکست لکس فریدمن، پژوهشگر برجسته‌ی MIT نیز رویه‌ی سکوت را ادامه داد.

آلتمن در مصاحبه با فریدمن تلاش‌ کرد سیاست پنهان‌کاری OpenAI در مورد پروژه‌ی کیواستار را رد کند. او گفت: «OpenAI توانایی خوبی در نگهداری اسرار ندارد، اما خوب می‌شد اگر ما قادر به داشتن چنین چیزی می‌بودیم.»

هنگامی که فریدمن سوال کرد که *Q دقیقاً چیست، لحن آلتمن تغییر کرد و به‌طور جدی پاسخ داد: «ما آماده‌ی بحث درباره‌ی این موضوع نیستیم.» فریدمن نیز در جواب گفت: «چنین پاسخی نشان می‌دهد که چیزی برای بحث وجود دارد و این بسیار رازآلود است، سم.»

بیشتر بخوانید:

هوش مصنوعی در مسیر ابر انسان شدن/ سال ۲۰۲۴، سال احساس بخشیدن به ماشین

مدیرعامل OpenAI اظهارنظرهای کلی و ابهام‌آمیزی راجع‌به تحقیقات پیرامون موضوعات مختلف ارائه داد و در نهایت اشاره‌ای به بهبود «استدلال منطقی» در سیستم‌های هوش مصنوعی کرد. گفته می‌شود استدلال منطقی و قدرت حل مسائل ریاضی ویژگی متمایز مدلی است که در پروژه‌ی کیواستار توسعه می‌یابد.

همانطور که The Information و رویترز قبلاً گزارش داده بودند، کیواستار احتمالاً توانایی حل مسائلی را دارد که پیش‌تر در مدل‌های هوش مصنوعی دیگر دیده نشده و پیشرفت‌هایی در عملکرد هوش مصنوعی ارائه می‌دهد که با آنچه تاکنون دیده‌ایم تفاوت خواهد داشت.

با جمع‌بندی همه‌ی شایعات و تحلیل‌هایی که درمورد کیواستار مطرح شده، به‌نظر می‌رسد که OpenAI واقعاً در حال خلق پیشرفت عظیمی در استدلال محاسباتی است، اما باید دید این پروژه چقدر بزرگ خواهد بود. تا این لحظه، از بین جملات آلتمن نتیجه‌ی خاصی به‌دست نیامده است.



+ 0
مخالفم - 0
نظرات : 0
منتشر نشده : 0

شما هم می توانید دیدگاه خود را ثبت کنید



کد امنیتی کد جدید

تمام حقوق مادی و معنوی این پایگاه محفوظ و متعلق به سایت تیتربرتر می باشد .
هرگونه کپی و نقل قول از مطالب سايت با ذكر منبع بلامانع است.

طراحی سایت خبری