تیتربرتر: بسیار محدود ما از برنامههای OpenAI خودش را زمانی آشکار کرد که رویترز و وبسایت تکنولوژیمحور The Information در دو گزارش جداگانه نوشتند که پیش از اخراج آلتمن، چندین پژوهشگر OpenAI نگرانیهایی دربارهی پیشرفت بزرگ پروژهای ظاهراً خطرناک مطرح کرده بودند؛ پروژهی الگوریتممحوری با نام مرموز *Q (بخوانید کیواستار).
رویترز به نقل از منبعی ناشناس نوشت: «مدل جدید بهکمک منابع محاسباتی عظیم توانست برخی مسائل ریاضی خاص را حل کند. اگرچه این مسائل در سطح مقطع ابتدایی بود، موفقیت صددرصد در حل آنها پژوهشگران را به موفقیت آیندهی *Q بسیار خوشبین کرده است.»
وبسایت The Information هم نوشت *Q پیشرفت چشمگیری است که به توسعهی «مدلهای هوش مصنوعی بسیار قدرتمندتر» منجر خواهد شد و اینکه «سرعت توسعهی این پروژه برخی از پژوهشگرانی را که نگران امنیت هوش مصنوعی بودند، ترساند.»
پروژهی مرموز *Q چیست؟
آنچه در گزارشها خواندیم میگوید کیواستار الگوریتمی است که میتواند مسائل ریاضی مقطع ابتدایی را طوری که هرگز نمونهاش را ندیدهایم، حل کند. شاید فکر کنید حل این مسائل چندان قابلتوجه نیست؛ بههرحال، اگر کودکی ۱۰، ۱۱ ساله بتواند آنها را حل کند، پس حتی ضعیفترین هوش مصنوعی هم باید بهراحتی از پس حل آن برآید. اما در دنیای AI داستان متفاوت است؛ طوری که برخی از پژوهشگران OpenAI ظاهراً بر این باورند که کیواستار میتواند اولین نشانهی بهبود توانایی «استدلال» یا همان استفاده از منطق برای حل مسائل جدید در مدلهای هوش مصنوعی باشد.
سالها است پژوهشگران در تلاشاند مدلهای هوش مصنوعی را بهجایی برسانند تا بتوانند مسائل ریاضی را بهدرستی حل کنند. مدلهای زبانی چون GPT-4 که در چتبات ChatGPT بهکار رفته است، میتوانند بهطور بسیار محدودی از پس مسائل ریاضی برآیند، اما نه درحدی که در تمام سناریوها قابلاطمینان باشد.
ما درحالحاضر الگوریتم یا حتی معماری مناسبی نداریم که بتوانیم با استفاده از هوش مصنوعی، مسائل ریاضی را بهطور قابل اطمینانی حل کنیم. یادگیری عمیق و شبکههای عصبی موسومبه ترنسفورمر که زیربنای توسعهی مدلهای زبانی است، در پیدا کردن الگو و تشخیص گربه از درخت عالی هستند، اما صرف بهرهمندی از این قابلیت برای دستیابی به هوش مصنوعی قوی کافی نیست.
جالب است بدانید برای تست قدرت استدلال مدل هوش مصنوعی از ریاضی بهعنوان بنچمارک استفاده میکنند؛ چون طرح مسئلهی جدید برای پژوهشگران آسان است و رسیدن به راهحل به درک مفاهیم انتزاعی و برنامهریزی گامبهگام نیاز دارد.
توانایی استدلال یکی از عناصر کلیدی و درعینحال همچنان غایب سیستمهای هوش مصنوعی هوشمندتر و همهمنظوره است؛ همان سیستمی که OpenAI آن را «هوش عمومی مصنوعی» معروفبه AGI مینامد. بهگفتهی این شرکت، چنین سیستمی اگر پا به دنیای واقعی بگذارد، در اکثر کارها از انسان بهتر خواهد بود و اگر روزی بخواهد از کنترل انسان خارج شود، فاجعهی جهانی رخ خواهد داد.
زمانیکه گزارشهای مربوط به کیوستار را کنار هم میگذاریم و آنها را به جنجالیترین مشکلات هوش مصنوعی این روزها ربط میدهیم، به پروژهای میرسیم که OpenAI آن را چیزی حدود هفت ماه پیش در ماه می معرفی کرد و مدعی شد که بهکمک تکنیکی بهنام «نظارت بر فرایند» (Process Supervision) به نتایج قدرتمند جدیدی دست پیدا کرده است.
در این پروژه، ایلیا سوتسکیور، دانشمند ارشد و یکی از بنیانگذاران OpenAI نقش داشت که مهرهی اصلی اخراج سم آلتمن از شرکت بود؛ هرچند بعد از بحران OpenAI از تصمیمش برگشت و آلتمن را با آغوش باز پذیرفت. بهگفتهی The Information، ایلیا رهبری توسعهی کیواستار را برعهده داشته است.
خالق ChatGPT همچنان درباره پروژه رازآلود *Q سکوت میکند
سم آلتمن، مدیرعامل OpenAI، با وجود اینکه قبلاً بیان کرده بود شرکتش مانند یک کشتی در حال غرق شدن است، هنوز دربارهی پروژهی مخفی کیواستار سکوت میکند.
برخی گمانهزنیها اخراج آلتمن و کودتای ناموفقی که در اواخر سال ۲۰۲۳ در OpenAI انجام گرفت را به پروژهی پر ابهام و نگرانکنندهی کیواستار مربوط دانستهاند؛ با این حال، خالق ChatGPT از پاسخ به هرگونه سؤال دربارهی کیواستار خودداری میکند. آلتمن در مصاحبهی اخیر خود با پادکست لکس فریدمن، پژوهشگر برجستهی MIT نیز رویهی سکوت را ادامه داد.
آلتمن در مصاحبه با فریدمن تلاش کرد سیاست پنهانکاری OpenAI در مورد پروژهی کیواستار را رد کند. او گفت: «OpenAI توانایی خوبی در نگهداری اسرار ندارد، اما خوب میشد اگر ما قادر به داشتن چنین چیزی میبودیم.»
هنگامی که فریدمن سوال کرد که *Q دقیقاً چیست، لحن آلتمن تغییر کرد و بهطور جدی پاسخ داد: «ما آمادهی بحث دربارهی این موضوع نیستیم.» فریدمن نیز در جواب گفت: «چنین پاسخی نشان میدهد که چیزی برای بحث وجود دارد و این بسیار رازآلود است، سم.»
بیشتر بخوانید:
هوش مصنوعی در مسیر ابر انسان شدن/ سال ۲۰۲۴، سال احساس بخشیدن به ماشین
مدیرعامل OpenAI اظهارنظرهای کلی و ابهامآمیزی راجعبه تحقیقات پیرامون موضوعات مختلف ارائه داد و در نهایت اشارهای به بهبود «استدلال منطقی» در سیستمهای هوش مصنوعی کرد. گفته میشود استدلال منطقی و قدرت حل مسائل ریاضی ویژگی متمایز مدلی است که در پروژهی کیواستار توسعه مییابد.
همانطور که The Information و رویترز قبلاً گزارش داده بودند، کیواستار احتمالاً توانایی حل مسائلی را دارد که پیشتر در مدلهای هوش مصنوعی دیگر دیده نشده و پیشرفتهایی در عملکرد هوش مصنوعی ارائه میدهد که با آنچه تاکنون دیدهایم تفاوت خواهد داشت.
با جمعبندی همهی شایعات و تحلیلهایی که درمورد کیواستار مطرح شده، بهنظر میرسد که OpenAI واقعاً در حال خلق پیشرفت عظیمی در استدلال محاسباتی است، اما باید دید این پروژه چقدر بزرگ خواهد بود. تا این لحظه، از بین جملات آلتمن نتیجهی خاصی بهدست نیامده است.