تیتربرتر: اگر از این چتبات سؤال مبهمی بپرسید، جوری که نتواند بهطور دقیق پاسخ دهد، بهدرستی میتواند حدس بزند که سؤال شما در کدام دستهبندی موضوعی، مثلا علمی، فلسفی، سیاسی و غیره جای میگیرد و متناسب با این دستهبندی جواب شما را میدهد. به راستی که این چت بات چیست؟
ChatGPT چیست؟
GPT مخفف Generative Pre-trained Transformer (مولد ازپیشآموزشیافته ترانسفورمر)، نمونهای از تکنولوژی هوش مصنوعی موسوم به مدل زبانی بزرگ است که بهطور خودکار و با استفاده از حجم فوقالعاده بزرگی از داده و قدرت رایانشی در طول چند هفته آموزش میبیند و براساس آنچه در این مدت دیده و یاد گرفته، متن تولید میکند
ChatGPT نوعی چتبات آزمایشی یا بهتر است بگویم بهترین چتباتی است که تاکنون در دسترس عموم قرار گرفته است. این چتبات را OpenAI ایجاد کرده و مبتنیبر نسخهی ۳.۲ مدل زبانی GPT است که همین شرکت توسعه داده است. OpenAI همان شرکت مرموز توسعهدهندهی مولد تصویر بسیار هوشمند Dall-E است که میخواهد زودتر از همه به هوش مصنوعی انسانگونه برسد.
دانش بی نهایت
ChatGPT حتی از پس عجیبوغریبترین درخواستها نیز برمیآید؛ مثلا میتواند داستانی سر هم کند که جزییات بهظاهر بیربط آن در بند اول، به اتفاقات بند آخر مرتبط باشند (اتفاقی که حتی در محبوبترین سریالهای نتفلیکس هم کمتر میافتد!). میتواند لطیفه بگوید و حتی توضیح دهد که چرا خندهدار است. میتواند به سبک مجلات و نویسندههای مختلف، لیدهای جذاب بنویسد و حتی از نقلقولهای بهظاهر معتبر، اما کاملا جعلی استفاده کند. تمام این قابلیتها باعث شده ChatGPT به ابزاری به شدت سرگرمکننده و اعتیادآور و البته برای افرادی مثل من که شغلشان نویسندگی است، بسیار نگرانکننده و دردسرساز تبدیل شود.
بیشتر بخوانید:
حجم دادههایی که ChatGPT با آنها آموزش داده شده به حدی وسیع است که خواندن تمام آنها بهگفتهی مایکل وولدریج، مدیر تحقیقات بنیادی هوش مصنوعی در مؤسسه آلن تورینگ در لندن، به «هزار سال عمر انسانی» نیاز دارد. او میگوید دادههایی که در دل این سیستم پنهان شده، دانش بینهایت بزرگی را دربارهی جهانی که در آن زندگی میکنیم، در خود جای داده است.
ChatGPT چگونه کار میکند؟
چتبات ChatGPT درواقع مبتنی بر نسخهی بهروز شده GPT-3، نوعی مدل زبانی بزرگ (LLM) است که بر شبکهی عظیمی از نورونهای مصنوعی متکی است که بهنوعی، رفتار نورونهای مغز انسان را تقلید میکنند.
مدل زبانی GPT برپایه معماری شبکه عصبی ترانسفورمر گوگل ایجاد شده و گوگل از این شبکه عصبی در ساخت مدل زبانی پیشرفتهی LaMDA استفاده کرده است؛ همان مدلی که چند ماه پیش، یکی از کارمندان گوگل مدعی شد «خودآگاه» است و موجی از شوخیهای اینترنتی و نگرانی از ظهور رباتهای قاتلی بهراه انداخت.
به تعریف خود گوگل، «ترانسفورمر مدلی تولید میکند که میتواند برای خواندن کلمات بسیاری (مثلا یک جمله یا پاراگراف) آموزش داده شود و به نحوهی ارتباط آن کلمات با یکدیگر توجه و سپس پیشبینی کند که بهنظرش، کلمات بعدی چه خواهند بود.»
بهعبارتدیگر، ترانسفورمر بهجای تجزیهوتحلیل مرحلهبه مرحلهی متن ورودی، کل جملات را همزمان بررسی میکند و میتواند روابط بین آنها را برای درک بهتر فحوای کلام و متناسب با موقعیتی که این جملات بهکار رفتهاند، مدلسازی کند. ازآنجاکه این شبکه، تجزیهوتحلیل را بهطورکلی و یکجا انجام میدهد، به مراحل کمتری نیاز دارد و در حوزهی یادگیری ماشین هرچه تعداد مراحل پردازش داده کمتر باشد، نتیجهی بهتری حاصل میشود.
یک میلیون کاربر در 5 روز!!!
تکنولوژی بهکاررفته در ChatGPT چیز جدیدی نیست. این چتبات با استفاده از مدل زبانی GPT-3.5 توسعه یافته که درواقع نسخهی بهروزشدهی GPT-3 است و در سال ۲۰۲۰ بهطور محدود دردسترس برخی از کاربران قرار گرفت و حسابی سروصدا بهپا کرد. کاربری در توییتر از GPT-3 خواسته بود به سبک یوتیوبرهای تکنولوژی لپتاپی را بررسی کند که روح ریچارد نیکسون آن را تسخیر کرده است. او که از نتیجه شگفتزده شده بود، در توییتی نوشت: «یوتیوبرهای انسان، خدا رحمتتون کنه. هیچوقت نمیتونید با محتوایی مثل این رقابت کنید.»
پس این همه هیاهو و جنجال رسانهای بر سر ChatGPT به خاطر چیست و چه شد که این چتبات توانست بهگفتهی سم آلتمن، مدیرعامل OpenAI، فقط در مدت پنج روز یک میلیون کاربر بهدست آورد؟ (برای مقایسه، دوسال طول کشید فیسبوک و اینستاگرام از مرز یک میلیون کاربران عبور کنند.)
درست است که برای پژوهشگران حوزهی هوش مصنوعی، مدلهای زبانی بزرگ تکنولوژی جدیدی به حساب نمیآیند؛ بااینحال، این اولین بار است که چنین ابزار قدرتمندی بهطور رایگان و با رابط کاربری وب بینهایت ساده، در دسترس عموم قرار گرفته است. اگر به خاطر داشته باشید، آنقدر که نسخهی تقلیدی Dall-E Mini در اینترنت سروصدا کرد، نسخهی اصلی و بهمراتب قدرتمندتر آن، Dall-E 2 مشهور نشد؛ چون تنها در دسترس برخی افراد خاص قرار گرفت، درحالی که همه میتوانستند بهراحتی از Dall-E Mini (که البته بهخاطر مسائل کپیرایت، به Craiyon تغییر نام داد) استفاده کنند. البته بسیاری از کاربران توییتری این روزها از ChatGPT برای طنز و درخواستهای خندهدار استفاده میکنند.
مثال هایی از کاربرد ChatGPT
الکس کوهن، مدیر ارشد محصولات شرکت Carbon Health، از ChatGPT برای ایجاد رژیمی برای کاهش وزن متشکل از میزان کالری مصرفی، تمرینات ورزشی، لیست هفتگی وعدههای غذایی و حتی لیست خرید برای تمام مواد موردنیاز استفاده کرد. او در توییتی نوشت که «این را از صمیم قلب میگویم؛ ChatGPT شاید شگفتانگیزترین تکنولوژی دههی اخیر باشد.» و بعد، مراحل قدم به قدم ایجاد رژیم غذایی با این چتبات را به اشتراک گذاشت.
با ChatGPT حتی میتوان نرمافزار توسعه داد. اریک شلونتز، توسعهدهنده و مدیر ارشد Cobalt Robotics در توییتی نوشته که ChatGPT اینقدر کارش را درست انجام میدهد که سه روز است اصلا سایت Stack Overflow را باز نکرده است. گیب رگلند که در وبسایت هنری هوش مصنوعی Lexica کار میکند، از این چتبات برای نوشتن کد وبسایتی که با ابزار React ساخته شده، استفاده کرد.
همچنین می تواند عبارات باقاعده (regex) را تجزیه و تحلیل کند. برنامهنویسی به نام جیمز بلکولز دربارهی توانایی ChatGPT به توضیح regex در توییتی نوشت: «مثل این است که یک مربی برنامهنویسی ۲۴ ساعته در دسترسات باشد.»
حتی شگفتانگیزتر از اینها؛ ChatGPT میتواند محیط لینوکس را شبیهسازی کند و به کامندلاینها بهدرستی پاسخ دهد. بهگفتهی آرستکنیکا، فقط کافی است درخواست زیر را وارد کنید و بهجای سهنقطه، کامند مدنظرتان را بنویسید .
خودآگاهی ChatGPT
اگر بخواهیم به حرفهای خود ChatGPT اعتماد کنیم، باید خیالمان از ظهور آخرالزمان رباتی فعلا راحت باشد. اما دانشمندان روشهای مطمئنتری برای اثبات خودآگاهی یا نبود خودآگاهی در سیستمهای هوش مصنوعی در اختیار دارند.
یکی از این روشها، آزمایش فکری تورینگ (Turing test) است که به نام دانشمند کامپیوتر بریتانیایی آلن تورینگ نامگذاری شده است. در تعریف رایج این آزمایش آمده که اگر شخصی با یک ماشین مکالمهای برقرار کند و پاسخهای ماشین را با پاسخهای انسان واقعی اشتباه بگیرد، آن وقت میتوان گفت ماشین به خودآگاهی رسیده است.
تست تورینگ به این واقعیت اعتراف میکند که خودآگاهی چیزی است که فقط میتوانیم آن را از بیرون و براساس نحوهی ارتباط کلامی خود با سیستم قضاوت کنیم. اما این آزمایش محدودیتهای آشکاری دارد؛ مثلا حیوانی که نمیتواند با ما گفتوگو کند، آیا معنیاش آن است که این حیوان هوشیار و آگاه نیست؟ در این صورت، اگر بخواهیم خودآگاهی ماشین را ثابت کنیم، کافی است از آن بخوایم با یک کودک صحبت کند. هرچند مطمئنم که هوش مصنوعی میتواند برخی از افراد بالغ را نیز فریب دهد.
گرازیانو میگوید برای اینکه بفهمیم سیستمی هوشیار است یا نه، چیزی که باید آزمایش کنیم این است که آیا سیستم نحوهی تعامل ذهنهای خودآگاه را درک میکند یا خیر. به عبارت دیگر، باید تست تورینگ را بهصورت وارونه اجرا کنیم؛ یعنی باید ببینیم که آیا کامپیوتر میتواند تشخیص دهد که دارد با انسان صحبت میکند یا با کامپیوتر دیگر. اگر بتواند این تفاوت را تشخیص دهد، شاید آن وقت بتوان گفت میداند هوشیاری یعنی چه. چتبات ChatGPT قطعا نمیتواند این آزمون را با موفقیت از سر بگذراند؛ چون نمیداند دارد به یک انسان پاسخ میدهد یا به فهرستی تصادفی از سؤالات پیشفرض.