در سالهای اخیر، شرکت OpenAI بهویژه از طریق محصول ChatGPT به شهرت جهانی دست یافته است. از زمان معرفی این چتبات برپایه مدلهای زبانی بزرگ در سال ۲۰۲۲، OpenAI ابزارهای متعددی برای پشتیبانی از پژوهشگران ارائه کرده است. یکی از برجستهترین نوآوریها، معرفی «مدلهای استدلالی» است که با شبیهسازی روند فکری گامبهگام، در وظایف منطقی تخصص یافتهاند. مصاحبه Nature با Jakub Pachocki، دانشمند ارشد این شرکت، دیدگاههای مهمی درباره آینده تحقیقات علمی با کمک هوش مصنوعی ارائه میدهد.
نقش مدلهای استدلال در پژوهشهای آینده
جاکوب پاچوکی معتقد است که مدلهای فعلی همچنان نیازمند راهنمایی مداوم کاربر هستند، اما این وضعیت به زودی تغییر خواهد کرد. او اشاره میکند که ابزار Deep Research قادر است برای بازههای ۱۰ تا ۲۰ دقیقه بهصورت خودگردان اطلاعات را ترکیب و خروجی مفید تولید کند، در حالی که مصرف محاسباتی آن بسیار اندک است. با افزایش توان محاسباتی، این مدلها میتوانند در پروژههای تحقیقاتی بدون نظارت مستمر انسان، فرضیهسازی و تحلیل داده انجام دهند و به تولید دانش جدید کمک کنند.
ابزار Deep Research و کاربردهای آن
ابزار Deep Research OpenAI با تکیه بر مدلهای استدلال، حجم انبوهی از مطالب علمی را در بازه زمانی کوتاهی مرور کرده و خلاصهای جامع ارائه میدهد. محققان از این ابزار برای بازبینی ادبیات موضوع، ایجاد فلوچارت کد و حتی طراحی اولیهی آزمایشهای جدید بهره میبرند. با وجود انتقادهایی که در زمینه مصرف انرژی مدلهای بزرگ و نحوه استفاده از دادهها مطرح است، Deep Research نشان داده که با بهینهسازی مراحل پردازش و استدلال، میتوان خروجیهای ارزشمندی با حداقل هزینه محاسباتی دریافت کرد.
تاثیر یادگیری تقویتی در بهبود مدلها
پیشزمینه اصلی مدلهای ChatGPT بر پایه آموزش نظارت نشده (Unsupervised Pre-training) است که در آن مدل با حجم وسیعی از دادهها آشنا میشود و یک «World Model» شکل میدهد. سپس با استفاده از یادگیری تقویتی همراه با بازخورد انسانی (RLHF)، یک دستیار مفید از مدل استخراج میشود. پاچوکی توضیح میدهد که در مدلهای استدلالی جدید، مرحله یادگیری تقویتی اهمیت بیشتری یافته و به مدلها این امکان را میدهد که راهکارهای استدلالی خود را کشف کرده و مستقلتر عمل کنند.
آیا مدلها واقعا «استدلال» میکنند؟
سوالی که همواره مطرح است این است که آیا مدلهای هوش مصنوعی واقعا فرایند استدلال را اجرا میکنند یا صرفا تقلیدی از استدلال انسانی ارائه میدهند؟ پاچوکی تاکید میکند که نحوه پردازش این مدلها با عملکرد مغز انسان متفاوت است؛ آنها هیچ درکی از ترتیب زمانی یادگیری ندارند و نمیدانند چگونه به دانش خود دست یافتهاند. با این حال، شواهد کافی وجود دارد که نشان میدهد این مدلها میتوانند بینشهای نوآورانهای کشف کنند و این عملکرد را نوعی «استدلال» تلقی میکنند، هرچند که ماهیت آن با استدلال انسانی متفاوت باشد.
برنامههای آینده OpenAI و مدل Open Weights
سامآلتمان، مدیرعامل OpenAI، اعلام کرده که بهزودی نخستین مدل Open Weights این شرکت پس از GPT-2 در سال ۲۰۱۹ منتشر خواهد شد. پاچوکی در این زمینه ابراز هیجان کرده و عنوان میکند که ارائه مدلی با وزنهای باز به پژوهشگران امکان میدهد تا مدل را دانلود، آموزش مجدد و سفارشیسازی کنند. با این وجود، او تاکید میکند که انتشار مدلهای پیشرفته و frontier با کد باز دشوار است و باید تعادل میان نوآوری و ملاحظات ایمنی حفظ شود.
تعریف هوش مصنوعی عمومی (AGI) و چشمانداز رسیدن به آن
برای پاچوکی، معیاری که پیشتر برای AGI در نظر میگرفت، تسلط ماشین به بازی Go بود که در سال ۲۰۱۶ اتفاق افتاد و نقطه عطفی در این مسیر بود. او خاطره شک و تردید خود را در آغاز کار در OpenAI در سال ۲۰۱۷ بازگو میکند و تصریح میکند که طی سالهای اخیر، رخدادهای مهم سریعتر از پیشبینیها محقق شده است. به باور او، گام بزرگ بعدی، توانایی مدلها در تولید تاثیر اقتصادی ملموس و خلق پژوهشهای نوآورانه است. پاچوکی انتظار دارد که تا پایان دهه جاری، پیشرفت قابلتوجهی در این زمینه رخ دهد و حتی در سال ۲۰۲۵، مدلها بتوانند بهطور تقریبا خودمختار نرمافزارهای ارزشمند تولید کنند.
نتیجهگیری
گفتوگوی Nature با Jakub Pachocki نشان میدهد که مدلهای استدلالی در آستانه تحولی بزرگ در دنیای تحقیق علمی قرار دارند. از ابزار Deep Research تا کاربردهای یادگیری تقویتی و چشمانداز ارائه مدلهای Open Weights، همگی گواه این واقعیت هستند که هوش مصنوعی نهتنها در نقش دستیار پژوهشگران ظاهر شده، بلکه در آیندهای نزدیک میتواند خود به تولید علم و نوآوری بپردازد.