گوگل مدل جدید هوش مصنوعی به نام RT-2 ایجاد کرده که می‌تواند به ربات‌ها کمک کند تا الگوهای بصری و زبانی را بهتر درک کنند. با کمک این مدل، ربات‌ها ‌می‌فهمند چه چیزی می‌بینند و چه چیزی به آنها گفته می‌شود. RT-2 با تکیه بر مدل پیشین بینایی-زبان-عمل (VLA) قادر خواهد بود، الگوهای موجود در تصاویر و زبان را با دقت بیشتری تشخیص دهد.

به گزارش هوشیو، گوگل با معرفی ترانسفورماتور رباتیک (RT-2) که یک مدل یادگیری هوش مصنوعی پیشرفته است توانسته، جهشی قابل‌توجه در افزایش هوش ربات‌های خود ایجاد نماید. بر این اساس، ربات‌های مجهز به فناوری RT-2 می‌توانند دستورالعمل‌ها را بهتر درک کنند و اشیاء مناسب را برای انجام وظایف خاص انتخاب نمایند.

محققان آزمایش‌های اخیر را با استفاده از RT-2 و یک ربات مجهز به بازوی رباتیک، در یک محیط شبیه‌سازی‌شده در آشپزخانه‌ای انجام دادند. در این آزمایش انجام وظایف مختلفی مانند شناسایی چکش، انتخاب نوشیدنی برای یک فرد خسته و حرکت دادن قوطی کوکاکولا از ربات خواسته شد. ربات مجهز به RT-2 توانست تمامی این وظایف را به درستی انجام دهد.

برای توسعه RT-2، گوگل این مدل را با استفاده از ترکیبی از داده‌های اینترنت و رباتیک آموزش داده و از یک مدل زبانی پیشرفته به نام Bard که همان مدل زبانی اختصاصی گوگل است، به‌منظور کمک به RT-2 در درک زبان استفاده کرده. علاوه بر این، RT-2 در درک دستورالعمل‌ها به زبان‌هایی غیر از انگلیسی نیز مهارت دارد که این امر نشان‌دهنده یک پیشرفت قابل‌توجه در درک و تفسیر زبان‌های کشورهای مختلف برای ربات‌های مبتنی بر هوش مصنوعی است.

قبل از ظهور مدل‌های VLA مانند RT-2، آموزش ربات‌ها فرایندی طولانی و دشوار بود و به برنامه‌نویسی سخت و زمان‌بر برای انجام هر کار خاص نیاز داشت. با قدرت این مدل‌های پیشرفته، ربات‌ها اکنون به مخزن وسیعی از داده‌ها دسترسی دارند که آنها را قادر می‌سازد تا تصمیمات آگاهانه را در محل بگیرند و روند آموزش آنها را ساده‌تر می‌سازد.

تلاش گوگل برای توسعه ربات‌های هوشمندتر از سال پیش با ادغام مدل زبانی خود با نام LLM PalM در رباتیک آغاز شد که در نهایت منجر به توسعه سیستمی به نام PaLM-SayCan گردید. گوگل می‌خواست از این سیستم برای ربات‌هایش به‌منظور آسان‌تر کردن درک زبان و کار با اشیاء در دنیای واقعی استفاده نماید و این گام مهمی در راستای پیشرفت‌های فعلی در گوگل بود.

با این وجود، ربات جدید بدون نقص نیست. در طول نمایش زنده‌ای که توسط نیویورک تایمز نشان داده شد، ربات در تشخیص درست طعم‌های مختلف نوشابه با مشکلاتی مواجه شد و گاهی اوقات رنگ میوه‌ها را به اشتباه سفید تشخیص می‌داد. چنین اشکالاتی، چالش‌های مداوم در اصلاح فناوری هوش مصنوعی را برای برنامه‌های کاربردی دنیای واقعی برجسته می‌سازد.


0 دیدگاه

دیدگاهتان را بنویسید

Avatar placeholder

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *