عنوان مقاله فارسی: یادگیری آنلاین هسته ای قوی
عنوان مقاله لاتین: Robust Recurrent Kernel Online Learning
نویسندگان: Qing Song; Xu Zhao; Haijin Fan; Danwei Wang
تعداد صفحات: 13
سال انتشار: 2017
زبان: لاتین
Abstract:
We propose a robust recurrent kernel online learning (RRKOL) algorithm based on the celebrated real-time recurrent learning approach that exploits the kernel trick in a recurrent online training manner. The novel RRKOL algorithm guarantees weight convergence with regularized risk management through the use of adaptive recurrent hyperparameters for superior generalization performance. Based on a new concept of the structure update error with a variable parameter length, we are the first one to propose the detailed structure update error, such that the weight convergence and robust stability proof can be integrated with a kernel sparsification scheme based on a solid theoretical ground. The RRKOL algorithm automatically weighs the regularized term in the recurrent loss function, such that we not only minimize the estimation error but also improve the generalization performance through sparsification with simulation support.
ما یک الگوریتم یادگیری آنلاین کرنل تکرار شونده قوی (RRKOL)براساس رویکرد یادگیری تکرار شونده واقعی معروف پیشنهاد میکنیم که از ترفند کرنل در یک روش آموزش آنلاین تکرار شونده بهره میبرد. الگوریتم جدید RRKOL همگرایی وزن را با مدیریت ریسک منظم شده از طریق استفاده از پارامترهای تکرار شونده تطبیقی برای عملکرد تعمیم برتر تضمین میکند. براساس مفهوم جدید خطای به روز رسانی ساختار با طول پارامتر متغیر، ما اولین کسی هستیم که خطای دقیق به روز رسانی ساختار را پیشنهاد میدهیم، به طوری که همگرایی وزن و اثبات پایداری مقاوم را می توان با یک طرح تنکی سازی کرنل براساس یک زمینه نظری جامد یکپارچه کرد. الگوریتم RRKOL به طور خودکار عبارت تنظیمشده در تابع اتلاف بازگشتی را وزن میکند، به طوری که ما نه تنها خطای تخمین را به حداقل میرسانیم، بلکه عملکرد تعمیم را از طریق جرقه زدن با پشتیبانی شبیهسازی بهبود میدهیم.
robust recurrent kernel online learning_1619877472_48083_4145_1324.zip1.26 MB |