XGBoost
XGBoost یک کتابخانه نرمافزار آزاد است که چارچوب تقویت گرادیان برای ++C، جاوا، پایتون، R, و جولیا، پرل و اسکالا را فراهم میکند. در لینوکس، ویندوز، MacOS کار میکند. هدف ارائه یک کتابخانه «مقیاسپذیر، قابلحمل و توزیعشده» (gbm, GBRT, GBDT) است. علاوه بر اجرای یک ماشین واحد، همچنین از چارچوبهای پردازش توزیعشده آپاچی اسپارک، آپاچی هدوپ، آپاچی فلینک و داسک (نرمافزار) پشتیبانی میکند. این الگوریتم انتخاب بسیاری از تیمهای برندهٔ شماری از رقابتهای یادگیری ماشین بود و محبوبیت و توجه زیادی به دست آوردهاست.
توسعهدهنده(ها) | The XGBoost Contributors |
---|---|
انتشار ابتدایی | ۲۷ مارس ۲۰۱۴ |
انتشار پایدار | ۰٫۷۰
۳۰ دسامبر ۲۰۱۷ |
مخزن | |
نوشتهشده با | سی پلاسپلاس |
سیستمعامل | لینوکس، مکاواس، مایکروسافت ویندوز |
گونه | یادگیری ماشین |
پروانه | مجوز آپاچی ۲٫۰ |
وبگاه |
تاریخچه
XGBoost در ابتدا به عنوان یک پروژه تحقیقاتی توسط تیانگی چن به عنوان بخشی از گروه یادگیری عمیق ماشینی توزیعشده آغاز شد. در ابتدا به عنوان یک برنامه ترمینال (terminal application) آغاز شد که میتوانست با استفاده از یک فایل پیکربندی libsvm پیکربندی شود. پس از پیروزی در چالش یادگیری ماشین هیگز، به عنوان بخشی از چرخهٔ مسابقه شناخته شد. پس از آن بستههای زبانهای پایتون و R ساخته شدند و اکنون برای بسیاری از زبانهای دیگر مثل جولیا، Scala، جاوا و غیره بستههایی دارد و در بین جامعه Kaggle که برای تعداد زیادی از رقابتها از آن استفاده شدهاست، محبوب است.
خیلی زود با چندین بسته دیگر مورد استفاده قرار گرفت و در حال حاضر برای کاربران پایتون همراه با کتابخانهٔ scikit-learn و برای کاربران R همراه با بسته caret ارائه میشود.
الگوریتم
الگوریتم
جوایز
- جایزه جان چمبرز (۲۰۱۶)
- جایزه High Energy Physics meets Machine Learning (2016)
جستارهای وابسته
منابع
- ↑ "GitHub project webpage".
- ↑ "Python Package Index PYPI: xgboost". Retrieved 2016-08-01.
- ↑ "CRAN package xgboost". Retrieved 2016-08-01.
- ↑ "Julia package listing xgboost". Archived from the original on 18 August 2016. Retrieved 2016-08-01.
- ↑ "CPAN module AI::XGBoost". Retrieved 2020-02-09.
- ↑ "Installing XGBoost for Anaconda in Windows". Retrieved 2016-08-01.
- ↑ "Installing XGBoost on Mac OSX". Retrieved 2016-08-01.
- ↑ "Dask Homepage".
- ↑ "Distributed XGBoost with Dask — xgboost 1.5.0-dev documentation". xgboost.readthedocs.io. Retrieved 2021-07-15.
- ↑ "XGBoost - ML winning solutions (incomplete list)". Retrieved 2016-08-01.
- ↑ "Story and Lessons behind the evolution of XGBoost". Archived from the original on 7 August 2016. Retrieved 2016-08-01.
- ↑ "XGBoost - ML winning solutions (incomplete list)". Retrieved 2016-08-01.