حساب کاربری
​
زمان تقریبی مطالعه: 3 دقیقه
لینک کوتاه

گرادیان کاهشی

کاهش گرادیان (انگلیسی: Gradient descent) الگوریتم بهینه‌سازی مرتبهٔ اول از نوع الگوریتم‌های تکرار شونده است. برای یافتن کمینهٔ محلی یک تابع با استفاده از این الگوریتم، گام‌هایی متناسب با منفی گرادیان (یا گرادیان تخمینی) تابع در محل فعلی برداشته خواهد شد. اگر در استفاده از این الگوریتم، گام‌هایی متناسب با جهت مثبت گرادیان برداشته شود، به بیشینهٔ محلی تابع نزدیک می‌شویم که به این فرایند افزایش گرادیان گفته می‌شود. اگر تابع محدب یا مقعر باشه به بیشینه جهانی می‌رسیم. بسیاری از مسائل یادگیری ماشینی محدب هستند و ازین رو گرادیان کاهشی جواب بهینه را در این مسائل تولید می‌کند.

فهرست

  • ۱ توضیح الگوریتم
    • ۱.۱ توضیح ساده
  • ۲ مثال
  • ۳ جستارهای وابسته
  • ۴ منابع
  • ۵ پیوند به بیرون

توضیح الگوریتم

فرض می‌کنیم تابعی چند متغیره به اسم F ( x )

داریم که مشتق‌پذیر است و هدف یافتن یک نقطه x
است که تابع را به حداقل ممکن برساند. برای نقطه a
جهتی که مقدار تابع با بیشترین شیب به صورت محلی کاهش پیدا می‌کند، خلاف جهت گرادیان تابع در آن نقطه یعنی بردار − ∇ F ( a )
است.

الگوریتم گرادیان کاهشی به صورت متناوب هر بار مقداری در خلاف جهت گرادیان حرکت می‌کند به این معنی که a n + 1 = a n − γ ∇ F ( a n )

. در اینجا γ
مقداری است که هربار الگوریتم در خلاف جهت گرادیان حرکت می‌کند. معمولاً این مقدار بسیار کوچک است.

برای توابع محدب هر بار مقدار تابع یا کمتر می‌شود یا ثابت می‌ماند به این معنی که F ( a 0 ) ≥ F ( a 1 ) ≥ F ( a 2 ) ≥ ⋯

با نزدیک شدن به نقطه بهینه، از آنجا که گرادیان به صفر نزدیک می‌شود مقادیر a n

به ثبات می‌رسند و تغییر محسوسی نمی‌کنند.

توضیح ساده

تصور کنید در حال اسکی بازی هستید! هر چقدر شیب بیشتر باشد، در هر لحظه طول بیشتری را لیز خواهید خورد! در روش نزول شیب، هر چه شیب بیشتر باشد، طول گام در جهت مخالف بیشتر خواهد شد. دربارهٔ پرسپترون یک لایه:

Δ w = − η ∂ E ∂ w

مثال

فرض کنید می‌خواهیم کمینه تابع f ( x 1 , x 2 ) = ( 1 − x 1 ) 2 + 100 × ( x 2 − x 1 2 ) 2

را با استفاده از الگوریتم کاهش گرادیان پیدا کنیم.

گرادیان این تابعِ دومتغیّریه این بردار است:

∇ f ( x 1 , x 2 ) = [ − 2 × ( 1 − x 1 ) − 400 × ( x 2 − x 1 2 ) × x 1 200 × ( x 2 − x 1 2 ) ]

معادله الگوریتم گرادیان کاهشی به شکل پایین خواهد بود، برای γ

مقدار 0.1
را در نظر گرفته‌ایم، [ x 1 n x 2 n ]
ورودی در مرحله n
است و [ x 1 n + 1 x 2 n + 1 ]
ورودی در مرحله n + 1
است:

[ x 1 n + 1 x 2 n + 1 ] = [ x 1 n x 2 n ] − 0.1 × [ − 2 × ( 1 − x 1 n ) − 400 × ( x 2 n − x 1 n 2 ) × x 1 n 200 × ( x 2 n − x 1 n 2 ) ]

این الگوریتم را می‌توانیم با شکل پایین به تصویر بکشیم.

جستارهای وابسته

  • روش گرادیان همیوغ
  • روش بی‌اف‌جی‌اس
  • روش نلدر - مید
  • تقویت گرادیان
  • رگرسیون خطی
  • رگرسیون لجیستیک

منابع

  1. ↑ Kim, Donghwan; Fessler, Jeffrey (2015-10-17). "Optimized first-order methods for smooth convex minimization". Mathematical Programming (به انگلیسی). 159 (1–2): 81–107. ISSN 0025-5610. PMID 27765996.

    پیوند به بیرون

    آخرین نظرات
    کلیه حقوق این تارنما متعلق به فرا دانشنامه ویکی بین است.