Zejście gradientowe to iteracyjne podejście algorytmiczne stosowane w uczeniu maszynowym do minimalizacji funkcji celu lub kosztu. Służy do optymalizacji parametrów modelu, na przykład w regresji gradientowej, w celu osiągnięcia punktu maksymalnego lub minimalnego w odniesieniu do zestawu parametrów. Innymi słowy, celem jest znalezienie parametrów, które minimalizują funkcję kosztu.
Gradient Descent działa poprzez obliczenie gradientu funkcji w każdym punkcie, a następnie odpowiednie dostosowanie parametrów. Gradient jest pochodną funkcji kosztu w odniesieniu do parametru. Jeśli pochodna ma wartość ujemną, optymalny parametr maleje. Odwrotna sytuacja ma miejsce, gdy pochodna ma wartość dodatnią. Gdy algorytm podąża za malejącym gradientem, ostatecznie osiąga punkt, w którym gradient wynosi zero. W tym momencie parametry osiągnęłyby punkt lokalnego minimum.
Ogólnie rzecz biorąc, Gradient Descent jest dobrze dopasowanym podejściem do optymalizacji funkcji nieliniowych. Działa zarówno w przypadku małych zbiorów danych, jak i dużych, złożonych zbiorów. Jest również łatwe do wdrożenia, ponieważ opiera się na prostym podejściu matematycznym.
Ważną częścią algorytmu Gradient Descent jest szybkość uczenia. Parametr ten określa, jak szybko algorytm będzie dostosowywał parametry. Wyższy współczynnik uczenia może spowodować, że algorytm będzie się rozchodził lub oscylował zamiast zbiegać do punktu lokalnego minimum. Dlatego wybór odpowiedniego tempa uczenia się jest ważną częścią procesu optymalizacji metodą zstępowania gradientowego.
Gradient Descent jest szeroko stosowany w aplikacjach uczenia maszynowego, takich jak sieci neuronowe lub maszyny wektorów nośnych. Jest ono również wykorzystywane w innych dziedzinach, takich jak wyszukiwarki czy przetwarzanie języka naturalnego.