Optymalizacja bayesowska to technika pozwalająca na efektywne znalezienie optymalnych parametrów systemu, w szczególności w przypadku modeli uczenia maszynowego. Łączy pomysły z algorytmów prawdopodobieństwa Bayesa i optymalizacji w celu zbadania przestrzeni wejściowej funkcji celu i zapewnienia najbardziej prawdopodobnych optymalnych parametrów modelu. Różni się od tradycyjnych podejść optymalizacyjnych tym, że nie przeszukuje całej przestrzeni wejściowej, ale raczej skupia się na bardziej ograniczonym podzbiorze, który z większym prawdopodobieństwem da maksimum.
Optymalizacja bayesowska ma swoje korzenie w Bayesowskiej teorii prawdopodobieństwa, która stwierdza, że obserwowane zdarzenia są uwarunkowane prawdopodobieństwem innych zdarzeń. Teoria pozwala użytkownikowi skonstruować rozkład prawdopodobieństwa w przestrzeni wejściowej i obliczyć oczekiwanie późniejsze jako najbardziej prawdopodobną wartość parametrów. Uzyskane w ten sposób maksimum można następnie wykorzystać do dokładnej optymalizacji modelu.
Optymalizacja bayesowska jest najczęściej stosowana w uczeniu maszynowym do znajdowania parametrów sieci neuronowej lub ustawień algorytmu uczenia się przez wzmacnianie. W takich przypadkach może zmniejszyć liczbę ocen potrzebnych do znalezienia optymalnego rozwiązania i zaoszczędzić cenny czas programistów.
Wraz z rozwojem dziedziny uczenia maszynowego, optymalizacja bayesowska staje się coraz bardziej popularna ze względu na jej zdolność do dostarczania dokładnych rozwiązań w sposób oszczędzający czas. Jest również używany w wielu innych zastosowaniach, w tym dostrajaniu hiperparametrów, automatycznym dopasowywaniu modelu i optymalizacji treści na stronach internetowych.
Optymalizacja bayesowska jest kluczowym narzędziem umożliwiającym sprawne znajdowanie optymalnych parametrów dla danego problemu i staje się integralną częścią zestawu narzędzi uczenia maszynowego.