GB (gigabajt) to jednostka miary używana do pomiaru pojemności pamięci cyfrowej i jest szczególnie używana w komputerach. Gigabajt odpowiada 1024 megabajtom i jest często używany do pomiaru pojemności dysków twardych, procesorów, układów pamięci i innych urządzeń.
Wraz z rozwojem technologii, pojemność urządzeń do przechowywania danych drastycznie wzrosła. Gigabajt jest równy 1000 megabajtom i często jest oznaczany skrótem "GB". Pojemność dysku twardego jest zwykle wyświetlana w gigabajtach i staje się coraz większa w porównaniu do lat ubiegłych.
Gigabajty są również często używane do pomiaru szybkości przetwarzania komputerowego. Podczas gdy pojemność dysku twardego jest mierzona w gigabajtach, szybkość procesora jest mierzona w gigahercach, co odpowiada tysiącowi milionów cykli na sekundę. Procesory (Central Processing Units) są najważniejszą częścią komputera i pracują z prędkością kilku gigaherców.
GB to najbardziej podstawowa jednostka miary cyfrowej pamięci masowej używanej w informatyce i jest niezbędna do zrozumienia, w jaki sposób dane są przechowywane na nowoczesnych urządzeniach. Wraz ze wzrostem technologii i pojemności pamięci masowej, użycie GB będzie nadal pomagać nam zrozumieć, jak mierzyć rozmiary danych w informatyce.