Entropia
Entropia jest miarą nieuporządkowania lub niepewności w rozkładzie prawdopodobieństwa.
Entropia jest miarą nieuporządkowania lub niepewności w rozkładzie prawdopodobieństwa.
Sieci neuronowe to rodzina algorytmów ciesząca się coraz większą popularnością w zadaniach z obszaru predykcji, klasyfikacji czy grupowania.
Regresja służy do przewidywania wartości zmiennej zależnej (przewidywanej) na podstawie wartości zmiennej lub zmiennych niezależnych (predyktorów).
Kurtoza i skośność to miary asymetrii opisujące takie własności jak kształt i asymetria analizowanego rozkładu. Dostarczają nam informacji, w jaki sposób wartości zmiennych...
Kwantyle wykorzystujemy do określenia pozycji danej wartości na tle innych w grupie lub populacji. Powiedzmy, że otrzymaliśmy wyniki egzaminów maturalnych z matematyki. Chcesz...
Test niezależności chi-kwadrat jest jednym najpopularniejszych testów statystycznych. Stosuje się go w celu sprawdzenia, czy między dwiema zmiennymi jakościowymi występuje istotna...
Grupa testów t Studenta służy do porównania ze sobą dwóch grup wyników, zmierzonych za pomocą średniej arytmetycznej.
Średnia jest jedną z najbardziej popularnych i najczęściej stosowanych miar statystycznych. Sama w sobie nie jest wyczerpującym wskaźnikiem i pozwala jedynie na określenie...
Moc testu to prawdopodobieństwo wykrycia istotnego statystycznie efektu, gdy faktycznie taki w badanej populacji występuje.
Celem analizy czynnikowej jest wyjaśnienie jak największej części zmienności przy pomocy jak najmniejszej liczby zmiennych.
Główną ideą regresji jest przewidywanie wartości zmiennej zależnej (inaczej też określanej jako przewidywana, wyjaśniana) na podstawie jednej lub większej liczby zmiennych...