Entropia
Entropia jest miarą nieuporządkowania lub niepewności w rozkładzie prawdopodobieństwa.
Entropia jest miarą nieuporządkowania lub niepewności w rozkładzie prawdopodobieństwa.
Indeks Giniego jest miarą koncentracji rozkładu zmiennej.
Sieci neuronowe to rodzina algorytmów ciesząca się coraz większą popularnością w zadaniach z obszaru predykcji, klasyfikacji czy grupowania.
Regresja służy do przewidywania wartości zmiennej zależnej (przewidywanej) na podstawie wartości zmiennej lub zmiennych niezależnych (predyktorów).
Kurtoza i skośność to miary asymetrii opisujące takie własności jak kształt i asymetria analizowanego rozkładu. Dostarczają nam informacji, w jaki sposób wartości zmiennych...
Kwantyle wykorzystujemy do określenia pozycji danej wartości na tle innych w grupie lub populacji. Powiedzmy, że otrzymaliśmy wyniki egzaminów maturalnych z matematyki. Chcesz...
Test niezależności chi-kwadrat jest jednym najpopularniejszych testów statystycznych. Stosuje się go w celu sprawdzenia, czy między dwiema zmiennymi jakościowymi występuje istotna...
Grupa testów t Studenta służy do porównania ze sobą dwóch grup wyników, zmierzonych za pomocą średniej arytmetycznej.
Średnia jest jedną z najbardziej popularnych i najczęściej stosowanych miar statystycznych. Sama w sobie nie jest wyczerpującym wskaźnikiem i pozwala jedynie na określenie...
Chętnie porozmawiamy na tematy dotyczące zastosowania analizy danych w twoich działaniach.
Dysponujemy wiedzą z wielu obszarów i znamy specyfikę branż.