Opis kursu
Ideą kursu jest przekazanie umiejętności zaawansowanej pracy z danymi tym analitykom, którzy chociaż raz musieli wyrzucić swoje modele predykcyjne, bo popełnili błąd na początku analizy. Na szkoleniu uczymy nie tyle, jak skrócić czas pracy z danymi, ale jak uczynić tę pracę bardziej skuteczną. Kurs jest więc adresowany do osób, którym zależy na „bezproblemowym” przejściu do modelowania po fazie przygotowania danych. Dane w analizach data mining i data science mają zwykle swoje źródło w systemach transakcyjnych, które podlegały wielu transformacjom i przekształceniom, na które analityk nie ma wpływu. Z drugiej strony, tworząc modele predykcyjne interesuje nas zrozumienie zachowań osób, których dane transakcyjne są tylko pewnym odzwierciedleniem. Z tego zderzenia potrzeb analityków a stanu danych faktycznie dostępnych, wynika szereg nietrywialnych zagadnień i problemów. Jak podejść do tych danych, aby zdecydować, czy będą one dla nas przydatne? Czy pozwolą nam lepiej zrozumieć modelowane zjawisko? Czy ich jakość jest wystarczająca, aby je uwzględniać w analizach? Jak to ocenić? Czy użycie wielowymiarowych metod imputacji może nam w tym pomóc? Jak na końcu przekształcić te dane w plik przydatnych danych analitycznych? Czy te zagadnienia są praktyczne? Przypuszczalnie każdy praktyk powie, że tak. Czy są fascynujące? Raczej nie, ale są krytycznie ważne, aby dobrze przejść projekt data mining.