Jestem analityczką danych, która uczy się przez działanie – dosłownie. Jako osoba ucząca się kinestetycznie, najlepiej przyswajam wiedzę, gdy mogę fizycznie pracować z zadaniem, rozłożyć je na części i złożyć od zera. Dlatego podchodzę do nauki przez praktyczne projekty oparte na rzeczywistych danych – testuję, iteruję, uczę się na błędach i idę naprzód.
Moja droga do świata danych zaczęła się od nauki Pythona – szczególnie pociągały mnie tematy uczenia maszynowego i sztucznej inteligencji. Im głębiej w to wchodziłam, tym mocniej rozumiałam znaczenie fundamentów: czyszczenia danych, eksploracji wzorców, wizualizacji wyników. Zrozumiałam, że bez solidnych podstaw analitycznych nie ma sensownych modeli – i ta część procesu stała się moim głównym punktem skupienia.
Na co dzień pracuję z Pythonem, SQL, Excelem, Power BI i Tableau – dobieram narzędzia do problemu, a nie odwrotnie.
- Narzędzia, których używam
- Python (Pandas, NumPy, Matplotlib): wczytywanie danych z plików CSV i JSON, czyszczenie, transformacja, przygotowanie do analizy, wizualizacja oraz dokumentowanie procesu w Jupyter Notebook z zastosowaniem dobrych praktyk kodowania.
- SQL: pisanie zapytań z użyciem SELECT, JOIN, GROUP BY, ORDER BY, WHERE, funkcji agregujących, CTE, podzapytań oraz funkcji okna.
- Excel: zaawansowane formuły (w tym zagnieżdżone i warunkowe), Power Query, tabele przestawne, proste dashboardy i przygotowanie danych.
- Power BI & Tableau: tworzenie interaktywnych dashboardów opartych na dobrze zbudowanych modelach danych. Praca z DAX, relacjami tabel, zbiorami, parametrami i wieloma źródłami danych. Skupiam się na klarowności, logice i użyteczności.
- Git: kontrola wersji, organizacja projektu i śledzenie postępów.

