27.11.2022, godz. 10:00-18:00
Big data od zera i w pigułce. Korzystanie z darmowych narzędzi analitycznych, mgr Piotr Luczys
Uczestnicy warsztatu zostaną zaznajomieni z podstawami wykorzystywania algorytmów uczenia maszynowego i sztucznej inteligencji w analizowania dużych zbiorów danych – zarówno ilościowych, jak i jakościowych. W jego trakcie zaprezentowany zostanie cały proces postępowania ze zbiorami big data (giga danych), począwszy od ich wyszukiwania, eksplorowania i czyszczenia, a na działaniach analitycznych skończywszy. Wszystkie elementy procesu zostaną omówione na przykładach, z wykorzystaniem darmowego, powszechnie dostępnego w internecie oprogramowania i zbiorów danych, dzięki czemu uczestnicy będą mogli w łatwy sposób kontynuować zgłębianie tematyki analizowania dużych zbiorów danych już po zakończeniu warsztatu, na własną rękę.
Ramowy program warsztatu:
- Big data – definicje, mity i buzzword’y;
- Oprogramowanie do analizowania dużych zbiorów danych – perspektywa analityczna vs. perspektywa biznesowa;
- Visual analytics i systemy BI (business intelligence);
- Darmowe narzędzia analityczne vs. rozwiązania chmurowe – podstawowe cechy;
- Wyszukiwanie i eksplorowanie big data w zasobach sieciowych;
- Importowanie i przeglądanie zbiorów danych;
- Czyszczenie i jakościowa waloryzacja danych;
- Wprowadzenie do tematyki ML (machine learning) – problemy, metody i algorytmy ich rozwiązywania;
- Nienadzorowane uczenie maszynowe (przykład klasteryzacji);
- Nadzorowane uczenie maszynowe (przykład klasyfikacji i regresji);
- Wprowadzenie do tematyki AI (artificial intelligence) – neurony, sieci i to, co ukryte;
- Uczenie maszynowe ze wzmocnieniem (dane treningowe, automatyzacja i uproszczone sieci neuronowe);
- Perceptron wielowarstwowy i klasyczne sieci neuronowe;
- Rozpoznawanie obrazów i uczenie głębokie;
- Problemy analityki big data (przetrenowanie, charakter analizowanych zbiorów, interpretacja, data storytelling);
- Rozwijanie prezentowanych metod i algorytmów;
- „Co dalej…?”, czyli co czytać, gdzie szukać i jak rozwijać swoje kompetencje.
Szczegółowe cele warsztatu:
Wiedza:
- BD_W01 – potrafi wymienić i opisać cechy zbiorów giga danych (big data)
- BD_W02 – zna podstawowe funkcje oprogramowania do analizowania dużych zbiorów danych
- BD_W03 – rozumie działanie inteligentnych algorytmów analitycznych i dokonywanych za ich pośrednictwem przekształceń danych
- BD_W04 – potrafi zdefiniować ilościowe oraz jakościowe zależności pomiędzy dużymi zbiorami danych oraz pomiędzy danymi wewnątrz tych zbiorów
Umiejętności:
- BD_U01 – potrafi przeprowadzić analizę eksploracyjną w zbiorach giga danych (big data)
- BD_U02 – potrafi korzystać z algorytmów ML i AI do analizowania różnorodnych zbiorów danych
- BD_U03 – potrafi zaplanować proces analityczny odpowiedni dla określonego zbioru giga danych (big data)
- BD_U04 – jest w stanie stworzyć model wizualnej interpretacji giga danych (big data)
Kompetencje:
- BD_K01 – wykazuje zrozumienie współczesnych problemów i ograniczeń analityki dużych zbiorów danych
- BD_K02 – jest świadomy wpływu jaki na różne dziedziny jego życia prywatnego i zawodowego mają zbiory giga danych (big data)
Dla kogo?
Warsztat jest adresowany do osób, które nie miały do tej pory styczności z analizowaniem giga danych (big data) lub miały go wyłącznie w warstwie teoretycznej (bez zastosowania stosownego oprogramowania, analizowania działania algorytmów, projektowania procesu itd.). Wymagana jest:
- znajomość podstawowych terminów z zakresu statystyki opisowej (zwłaszcza w zakresie miar tendencji centralnej);
- umiejętność posługiwania się komputerem z systemem Windows z dostępem do internetu (instalowanie oprogramowania, korzystanie z wyszukiwarki Google i funkcji Eksploratora Windows itp.);
- znajomość języka angielskiego w stopniu średniozaawansowanym (język domyślny omawianego oprogramowania).
Udział w warsztacie nie wymaga dodatkowego przygotowania matematycznego i/lub programistycznego, ani doświadczenia w zakresie zaawansowanej analizy danych. Warsztat prowadzony jest w języku polskim.
Dodatkowe informacje:
Każdy uczestnik warsztatu powinien mieć do swojej dyspozycji komputer przenośny z systemem Windows 10 (64-bit) i uprawieniami administratora/właściciela (aby możliwy był dostęp do wszystkich operacji systemowych). Szczegółowe informacje nt. koniecznego do zainstalowania oprogramowania oraz zbiorów danych, na których będziemy pracować, zostaną przekazane zapisanym uczestnikom na 7 dni przed rozpoczęciem warsztatu. Prosimy mieć na uwadze, że instalowane oprogramowanie oraz pobierane dane mogą wymagać ok. 10-12GB miejsca wolnego na dysku twardym (partycji systemowej).
Mgr Piotr Luczys – socjolog; analityk biznesowo-systemowy w Centrum Rozwoju Szkół Wyższych TEB Akademia Sp. z o.o. (od 2021) i wykładowca na Wydziale Historii UAM (od 2020), gdzie prowadzi, m.in. zajęcia Informatyczne metody analizy danych historyczno-gospodarczych (Big Data). Pracował także jako specjalista ds. wdrażania technologii badawczych i analitycznych (2018-2022), specjalista ds. badań sieciowych (2017-2018) w Public Profits Sp. z o.o. oraz jako starszy technik w Instytucie Socjologii UAM (obecnie: Wydział Socjologii UAM), w latach 2014-2016. Absolwent studiów doktoranckich w Zakładzie Badań Kultury Wizualnej i Materialnej Instytutu Socjologii UAM (2009-2015) oraz studiów podyplomowych Zarządzanie Projektami IT na WSB Poznań (2019-2020). Realizator wielu grantów finansowanych przez KBN, NCN, NCBiR, MKiDN oraz jednostki samorządowe. Więcej informacji: https://orcid.org/0000-0002-7062-7461.
Więcej: