Powrót do katalogu

VOUCHERY SZKOLENIOWE 2024/2025 R.
Kup w 2024 r.  - wykorzystaj do końca przyszłego roku!
Potrzebujesz wykorzystać budżet szkoleniowy w bieżącym okresie rozliczeniowym? Mamy dla Ciebie rozwiązanie!

Kupując voucher już teraz, zachowujesz gwarancję stałej ceny, a szkolenie możesz zrealizować w przyszłym roku.

Więcej informacji znajdziesz TUTAJ.

Podaj maila aby obejrzeć webinar z Node.js

Wyrażam zgodę na otrzymywanie informacji o promocjach i produktach oferowanych Czytaj więcej przez Vavatech Sp z o.o. Zgodę możesz cofnąć w każdym czasie.
Zaproponuj własny termin
Postaramy się uruchomić nowy termin dla Ciebie
2 700 / 2 dni
Zgłoś chęć udziału

Inne > Big Data i Data Science

Szkolenie: Spark dla programistów

Kod: [SPARK]
Pobierz program

Wprowadzenie

Szkolenie z analizy i przetwarzania danych w oparciu o Spark.

Cel szkolenia

• Wprowadzenie w zagadnienia BigData;
 Poznanie architektury przetwarzania danych w klastrze;
 Zdefiniowanie rozproszonych zbirów danych;
 Poznanie technik pracy z danymi, transformacje i agregacje;
 Poznanie w praktyce języka Spark SQL;
• Nabycie praktyki w wykorzystywaniu RDDs, w przetwarzaniu strumieniowym; 
• Wykorzystanie biblioteki MLib do zagadnień uczenia maszynowego.

Czas i forma szkolenia

14 godzin (2 dni x 7 godzin), w tym wykłady i warsztaty praktyczne.

Plan szkolenia

1. Spark 
   ○ Wprowadzenie do BigData 
   ○ Architektura i zastosowania Apache Spark 
   ○ Środowisko i uruchamianie aplikacji, cykl życia aplikacji 
2. Structured API 
   ○ Charakterystyka rozproszonych zbirów danych, Datasets, DataFrames,
   SQL Tables 
   ○ Architektura przetwarzani danych w klastrze 
   ○ Praca z danymi, transformacje, typy, schematy, rekordy, kolumny, agregacje,
   łączenia 
   ○ Praca ze źródłami danych, pliki, CSV, JSNO, bazy danych SQL 
   ○ Wykorzystanie Spark SQL 
3. RDDs 
   ○ Charakterystyka i przypadki użycia Low-Level API 
   ○ Współpraca z DataFrames i Datasets 
   ○ Praca z RDDs, transformacje, akcje, agregacje 
   ○ Broadcast variables i współdzielenie 
4. Stream Processing 
   ○ Charakterystyka przetwarzania strumieniowego w Spark 
   ○ Praca ze Streaming API, Structured Streaming 
   ○ Przetwarzanie Event-Time i Stateful 
5. Machine Learning 
   ○ Charakterystyka procesu zaawansowanej analizy w Spark 
   ○ Charakterystyka mechanizmu 
   ○ Machine Learning 
   ○ Praca z biblioteką MLib

Opinie uczestników