Opis produktu:
<P><STRONG>Apache Spark</STRONG> jest oprogramowaniem open source, przeznaczonym do klastrowego przetwarzania danych dostarczanych w różnych formatach. Pozwala na uzyskanie niespotykanej wydajności, umożliwia też pracę w trybie wsadowym i strumieniowym. Framework ten jest również świetnie przygotowany do uruchamiania złożonych aplikacji, włączając w to algorytmy uczenia maszynowego czy analizy predykcyjnej. To wszystko sprawia, że Apache Spark stanowi znakomity wybór dla programistów zajmujących się big data, a także eksploracją i analizą danych.</P><P>To książka przeznaczona dla inżynierów danych i programistów, którzy chcą za pomocą Sparka przeprowadzać skomplikowane analizy danych i korzystać z algorytmów uczenia maszynowego, nawet jeśli te dane pochodzą z różnych źródeł. Wyjaśniono tu, jak dzięki Apache Spark można odczytywać i ujednolicać duże zbiory informacji, aby powstawały niezawodne jeziora danych, w jaki sposób wykonuje się interaktywne zapytania SQL, a także jak tworzy się potoki przy użyciu MLlib i wdraża modele za pomocą biblioteki MLflow. Omówiono również współdziałanie aplikacji Sparka z jego rozproszonymi komponentami i tryby jej wdrażania w poszczególnych środowiskach.</P><P>W książce:</P><UL> <LI>API strukturalne dla Pythona, SQL, Scali i Javy</LI> <LI>operacje Sparka i silnika SQL</LI> <LI>konfiguracje Sparka i interfejs Spark UI</LI> <LI>nawiązywanie połączeń ze źródłami danych: JSON, Parquet, CSV, Avro, ORC, Hive, S3 i Kafka</LI> <LI>operacje analityczne na danych wsadowych i strumieniowanych</LI> <LI>niezawodne potoki danych i potoki uczenia maszynowego</LI></UL><P style=`font-weight: bold;`>Spark: twórz skalowalne i niezawodne aplikacje big data!</P><P> </P>
Produkt wprowadzony do obrotu na terenie UE przed 13.12.2024