Apache Sparkのトレーニングコース

Apache Sparkのトレーニングコース

地元の講師主導のApache Sparkの実習コースは、SparkがBig Dataエコシステムにどのように適合しているか、そしてデータ分析にSparkを使用する方法を実践的に実践しています。 Apache Sparkのトレーニングは、「オンサイトライブトレーニング」または「リモートライブトレーニング」として利用できます。現場での現場でのトレーニングは、 日本 NobleProgの企業研修センターで日本 。リモートライブトレーニングは、インタラクティブなリモートデスクトップを介して実行されます。 NobleProg - あなたの地域のトレーニングプロバイダー

お客様の声

★★★★★
★★★★★

Apache Sparkサブカテゴリ

Apache Sparkコース概要

CodeNameDurationOverview
sparkdevSpark for Developers21 hours目的:

このコースでは Apache スパークを紹介します。 スパークがビッグデータエコシステムに てどのように適合するか、およびデータ分析に spark を使用する方法について学習します。 は、インタラクティブなデータ解析、スパークの内部、スパーク api、スパーク SQL、スパークストリーミング、および機械学習と graphX のためのスパークシェルをカバーしています。

聴衆:

開発者/データアナリスト
spmllibApache Spark MLlib35 hoursMLlib は、スパークの機械学習 (ML) ライブラリです。その目的は、実用的な機械学習をスケーラブルで簡単にすることです。これは、分類、回帰、クラスタリング、協調フィルタリング、次元縮小、低レベルの最適化プリミティブ、高レベルパイプライン api など、一般的な学習アルゴリズムとユーティリティで構成されます。

それは2つのパッケージに分かれる:

-

mllib には、RDDs の上に構築されたオリジナルの API が含まれています。

-

spark.ml は、ml パイプラインを構築するために DataFrames の上に構築された上位レベルの API を提供します。

観客

このコースは、エンジニアや開発者が Apache のスパーク

のためのマシンライブラリの組み込みを利用しようとしているに向けている
aitechArtificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP21 hoursThis course is aimed at developers and data scientists who wish to understand and implement AI within their applications. Special focus is given to Data Analysis, Distributed AI and NLP.
hdpHortonworks Data Platform (HDP) for Administrators21 hoursHortonworks データプラットフォームは、apache hadoop エコシステム上でビッグデータソリューションを開発するための安定した基盤を提供するオープンソースの apache hadoop サポートプラットフォームです。

このインストラクター主導のライブトレーニングでは、Spark + Hadoop ソリューションの展開を通じて、Hortonworks とウォーク参加者を紹介します。

このトレーニングの終わりまでに、参加者は次のことができるようになります:

- は Hortonworks を使用して、Hadoop を大規模で確実に実行する
- は、Hadoop & #39 のセキュリティ、ガバナンス、オペレーション機能をスパーク & #39 と統合し、アジャイル分析ワークフローを実現します。
- は Hortonworks を使用して、スパークプロジェクトの各コンポーネントを調査、検証、認定、およびサポートします
- では、構造化、非構造化、インモーション、および休止など、さまざまな種類のデータを処理できます。

観客

- Hadoop 管理者
コース の

形式

- 部講義、パート討論、演習と重い実地練習
magellanMagellan: Geospatial Analytics on Spark14 hoursマゼランは、ビッグデータの地理空間解析のためのオープンソースの分散実行エンジンです。Apache spark の上に実装され、それはスパーク SQL を拡張し、地理空間解析のためのリレーショナル抽象化を提供しています。

は、このインストラクター主導の、ライブトレーニングは、geospacial 分析を実装するための概念とアプローチを紹介し、スパークにマゼランを使用して予測分析アプリケーションの作成を通じて参加者を歩く。

このトレーニングの終わりまでに、参加者は次のことができるようになります:

- は、縮尺
で地理空間データセットを効率的にクエリー、パース、結合します。 - ビジネスインテリジェンスおよび予測分析アプリケーションに地理空間データを実装する
- は、空間コンテキストを使用して、モバイルデバイス、センサー、ログ、およびウェアラブルの機能を拡張し

観客

- アプリケーション開発者
コース の

形式

- 部講義、パート討論、演習と重い実地練習
alluxioAlluxio: Unifying Disparate Storage Systems7 hoursAlluxio は、異種ストレージシステムを統合し、アプリケーションがメモリ速度でデータと対話できるようにするオープンソースの仮想分散ストレージシステムです。これは、インテル、Baidu とアリババなどの企業によって使用されます。

このインストラクター主導のライブトレーニングでは、Alluxio を使用してストレージシステムと異なる計算フレームワークを橋渡しし、マルチペタバイト規模のデータを効率的に管理して、アプリケーションの作成をステップ実行する方法を学習します。Alluxio ・

このトレーニングの終わりまでに、参加者は次のことができるようになります:

- Alluxio
を使用したアプリケーションの開発 - は、1つの名前空間を維持しながらビッグデータシステムとアプリケーションを接続する
- は、任意のストレージ形式のビッグデータから効率的に値を抽出
- ワークロードパフォーマンスの向上
- Alluxio スタンドアロンまたはクラスタ化された
の展開と管理

観客

- データサイエンティスト
- 開発者
- システム管理者
コース の

形式

- 部講義、パート討論、演習と重い実地練習
graphcomputingIntroduction to Graph Computing28 hours多くの現実世界の問題は、グラフの面で記述することができます。たとえば、Web グラフ、ソーシャルネットワークグラフ、列車ネットワークグラフ、言語グラフなどがあります。これらのグラフは非常に大きくなる傾向があります。それらを処理するには、特殊なツールとプロセスのセットが必要です--これらのツールとプロセスは、グラフ・コンピューティング (グラフ分析とも呼ばれます) と呼ばれることができます。

このインストラクター主導のライブトレーニングでは、グラフデータを処理するためのテクノロジの提供と実装方法について説明します。目的は、現実世界のオブジェクト、その特性と関係を識別し、これらの関係をモデル化し、グラフコンピューティングのアプローチを使用してデータとして処理することです。一連のケーススタディ、実践的な演習、およびライブ展開をステップ実行しながら、特定のツールについて大まかな概要と絞り込みを開始します。

このトレーニングの終わりまでに、参加者は次のことができるようになります:

- グラフデータの永続化と走査
- 特定のタスクに最適なフレームワークを選択する方法を理解する (グラフデータベースからバッチ処理フレームワークへ)
- は、Hadoop、Spark、GraphX、Pregel を実装して、多数のグラフコンピューティングを実行します。並列のマシン
- は、グラフの面で現実世界のビッグデータの問題を表示する, プロセスと走査

聴衆

- の開発者

の の形式コース

- の部分の講義,パートディスカッション、演習と重い実践的な実践
sparkpythonPython and Spark for Big Data (PySpark)21 hoursPython は、その明確な構文とコード readibility のための高レベルのプログラミング言語です。Spark は、ビッグデータのクエリ、分析、および変換に使用されるデータ処理エンジンです。PySpark を使用すると、ユーザーは Python でスパークをインターフェイスできます。

このインストラクター主導のライブトレーニングでは、参加者は、Python を使用して、実践的な演習で動作するようにビッグデータを分析するために一緒にスパークする方法を学習します。

このトレーニングの終わりまでに、参加者は次のことができるようになります:

- は、ビッグデータを分析するために Python でスパークを使用する方法を学ぶ
- は、現実世界の状況を模倣する演習に取り組んで
- は PySpark
を使用してビッグデータ分析のためのさまざまなツールやテクニックを使用する

観客

- 開発者
- it プロフェッショナル
- データサイエンティスト
コース の

形式

- 部講義、パート討論、演習と重い実地練習
sparksqlApache Spark SQL7 hoursspark SQL は、構造化および非構造化データを扱うための Apache spark & #39 のモジュールです。Spark SQL では、データの構造や実行されている計算に関する情報を提供します。この情報は、最適化を実行するために使用できます。Spark SQL の一般的な用途は次の2つです。 -SQL クエリを実行するには -既存のハイブのインストールからデータを読み取るには

このインストラクター主導のライブトレーニング (オンサイトまたはリモート) では、Spark SQL を使用してさまざまな種類のデータセットを分析する方法を受講者が学習します。

このトレーニングの終わりまでに、参加者は次のことができるようになります:

- スパークのインストールと構成
- を使用してデータ分析を実行する
- クエリのデータセットを異なる形式で設定します。
- データとクエリ結果を視覚化します。

観客

- データアナリスト
- データサイエンティスト
- データエンジニア

形式 コース

- 部講義、パート討論、演習と重い実地練習

ノート

- このコースのためのカスタマイズされた訓練を要求するために、整理するために私達に連絡しなさい。
introtostreamprocessingA Practical Introduction to Stream Processing21 hoursストリーム処理とは、モーション "における" データのリアルタイム処理、つまり受信中のデータに対する計算の実行を指します。このようなデータは、センサーイベント、ウェブサイトのユーザーアクティビティ、金融取引、クレジットカードのスワイプ、クリックストリームなどのデータソースからの連続的なストリームとして読み取られます。ストリーム処理フレームワークは、大量の受信データを読み取り、ほとんど瞬時に貴重な洞察を提供することができます。

このインストラクター主導の、ライブトレーニング (オンサイトまたはリモート) では、参加者は、既存のビッグデータストレージシステムと関連するソフトウェアアプリケーションとマイクロサービスとの異なるストリーム処理フレームワークを設定し、統合する方法を学びます。

このトレーニングの終わりまでに、参加者は次のことができるようになります:

- スパークストリーミングやカフカストリーミングなど、さまざまなストリーム処理フレームワークをインストールして構成する
- は、ジョブ
- プロセスのための最も適切なフレームワークを連続して、同時に、そしてレコードごとのファッション
- は、既存のデータベース、データウェアハウス、データ湖などのストリーム処理ソリューションを統合
- は、エンタープライズアプリケーションとマイクロサービス
と最も適切なストリーム処理ライブラリを統合する

観客

- 開発者
- ソフトウェアアーキテクト

形式 コース

- パート講演、パート討論、演習とヘビーハンズオン練習

ノート

- このコースのためのカスタマイズされた訓練を要求するために、整理するために私達に連絡しなさい。
bigdataanahealthBig Data Analytics in Health21 hoursビッグデータ分析は、相関関係、隠されたパターン、およびその他の有用な洞察を明らかにするために、多様なデータセットを大量に調べるプロセスを伴います。

健康産業は、複雑な異種医療および臨床データを大量に持っています。ヘルスデータにビッグデータ分析を適用すると、医療の配信を向上させるための洞察を引き出す大きな可能性があります。しかし、これらのデータセットの恐ろしさは、臨床環境への解析や実用化に大きな課題をもたらしています。

このインストラクター主導の, ライブトレーニング (リモート), 参加者は、彼らが実践的なライブラボの演習の一連のステップとして、健康でビッグデータ分析を実行する方法を学びます.

このトレーニングの終わりまでに、参加者は次のことができるようになります:

- Hadoop MapReduce やスパーク
などのビッグデータ分析ツールをインストールして構成する - 医療データの特徴を理解する
- は、医療データに対処するためにビッグデータ技術を適用する
- は、健康アプリケーションのコンテキストでビッグデータシステムとアルゴリズムを研究

観客

- 開発者
- データサイエンティスト
コース の

形式

- パートの講義、一部の議論、演習と重い実践的な練習。

ノート

- このコースのためのカスタマイズされた訓練を要求するために、整理するために私達に連絡しなさい。
sparkcloudApache Spark in the Cloud21 hoursアパッチスパーク & #39; s の学習曲線が徐々に最初に増加している, それは最初のリターンを取得するための努力の多くの を必要とする.このコースは、最初のタフな部分を介してジャンプを目指しています。参加者は、Apache のスパーク の基本 理解するこのコースを受講した後、彼らは明らかにデータフレームから RDD を区別する、彼らは Python と Scala の API を学ぶことが、彼らはエグゼキュータやタスクなどを理解する もベストプラクティスに従って、このコースはクラウドの展開、Databricks、および AWS に重点を置いています。また、aws の最新のスパークサービスの1つである aws EMR と aws グルーの違いについても説明します。

オーディエンス:

データエンジニア、DevOps、データサイエンティスト
週末Apache Sparkコース, 夜のApache Sparkトレーニング, Apache Sparkブートキャンプ, Apache Spark インストラクターよる, 週末Apache Sparkトレーニング, 夜のApache Sparkコース, Apache Spark指導, Apache Sparkインストラクター, Apache Sparkレーナー, Apache Sparkレーナーコース, Apache Sparkクラス, Apache Sparkオンサイト, Apache Sparkプライベートコース, Apache Spark1対1のトレーニング

コース割引のニュースレター

We respect the privacy of your email address. We will not pass on or sell your address to others.
You can always change your preferences or unsubscribe completely.

一部のお客様

is growing fast!

We are looking to expand our presence in Japan!

As a Business Development Manager you will:

  • expand business in Japan
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!