Databricksの統合

大規模データ処理を実現

既存のスキルでSparkプロジェクトを迅速に開発・拡張できます。

高性能アナリティクスとビジネス価値のデリバリーにフォーカスできます。DevOpsに要する時間を削減できます。Sparkをサーバーレスで実行することにより、サーバーのプロビジョニングと管理が不要になります。

データ処理コストを最大80%削減します。

リアルタイムでビジネスニーズに応答し、ランタイムの弾力性を獲得し、スケールアップ/スケールダウンを自動化できます。スポットインスタンスを活用し、使用していないサーバーのコストを排除することによって、IT予算をより効果的に消費できます。

莫大なデータから信頼できる知見をクラウドのスケールで容易に獲得できます。

Sparkのデータ処理、複雑な変換、機械学習ジョブを簡単に設計してクラウドで展開できます。今までにないシンプルな方法でSparkジョブを送信できます。

Delta Lakeのサポート(技術評価版)

ACID準拠、タイムトラベル(データのバージョン管理)、統合バッチ/ストリーミング処理を活用して、Delta Lakeとの間でデータをシームレスに統合します。Delta Lakeユーザーに包括的なデータクオリティとガバナンスを提供し、機械学習と高度アナリティクスをサポートします。

「クラウドデータプラットフォーム戦略の一環としてDatabricksとTalendを活用することで、理想的なSparkアナリティクスエンジンと使いやすいインターフェイスを使用して、大規模なデータエンジニアリングプロジェクトを推進できます。センサーやエンタープライズシステムからの高速データを使用して、保守、監視、資産管理の意思決定をリアルタイムで下すことができます。この最新アプローチでサイロを排除してデータの収益化を改善できるので、エネルギー事業運営の効率向上に役立っています」

Uniper社、エンタープライズデータ統合担当バイスプレジデント、René Greiner氏