Databricksの統合



大規模データ処理を実現

既存のスキルセットでSparkプロジェクトを迅速に開発・拡張できます。

高性能アナリティクスとビジネス価値のデリバリーにフォーカスできます。DevOpsに要する時間を削減できます。Sparkをサーバーレスで実行することにより、サーバーのプロビジョニングと管理が不要になります。さらに、フォールトトレランスも組み込まれています。

予算内で大規模データ処理を実現

データ処理コストを最大80%削減します。

リアルタイムでビジネスニーズに応答し、ランタイムの弾力性を獲得し、スケールアップ/スケールダウンを自動化できます。スポットインスタンスを活用し、使用していないサーバーのコストを排除することによって、IT予算をより効果的に消費できます。

TalendとDatabricksの統合

莫大なデータから信頼できる知見をクラウドのスケールで容易に獲得できます。

Sparkのデータ処理、複雑な変換、機械学習ジョブを簡単に設計してクラウドで展開できます。今までにないシンプルな方法でSparkジョブを送信できます。

クラウドでの最新データエンジニアリング

お客様の声


「クラウドデータプラットフォーム戦略の一環としてDatabricksとTalendを活用することで、理想的なSparkアナリティクスエンジンと使いやすいインターフェイスを使用して、大規模なデータエンジニアリングプロジェクトを推進できます。センサーやエンタープライズシステムからの高速データを使用して、保守、監視、資産管理の意思決定をリアルタイムで下すことができます。この最新アプローチでサイロを排除してデータの収益化を改善できるので、エネルギー事業運営の効率向上に役立っています」

Uniper社、エンタープライズデータ統合担当バイスプレジデント、René Greiner氏

詳細情報