HadoopTimes

ストリーミングアーキテクチャ Apache Kafka とMapR Streams による新しい設計手法
技術情報

データの将来を見据えて企業プラットフォームを再構築する

私たちを取り巻く環境ではデータが飛躍的に増大しています。IDCの調査データによると2020年までに44兆ギガバイトに達する見込みだそうです。しかし、その一方で企業では、こうした増え続けるデータに対して、簡単にアクセスして、分析したり、保存できるようになっているわけではありません。増え続ける膨大なデータを既存のレガシーシステムが処理しきれないほど、負荷が大きくなってきているのです。

このような背景から、企業は最新かつ包括的なデータファブリックとプラットフォームを活用して、将来のデータへの対応を始めることが重要になってきています。

しかし、プラットフォームの再構築は、それほど簡単なことではありません。

この記事では、プラットフォームの再構築が必要な理由とその方法、および最新のデータアーキテクチャを再定義するためにMapRが実施していることについてご紹介します。

プラットフォームの再構築が必要な理由

すでにご説明したように、企業がプラットフォームの再構築を必要とする背景には、大きな要因が存在し、それは、最近の (そして今後も続く) データの飛躍的増大に起因します。

日々250京バイトもの膨大なデータが増え続けています。この膨大なデータの大部分はIoTデバイスから発生するもので、このIoTデバイスは増え続けています。ちなみに、このIoTデバイスから生成されるデータは、2021年には1年で847ゼタバイトに達する見込みです。

その影響から、古い情報システム基盤への負担は増すばかりです。レガシーなシステムを利用している企業では、データに関連した以下のような問題に直面しているのです。

  • データが孤立化(サイロ化)され統合できない
  • データ形式の互換性の欠如
  • データへのアクセスや複製が困難
  • 信頼性に欠けるデータストレージやセキュリティ
  • データ処理および分析に長時間を要する
  • 使用できるツールが限定

これらの課題は、小規模で一時的な修正では克服できないものです。これらの問題を解消するには、企業はITインフラストラクチャ全体を再構築する必要があります。

当社のエンタープライズ ストラテジー アンド アーキテクチャ担当ディレクターのJim Scottは、Infoworldの記事で次のように述べています。「約30年に渡って企業のITを担ってきたプラットフォームは、もはやビジネスを進めるために必要な負荷には耐えられません」

さらに、ビッグデータが実現される日が近づいています。当社CEOのJohn Schroederは、SiliconAngleで次のような発言をしています。

「将来の鍵となる技術は、機械学習/AI、コンテナ、IoT、ハイブリッドクラウドです。20年前のテクノロジーで、IoTや機械学習/AIに関するアプリケーションを開発する方法はありませんでした。我々はまだ、ビッグデータ時代の中盤にさしかかったばかりでしょう。道のりはまだ遠いといえます」

機械学習

機械学習は、Googleのような業界の大企業だけに限ったものではありません。むしろ今後は、企業の情報システム基盤にますます浸透していくでしょう。実際、ServiceNowが実施したある調査では、CIOの89%が機械学習を使用している、または使用する予定があると回答しています。

ビッグデータを活用すれば、機械学習によって、運用管理、侵入検知、データクレンジングおよび正規化、大量のデータ内でのパターンの特定が可能になります。

MapRのブログでRonald van Loonは、機械学習技術について次のように説明しています。「機械学習は、ユーザーに機械学習の操作方法を覚えさせるのではなく、自らユーザーに合わせます。機械学習によって、新しいインターフェイスが誕生するだけでなく、エンタープライズAIの形成につながっていきます」

正しく導入して包括的なデータ プラットフォームと統合すれば、機械学習技術によって、データ サイエンティストやアナリストの負担が軽くなり、より効率的に自分の業務を推進できるようになるでしょう。

プラットフォーム再構築に不可欠な技術

Jim Scottの説明がそれを端的に示しています。「エンタープライズITインフラストラクチャの再構築は、小規模な作業ではありません」

結局、各企業が単純に新しいITインフラストラクチャを一から構築することはできません。そのため、データを管理する方法を根本的に変えられる最適なテクノロジーやツールだけを使うことが重要なのです。詳しく確認して行きましょう。

コンテナとマイクロサービス

コンテナは、企業がデータやアプリケーションを処理する方法を大きく変えました。IDGのオンラインメディアであるCIOのPaul Rubenは、以下のように簡潔にコンテナについて説明しています。

「コンテナは1つの全体的なランタイム環境で構成されています。アプリケーションとその依存関係にあるすべてのもの、ライブラリやその他のバイナリ、実行に必要な設定ファイルが1つのパッケージにバンドルされています。アプリケーションプラットフォームとその依存関係をコンテナ化することで、OSのディストリビューションの差異や基盤となるインフラストラクチャは抽象化されます」

コンテナは、非常に限られた容量のストレージしか使用せず (ギガバイト単位ではなく、メガバイト単位)、使い方も簡単で、必要に応じて使い始めることができるという点でユニークなソリューションと言えます。

また、コンテナはマイクロサービスを導入する場所としても非常に優れています。SmartBear.comが示しているマイクロサービスの定義がわかりやすくまとまっています。「独立して導入可能な、小規模のモジュラ サービス スイートとしてソフトウェア アプリケーションを開発する方式。モジュラ サービス内では、各サービスが独立したプロセスとして実行され、明確に定義された軽量のメカニズムによって通信して、1つのビジネス目標を実現する」

マイクロサービスは、その他のアプリケーションに影響を与えずに、独立して変更できるというメリットもあります。マイクロサービスがコンテナ内で使用された場合、非常に機敏なコンポーネントのセットとなり、簡単に管理、置換、導入できます。

もちろん、コンテナとマイクロサービスにも問題はあります。当社のデータおよびアプリケーション担当シニア バイスプレジデントのJack Norrisが、SDxCentralとのインタビューで次のように指摘しています。

「コンテナでは、組織全体でデータを共有するのが難しい場合があります。コンテナがなくなったときに、その中で運用されていたデータも一緒に消えてしまうからです」

そのため、コンテナやマイクロサービスが企業に適しているかどうかは、企業のゴールにもよります。軽量でモジュラ型のアプリケーションを開発することが目標であれば、コンテナとマイクロサービスは最適なソリューションです。

クラウド統合

クラウド コンピューティング自体は新しい技術ではなく、多くの企業で既に使用されています。RightScaleが実施した2018年度調査によると、回答者の96%がクラウドを使用しています。

ただし、クラウド コンピューティングを利用することと、クラウド コンピューティングとデータを統合することは同じではありません。DevOps Chatの中でScottは、クラウドとデータ プラットフォームを統合することによって、顧客がクラウド中立性という概念のメリットを得ることができると述べています。

クラウド中立性とは、基本的に、クラウドコンピューティングの分野における健全な競争について述べたものです。つまり、すべての顧客が、その他のサービスも利用しながら、必要なサービスを自由に利用できる必要があります。クラウド統合データ プラットフォームではそれが可能です。

クラウド統合のもう1つのメリットは、ユーザーがオンプレミスとクラウドインフラストラクチャ間でデータをミラーリングできることです。

MapRを利用したプラットフォームの再構築

MapRの革新的なデータプラットフォームによって、企業はかつてないほど簡単に自社のITインフラストラクチャを再構築することができます。

米国ニュージャージー州の有名なソフトウェア企業であるSynchronossは、インフラストラクチャを再構築するプロジェクトにおいて、MapRのデータプラットフォームに移行しました。Synchronossのエンジニアリング/分析/デジタル変革担当バイスプレジデントのSuren Nathan氏は、変化について以下のように述べています。「何かを管理するツールを持っているのであれば、あとはそのツールを活用することです」

MapRを活用することで、同社は不十分なレガシーインフラストラクチャの問題を解消して以下を実現できます。

  • エッジからエッジまでカバーするデータファブリックを構築し、ファイルやコンテナを管理
  • 機械学習やAIテクノロジーを活用
  • 信頼性の高いセキュリティとデータ保管を実現
  • 時間や場所を問わずにデータにアクセス
  • リアルタイムでデータを処理して分析
  • オープンソースエンジンやツールを活用
  • 大規模なアプリケーションの導入
  • 必要に応じて容易に拡張/縮退

データが増え続け、インフラストラクチャが老朽化している今、問題は、企業がプラットフォームの再構築をすべきかどうかではなく、いつ実施するかです。その際にはMapRをご検討いただければ幸いです。

※このブログは「Replatforming Your Organization for the Future of Data」の翻訳記事です。

ビッグデータ/IoT時代のデータ分析プラットフォームまるわかりガイド

ビッグデータ/IoT時代のデータ分析プラットフォームまるわかりガイド
MapRコンバージド・データ・プラットフォームは、ビッグデータのための包括的な統合プラットフォーム機能を提供します。

リアルタイム処理が可能なデータベースに加えて、イベントストリーミング、拡張性の高いストレージ機能により、企業は、バッチ処理用、リアルタイム用といったシステムを組み合わせることなく、たった一つのMapRでデータ活用が可能となります。

このガイドでは、

・なぜ新しいビッグデータ基盤が必要なのか?
・多くの企業が抱えるデータ基盤の課題
・MapRコンバージド・データ・プラットフォームとは?
・MapRでビッグデータ基盤はどう変わるのか
・MapRを採用したお客様の声

を中心にご紹介しています。この機会にぜひご覧ください。

無料ダウンロードはこちら