CEP(Complex Event Processing)の世界市場 2017-2021

またまたずいぶんと間があいた投稿となってしまいましたが、ちょっと前にCEP(複合イベント処理)でググった(というかビンした)ら、市場調査レポートの話が出ていました。CEPについては、このブログでもときどき触れていますが、調査レポートによれば複合イベント処理の世界における市場は2017から2021年にかけて、年平均(CAGR)にして18.42%の成長が見込まれるとのこと。

目次だけ見ると、セキュリティ目的での使用が増えてきたりしている一方、当然のことながらIoTがらみでも増えてくるような予感。どこかでちゃんとCEPもまとめておきたいところなのですが…。

たとえば、
複合イベント処理の世界市場:2017~2021年
https://www.gii.co.jp/report/infi551749-global-complex-event-processing-market.html
とか…

BIは死んだ。でもBIは生き続ける

最初、この原題

BI Is Dead! Long Live BI!

を見たとき何が言いたいのか咄嗟にわかりませんでした…まあ、中身を見てみると言いたいことはわかるのですが、すっきりしないのでちょっと調べてみると、

The king is dead. Long live the king.

というフレーズのもじりのようです。というわけで上のフレーズをもとに、元々の題を (無粋ではありますが) かみ砕いてみると、

(今までの)BI(ツール)は死んだ。(でも新たな形で)BIは生き続ける。

と言ったところがそのココロでしょうか。

それはともかく、先日、上の Neil Raden による BI の記事を読みました。

内容はまさに原題のとおり。今われわれが知っている BI (Business Intelligence) ツールはBusiness Intelligence のツールとしては不十分であり、今後、ユーザ自身が分析モデルを自在に作り出せるようなツールへと形を変えていく過渡期にあるということ。また、このようなモデリングのツールは、当記事であげている12のベストプラクティスをサポートするべきであること。そしてさらにBIは、予測分析(predictive modeling)、機械学習、自然言語処理、ビジネスルール、可視化のための機能などを包含したひとつの連続体としてのデシジョンマネージメントの一つの要素となっていくだろうということを述べています。

確かに

ビッグデータプロジェクトの成功にはHadoopだけでは不十分

などの記事でも、

「先進的な企業はベーシックなBIの先に目を向け、予測分析、データ/テキストマイニング、さらにマルチメディアマイニングの導入を検討している」と同氏は語る。「また、具象化と階層化が進む仮想化技術、複雑なイベント処理、ルールエンジン、自然言語なども彼らの視野に入っている」(上記記事より)

とあるように世の中は、データ分析・活用に際しては従来のBIの枠にとどまらず、より包括的な「デシジョンマネージメント」の方向へと向かっていっているようにも見えます。

こんな流れを見ていると、データ分析の専門家のみならず、SEなどのスキルセットもだいぶ変わっていくのだろうなあと感じている今日この頃。

ちなみに、BI Is Dead! Long Live BI!の記事を受けて、

というような記事も読んでみるとよいかと。(実は、私も最初に読んだのはJames Taylorの記事でした)

経営、IT、ビッグデータ

データイメージ世の中ビッグデータ…ということで、時流にのせられているようでちょっと抵抗もあるのですが、も一つビッグデータの話を。先日、日経朝刊に

ビッグデータ活用の条件 ITと経営の融合が鍵に

という記事が載りました。

趣旨は、Web上に存在する膨大なデータに車の運行状況や携帯電話の位置情報などのデータが加わって、新たなビジネスチャンスが生まれつつある。Webのデータのみで言えば、GoogleやFacebookなどデータのもとを押さえている企業などの独り勝ちの傾向がある。しかし、それにセンサーデータなどの個々人のより深い行動データが得られる場合、さまざまな収益モデルを得られる可能性があり、モバイルや電子マネーの先進国である日本は、この分野でまだまだリードする余地がある…ということ。

一方、従来から現在にかけて、企業におけるIT利用は、日本では基幹系(販売、会計、生産等々)などの業務効率化中心のものであり、米国ではより経営に近い攻めの部分で使われている状況。これがビッグデータの登場で日本でも経営の攻めの部分にITが使われるように変わってくるのでは。

ただ、そのためには経営の視点でのITの利用を推進していかなくてはならず、

・個人情報の扱いを柔軟に適用
・ITと経営の視点をもった人材の育成

といったことが今後重要になってくるだろうとのこと。

そりゃまあそうだよね・・・という気もしなくもないですが、確かに、今ある企業システムを見てみると、まだまだコンピュータの潜在能力を活かしきれていないように思います。前にもこのブログに書きましたが、今現在の企業システムは大部分が「電子大福帳」以上のものではなく、「電脳」には至っていないのではないかと。

もっとも今までの通常のシステム開発 - システムのユーザから要件をヒアリングし、それに基づいて設計をし、実装・テストをし、稼働 - の手法によれば、なかなか現行の作業の効率化という視点以上の要件は出づらく「電子大福帳」システムが蔓延するというのも当然と言えば当然かもしれません。

おそらく今後は、より経営に近い戦略に立ち戻って要求を開発していく「要求開発」などといった方法論が重要になっていくのではないでしょうか。

(ちなみに少々我田引水的ではありますがビジネスルールによるシステム開発方法論「ビジネスルールアプローチ」は、戦略からビジネスルールによる実装までトレースが明確にできるというところがひとつの肝でありまして、こういった「要求開発」などとは親和性が高いと思っています。)

ところで、上の日経の記事は日本はセンサーデータに強いという論調ではありましたが、

ビッグデータを支える「センサー」に落とし穴、今こそ知恵絞る時

とか IoT(Internet of Things) に関する日本語の情報の少なさを見るに、あまり楽観視はできないと思いますが。

Sparkling Logic SMARTS

米国カリフォルニア州サニーベール(Sunnyvale)。シリコンバレーの主要都市のひとつでYahooの本社などもあるところ。そんなサニーベールで、2年前、かつてFICOでデシジョン管理ツールに携わっていたメンバーがスピンアウトして設立したのが、Sparkling Logic。今年2012年のGartnerのBPMでのCool Vendorにも選ばれたSparkling Logicは今、ビジネスルール/Decision Management界での注目ベンダーとなっています。

さて、先日ビッグデータとBRMSについて記事を書きましたが、これもまた先日、以下のSperkling Logic のプレスリリースを発見しました。

Sparkling Logic Introduces the First Decision Simulation in the Era of Big Data

Sparkling Logic SMARTS™ は、Sparkling Logic社のフラッグシップといえるデシジョン管理の製品です。世の中、ビッグデータの時代、この製品にもデシジョンのシミュレーションにビッグデータを容易に使えるような機能が加わったとのこと。

もともとデシジョン管理は(デシジョン管理は、いずれどこかできちんとまとめておこうかと思いますが、とりあえずは、以下の簡単な説明で) たとえばクレジットカードの不正使用検出などで、
1.不正の疑いがある取引をルールを用いて、フィルタリング抽出する
2.その結果や、過去のデータを用いたルールのシミュレーションなどをベースにフィルタリングルールを改善、最適化。
3.さらにふたたびそのルールを用いて実際のデータをフィルタリングする
というサイクルを絶え間なく続け、不正検出デシジョンのパフォーマンスをあげていくという活動。システム的には、ひとことで言って、BRMS+BI+シミュレーションといったところでしょうか。

今回は、このシミュレーションのデータとして容易にビッグデータを用いることができるようになったことが新しいところ。実際のトランザクションデータを用いるルールのシステムだとシミュレーションを実行しようとすると、すぐにビッグデータレベルのデータが必要になってしまうのでしょうね。最近は猫も杓子も「ビッグデータ」。ちょっとこの言葉には食傷気味ですが、しかし一方で私、個人的には「物量作戦」がコンピュータシステムの本質的なところであるとも思っているので、たぶん一過性の話には終わらないのではないかと感じている次第。

ところで、このSparkling Logic SMARTSには、もうひとつ斬新な機能があって、ユーザインタフェースのベースがSocial Media様(よう)になっていること。ルールを用いたシステムの開発には、ルールを抽出・実装・メンテナンスしていく上で、ドメインの専門家、アナリスト、SEなどさまざまな役割を持った人々が協同して作業にあたることが不可欠です。以前のBRMSだと、ルールエディタ、バージョン管理など、通常のIDEの発展形としてのプラットフォームという印象が強いのですが、Sparkling Logic SMARTS では、まず協働作業のベースとなるコラボレーションプラットフォームありきでツールにしてしまうことで、さまざまな役割を持つ人々の間での協働作業を促進し、ルールのトレースやさまざまなケースでのテスト、シミュレーションなどを包括的にサポートするようになっています。BRMS meets Social Media といったところでしょうか。

もっとも、私もこのツールをいまだ実際に試してみてはいないので、本当に使いこなせるのかどうかの懸念もなくはないのですが、あのIBMもWebshere Operational Decision Management の最新版では Social Media的インタフェースを結構本気でアピールもしているので、時代の流れは案外そういった方向に行くのかもしれませんね。

ビッグデータとBRMS

先週の金曜の日経に、ビッグデータに関しての記事が出ていました。

「ビッグデータ」で株価予測 日本IBMがシステム

経営・天候分析にも活用 富士通・日立も参入

流行りのバスワードですが、まあエシュロンのデータや中国のネット検閲対象のデータなどもビッグデータといえばビッグデータなので概念としては今更感もあります。ただ、クラウドコンピューティング、Hadoopなどが出てきて、ビッグデータを処理するためのインフラ物量作戦が一般にも手に届くものとなってきたということなのでしょう。

で、そんな関係か、BRMSの周囲でもビッグデータの話がちらほら聞かれるようになってきました。さらには、ビッグルールとかビッグデシジョンマネージメントとかいった言葉が出てきたり。

Pushing the Envelope : 2012

Tips for Big Decision Management

IBMのブログによれば5年前のBRMSを用いたシステムでは、大きくてもせいぜい10kくらいのルールしか持っていませんでしたが、今では5Mのルールを400Mのレコードを対象にシミュレーションを行うような顧客が出てきているとのこと! 翻って日本の事情と言えば、私もせいぜい万単位のルールセットくらいまでしかやったことないですし、まだ日本ではそこまでの事例はないのでは? …さすが物量作戦本家の米国。

こういった極端なビッグルールのケースが、マス-パーソナライゼーションを目指しての要求の中から生まれてきているようです。たとえば20M人の顧客のそれぞれに対して、10のパーソナライゼーションルールを持った場合とか…確かに従来とは次元の違うビッグルールが生まれてきそう。

まあ、いずれにしてもコンピュータの豊富なリソースがこれだけ安く手に入るようになった現在、この「ビッグ」化の流れはITのさまざまな分野で必然的なものなのかもしれませんね。