データ・アナリティクス

ETのデータ解析チームは、事業上の諸問題についての深い理解にテクノロジーを融合させた取組を得意としています。分析や導入のスキルを活用して、クライアントの抱える厄介な問題の解決を図ります。研究開発的なアプローチを採用し、より広範囲の問題をモジュールごとに解決することでクライアントに持続的なソリューションを提供します。


企業向けAI/ML

これまで長年にわたりトレンド分析、クラスター分析といったツールを用いてビジネス上の知見を積み上げてきました。ニューロネットワークや機械学習に改めて注目が集まり、それらの利用を容易にするツールが登場したことで、可能性が飛躍的に増大しています。しかしながら、正しいツールの特定、適切な機能の選択、モデリング→概念検証(POC)→導入→実装サイクルを全社的なレベルで進める能力には、統計モデリング、領域についての知見、データラングリングやソリューション設計を含む広範なスキルが求められます。ETはまず堅牢な基盤を築いた上でクライアントがソリューションをデザインし開発するのを支援します。最適なソリューションを形作るため、世界的な研究機関や企業と密接な協力関係を維持しています。

予測解析

情報の探索的解析から統計的推論・予測まで、ビジネスが求めるものは多様です。予測的解析はマーケティング目的にも、アルゴリズムの調整にも適用が可能です。ETのデータアナリストはアルゴリズムの調整、データモデリングや予測の経験が豊富です。領域の専門家と協力して、クライアントのデータに関連するニーズが、IoT、全社的システムログやスマートファクトリー工場であろうが、マーケティング・センチメント分析であろうが、それらに応える非常に具体的なソリューションを提供します。

ビッグデータ解析

典型的なデータサイエンスプロジェクトは綿密な「in」と「out」の定義に始まり、データラングリング、データクレンジング及び変換がその後に続き、相当の時間がかかります。非常に重要な課題はビッグデータの取扱です。単に大量のデータの保持だけを意図したデザインの悪いデータベースは大惨事を引き起こすため、絶対に避けなければなりません。

うまく計画された実験が使えないケースを排除するように、テラバイト、ペタバイトといった大量のデータは、多様なテクノロジーの利用と変更に必要不可欠な柔軟性を確保しつつ、現在だけでなく将来的な利用についてもよく定義されなければなりません。ETは、ニッチや大手ベンダーと協力しながら、普遍的で有効なソリューションを作りあげていきます。

データに関しては、それがIoT機器のものであれ、ツイッターやフェイスブックといったSNS上の一連のもの、或いはデータウェアハウス内に蓄積されたデータであれ、一方で技術(データベース、I/O、メモリ対ディスク)と解析(AIやディープラーニング、ニューロネットワーク等々)と利用(バッチ対リアルタイム、相互関連など)、他方でテクノロジーの採用、セキュリティやコストといった事柄の間のバランスが重要です。