Contributing writer

高度なアナリティクスとAIのための土台を今築く

特集
06 Sep 20231分
人工知能

適切なデータ統合、モデリング、メンテナンスは、インパクトのあるアナリティクスとAIアプリケーションにとって、地味だが欠かせない基盤を構成する。これがなければ、データへのアクセスは困難であり、分析できたとしても不正確な結果をもたらすことになる。

クレジットGetty Images

世界的なテクノロジー企業であるLenovoがデータアナリティクスを活用し始めたとき、同社のゲーミング・ノートPCの新たな市場ニッチを特定し顧客がサーバーやその他のデバイスを最大限に活用できるよう遠隔診断を強化した。

コムキャストはデータアナリティクスを利用して、10Pバイトのセキュリティデータのコスト削減と有効性の向上を図り、攻撃をよりよく理解し、より効果的に対応し、将来の脅威を予測する能力を向上させている。  

また、ファースト・コマース銀行では、EVP兼COOのグレゴリー・ガルシアが、統合されたリアルタイムのデータを活用して、商業用不動産の所有者が住宅ローンの支払いを困難にしかねない空室率の悪化などのリスクを監視したいと考えている。

しかし、これらの目標を達成するためには、企業データを生成AIに活用し、ビジネスを合理化し、新しいサービスを開発することと同様に、適切な基盤が必要である。この困難で継続的な作業には、サイロ化されたデータの統合、モデリング、理解、そして長期的な維持と安全確保が含まれる。

データサイロを統合する

顧客の承認の上で収集した使用ログによると、かなりの数のLenovoの顧客が、ハイエンドのゲーミングノートPCではなくコンシューマーグレードのIdeaPadノートPCをゲームに使用していた。 Lenovoのインテリジェント・デバイス・グループのクラウドおよびソフトウェア事業のグローバル・エンジニアリング・ヘッドであるGirish Hoogar氏によると、Lenovoは、現在Lenovo LOQとしてブランド展開しているエントリー・レベルのゲーミング・ノートPCおよびデスクトップPCの新しい製品ラインを立ち上げた。

また、デバイス・データを利用してLenovo Device Intelligenceを開発し、AIを活用した予測分析を行うことで、顧客が潜在的なIT問題を理解し、未然に問題を防止・解決できるよう支援している。Lenovo Device Intelligenceは、ITサポートコストの最適化、従業員のダウンタイムの削減、ユーザーエクスペリエンスの向上にも役立つという。

しかし、必要なデータを統合する前に、Lenovoは潜在的に機密性の高い情報の共有に関する懸念を克服しなければならなかった。Hoogar社のスタッフは、バグ修正やソフトウェア・アップデートの通知など、このソリューションに含まれる情報はすでに公開されていることを従業員に教育することで、そうした不安を取り除くようにした。

かつて、ファースト・サービス信用組合のチーフ・データ・オフィサーであるタイ・ロビンス氏は、多くの信用組合が利用している、レガシーでリレーショナルでない、しばしば独自の表形式データベースからのデータ統合に苦労していた。「そのデータとやり取りするプログラミング言語の専門家でなければならず、各データソース内の各データ要素の関係を理解し、他のデータソースの要素との関係も理解しなければならなかった」と彼は言う。

メタデータドリブンのCinchy Data Collaboration Platformを使うことで、典型的なモデリングと統合の作業は18ヶ月から6週間に短縮されたという。また、Cinchy Data Collaboration Platformは、信用組合のデータを民主化し、顧客サービスの向上に役立てたり、さまざまな種類のデータを見つけやすくすることでデータのメンテナンスを自動化したり、規制に対するニーズを満たすために保管チェーンや監査管理を提供したりするのにも役立っている。

オーシャン・テクノロジーズ・グループ(OTG)では、CTOのイアン・ヘップワース氏は、OTGのプラットフォームで管理されている2万隻の船舶だけでなく、OTGが買収した6社の船舶のメンテナンスと乗組員のデータを統合する責任があった。同社は、現在のデータを正確でアクセス可能な状態に保つだけでなく、数十年にわたる過去のデータを活用して、船舶運航の潜在的リスクや改善の機会を特定したいと考えている。

「買収した会社には、それぞれ異なる主キーを持つ複数のデータセットがありました。このデータを効率的にデータウェアハウスに格納し、カスタマー・ビューを構築できるようにするには、優れたツールが必要でした」とヘップワース氏は言う。SnapLogicの統合プラットフォームを使用することで、開発者は各データソースのAPI(アプリケーション・プログラミング・インターフェース)を手作業で構築する手間が省け、データのクリーニングとウェアハウスへの迅速かつ効率的な格納が可能になったという。SnapLogicはスタッフの作業負荷を軽減するだけでなく、OTGの顧客がデータをダウンロードできるAPIを提供したと同氏は言う。

データをモデル化し、理解し、変換する

コムキャストは、潜在的なセキュリティと信頼性の問題に関する大量の情報を収集しながら、そのすべてを理解する簡単な方法がないという課題に直面していた。

高コストなオンプレミスのデータレイクをクラウドに移行した後、コムキャストは3層のアーキテクチャを構築した。1つ目は、フォレンジック分析など使用頻度の低いケースに備え、1年分の生データを低コスト・低速のストレージに保存する。2つ目は、現在必要とされているデータを「メタデータ付きで、完全に正規化し、時系列で」保存する。第3のレイヤーは、最も高価だが最も高性能なストレージ上にあり、最も頻繁に使用されるユースケースやペルソナに必要なデータリンクで構成されたデータマートやデータウェアハウスを含んでいる。

コムキャストは、小売店のセキュアなWi-Fiなど、事業継続に不可欠なセキュリティ・インフラの一部に予測分析に重点を置いている。他の企業と同様、コムキャストもデータファブリックの利用を進めている。データファブリックは、データを必要とする新しいユーザーごとにコピーを作成するのではなく、複数の権限を持つユーザーが単一の「真の情報源」からデータにアクセスできるようにするものだ。その目的は、データ伝送やストレージのコストを削減することよりも、データ管理者がデータを管理しやすくすることだとデイビス氏は言う。コムキャストはまた、データ管理ツールを廃止し、その機能をデータレイクが担うことで、2桁万ドルのコスト削減を実現しているという。

顧客のロイヤルティやオンライン注文などのシステムを管理するPaytronix社では、データサイエンス担当ディレクターのジェシー・マーシャル氏が、データ変換(分析やレポートに使用可能な形式へのデータの変換、クリーニング、構造化)のカスタムコーディングを削減したいと考えていた。

Paytronixは、変換を作成するためのドラッグ&ドロップのインターフェイスを提供し、データ変換のトラブルシューティングを容易にするだけでなく、会社のインフラストラクチャが変更されても、それらの変換を維持することができる、と彼は言う。

新しい変換を簡単に作成できるようになったことで、より多くの分析アプローチを試して、予想外の、しかし価値のある勝者を見つけることができるようになった。「以前の世界では、有用な分析のアイデアが10個あったとしても、そのうちの4個にしか取り組む時間がなかった。たとえ60%が失敗したとしても、チームにはすべてのアイデアを試してほしかった。」

長期にわたってデータを維持・保護する

より多くの、より良いデータを求める企業全体のニーズにもかかわらず、データの正確性、タイムリー性、安全性を確保するための継続的な作業に予算を確保するように事業部門や取締役会を説得するのは難しいことがある。

商業用不動産サービス会社JLLのヤオ・モリン最高技術責任者(CTO)は、データのメンテナンスを配管に例えている。必要な予算確保のためには、データ担当者はビジネスリーダーにデータの価値と、メンテナンスしなければデータが使い物にならないことを示し続けなければならない、と彼女は言う。

JLLの場合、そのような価値には、COVID-19のロックダウン後に従業員がオフィスに戻る際に、新しいタイプの情報を求める顧客(およびそのビルに入居している賃借人)からの要求に応えることが含まれる。これには、従業員がデスクで孤独に座っているのか、それとも混雑した会議室でミーティングをしているのか、オフィス内の空気の質はどうなのか、オフィスの近くにはどのようなレストランなどのアメニティがあり、従業員を誘い出すことができるのか、などが含まれる。

継続的なデータ管理には上層部のバックアップが不可欠だが、レノボのフーガー氏は、この作業は全員の連帯責任だと言う。フーガー氏は、地道なサポートを構築する一つの方法として、各部署にデータ愛好家を見つけ、コースや他のデータチャンピオンやデータ協議会との定期的なミーティングを通じて彼らのスキルを高めることを挙げている。継続的な教育、トレーニング、スキルアップも、より良いデータ管理には欠かせないと同氏は言う。

ファースト・コマース・バンクのガルシア氏は、「CIOが直面する問題は、多くの取締役会や銀行の最高経営責任者(CEO)が、データアナリストを収益を生み出すリソースと見なさないため、商業金融業者よりもデータアナリストの雇用に消極的であることだ」と言う。「しかし、十数人のデータアナリストで武装した金融機関は、リアルタイムのデータを適切に武器にすることで、適切なアナリティクスを持たずに無目的にポートフォリオを拡大しようとする金融機関よりも効果的になる可能性がある。」

早期に着手する

データのモデリングからセキュリティまで、すべてを標準化する時期は、データを取得したときである。「私たちはデータ取り込みプロセスの多くをテンプレート化しています」とモーリン氏は言う。メタデータとデータ辞書を追加し、ビジネスリーダーがデータレイクから得られる情報を把握できるようにする必要がある。「このようなテンプレートがなければ、後からそのような情報を追加することは難しい」。

ファースト・サービス・クレジット・ユニオンのロビンス氏は、簡単に新しい方法で分析できる、よく理解可能なデータを作成するために、全体で早め早めのデータモデリングを行うよう促している。例えば、信用組合が毎月何件の預金を受け取ったかを尋ねるクエリは、そのレポートのデータを得るために必要な要素のみを利用することになる、と同氏は言う。関連するレポートを作成し、預金を受け取った新しい口座の数を尋ねるには、ゼロから始める必要があり、貴重な時間を浪費する。「メタデータ・プラットフォームがあれば、それらの要素に調整されたすべてのデータを1つのビューに集められるので、そのデータを使っていくつものレポートのどれかを作成するだけでよいのです」と同氏は言う。

コムキャストのような企業は、このような日常的なメリットとともに、適切なデータアーキテクチャとインフラによって、エキサイティングな新しい生成AIアプリケーションを想定よりもはるかに早く開発できるようになったと述べている。しかし、そのようなメリットを享受する前に、「インフラを正しく整備し、データをクリーンにする必要がある」とデイビスは言う。「大変な作業が必要だが、その作業が完了すれば、驚くようなことができるようになる」。

著者: Robert Scheier
Contributing writer