本文へ移動

大容量メモリを使用したAIによる不正取引検知のインフラコストを大幅に削減

  • 共有

AIによる不正検知は、フィンテック企業にとって重要なワークロードです。不正取引モニタリングには、コミュニケーションにおける疑わしい言語をスクリーニングする自然言語処理、不正な取引と正常な取引を区別する機械学習、そして正常なユーザー行動と逸脱行動を区別し、過去のデータに基づいて将来の動向を予測する分析機能といったメカニズムが含まれます。

主要なコンピューティングアクティビティに関しては、進行中のリアルタイム推論作業は、トランザクションの処理、不正スコアの生成、そして問題のあるトランザクションのブロックなどのアクションの実行を中心に展開されます。このワークロードには、KBサイズの小さなトランザクションが多数含まれており、適切な形式で保存し、即座に処理する必要があります。

このようなワークロードの要件は、インメモリデータベース (IMDB) によって満たされます。IMDBは、このタイプの作業に適した形式でストレージを提供すると同時に、一般的なブロックアクセスストレージに比べて非常に高速なロード/ストア I/Oパフォーマンスを実現します。

しかし、このタイプのデータベースに必要なメモリ容量は非常に大きく、サーバーあたりのメモリ容量が限られているため、実装は大きな課題となります。サーバークラスターを必要とする大規模なワークロードの場合、総所有コスト(TCO)に関するいくつかの考慮事項を検討する必要があります。

  • 追加サーバー費用の負担: IMDBメモリの増設が必要だという理由だけで追加のサーバーを導入しなければなりません。つまり、顧客は実際には必要のないコンピューティング、ストレージ、セキュリティ、システムソフトウェアの費用を、メモリ増設のためだけに支払うことになります。

  • ネットワークの複雑性増加: データセンター内の物理インフラストラクチャだけでなく、IMDBソフトウェア自体の複雑性により、ネットワーク管理がより困難になります。これは電力需要を高め、パフォーマンスとコストの両方に悪影響を及ぼします。

  • 信頼性の問題: 顧客データの機密性とプライバシーを考慮し、フィンテック企業は独自のデータセンターを維持する傾向があります。したがって、基盤となるインフラストラクチャの信頼性は、データの整合性にとって非常に重要になります。ノードの追加や複雑なネットワークによって肥大化したインフラストラクチャでは、障害の影響を軽減するために、より多くのシステムレプリケーションが必要になります。
     
大量のI/Oを伴う大規模な不正検知ワークロードにおいて、メモリ使用量の増加やサーバー増設、システムの複雑化が発生し、その結果、消費電力の増加、性能低下、障害発生リスクの増大、運用・保守コストの増加につながることを示した図。
大量のI/Oを伴う大規模な不正検知ワークロードにおいて、メモリ使用量の増加やサーバー増設、システムの複雑化が発生し、その結果、消費電力の増加、性能低下、障害発生リスクの増大、運用・保守コストの増加につながることを示した図。


DRAM追加コスト

この問題に対する一見単純な解決策の一つは、サーバーノードあたりのメモリ容量を増やすことですが、実装はそれほど簡単ではありません。フィンテックインフラにおける典型的なメモリピラミッドは以下のようになります。
 

XPU、キャッシュ、HBM、DRAM、直接接続SSD、リモートストレージで構成される階層型のメモリおよびストレージ構成を、ピラミッド形状で示した図。
XPU、キャッシュ、HBM、DRAM、直接接続SSD、リモートストレージで構成される階層型のメモリおよびストレージ構成を、ピラミッド形状で示した図。


メモリ要件は主にDRAMで処理されますが、DRAMは通常、GBあたりのコストがSSDの10倍も高価です。したがって、DRAMによるノードメモリ容量の増加にはコストがかかります。

コスト面の考慮はさておき、DRAM容量をSSD並みに拡張することは技術的に不可能です。スロット数には限りがあり、メモリカード1枚あたりの容量にも限界があります。最も高価なエンタープライズシステムでさえ、DRAMの総容量は現状20TBを超えることができませんが、SSDの容量はPB規模に達する可能性があります。
 

CXLによるメモリ拡張

より効率的なアプローチを示すため、下の図ではCXLデバイスを使用してさらに2つのメモリ階層を追加しています。AIワークロードのニーズに特化したメモリセマンティクス(コヒーレンシ、小規模ロード/ストアI/O)をサポートするCXLは、サーバーを追加することなく、より高密度なメモリシステムを構築し、より多くの容量を提供することで、全体的なTCOを削減します。CXLは、SSDと比較して驚異的な高速パフォーマンスと、DRAMよりもはるかに高い容量を実現します。

直接接続型またはリモートストレージ向けのCXLプロトコルは、AI、HPC、クラウドデータセンターのワークロードをターゲットとするハイエンドサーバーの標準機能になると予測されています。メモリ拡張、メモリ共有、メモリプーリングのユースケースにおいて重要な役割を果たすでしょう。スケーラビリティに加え、AI不正検出ワークロードの要件を満たす帯域幅とレイテンシ性能も提供します。
 

XPU、キャッシュ、HBM、DRAM、直接接続メモリ、ファブリック経由メモリ、直接接続SSD、リモートストレージで構成される階層型のメモリおよびストレージ構成を、ピラミッド形状で示した図。
XPU、キャッシュ、HBM、DRAM、直接接続メモリ、ファブリック経由メモリ、直接接続SSD、リモートストレージで構成される階層型のメモリおよびストレージ構成を、ピラミッド形状で示した図。


RAS、SLA、可観測性

フィンテックプロバイダーは、パフォーマンスとTCO削減に加え、データセンター内のサーバークラスター全体のシステムメモリ全体における信頼性(Reliability)、保守性(Serviceability)、可用性(Availability, RAS)、そして可観測性(Observability)を極めて重視しています。デバイス障害は想定以上に頻繁に発生するため、常に監視する必要があります。これらのデバイスにおける迅速かつタイムリーな問題検出と介入により、フィンテックプロバイダーは重要なサービスレベルアグリーメント(SLA)を遵守することが可能となります。

したがって、そのデータと基盤となるインフラストラクチャのRASが非常に重要になります。基盤となるインフラストラクチャが扱いにくくなると、フィンテックのサポート組織は頻繁な障害に対処しなければならず、顧客に約束したSLAを満たすために複数のレプリケーションを管理する必要が生じます。
 

ソリューションとしてのSamsung Cognos

CXLメモリソリューションの実装は、Samsung Cognosと呼ばれるサムスンのAI強化型メモリ管理およびオーケストレーションソフトウェアを使用して起動できます。

Cognosは、次の機能を通じて直接接続メモリ(direct attached memory)を有効にするための重要なサポートを提供します。

  • 未使用メモリの発生による非効率(memory stranding)問題に対処するための容易なスケーラビリティを備えた高密度マルチデバイスメモリプールの管理

  • アプリケーションを考慮したメモリオーケストレーションによる階層化メモリ(tiered memory)の性能最大化

  • 不正取引検知SLA指標に基づくデータの自動階層化、ローカライゼーション、ホットデータパターン管理、およびサムスン端末におけるデバイスレベルフック(device-level hook)のサポート

  • デバイスおよびアプリケーションレベルの監視を容易にする直感的なコンソール

  • アプリケーションの透過性を提供し、アプリケーションを変更せずにCognosを利用可能

Cognosは、RAS(Reliability, Availability, Serviceability)と可観測性(Observability)機能を通じてサーバークラスターの監視と保守を容易にします。メモリ管理において、お客様に手間をかけずにスケーラブルなアプローチを提供し、不正検出アプリケーションに必要なIMDB(In-Memory Database)とのスムーズな統合を実現します。
 

AIによる不正検知処理において、CXLベースのメモリ基盤を用いたシステム構成を示した図。システムメモリ、インメモリデータベース、Cognosの自動ティアリング、CXLサーバーおよび拡張シャーシ、メモリプーリング、動的メモリスケーリング、レイテンシ監視および補正の構成要素を含む。
AIによる不正検知処理において、CXLベースのメモリ基盤を用いたシステム構成を示した図。システムメモリ、インメモリデータベース、Cognosの自動ティアリング、CXLサーバーおよび拡張シャーシ、メモリプーリング、動的メモリスケーリング、レイテンシ監視および補正の構成要素を含む。


実際の運用環境でCognosとCXLを採用することで、アプリケーションユーザーは、SLAのレイテンシとスループットの目標を満たしながら、TCOを4倍に削減することができました。
 

ローカルDRAMと、オートティアリングモジュールを用いたCXLファブリック経由のCXLデバイス併用構成を比較し、サーバー当たりのデータサイズ、スループット(Ops/s)、および読み取り・更新時の平均レイテンシを目標値とあわせて示したグラフ。
ローカルDRAMと、オートティアリングモジュールを用いたCXLファブリック経由のCXLデバイス併用構成を比較し、サーバー当たりのデータサイズ、スループット(Ops/s)、および読み取り・更新時の平均レイテンシを目標値とあわせて示したグラフ。


アプリケーションレベルの変更は必要ないため、このソリューションは、ここで説明したAI不正検出ワークロードに加えて、多くのIMDBワークロードに対して魅力的な価値提案を提供します。
 

フルスタック(full-stack)ソリューションにご興味があり、サムスンと協力して顧客にさらなる価値を提供したいとお考えの方は、rdmsldfscore@ssi.samsung.comまでお問い合わせいただくか、当社のWebページ(https://semiconductor.samsung.com/about-us/locations/us-rnd-labs/memory-labs/data-fabric-solutions/ ) にアクセスして詳細をご確認ください 。