SAP HANA Cloud : データレイクおよびデータティアリング(階層化)概要
作成者:伊藤 沢 投稿日:2023年5月22日
このブログは、2022年11月に開催されたTeched 2022 セッションDA108のスピーチの日本語抄訳です。オリジナルは、こちら で公開されている動画を参照してください。
また、最新の情報は、SAP Communityの最新ブログやマニュアルを参照してください。
本日のアジェンダです。最初に、SAP HANA Cloud 内のデータピラミッドのコンセプトについて説明します。
データティアリングとは何かについて説明し、そのデータピラミッドを構成する HANA Cloud 内のコンポーネントについて説明していきます。
次に、データエージングやデータファネルの一般的な設計パターンについて紹介し、スキーマモデリングアプローチについて簡単に説明します。
その後、NSE(Native Storage Extension)、HANA データベース自体の機能、ペタバイトスケールの列指向データデータベースであるdata lakeリレーショナルエンジン、data lake files、オブジェクトストレージ機能、data lakeリレーショナルエンジンとdata lake files間の橋渡しをするSQL on Files機能など、HANA Cloudのデータ階層の使用に関する、より詳細な技術事項について説明します。
お客様にとってのデータティアリングは何を意味するのかをお聞きすると、その回答は共通してお客様のデータティアリング戦略のゴールがデータ容量の拡張に関してであるということでした。同時に、所有コストを管理すること(必ずしもこれを最小限に抑えることとは限りませんが)、そして、システムの複雑性を最小限に抑えることでした。
つまり、データティアリングの導入に関する方針は、データ量について考えるところから始まります。
データ量が SAP HANA データベースのメモリーサイズに適合する場合には、データティアリングについて考える必要はありません。
同様に、データ量が SAP HANA およびSAP HANA NSE(Native Storage Extension)内に収まる場合も、SAP HANA Cloud, data lakeを使用する場合の複雑性について考える必要はありません。
まずデータ量に関する検討からスタートし、次にコストのトレードオフについて見ていくことになりますが、お客様にとって本当に重大な優先事項は、ストレージのコストではなく、多くの場合、データのランドスケープの複雑性を管理することでしょう。
次のデータピラミッドの図へ続きます。
SAP HANA Cloud, data lakeは、数年前に初めてSAP HANA Cloudを発表した時にSAP HANA データベースとともに発表されました。(参照:SAP Sapphire 2019 Keynote Youtube動画 10:35~)
SAP HANA Cloud のSAP HANA データベースは、従来の純粋なインメモリーデータストレージに対してクエリを実行するものです。
これに加えてSAP HANA NSE (Native Storage Extension) によってSAP HANA のデータをディスクに拡張してデータを保存する機能が追加されました。
これにより、メモリー容量を直線的に拡張しなくても、データ容量を大きく拡張できるようになりました。
一方、前述したように、SAP HANA Cloud, data lakeリレーショナルエンジンは、ペタバイト規模のデータ(圧縮後)を格納できるカラムベースの構造化されたデータベースです。
これは、実績が豊富なエンタープライズスケールのデータベースであるオンプレミスのSAP IQ テクノロジーに基づいています。
このSAP HANA Cloud, data lakeリレーショナルエンジンに、SAP HANA Cloud, data lake files オブジェクトストレージ機能が追加されました。
SAP HANA Cloud, data lake filesには、どのようなファイルでも、つまり、構造化されたファイルでも、JSONなどの半構造化ファイルでも、非構造化データでも、JPEGや、Word 文書でも、何でも格納することができます。
SAP HANA Cloud, data lake files内のデータが CSV ファイルやParquet、ORCなどの構造化データの場合には、それらの構造化ファイル上に仮想テーブルを作成し、SQL on filesコンポーネントを使用してファイルコンポーネントを通してテーブルのように処理することができます。
これによりSAP HANA Cloud, data lakeリレーショナルエンジンから直接クエリを実行することができます。
右側の矢印を見てください。このグラデーションの濃淡は意図的に調整しています。
ピュア インメモリー HANA は、最高のパフォーマンスを実現しますが、そのハードウェアコンポーネントによりデータ量の制約を受けてしまいます。その結果、価格にも影響します。しかしながら、ディスクベースのストレージ使用することで、データ量を拡大できます。
SAP HANA CloudのSAP HANA NSE (Native Storage Extension) を使用すると、SAP HANA データベースのデータを最大約10テラバイトまで利用することができます。
それ以上の場合には、最終結果セットまたは中間結果セットの、結果セットごとに20億件のレコード数というSAP HANAの機能上の制限について考慮する必要が出てきます。
そこで、SAP HANA Cloud, data lakeリレーショナルエンジンにデータをオフロードすることで、構造化データをペタバイト規模まで拡張することが可能になります。
パフォーマンスに関しては、ディスクベースのデータを使用する場合には、SAP HANA CloudのSAP HANAデータベース内で SAP HANA NSEを使用しても、SAP HANA Cloud, data lakeリレーショナルエンジンを使用しても、同等のパフォーマンスを得ることができます。
複雑性の観点では、SAP HANA Cloudの SAP HANA NSEには大きなメリットがあります。すべてのデータが1つのSAP HANA データベースにあるだけでなく、1つのSAP HANAテーブルに存在するからです。
そのため、アプリケーション開発者の観点では、データが SAP HANAのメモリー内にあるのか、SAP HANA NSEを使用しているのか、特に注意する必要はありません。1つのテーブルに対して作業するだけです。
しかし、SAP HANA Cloud, data lakeを使用する場合には、さらに別のデータベースを使用することになります。
別のデータベースがあるということは、それぞれ別のテーブルが存在するということです。そのため、アプリケーション開発者は特定のデータがSAP HANA CloudのHANAデータベースにあるテーブルにあるのか、SAP HANA Cloud, data lakeリレーショナルエンジンにあるテーブルにあるのかを知っておく必要があります。
データのどのセグメントがSAP HANA CloudのHANA テーブルにあり、データのどの部分がSAP HANA Cloud, data lakeリレーショナルエンジンにあるのか、クエリ内で、明示的にこれらのテーブルを参照する必要があります。
SAP HANA CloudのSAP HANA NSEの仕組みについては後ほどさらに詳しく説明します。
その前に一般的な設計パターンについてもう少し説明します。
1つ目は、最も一般的なデータエージングについてです。
データティアリングについて語られる時には、通常、お客様のデータベースは増大しており、データをオフロードしなければならない状態にあります。しかしデータマイニング、機械学習、長期レポート、傾向分析、何等かの規制上の理由などの目的で、そのデータはそばで利用しやすいように保存しておく必要がある、と言われます。
データエージングシナリオでは、データは通常SAP HANA Cloudピラミッドの上部に投入されます。
すべてのアクティブなデータ、または少なくとも最もアクティブなデータが、このSAP HANA Cloudピラミッドの上部に格納されます。
ご覧のとおり、このデータピラミッドは構造化されています。
次に、このデータをSAP HANA Cloud, data lakeリレーショナルエンジンに移動またはコピーします。
最終的にはSAP HANA Cloud, data lakeリレーショナルエンジンからファイルにオフロードするかもしれません。
データエージングシナリオには、いくつかの特性があります。
最初に、テーブルスキーマは一般的に各階層で整合がとれています。階層間で列の追加や削除は行いません。
データがSAP HANA Cloud のHANA データベースまたはSAP HANA Cloud, data lakeリレーショナルエンジンにある限り、データの更新は可能です。
SAP HANA Cloud, data lake filesの階層では、ファイルを上書きすることもできないわけではありませんが、SAP HANA Cloud, data lake filesの階層に対するupdate文はありません。
2番目に一般的な使い方は、データファネルです。
データファネルでは、通常、データはSAP HANA Cloudデータピラミッドの下方から追加されます。
SAP HANA Cloud, data lake filesオブジェクトストレージレイヤーのデータは、フォルダ構造として表示していることに気づかれたかもしれませんが、
この時点では、SAP HANA Cloud, data lakeリレーショナルデータベースにデータは取り込まれていないため、ファイルとして表示されます。
SQL on filesを介してこれらのファイルに対してクエリを実行し、これらのファイルにSAP HANA Cloud, data lakeリレーショナルエンジンを介してアクセスしたり、load tableを実行してこのデータをSAP HANA Cloud, data lakeリレーショナルエンジンにロードすることもできます。繰り返しますが、これは構造化テーブルに対して行います。
データエージングシナリオとは異なるのは、多くの場合、階層によってスキーマが異なることです。
(注:2022 QRC でSAP HANA Cloud, data lake でHANA DBと互換のスキーマがサポートされました。https://blogs.sap.com/2022/12/29/whats-new-in-sap-hana-cloud-in-december-2022/)
スライドの例では、センサーデータを投入しています。そのセンサーデータを上の階層に移動させるのに伴いデータがエンリッチ化されます。工場に関する情報、センサータイプ、SAP HANA Cloud, data lakeリレーショナルエンジンにある別の情報などが付加されていきます。
そしてSAP HANA Cloud, HANA データベースに移動させる前に、そのデータにさらなる処理を実行します。
ファネルを通じて、データをどう処理するかは、お客様のビジネスケースに完全に依存します。
これは考えられる使用法の一例です。
スキーマモデリングについて、説明します。
まず、離散データサブセットの格納モデルです。
お客様は従来、個別のデータセットを使用しています。そして、たとえば今年度の鮮度の高い、あるいは価値のあるデータをインメモリーにおきます。
受注シナリオについて考えてみると、非常に意味があります。
SAP HANA CloudのSAP HANA データベースには前年度のデータもあります。これは、前年比較を行っているためです。
SAP HANA NSE でディスクベースにして、オフロードすることもあるかもしれません。
その後、古くなったデータはSAP HANA CloudのSAP HANA データベースから完全に削除し、SAP HANA Cloud, data lakeリレーショナルエンジンに格納していきます。
このアプローチの良い点は、あるレコードのコピーを1つの場所に1つしか持たないことです。
しかし、クエリを実行し、データの全範囲を必要とするレポートを生成しなければならない場合には、2つのデータベースを連携する必要があります。
また、データフェデレーションは、非常に機能的であるものの、パフォーマンスのオーバーヘッドがあり、完全なデータのスーパーセットを使用した代替モデリングアプローチが必要になります。
次に完全スーパーセットの格納モデルについて説明します。このモデルでは、SAP HANA CloudのSAP HANA データベースのインメモリーデータと前年度データとを分割します。
繰り返しになりますが、これは1つのSAP HANA テーブルに格納することができるため、アプリケーション開発者はこれを明確に認識する必要はありません。
その後、今年度および前年度のデータをSAP HANA Cloud, data lakeリレーショナルエンジンにコピーしていきます。つまり、データセット全体、この例の場合では最初の10年分のデータがSAP HANA Cloud, data lakeに存在することになります。
そのため、SAP HANA Cloud, data lakeリレーショナルエンジンでもレポートをフルで実行することができるようになります。インメモリーのパフォーマンスを必要としないレポートについては、SAP HANA Cloud, data lakeリレーショナルエンジンで実行できるため、データフェデレーションとオフロードの負荷の両方を回避することができます。
それでは、この技術がどう機能するのか、実際にどう活用すればいいのか、についてお話しします。
上の右側上の図は、従来の純粋なインメモリーのSAP HANAです。
メモリー領域の約半分がデータストレージに使用されるように、サイズを設定します。残り半分はワークスペースとして維持されます。
時間の経過とともに柔軟性が向上しました。
ただし、ここで注意すべき最も重要なことは、純粋なインメモリーデータベースであっても、リカバリー性 (計画されている再起動、フェイルオーバー、いずれであっても) のためにデータをディスクに書き込まなければならないため、パーシステンスレイヤーが存在します。
純粋なインメモリーのSAP HANAでは、データをテーブルまたはパーティション全体として同時にロードします。
これは大きなモノリシックブロックです。
SAP HANA NSE(Native Storage Extension)には、SAP HANAのディスクエイジング機能が実装されています。
これらのモノリシックなカラムまたはパーティションをページと呼ばれる単位に分割します。
上の右側下の図のように、必要なページを必要に応じてロードするだけです。
そのため、20億レコードのパーティション全体をロードするのではなく、読み込みのため、20億レコードパーティションのうち例えば128k程度をロードすることも可能です。
マニュアル: SAP HANA Native Storage Extension
SAP HANA NSE(Native Storage Extension)を使用して、page loadable あるいはディスクベースにするのかのデータの割り当てには、ロードユニットと呼ばれるものを設定します。
デフォルトでは、テーブルを作成してパーティションを作成すると、すべてのデータは完全にメモリーに格納されます。これは、column loadableと呼ばれるものです。
Page loadableまたはディスクベースに割り当てる場合は、完全なテーブルレベル、個別のカラムレベル、または個別のパーティションレベルで割り当てることができます。
データティアリングの場合、通常、パーティションレベルで行うのが最適な設定です。
これは、create table 文または alter table 文を使用して行います。
したがって、このことを認識する必要があるのは、これらのテーブルを作成している DBA のみです。
ここでも、アプリケーション開発者は、SAP HANA NSE (Native Storage Extension) を使用しているかどうかを認識する必要はありません。
画面の例は注文テーブルです。
O_ORDERDATE 列に基づいてパーティションを作成します。
カラム宣言内、最後のカラム、O_COMMENT カラムに注意してください。カラム定義の最後に、”page loadable” 句でpage loadableに割り当てます。
これで、カラムは、その他のテーブルがどこにあっても、純粋にインメモリーであっても、常にディスクベースのデータとして格納されます。
パーティション定義は、この例では、最も古い年2年分、つまり2019年と2020年の分がpage-loadableに設定されているので、これらは主にディスクに保存されることになります。
これらは、これらの年を参照するクエリーから完全にアクセス可能ですが、クエリーが投げられない限りはメモリー領域を占有しません。
直近の2年分は、column-loadableとして設定します。物理的にデータを移動させているわけではありません。
パーティショニングスキームに基づいて、orders テーブルに対して、insert、update、deleteの操作を行っているだけで、HANAエンジン側でそれを適切に格納します。
関連マニュアル: SAP HANA Native Storage Extension
次に、SAP HANA CloudのSAP HANA データベースとdata lakeのリレーショナルエンジン間で物理的にデータを移動するにはどうすればよいか、説明していきます。
まず、最も単純なオプションは、SAP HANA データベースからのプッシュです。
SAP HANA Cloud, data lakeリレーショナルエンジンのテーブルを指定するSAP HANA データベースで定義された仮想テーブルに対して標準の DML 文、insert/update/delete/selectを使用します。
データを移動する場合、またはデータを一括でいずれかの方向に移動させる場合、insert/select 文を実行します。
ターゲットテーブルへのinsertは、SAP HANA からSAP HANA Cloud, data lakeリレーショナルエンジンにデータをプッシュする場合には、リレーショナルエンジン上に定義された仮想テーブル、つまりSAP HANA Cloud, data lakeリレーショナルエンジン内の物理テーブルに対してinsertを実行します。
これは、最も簡単なアプローチです。
しかしながら、これは実際にはデータ移動の方法としては、最低速のスループットになります。
そのため、多くのユースケースでは不十分であり、スループットを上げる必要がある場合には、別の選択肢があります。
2つ目のオプションは、SAP HANA Cloud, data lakeリレーショナルエンジン自体からプルする方法です。
SAP HANA データベースの接続を介して、SAP HANA Cloud, data lakeリレーショナルエンジンに接続します。そして、SAP HANAデータベースの物理テーブルを指定する仮想テーブルを作成し、SAP HANA Cloud, data lakeリレーショナルエンジンにパスされるselect文を発行します。この仮想テーブル定義を介してSAP HANA テーブルに対してinsert/selectクエリを実行し、データをSAP HANA Cloud, data lakeにプルします。
これは、元々オンプレミスのSAP HANA dynamic tieringでデータをマルチスレッドでプルするために開発したパフォーマンス強化の長所を活用しています。
そのため、このデータ転送方法を使用することで、スループットが大幅に向上します。
一度設定してしまえばかなり簡単です。
ここで紹介しているリンクは、接続の設定方法を説明しているSAP コミュニティのブログへのリンクです。
(注:2022 QRC4でSAP HANA Cloud, data lake リレーショナルエンジンの各リレーショナルコンテナに SYSHDL_<relational_container_name>_SERVER という名称の専用のリモートサーバーが新たに付属し、このリモートサーバーを使用して、SAP HANA データベースに接続し、SAP HANA データベースから、SAP HANA Cloud, data lake リレーショナルエンジンのリレーショナルコンテナにデータを pull することが可能になりました。)
3つ目の選択肢は、特にテラバイト規模のデータを処理する際には実際に最高のスループットになる方法です。一時ストレージとしてSAP HANA Cloud, data lake filesを使用してデータをファイルにエクスポートし、その後、それを反対側にインポートします。
構文の観点から見ると、SAP HANA データベースの構文は IMPORT/EXPORT です。
SAP HANA Cloud, data lakeリレーショナルエンジン内の構文は LOAD TABLE または UNLOAD です。
マニュアル: SAP HANA Cloud Data Lake Administration Guide for Data Lake Relational Engine
SAP HANA Cloud, data lake filesの直接の操作について説明します。すでに少し触れましたが、SAP HANA データベースからインポートまたはエクスポートを行うためのコードサンプルを、上の四角の枠内に記載しています。
CSV ファイルからインポートし、形式を指定して、SAP HANA Cloud, data lake files内のファイルへのディレクトリパスを指定します。特定のファイルへのパスを指定し、ロード先のテーブルを指定します。認証情報の定義が必要です。パーミッションも必要です。
エクスポートも同じです。
SAP HANA Cloud, data lake files内の特定のファイルにエクスポートします。
SAP HANA Cloud, SAP HANA データベースのテーブルからファイルのパターン、ファイル名のパターンが必要です。
SAP HANA Cloud, data lakeリレーショナルエンジンでは、構文が異なるため、LOAD TABLEまたは UNLOADを使用します。
この場合は、UNLOAD/SELECT を使用します。
再び、SAP HANA Cloud, data lake files内の場所を指定します。
データをロードします。LOAD TABLEを使用している場合は、ファイルごとに実行する必要があります。
UNLOADを行う場合、指定したパラメーターに基づいて、必要な数分のファイルを生成することができます。
もちろん、常にSAP HANA データベースまたはSAP HANA Cloud, data lakeリレーショナルエンジンを介してSAP HANA Cloud, data lake filesを操作しなければならないわけではありません。
オブジェクトストアとしてSAP HANA Cloud, data lake files独自の方法で直接使用することもできます。
主なインタフェースとしては、Web HDFS API に基づく REST API があります。
一般的な操作について見ていきます。
ファイルを置いたり、開けて読み込んだり、ファイルをマージすることができます。
また、コマンドラインユーティリティーも提供しています。
この場合、コマンドラインユーティリティーを Windowsで実行しているため、HDLFS クライアントファイルユーティリティーを使用します。
ここでも、プログラムするのではなく、コマンドラインで作業した方が操作はよりシンプルです。
マニュアル: SAP HANA Cloud, Data Lake User Guide for Data Lake Files
最後のコンポーネント、最もクールなコンポーネントが、SQL on filesの機能です。
SQL on Filesが何をするかと言うと、SAP HANA Cloud, data lakeリレーショナルエンジンとSAP HANA Cloud, data lake filesに格納されている構造化ファイルとの間の橋渡しを行います。
これを実行するには、SAP HANA Cloud, data lake filesに格納されているCSVファイルやParquetファイルに対してSAP HANA Cloud, data lakeリレーショナルエンジン内に仮想テーブルを定義します。
右側にコード例があります。SAP HANA Cloud, data lake filesサービス内にスキーマを作成することから始めます。
SAP HANA Cloud, data lake filesサービスはすでに存在するため、あらためて作成する必要はありませんが、SAP HANA Cloud, data lake filesサービスでスキーマを定義する必要があります。
次に、SQL on filesテーブルを定義します。
これはファイルサービスレベルです。
SQL on file エンジン自体のテーブル定義を提供します。
SQL on files テーブルをSAP HANA Cloud, data lakeリレーショナルエンジンに公開するため、SAP HANA Cloud, data lakeリレーショナルエンジン内に仮想テーブルを作成します。
既存のテーブルを作成します。
最後のステップはデータソースの定義です
データソースは、この仮想テーブルを構成するファイルがSAP HANA Cloud, data lake filesストレージのどこかを示します。
また、パス内のワイルドカードは、複数のディレクトリと複数のファイルを持つことができることを示していますが、この場合は CSV ファイルのみを探します。
つまり、もしそのディレクトリに非CSVファイルがあった場合には、そのファイルは処理されません。
SQL on filesの価値は、SQL クエリで、このファイルベースのデータの使用をファイルストレージに届き次第すぐに開始できることです。
マニュアル: SAP HANA Cloud, Data Lake Administration Guide for SQL on Files
以上が、データファネルシナリオにおけるすべてです。データファネルシナリオでは、データベースにデータを高速投入する前に、事前調査、フィルタリング、場合によってはデータクレンジングを行います。
データが届き次第、リアルタイムアクセスが必要になる場合があるからです。
これらが、SAP HANA Cloud データピラミッドのコンポーネントです。
SAP HANA Cloudを使用して実際に作業を開始する際に役立つ情報を数多く用意しています。
チュートリアルカタログにも、多数のチュートリアルを用意しています。
リンクはこちらです。
SAP HANA Cloud, data lake チュートリアル
SAP HANA Cloud および SAP HANA Cloud, data lakeのタグで検索してください。
SAP HANA Cloud, data lake files、SAP HANA Cloud, data lake リレーショナルエンジン、SQL on filesをお試しください。
SAPコミュニティのブログ記事の数も増えてきています。リンクはこちらです。
SAP HANA Cloud, data lakeというタグで検索してみてください。
今後さらに質問がある場合は、SAP Communityを利用して、質問することができます。質問でもSAP HANA Cloud または SAP HANA Cloud, data lakeのタグを使用してください。
このオリジナルブログが掲載されているSAP CommunityのSybase関連タグをフォローして、最新技術情報をキャッチアップしてください(フォローには登録が必要です)。
SAP Communityの関連タグ
・SAP HANA Cloud, data lake ブログ / Q&A
・SAP IQ ブログ / Q&A
・SAP SQL Anywhere ブログ / Q&A
SAP Communityでは質問も投稿することが可能で、世界中のSAP社員やユーザーのアドバイスを受けることができます。
———————————————————
SAPジャパンブログ内関連記事:
SAP HANA Cloud, data lake
SAP HANA Cloud, data lake 2022年12月版、2023年3月版、6月版の主な新機能
SAP HANA Cloudの「マルチ環境」のサポートとSAP HANA CloudのKyma環境からの使用
SAP HANA Cloud : データレイクおよびデータティアリング(階層化)概要
SAP IQシステムからSAP HANA Cloud, data lake (Standalone Data Lake) へ移行する理由トップ5
SAP IQまたは、SAP HANA Cloud, data lakeリレーショナルエンジンのインスタンスから別のインスタンスへログインをコピーする
SAP HANA Cloud, data lakeリレーショナルエンジンで非同期でテーブルをロードする
Jupyter NotebookとPySparkでSAP HANA Cloud, data lake Filesを使用する
SAP HANA Cloud, data lakeストレージのオブジェクトストレージへの変更によるパフォーマンス向上とペタバイト規模データの対応およびコスト低減
SAP HANA Cloud, data lakeでマテリアライズドビューを使用してパフォーマンスを上げる
SAP HANA Cloud, SAP HANA データベースとSAP HANA Cloud, data lake filesを使用する
SAP HANA Cloud, HANA データベースからSAP HANA Cloud, data lakeデータベースへの最速のデータ移行方法とテスト結果
SAP HANA Cloud, HANAデータベースから HANA Cloud, data lakeへのデータの高速移行とデータ移行速度に影響するパラメーター
SAP HANA Cloud, data lakeとSAP IQに共通するヒストリカルデータベースとDBSpaceサイズのキャプチャー方法
SAP HANA Cloud, data lake(IQ)をベースにしたNode.jsアプリケーションの構築
複数のSAP HANAソースからのデータを1つのSAP HANA Cloud, data lake(IQ)に集約する
SAP HANA Cloud, data lake Filesへの最初のアクセス設定
SAP HANA Cloud, data lakeおよびSAP IQにおけるスキーマのエクスポート/バックアップ
SAP HANA Cloud, data lake(IQ)にWindows端末からPythonで直接接続する
SAP HANA Cloud, data lakeへのデータロードにおけるvCPU数の影響
SAP IQのクラウドサービスが開始されました – SAP HANA Cloud, data lake (Standalone IQ)
SAP IQ
SAP IQのクラウドサービスが開始されました – SAP HANA Cloud, Data Lake (Standalone IQ)
SAP IQ – 隠れたイッピン(the hidden treasure) …
全てのSAP BW、SAP BW/4HANAリリースのSAP ニアラインストレージ(NLS)ソリューション – SAP IQ
SAP IQによるSAP ニアラインストレージ(NLS)のパフォーマンスを向上させる
SAP IQを利用したSAP Information Lifecycle Management(ILM)
DBA CockpitでSAP IQを有効にする
SAP IQのための容易なインストーラー - 「Q」
列指向データベースでもOLTPに対応したSAP Sybase IQ16の機能拡張
大量データの「圧縮率」と「ロード時間」を改善したSAP Sybase IQ16の技術解説
SAP IQ 16.1 SP05がリリースされました
SAP ASE
SAP ASE 16.0 SP03による高可用性(HA)+災害復旧(DR)の3ノードHADR
カスタム開発のアプリケーションにおけるSAP ASE Always-on機能へのDRノードの追加(パート 1)(パート 2)(パート 3)
SAP ASE 16.0 SP04の新機能
SAP ASEの新しい管理ツール「AMC」の紹介:インストール方法、メモリー管理、ワークロード分析機能、Workload AnalyzerのSSL設定について
SAP HANAプラットフォームを相互補完し進化する旧Sybase製品の今――SAP ASEとSAP IQ
SAPアプリケーション向けデータベースとしてSAP Sybase ASEが採用される理由とは
RDBMSのパフォーマンス向上の仕掛け――SAP Sybase ASE 15.7の最新アーキテクチャー解説
オンラインマニュアル:
SAP HANA Cloud
SAP HANA Cloud, Data Lake (SAP HANA DB-Managed)
SAP HANA Cloud, Data Lake (Standalone)
SAP Datasphereスペースを SAP HANA Cloud, data lakeに接続して、大量のデータを保存または利用できます。
SAP IQ
SAP SQL Anywhere(日本語)/(最新英語)
SAP ASE
SAP Community (ブログ/ Q&A) :
SAP HANA Cloud, data lake
SAP IQ
SAP SQL Anywhere (日本語ブログ一覧ページ)
SAP ASE
SAP Community Wiki:
SAP IQ
SAP SQL Anywhere
SAP ASE
sap.com 製品ページ:
SAP HANA Cloud, data lake
データレイクとは
SAP IQ
SAP SQL Anywhere(サブページ)
SAP ASE
デベロッパー向けチュートリアル
SAP HANA Cloud, data lake
その他:
SAP IQ テクニカル概要
SAP IQ 16.0 ハードウェアサイジングガイド
様々なストレージおよびネットワークテクノロジーにおける SAP IQ 16 Multiplex のパフォーマンス評価