Replica clusters ================ .. raw:: html レプリカクラスターは、別のPostgreSQLインスタンスからデータをレプリケートするように設計されたCloudNativePG ``Cluster`` リソースであり、理想的にはCloudNativePGによって管理されます。 通常、レプリカクラスターは、別のリージョンの別のKubernetesクラスターに展開されます。これらのクラスターは、カスケードレプリケーションを実行するように構成でき、以下で詳しく説明するように、ソースからのデータレプリケーションのオブジェクトストアに依存できます。 レプリカクラスターには、主に2つのユースケースがあります。 1. **ディザスターリカバリーと高可用性** ディザスターリカバリーとある程度、通常は異なるリージョンにあるさまざまなKubernetesクラスターにわたるCloudNativePGクラスターの高可用性を強化します。 CloudNativePG用語では、これは :ref:`分散トポロジ <分散トポロジ>` と呼ばれます。 2. **読み取り専用ワークロード** レポートやオンライン分析処理OLAPなどの目的で、PostgreSQLクラスターのスタンドアロンレプリカを作成します。これらのレプリカは、主に読み取り専用ワークロード用です。 CloudNativePG用語では、これは :ref:`スタンドアロンレプリカクラスター <スタンドアロンレプリカクラスター>` と呼ばれます。 例、以下の図 — :ref:`Architecture ` から取得 —は、主にディザスターリカバリーの目的で機能する対称レプリカクラスターを使用した、2つのKubernetesクラスターにまたがる分散PostgreSQLトポロジを示しています。 .. figure:: /images/multi-cluster.png :width: 70% :alt: An example of multi-cluster deployment with a primary and a replica cluster An example of multi-cluster deployment with a primary and a replica cluster 基本概念 -------- CloudNativePGはPostgreSQLレプリケーションフレームワークをベースに構築されており、このセクションで説明するレプリカクラスター機能を使用して、既存のソースクラスターからPostgreSQLクラスターを作成および同期できます。ソースは、プライマリクラスターまたは別のレプリカクラスターカスケードレプリケーションです。 PostgreSQLのロールについて ^^^^^^^^^^^^^^^^^^^^^^^^^^ レプリカクラスターは継続的リカバリモードで動作します。つまり、カタログを含むデータベースへの変更、およびロールやデータベースのようなグローバルオブジェクトは許可されません。これらの変更は、\ ``Cluster`` がプライマリに移行するまで遅延されます。このフェーズでは、ロールなどのグローバルオブジェクトは、ソースクラスターで定義されたとおりに残ります。クラスターが昇格すると、CloudNativePGはローカル再定義を適用します。 クラスターを昇格する予定がない場合読み取り専用ワークロードの場合、またはレプリカクラスターが昇格したらソースクラスターから完全に切断する予定がある場合、アクションを実行する必要はありません。これは通常、 :ref:`スタンドアロンレプリカクラスター <スタンドアロンレプリカクラスター>` の場合です。 ある時点でクラスターを昇格する予定がある場合、CloudNativePGは、レプリカクラスターからプライマリに移行するときに次のロールとパスワードを管理します。 - アプリケーションユーザー - スーパーユーザー使用している場合 - :ref:`declarative interface ` を使用して定義されたロール 上記のロールとパスワードが変更されないことをシームレスに保証することが目的である場合、各\ ``Cluster`` で上記に必要なシークレットを定義する必要があります。これは通常、 :ref:`分散トポロジ <分散トポロジ>` の場合です。 レプリカクラスターのブートストラップ ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ 最初のステップは、次のいずれかの方法を使用してレプリカクラスターをブートストラップすることです。 - ``pg_basebackup`` 経由の **ストリーミングレプリケーション** - **ボリュームスナップショットからのリカバリ** - オブジェクトストアの **Barman Cloudバックアップからのリカバリ** ``pg_basebackup`` ストリーミングまたはリカバリーボリュームスナップショットまたはオブジェクトストアを使用してPostgreSQLサーバーのクローンを作成する手順の詳細については、 :ref:`Bootstrap ` を参照してください。 レプリケーションの構成 ^^^^^^^^^^^^^^^^^^^^^^ レプリカクラスターのベースバックアップが利用できるようになったら、PostgreSQL継続的リカバリーを使用してオリジンから変更をレプリケートする方法を定義する必要があります。 3つの主なオプションがあります。 1. **ストリーミングレプリケーション** レプリカクラスターとソース間のストリーミングレプリケーションを設定します。この方法では、ネットワーク接続を構成し、適切な管理およびセキュリティ対策を実装して、シームレスなデータ転送を保証する必要があります。 2. **WALアーカイブ** オブジェクトストアに保存されているWAL書き込み先行ログアーカイブを使用します。 WALファイルはソースクラスターからオブジェクトストアに定期的に転送され、そこから `Barman Cloud `_ のようなCNPG-Iプラグイン ``restore_command`` を介してレプリカクラスターのそれらを取得します。 3. **ハイブリッドアプローチ** ストリーミングレプリケーションとWALアーカイブ方法の両方を組み合わせます。 PostgreSQLは、必要に応じてこれら2つのアプローチを管理および切り替えて、データの一貫性と可用性を保証できます。 外部クラスターの定義 ^^^^^^^^^^^^^^^^^^^^ 外部クラスターを構成する場合、次のオプションがあります。 - **``plugin`` セクション** - `CNPG-I `_ を使用したレプリカクラスターのブートストラップを有効にします `restore_job `_ をサポートするプラグイン および `wal `_ プロトコル. - CloudNativePGは `Barman Cloud Plugin `_ をサポートしています オブジェクトストアからレプリカクラスターをブートストラップできるようにします。 - **``connectionParameters`` セクション** - ``pg_basebackup`` セクションを使用したストリーミングレプリケーションを介したレプリカクラスターのブートストラップを有効にします。 - CloudNativePGは、指定されたプライマリインスタンスに\ ``primary_conninfo`` オプションを自動的に設定し、ソースクラスターに接続してデータを受信するWALレシーバープロセスを開始します。 非推奨ですが、 **``barmanObjectStore`` セクション** に引き続きアクセスできます。 - CloudNativePGが指定されたプライマリインスタンスで\ ``restore_command`` を自動的に設定して、WALアーカイブの使用を有効にします。 - ボリュームスナップショットが実現できない場合、\ ``recovery`` セクションを使用してオブジェクトストアからレプリカクラスターをブートストラップできます。 バックアップおよびシンメトリックアーキテクチャ ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ レプリカクラスターは、指定されたプライマリから予約されたオブジェクトストアへのバックアップを実行でき、分散環境での対称アーキテクチャをサポートします。このアーキテクチャの選択は、制御されたデータセンターのスイッチオーバーまたは予期しないイベントに続くフェイルオーバー中にクラスターがプロモーションの準備ができるようにするため、重要です。 分散アーキテクチャの柔軟性 ^^^^^^^^^^^^^^^^^^^^^^^^^^ PostgreSQLデータベースの優先分散アーキテクチャを柔軟に設計でき、以下から選択できます。 - **プライベートクラウド** 異なるデータセンターにある複数のKubernetesクラスターにまたがります。 - **パブリッククラウド** さまざまなリージョンにある複数のKubernetesクラスターにまたがります。 - **ハイブリッドクラウド** プライベートクラウドとパブリッククラウドを組み合わせます。 - **マルチクラウド** さまざまなリージョンおよびクラウドサービスプロバイダーにまたがる複数のKubernetesクラスターにまたがります。 レプリカクラスターのセットアップ -------------------------------- ソースクラスターからレプリカクラスターをセットアップするには、次の手順に従ってクラスターYAMLファイルを作成し、それに応じて構成します。 1. **外部クラスターの定義** - ``externalClusters`` セクションで、レプリカクラスターを指定します。 - ディザスターリカバリーDRと高可用性HAを目的とした分散PostgreSQLトポロジの場合、このセクションはすべてのPostgreSQLクラスターに対して定義する必要があります分散データベースで。 2. **レプリカクラスターのブートストラップ** - **ストリーミングブートストラップ** ストリーミングレプリケーションを介したブートストラップには\ ``pg_basebackup`` セクションを使用します。 - **スナップショット/オブジェクトストアブートストラップ** ``recovery`` セクションを使用してボリュームスナップショットからブートストラップまたはオブジェクトストア。 3. **継続的リカバリ戦略** ``.spec.replica`` スタンザで定義します。 - **分散トポロジ** ``externalClusters`` で定義された分散トポロジとともに、 ``primary`` 、\ ``source`` 、および\ ``self`` フィールドを使用して構成します。これにより、CloudNativePGは、プライマリクラスターの降格と、その後のプロモーショントークンを使用したレプリカクラスターのプロモーションを宣言的に制御できます。 - **スタンドアロンレプリカクラスター** ``enabled`` オプションを使用して継続的リカバリーを有効にし、\ ``source`` フィールドをポイントするように設定します\ ``externalClusters`` 名前。この構成は、主に読み取り専用ワークロードを目的としたレプリカの作成に適しています。 継続的リカバリーのための分散トポロジーとスタンドアロンレプリカクラスター戦略の両方を以下で徹底的に説明します。 分散トポロジ ------------ 分散PostgreSQLデータベースの計画 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ ドワイト・アイゼンハワーの有名な言葉「計画がすべてです」。これは、KubernetesでのPostgreSQLアーキテクチャの設計にも当てはまります。 最初に、分散トポロジを紙の上で概念化し、それをCloudNativePG API構成に変換します。この構成には、主に次のものが含まれます。 - ``externalClusters`` セクション。分散PostgreSQLセットアップ内のすべての\ ``Cluster`` 定義に含める必要があります。 - ``.spec.replica`` スタンザ、具体的には\ ``primary`` 、\ ``source`` 、およびオプションの\ ``self`` フィールド。 たとえば、南ヨーロッパと中央ヨーロッパにある2つのKubernetesクラスターに分散されたPostgreSQLクラスターを展開するとします。 このシナリオでは、南ヨーロッパのKubernetesクラスターにCloudNativePGがインストールされており、プライマリとして機能する\ ``cluster-eu-south`` という名前のPostgreSQL ``Cluster`` を使用していることを前提としています。このクラスターには、ローカルオブジェクトストアで構成された継続的バックアップがあります。このオブジェクトストアには、中央ヨーロッパのKubernetesクラスターにインストールされている\ ``cluster-eu-central`` という名前のPostgreSQL ``Cluster`` からもアクセスできます。最初に、\ ``cluster-eu-central`` はレプリカクラスターとして機能します。対称的なアプローチに従い、継続的バックアップ用のローカルオブジェクトストアも持っています。これは、 ``cluster-eu-south`` によって読み取られる必要があります。 この例では、復旧はWALシッピングのみを介して実行され、2つのクラスター間のストリーミングレプリケーションは行われません。ただし、 :ref:`“Configuring replication” ` で説明しているように、ストリーミングレプリケーションを単独で使用するか、ハイブリッドアプローチつまりフォールバックとしてWALシッピングを使用したストリーミングレプリケーションを採用するようにセットアップを構成できます。 セクション。 次に、オブジェクトストアのBarman Cloudプラグインに依存して、両方の\ ``Cluster`` リソースの\ ``externalClusters`` セクションを構成する方法を示します。 .. code:: yaml ## Distributed topology configuration externalClusters: - name: cluster-eu-south plugin: name: barman-cloud.cloudnative-pg.io parameters: barmanObjectName: cluster-eu-south serverName: cluster-eu-south - name: cluster-eu-central plugin: name: barman-cloud.cloudnative-pg.io parameters: barmanObjectName: cluster-eu-central serverName: cluster-eu-central ``cluster-eu-south`` PostgreSQLプライマリ\ ``Cluster`` の\ ``.spec.replica`` スタンザは次のように構成する必要があります。 .. code:: yaml replica: primary: cluster-eu-south source: cluster-eu-central 一方、 ``cluster-eu-central`` PostgreSQLレプリカ\ ``Cluster`` の\ ``.spec.replica`` スタンザは次のように構成する必要があります。 .. code:: yaml replica: primary: cluster-eu-south source: cluster-eu-south この構成では、 ``primary`` フィールドが\ ``Cluster`` リソースまたは別のものが使用される場合は\ ``.spec.replica.self`` の名前と一致する場合、現在のクラスターは分散トポロジのプライマリと見なされます。それ以外の場合、\ ``source`` この場合、 Barmanオブジェクトストアを使用してからのレプリカとして設定されます。 この設定により、複数のKubernetesクラスターにわたる分散PostgreSQLアーキテクチャを効率的に管理でき、宣言的構成を使用したプライマリPostgreSQLクラスターの制御されたスイッチオーバーを介して、高可用性とディザスターリカバリーの両方を保証します。 分散トポロジにおける制御されたスイッチオーバーは、以下を含む2段階のプロセスです。 - プライマリクラスターのレプリカクラスターへの降格 - レプリカクラスターのプライマリクラスターへのプロモーション これらのプロセスについては、次のセクションで説明します。 .. Note:: 続行する前に、必ずご確認ください :ref:`PostgreSQLのロールについて ` 上記であり、分散トポロジに参加しているすべての\ ``Cluster`` オブジェクトでシークレットを含む同一のロール定義を使用します。   プライマリのレプリカクラスターへの降格 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ CloudNativePGは、プライマリクラスターをレプリカクラスターに降格する機能を提供します。このアクションは、通常、プライマリロールをあるデータセンターから別のデータセンターに移行するときに計画されます。このプロセスには、現在のプライマリクラスターたとえば\ ``cluster-eu-south`` をレプリカクラスターに降格し、その後、完全に同期したときに指定されたレプリカクラスター\ ``cluster-eu-central`` をプライマリに昇格させることが含まれます。 新しいプライマリになるように選択されたレプリカクラスターをポイントする現在のプライマリ\ ``Cluster`` リソースで外部クラスターを定義している場合、次のように\ ``primary`` フィールドを変更するだけです。 .. code:: yaml replica: primary: cluster-eu-central source: cluster-eu-central プライマリPostgreSQLクラスターが降格されると、書き込み操作は可能でなくなります。 CloudNativePGの場合 1. シャットダウンチェックポイントを含むWALファイルをWALアーカイブの\ ``.partial`` ファイルとしてアーカイブします。 2. ステータスに\ ``demotionToken`` 、システム識別子、タイムスタンプ、タイムラインID、REDOロケーション、最新のチェックポイントのREDO WALファイルなど、\ ``pg_controldata`` からの関連情報を含むbase64エンコードされたJSON構造を生成します。 最初のステップは、WALアーカイブのみを使用して継続的リカバリプロセスにフィードを与えるために降格/プロモートする必要がありますストリーミングレプリケーションなしで。 2番目のステップ ``.status.demotionToken`` の生成 は、データの損失や元のプライマリをリビルドすることなく、スムーズな降格/プロモーションプロセスを保証します。 この段階で、元のプライマリはレプリカクラスターに移行し、新しいグローバルプライマリ ``cluster-eu-central`` からのWALデータを待機しています。 他のクラスターの昇格を続行するには、次のコマンドを使用して\ ``cluster-eu-south`` から\ ``demotionToken`` を取得する必要があります。 .. code:: sh kubectl get cluster cluster-eu-south \ -o jsonpath={.status.demotionToken} ``cnpg`` プラグインを使用して、クラスターのステータスを確認して\ ``demotionToken`` を取得できます。トークンは\ ``Demotion token`` セクションの下にリストされています。 .. Note:: `cluster-eu-south` から取得した`demotionToken` は、`cluster-eu-central` の`promotionToken` になります。   ``cnpg`` プラグインを使用して、クラスターのステータスを確認して、ロールの変更を確認できます。 .. code:: shell kubectl cnpg status cluster-eu-south レプリカのプライマリクラスターへの昇格 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ PostgreSQLレプリカクラスター\ ``cluster-eu-central`` などをプライマリクラスターに昇格させ、指定されたプライマリを実際のプライマリインスタンスにするには、次の手順を同時に実行する必要があります。 1. ``.spec.replica.primary`` を、昇格する現在のレプリカクラスターの名前に設定します ``cluster-eu-central`` など。 2. ``.spec.replica.promotionToken`` を、以前のプライマリクラスターから取得した値で設定します :ref:`プライマリのレプリカクラスターへの降格 <プライマリのレプリカクラスターへの降格>` を参照してください。 ``cluster-eu-central`` の仕様の更新された\ ``replica`` セクションは次のようになります。 .. code:: yaml replica: primary: cluster-eu-central promotionToken: source: cluster-eu-south .. Warning:: 変更を`primary` および`promotionToken` フィールドに同時に適用することが重要です。プロモーショントークンを省略すると、フェールオーバーがトリガーされ、以前のプライマリのリビルドが必要になります。   これらの調整を行った後、CloudNativePGは、レプリカクラスターのプライマリクラスターへのプロモーションを開始します。最初に、CloudNativePGは、指定されたプライマリクラスターが、トークンに含まれる指定されたログシーケンス番号LSNまでのすべての書き込み先行ロギングWAL情報をレプリケートするのを待機します。この目標を達成すると、プロモーションプロセスが開始されます。新しいプライマリクラスターは、タイムラインを切り替え、履歴ファイルと新しいWALをアーカイブすることにより、レプリカとして動作する\ ``cluster-eu-south`` クラスターのレプリケーションプロセスのブロックを解除します。 ロールの変更を確認するには、 ``cnpg`` プラグインを使用して、クラスターのステータスを確認します。 .. code:: shell kubectl cnpg status cluster-eu-central このコマンドは、\ ``cluster-eu-central`` の現在のステータスを提供し、プライマリへの昇格を確認します。 これらの手順に従うことで、スムーズで制御されたプロモーションプロセスを保証し、中断を最小限に抑え、PostgreSQLクラスター全体でデータの整合性を維持できます。 スタンドアロンレプリカクラスター -------------------------------- .. Note:: スタンドアロンレプリカクラスターは、CloudNativePG 1.24で分散トポロジ戦略を導入する前は、レプリカクラスターと呼ばれていました。   CloudNativePGでは、スタンドアロンレプリカクラスターは、次の構成で継続的にリカバリーしているPostgreSQLクラスターです。 - ``.spec.replica.enabled`` を\ ``true`` に設定 - ``.spec.replica.source`` フィールドを介して定義された物理レプリケーションソース、 ``externalClusters`` 名前を指す ``.spec.replica.enabled`` が\ ``false`` に設定されている場合、レプリカクラスターは継続的リカバリモードを終了し、プライマリクラスターになり、元のソースから完全に分離されます。 .. Warning:: レプリケーションの無効化は、**不可逆的な**オペレーションです。レプリケーションが無効になり、指定されたプライマリがプライマリに昇格すると、レプリカクラスターとソースクラスターは決定的に2つの独立したクラスターになります。   .. Note:: スタンドアロンレプリカクラスターは、主に読み取り専用のワークロードが関係するいくつかのユースケースに適しています。ディザスターリカバリーソリューションのセットアップを予定している場合は、上記の「分散トポロジ」を確認してください。   分散トポロジとの主な違い ^^^^^^^^^^^^^^^^^^^^^^^^ スタンドアロンレプリカクラスターは、ディザスターリカバリーの目的で使用できますが、いくつかの重要な点で「分散トポロジ」戦略とは異なります。 - **分散データベース概念の欠如** スタンドアロンレプリカクラスターは、単純な形式2つのクラスターまたはより複雑な構成たとえば、円形トポロジの3つのクラスターなど、分散データベースの概念をサポートしていません。 - **グローバルプライマリクラスターなし** スタンドアロンレプリカクラスターには、グローバルプライマリクラスターの概念がありません。 - **制御されたスイッチオーバーなし** スタンドアロンレプリカクラスターは、プライマリにのみ昇格できます。制御されたスイッチオーバーは不可能であるため、以前のプライマリクラスターは再クローンを作成する必要があります。 フェールオーバーは両方の戦略で同じであるため、元のプライマリが復旧した場合は再クローンを作成する必要があります。 ``pg_basebackup`` を使用したスタンドアロンレプリカクラスターの例 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ この **最初の例** は、ブートストラップと継続的リカバリーの両方でストリーミングレプリケーションを使用して、スタンドアロンレプリカクラスターを定義します。レプリカクラスターは、TLS認証を使用してソースクラスターに接続します。 `sample YAML `_ ``samples/`` サブディレクトリ。 ソースクラスターを指している\ ``bootstrap`` および\ ``replica`` セクションに注意してください。 .. code:: yaml bootstrap: pg_basebackup: source: cluster-example replica: enabled: true source: cluster-example 前述の構成では、アプリケーションデータベースとその所有ユーザーがデフォルトの\ ``app`` に設定されていることを前提としています。リストアするPostgreSQLクラスターが別の名前を使用している場合、 :ref:`アプリケーションデータベースの構成 <アプリケーションデータベースの構成>` の文書に従ってそれらを指定する必要があります。また、元のクラスターからアプリケーションユーザーシークレットをコピーし、ソースとの同期を維持することを検討する必要があります。詳細は、 :ref:`PostgreSQLのロールについて ` を参照してください。 ``externalClusters`` セクションでは、 ``connectionParameters`` サブセクションのホストに対応した適切な名前空間を使用することに注意してください。レプリカクラスターが別の名前空間にある場合、 ``-replication`` および\ ``-ca`` シークレットは、必要に応じてコピーしておく必要があります。 .. code:: yaml externalClusters: - name: connectionParameters: host: -rw..svc user: streaming_replica sslmode: verify-full dbname: postgres sslKey: name: -replication key: tls.key sslCert: name: -replication key: tls.crt sslRootCert: name: -ca key: ca.crt オブジェクトストアからのスタンドアロンレプリカクラスターの例 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ **2番目の例** は、 ``recovery`` セクションと継続的リカバリーを使用してオブジェクトストアからブートストラップするレプリカクラスターを定義します。ストリーミングレプリケーションと特定のオブジェクトストアの両方を使用します。ストリーミングレプリケーションの場合、レプリカクラスターは基本認証を使用してソースクラスターに接続します。 `sample YAML `_ ``samples/`` サブディレクトリにあります。 ソースクラスターを指している\ ``bootstrap`` および\ ``replica`` セクションに注意してください。 .. code:: yaml bootstrap: recovery: source: cluster-example replica: enabled: true source: cluster-example 前述の構成では、アプリケーションデータベースとその所有ユーザーがデフォルトの\ ``app`` に設定されていることを前提としています。リストアするPostgreSQLクラスターが別の名前を使用している場合、 :ref:`アプリケーションデータベースの構成 <アプリケーションデータベースの構成>` の文書に従ってそれらを指定する必要があります。また、元のクラスターからアプリケーションユーザーシークレットをコピーし、ソースとの同期を維持することを検討する必要があります。詳細については、 :ref:`PostgreSQLのロールについて ` を参照してください。 ``externalClusters`` セクションでは、 ``endpointURL`` および\ ``connectionParameters.host`` で適切な名前空間を使用するように注意してください。また、必要に応じて必要なシークレットがコピーされていること、およびソースクラスターのバックアップが既に作成されていることを確認してください。 .. code:: yaml externalClusters: - name: # Example with Barman Cloud Plugin plugin: name: barman-cloud.cloudnative-pg.io parameters: barmanObjectName: serverName: … connectionParameters: host: -rw.default.svc user: postgres dbname: postgres password: name: -superuser key: password .. Note:: ソースクラスターとレプリカクラスター間でストリーミングレプリケーションを使用するには、2つのクラスター間のネットワーク接続があることを確認し、パスワードまたは証明書を保持する必要なシークレットがすべて事前に適切に作成されていることを確認する必要があります。 ボリュームスナップショットを使用した例 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ ボリュームスナップショットを使用し、ストレージクラスがスナップショットクラスター間の可用性を提供する場合、それを活用して、ソースクラスターのボリュームスナップショットを介してレプリカクラスターをブートストラップできます。 **3番目の例** は、 ``recovery`` セクションを使用してボリュームスナップショットからブートストラップするレプリカクラスターを定義します。ストリーミングレプリケーション基本認証を介して、オブジェクトストアを使用してWALファイルを取得します。 `sample YAML `_ ``samples/`` サブディレクトリにあります。 この例では、アプリケーションデータベースとその所有ユーザーがデフォルトの\ ``app`` に設定されていることを前提としています。リストアするPostgreSQLクラスターが別の名前を使用している場合、 :ref:`Configure theapplication database ` の文書に従ってそれらを指定する必要があります。また、元のクラスターからアプリケーションユーザーシークレットをコピーし、ソースとの同期を維持することを検討する必要があります。詳細については、 :ref:`PostgreSQLのロールについて ` を参照してください。 遅延レプリカ ------------ CloudNativePGは、 PostgreSQLの `recovery_min_apply_delay `_ を活用して、 :ref:`.spec.replica.minApplyDelay ` を介して **遅延レプリカ** の作成をサポートしています。 遅延レプリカは、指定された時間プライマリデータベースより意図的に遅延するように設計されています。この遅延は、 PostgreSQLの基になる\ ``recovery_min_apply_delay`` パラメーターにマップする\ ``.spec.replica.minApplyDelay`` オプションを使用して構成できます。 遅延レプリカの主な目的は、プライマリデータベースでの意図しないSQLステートメントの実行の影響を軽減することです。これは、 ``UPDATE`` や\ ``DELETE`` などの操作が適切な\ ``WHERE`` 句なしで実行されるシナリオで特に役立ちます。 レプリカクラスターで遅延を構成するには、 ``.spec.replica.minApplyDelay`` オプションを調整します。このパラメーターは、レプリカがプライマリからどれくらいの時間を決定します。例 .. code:: yaml # ... replica: enabled: true source: cluster-example # Enforce a delay of 8 hours minApplyDelay: 8h # ... 上記の例では、8時間のバッファ期間を提供して、問題がレプリカに伝播する前に検出および修正することにより、誤ったデータの変更に対する安全対策に役立ちます。 目標復旧時間と意図しないプライマリデータベース操作の潜在的な影響に基づいて、必要に応じて遅延を監視および調整します。 遅延レプリカの主な使用ケースは次のように要約できます。 1. 人的エラーの軽減 プライマリデータベースでの意図しないSQL操作に起因するデータの破損または損失のリスクを削減します。 2. 復旧時間の最適化 変更が他のレプリカに適用される前に問題を特定および修正できる遅延レプリカを使用することにより、意図しない変更からの迅速な復旧を促進します。 3. データ保護の強化 不要な変更の伝播を介入および防止する機会を提供する時間バッファを導入することにより、重要なデータを保護します。 .. Warning:: 遅延レプリカの`minApplyDelay` オプションは、`promotionToken` と組み合わせて使用することはできません。   遅延レプリカをレプリケーション戦略に統合することにより、PostgreSQL環境の復元力とデータ保護機能を強化できます。特定のニーズとデータの重要度に基づいて、遅延期間を調整します。 .. Note:: 常に目標を測定します。環境によっては、より迅速な結果を得るには、ボリュームスナップショットベースのリカバリーに依存する方が効率的である場合があります。独自の要件とインフラストラクチャに最適なアプローチを評価および選択します。