[2024年04月]更新のAmazon SAA-C03日本語公式認定ガイドPDF [Q301-Q322] | PassTest (2024)

[2024年04月]更新のAmazon SAA-C03日本語公式認定ガイドPDF [Q301-Q322] | PassTest (1)

[2024年04月]更新のAmazon SAA-C03日本語公式認定ガイドPDF

試験SAA-C03日本語 Amazon AWS Certified Solutions Architect - Associate (SAA-C03日本語版)

質問 # 301
会社は契約書類を保管する必要があります。契約は5年間です。5 年間の期間中、企業は文書が上書きまたは削除されないようにする必要があります。企業は保存中のドキュメントを暗号化し、暗号キーを毎年自動的にローテーションする必要があります。
最小限の運用オーバーヘッドでこれらの要件を満たすために、ソリューション アーキテクトはどの手順の組み合わせを実行する必要がありますか? (2つ選択してください。)

  • A. AWS Key Management Service (AWS KMS) カスタマー管理キーを使用したサーバー側暗号化を使用します。
    キーのローテーションを構成します。
  • B. AWS Key Management Service (AWS KMS) 顧客が提供した (インポートした) キーを使用したサーバー側の暗号化を使用します。キーのローテーションを構成します。
  • C. ドキュメントを Amazon S3 に保存します。S3 オブジェクト ロックをガバナンス モードで使用します。
  • D. ドキュメントを Amazon S3 に保存します。S3 オブジェクト ロックをコンプライアンス モードで使用します。
  • E. Amazon S3 管理の暗号化キー (SSE-S3) を使用したサーバー側の暗号化を使用します。キーのローテーションを構成します。

正解:A、D

解説:
Explanation
Consider using the default aws/s3 KMS key if: You're uploading or accessing S3 objects using AWS Identity and Access Management (IAM) principals that are in the same AWS account as the AWS KMS key. You don't want to manage policies for the KMS key. Consider using a customer managed key if: You want to create, rotate, disable, or define access controls for the key. You want to grant cross-account access to your S3 objects. You can configure the policy of a customer managed key to allow access from another account.
https://repost.aws/knowledge-center/s3-object-encryption-keys


質問 # 302
企業は毎日、さまざまなソースから半構造化データと構造化データを受け取っています。ソリューション アーキテクトは、ビッグ データ処理フレームワークを使用して膨大な量のデータを分析し、さまざまなビジネス インテリジェンス ツールと標準 SQL クエリを使用してデータにアクセスすることを計画しています。
この要件を満たす最も高性能なソリューションを提供するのは、次のうちどれですか?

  • A. Amazon EMR クラスターを作成し、処理されたデータを Amazon Redshift に保存します。
  • B. Amazon Kinesis Data Analytics を使用し、処理されたデータを Amazon DynamoDB に保存します。
  • C. AWS Glue を使用して、処理されたデータを Amazon S3 に保存します。
  • D. Amazon EC2 インスタンスを作成し、処理されたデータを Amazon EBS に保存します。

正解:A

解説:
Amazon EMR is a managed cluster platform that simplifies running big data frameworks, such as Apache Hadoop and Apache Spark, on AWS to process and analyze vast amounts of data. By using these frameworks and related open-source projects, such as Apache Hive and Apache Pig, you can process data for analytics purposes and business intelligence workloads. Additionally, you can use Amazon EMR to transform and move large amounts of data into and out of other AWS data stores and databases.
Amazon Redshift is the most widely used cloud data warehouse. It makes it fast, simple and cost- effective to analyze all your data using standard SQL and your existing Business Intelligence (BI) tools. It allows you to run complex analytic queries against terabytes to petabytes of structured and semi- structured data, using sophisticated query optimization, columnar storage on high-performance storage, and massively parallel query execution.
[2024年04月]更新のAmazon SAA-C03日本語公式認定ガイドPDF [Q301-Q322] | PassTest (2)
The key phrases in the scenario are "big data processing frameworks" and "various business intelligence tools and standard SQL queries" to analyze the data. To leverage big data processing frameworks, you need to use Amazon EMR. The cluster will perform data transformations (ETL) and load the processed data into Amazon Redshift for analytic and business intelligence applications.
Hence, the correct answer is: Create an Amazon EMR cluster and store the processed data in Amazon Redshift.
The option that says: Use AWS Glue and store the processed data in Amazon S3 is incorrect because AWS Glue is just a serverless ETL service that crawls your data, builds a data catalog, performs data preparation, data transformation, and data ingestion. It won't allow you to utilize different big data frameworks effectively, unlike Amazon EMR. In addition, the S3 Select feature in Amazon S3 can only run simple SQL queries against a subset of data from a specific S3 object. To perform queries in the S3 bucket, you need to use Amazon Athena.
The option that says: Use Amazon Kinesis Data Analytics and store the processed data in Amazon DynamoDB is incorrect because Amazon DynamoDB doesn't fully support the use of standard SQL and Business Intelligence (BI) tools, unlike Amazon Redshift. It also doesn't allow you to run complex analytic queries against terabytes to petabytes of structured and semi-structured data.
The option that says: Create an Amazon EC2 instance and store the processed data in Amazon EBS is incorrect because a single EBS-backed EC2 instance is quite limited in its computing capability.
Moreover, it also entails an administrative overhead since you have to manually install and maintain the big data frameworks for the EC2 instance yourself. The most suitable solution to leverage big data frameworks is to use EMR clusters.
References:
https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-what-is-emr.html
https://docs.aws.amazon.com/redshift/latest/dg/loading-data-from-emr.html Check out this Amazon EMR Cheat Sheet:
https://tutorialsdojo.com/amazon-emr/


質問 # 303
企業は、Amazon EC2 インスタンスのフリートを使用して、オンプレミスのデータ ソースからデータを取り込みます。データは JSON 形式であり、取り込み速度は 1 MB/秒にもなります。EC2 インスタンスが再起動されると、処理中のデータは失われます。同社のデータ サイエンス チームは、取り込まれたデータをほぼリアルタイムでクエリしたいと考えています。
データ損失を最小限に抑えてスケーラブルで、ほぼリアルタイムのデータ クエリを提供するソリューションはどれですか?

  • A. Amazon Redshift を送信先として Amazon Kinesis Data Firehose にデータを発行する Amazon Redshift を使用してデータをクエリする
  • B. Amazon Kinesis Data Streams にデータを発行する Kinesis data Analytics を使用してデータをクエリします。
  • C. 取り込まれたデータを EC2 インスタンス ストアに保存します。Amazon S3 を宛先として Amazon Kinesis Data Firehose にデータを発行します。Amazon Athena を使用してデータをクエリします。
  • D. 取り込まれたデータを Amazon Elastic Block Store (Amazon EBS) ボリュームに保存する データを Amazon ElastiCache tor Red に発行する Redis チャネルにサブスクライブしてデータをクエリする

正解:B

解説:
https://docs.aws.amazon.com/kinesisanalytics/latest/dev/what-is.html


質問 # 304
ある企業には、Amazon EC2 インスタンス上で実行されるビジネスクリティカルなアプリケーションがあります。アプリケーションはデータを Amazon DynamoDB テーブルに保存します。会社は、テーブルを過去 24 時間以内の任意の時点に戻すことができなければなりません。
運用上のオーバーヘッドが最小限でこれらの要件を満たすソリューションはどれですか?

  • A. テーブルのポイントインタイム リカバリを構成します。
  • B. テーブルに AWS Backup を使用します。
  • C. AWS Lambda 関数を使用して、テーブルのオンデマンド バックアップを 1 時間ごとに作成します。
  • D. テーブルのストリームをオンにして、過去 24 時間のテーブルへのすべての変更のログをキャプチャします。ストリームのコピーを Amazon S3 バケットに保存します。

正解:A

解説:
Point-in-time recovery (PITR) for DynamoDB is a feature that enables you to restore your table data to any point in time during the last 35 days. PITR helps protect your table from accidental write or delete operations, such as a test script writing to a production table or a user issuing a wrong command. PITR is easy to use, fully managed, fast, and scalable. You can enable PITR with a single click in the DynamoDB console or with a simple API call. You can restore a table to a new table using the console, the AWS CLI, or the DynamoDB API. PITR does not consume any provisioned table capacity and has no impact on the performance or availability of your production applications. PITR meets the requirements of the company with the least operational overhead, as it does not require any manual backup creation, scheduling, or maintenance. It also provides per-second granularity for restoring the table to any point within the last 24 hours.
References:
Point-in-time recovery for DynamoDB - Amazon DynamoDB
Amazon DynamoDB point-in-time recovery (PITR)
Enable Point-in-Time Recovery (PITR) for Dynamodb global tables
Restoring a DynamoDB table to a point in time - Amazon DynamoDB
Point-in-time recovery: How it works - Amazon DynamoDB


質問 # 305
ある企業は、企業 Web サイトに一般的なコンテンツ管理システム (CMS) を使用しています。ただし、必要なパッチの適用とメンテナンスは負担がかかります。同社は Web サイトを再設計しており、新たなソリューションを求めています。Web サイトは年に 4 回更新され、動的なコンテンツを使用する必要はありません。ソリューションは、高い拡張性と強化されたセキュリティを提供する必要があります。
運用上のオーバーヘッドを最小限に抑えながら、これらの要件を満たす変更の組み合わせはどれですか? (2つお選びください。)

  • A. 新しい Web サイトを作成します。Application Load Balancer の背後にある Amazon EC2 インスタンスの Auto Scaling グループを使用して、ウェブサイトをデプロイします。
  • B. AWS Lambda 関数を作成してデプロイして、ウェブサイトのコンテンツを管理および提供します
  • C. AWS WAF ウェブ ACL をウェブサイトの前にデプロイして、HTTPS 機能を提供します。
  • D. 新しいウェブサイトと Amazon S3 バケットを作成します。静的ウェブサイト ホスティングを有効にして、S3 バケットにウェブサイトをデプロイします。

正解:A、C

解説:
A -> We can configure CloudFront to require HTTPS from clients (enhanced security) https://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/using-https-viewers-to-cloudfront.html D -> storing static website on S3 provides scalability and less operational overhead, then configuration of Application LB and EC2 instances (hence E is out)


質問 # 306
ある会社は最近、IT 環境全体を AWS クラウドに移行しました。同社は、ユーザーが特大の Amazon EC2 インスタンスをプロビジョニングし、適切な変更管理プロセスを使用せずにセキュリティ グループ ルールを変更していることを発見しました。ソリューション アーキテクトは、これらのインベントリと構成の変更を追跡および監査するための戦略を考案する必要があります。
これらの要件を満たすために、ソリューション アーキテクトはどのアクションを実行する必要がありますか? (2つ選択)

  • A. AWS CloudFormation テンプレートを使用して以前のリソース構成を復元します
  • B. AWS CloudTrail を有効にして監査に使用する
  • C. AWS Config を有効にし、監査とコンプライアンスの目的でルールを作成します
  • D. Amazon EC2 インスタンスにデータ ライフサイクル ポリシーを使用する
  • E. AWS Trusted Advisor を有効にしてセキュリティ ダッシュボードを参照する

正解:B、C

解説:
Explanation
A) Enable AWS CloudTrail and use it for auditing. AWS CloudTrail provides a record of API calls and can be used to audit changes made to EC2 instances and security groups. By analyzing CloudTrail logs, the solutions architect can track who provisioned oversized instances or modified security groups without proper approval.
D) Enable AWS Config and create rules for auditing and compliance purposes. AWS Config can record the configuration changes made to resources like EC2 instances and security groups. The solutions architect can create AWS Config rules to monitor for non-compliant changes, like launching certain instance types or opening security group ports without permission. AWS Config would alert on any violations of these rules.


質問 # 307
ある会社は、Auto Scaling グループの Application Load Balancer (ALB) の背後にある Amazon EC2 インスタンスで e コマース Web サイトを運営しています。このサイトでは、IP アドレスが変更される不正な外部システムからの高いリクエスト率に関連するパフォーマンスの問題が発生しています。セキュリティ チームは、Web サイトに対する潜在的な DDoS 攻撃を懸念しています。企業は、正規のユーザーへの影響を最小限に抑える方法で、不正な受信リクエストをブロックする必要があります。
ソリューションアーキテクトは何を推奨すべきでしょうか?

  • A. AWS WAF をデプロイし、ALB に関連付け、レート制限ルールを構成します。
  • B. ALB に関連付けられたネットワーク ACL にルールを展開して、受信トラフィックをブロックします。
  • C. Amazon Inspector をデプロイし、ALB に関連付けます。
  • D. Amazon GuardDuty をデプロイし、GuardDuty の構成時にレート制限保護を有効にします。

正解:A

解説:
This answer is correct because it meets the requirements of blocking the illegitimate incoming requests in a way that has a minimal impact on legitimate users. AWS WAF is a web application firewall that helps protect your web applications or APIs against common web exploits that may affect availability, compromise security, or consume excessive resources. AWS WAF gives you control over how traffic reaches your applications by enabling you to create security rules that block common attack patterns, such as SQL injection or cross-site scripting, and rules that filter out specific traffic patterns you define. You can associate AWS WAF with an ALB to protect the web application from malicious requests. You can configure a rate-limiting rule in AWS WAF to track the rate of requests for each originating IP address and block requests from an IP address that exceeds a certain limit within a five-minute period. This way, you can mitigate potential DDoS attacks and improve the performance of your website.
Reference:
https://docs.aws.amazon.com/waf/latest/developerguide/what-is-aws-waf.html
https://docs.aws.amazon.com/waf/latest/developerguide/waf-rule-statement-type-rate-based.html


質問 # 308
企業は、AWS Lambda と統合された Amazon API Gateway API バックエンドを使用するフロントエンド アプリケーションをホストしています API がリクエストを受け取ると、Lambda 関数は多くのライブラリをロードします 次に、Lambda 関数は Amazon RDS データベースに接続し、データを処理してデータをフロントエンド アプリケーション。会社は、会社の業務に対する変更を最小限に抑えて、すべてのユーザーの応答待ち時間をできるだけ短くしたいと考えています。これらの要件を満たすソリューションはどれですか?

  • A. フロントエンド アプリケーションとデータベース間の接続を確立し、API をバイパスしてクエリを高速化します。
  • B. データベースのサイズを大きくして、Lambda が一度に確立できる接続の数を増やします
  • C. リクエストを処理する Lambda 関数のプロビジョニングされた同時実行数を構成する
  • D. クエリの結果を Amazon S3 にキャッシュして、同様のデータセットをすばやく取得します。

正解:C

解説:
Explanation
Configure provisioned concurrency for the Lambda function that handles the requests. Provisioned concurrency allows you to set the amount of compute resources that are available to the Lambda function, so that it can handle more requests at once and reduce latency. Caching the results of the queries in Amazon S3 could also help to reduce latency, but it would not be as effective as setting up provisioned concurrency.
Increasing the size of the database would not help to reduce latency, as this would not increase the number of connections the Lambda function could establish, and establishing a direct connection between the frontend application and the database would bypass the API, which would not be the best solution either.
Using AWS Lambda with Amazon API Gateway - AWS Lambda
https://docs.aws.amazon.com/lambda/latest/dg/services-apigateway.html
AWS Lambda FAQs
https://aws.amazon.com/lambda/faqs/


質問 # 309
企業は、多層ウェブ アプリケーションに Amazon ElastiCache を使用することを計画しています ソリューション アーキテクトは、ElastiCache クラスター用のキャッシュ VPC と、アプリケーションの Amazon EC2 インスタンス用のアプリ VPC を作成します 両方の VPC が us-east-1 リージョンにあります ソリューション アーキテクトは、アプリケーションの EC2 インスタンスに ElastiCache クラスターへのアクセスを提供するソリューションを実装する これらの要件を最も費用対効果の高い方法で満たすソリューションはどれですか?

  • A. VPC 間のピアリング接続を作成する 両方の VPC にピアリング接続のルート テーブル エントリを追加する ピアリング接続のセキュリティ グループのインバウンド ルールを構成して、アプリケーションのセキュリティ グループからのインバウンド接続を許可する
  • B. トランジット VPC を作成する キャッシュ VPC とアプリ VPC の VPC ルート テーブルを更新して、トランジット VPC を介してトラフィックをルーティングする トランジット VPC セキュリティ グループのインバウンド ルールを構成して、アプリケーションのセキュリティ グループからのインバウンド接続を許可する
  • C. トランジット VPC を作成する キャッシュ VPC とアプリ VPC の VPC ルート テーブルを更新して、トランジット VPC を介してトラフィックをルーティングする ElastiCache クラスターのセキュリティ グループのインバウンド ルールを構成して、アプリケーションのセキュリティ グループからのインバウンド接続を許可する
  • D. VPC 間にピアリング接続を作成する 両方の VPC にピアリング接続用のルート テーブル エントリを追加する ElastiCache クラスターのセキュリティ グループのインバウンド ルールを構成して、アプリケーションのセキュリティ グループからのインバウンド接続を許可する

正解:D

解説:
Creating a peering connection between the two VPCs and configuring an inbound rule for the ElastiCache cluster's security group to allow inbound connection from the application's security group is the most cost-effective solution. Peering connections are free and you only incur the cost of configuring the security group rules. The Transit VPC solution requires additional VPCs and associated resources, which would incur additional costs.
https://aws.amazon.com/certification/policies/before-testing/
Before Testing | AWS Certification Information and Policies | AWS
https://aws.amazon.com/certification/policies/before-testing/


質問 # 310
企業は、ハードウェア容量の制約により、オンプレミスのデータセンターから AWS クラウドにレガシー アプリケーションを移行する必要があります。アプリケーションは 1 日 24 時間実行されます。&週、。アプリケーション データベースのストレージは、時間の経過とともに拡大し続けています。
ソリューション アーキテクトは、これらの要件を満たすために何をすべきか?

  • A. アプリケーション レイヤーを Amazon EC2 リザーブド インスタンスに移行します データ ストレージ レイヤーを Amazon Aurora リザーブド インスタンスに移行します。
  • B. アプリケーション レイヤーを Amazon EC2 オンデマンド Amazon に移行します。データ ストレージ レイヤーを Amazon RDS リザーブド インスタンスに移行します。
  • C. アプリケーション層を Amazon FC2 スポット インスタンスに移行します データ ストレージ層を Amazon S3 に移行します。
  • D. アプリケーション層を Amazon EC2 リザーブド インスタンスに移行する データ ストレージ層を Amazon RDS オンデマンド インスタンスに移行します。

正解:A

解説:
https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraMySQL.html


質問 # 311
ある企業は、ユーザーをコストセンターにマッピングする Amazon RDS データベースを維持しています。会社は AWS Organizations の組織にアカウントを持っています。この企業は、組織内の特定の AWS アカウントで作成されたすべてのリソースにタグを付けるソリューションを必要としています。ソリューションでは、各リソースに、リソースを作成したユーザーのコスト センター ID をタグ付けする必要があります。
これらの要件を満たすソリューションはどれですか?

  • A. AWS CloudFormation スタックを作成して、AWS Lambda 関数をデプロイします。RDS データベースから適切なコストセンターを検索し、リソースにタグを付けるように Lambda 関数を構成します。CloudFormation スタックを呼び出すための Amazon EventBridge スケジュール済みルールを作成します。
  • B. AWS Lambda 関数を作成して、リソースにデフォルト値をタグ付けします。リソースにコストセンタータグがない場合に Lambda 関数を呼び出すように、AWS CloudTrail イベントに反応する Amazon EventBridge ルールを設定します。
  • C. Lambda 関数が RDS データベースから適切なコストセンターを検索した後、AWS Lambda 関数を作成してリソースにタグを付けます。AWS CloudTrail イベントに反応して Lambda 関数を呼び出す Amazon EventBridge ルールを設定します。
  • D. 特定の AWS アカウントを管理アカウントから組織の新しい組織単位 (OU) に移動します。リソースを作成する前に、既存のすべてのリソースに正しいコスト センター タグが付いていることを要求するサービス コントロール ポリシー (SCP) を作成します。SCP を新しい OU に適用します。

正解:C

解説:
AWS Lambda is a serverless compute service that lets you run code without provisioning or managing servers. Lambda can be used to tag resources with the cost center ID of the user who created the resource, by querying the RDS database that maps users to cost centers. Amazon EventBridge is a serverless event bus service that enables event-driven architectures. EventBridge can be configured to react to AWS CloudTrail events, which are recorded API calls made by or on behalf of the AWS account. EventBridge can invoke the Lambda function when a resource is created in the specific AWS account, passing the user identity and resource information as parameters. This solution will meet the requirements, as it enables automatic tagging of resources based on the user and cost center mapping.
Reference:
1 provides an overview of AWS Lambda and its benefits.
2 provides an overview of Amazon EventBridge and its benefits.
3 explains the concept and benefits of AWS CloudTrail events.


質問 # 312
ある企業は、複数のアベイラビリティーゾーンの Amazon EC2 インスタンスで Web アプリケーションを実行しています。EC2 インスタンスはプライベート サブネット内にあります。ソリューション アーキテクトは、インターネットに接続された Application Load Balancer (ALB) を実装し、EC2 インスタンスをターゲット グループとして指定します。ただし、インターネット トラフィックは EC2 インスタンスに到達していません。
この問題を解決するには、ソリューションアーキテクトはアーキテクチャをどのように再構成すればよいでしょうか?

  • A. EC2 インスタンスのサブネットのルート テーブルを更新して、インターネット ゲートウェイ ルート経由で 0.0.0.0/0 トラフィックを送信します。EC2 インスタンスのセキュリティ グループにルールを追加して、0.0.0.0/0 への送信トラフィックを許可します。
  • B. 各アベイラビリティーゾーンにパブリックサブネットを作成します。パブリック サブネットを ALB に関連付けます。パブリック サブネットのルート テーブルをプライベート サブネットへのルートで更新します。
  • C. ALB を Network Load Balancer に置き換えます。インターネット トラフィックを許可するには、パブリック サブネットで NAT ゲートウェイを構成します。
  • D. EC2 インスタンスをパブリック サブネットに移動します。EC2 インスタンスのセキュリティ グループにルールを追加して、0.0.0.0/0 への送信トラフィックを許可します。

正解:B

解説:
https://aws.amazon.com/premiumsupport/knowledge-center/public-load-balancer-private-ec2/


質問 # 313
ソリューション アーキテクトは、Web サイトの可用性の高いインフラストラクチャを設計する必要があります。このウェブサイトは、Amazon EC2 インスタンス上で実行される Windows ウェブサーバーを利用しています。ソリューション アーキテクトは、数千の IP アドレスから発生する大規模な DDoS 攻撃を軽減できるソリューションを実装する必要があります。ウェブサイトのダウンタイムは許容できません。
このような攻撃から Web サイトを保護するために、ソリューション設計者はどのような措置を講じるべきでしょうか? (2つ選択してください。)

  • A. CPU 使用率が 80% に設定されたターゲット追跡スケーリング ポリシーを持つ Auto Scaling グループで EC2 スポット インスタンスを使用します。
  • B. AWS Shield Advanced を使用して DDoS 攻撃を阻止します。
  • C. 攻撃者を自動的にブロックするように Amazon GuardDuty を設定します。
  • D. 静的コンテンツと動的コンテンツの両方に Amazon CloudFront を使用するようにウェブサイトを設定します。D. AWS Lambda 関数を使用して、攻撃者の IP アドレスを VPC ネットワーク ACL に自動的に追加します。

正解:B、D

解説:
(https://aws.amazon.com/cloudfront


質問 # 314
ある会社は、負荷分散されたフロント エンド、コンテナー ベースのアプリケーション、およびリレーショナル データベースで構成される e コマース アプリケーションを開発しています。ソリューション アーキテクトは、手動による介入をできるだけ少なくして動作する高可用性ソリューションを作成する必要があります。
これらの要件を満たすソリューションはどれですか? (2 つ選択してください。)

  • A. 動的アプリケーション負荷を処理するために、Fargate 起動タイプで Amazon Elastic Container Service (Amazon ECS) クラスターを作成します。
  • B. 動的アプリケーション負荷を処理するために、Amazon EC2 起動タイプで Amazon Elastic Container Service (Amazon ECS) クラスターを作成します。
  • C. 別のアベイラビリティーゾーンに Amazon RDS DB インスタンスと 1 つ以上のレプリカを作成します。
  • D. マルチ AZ モードで Amazon RDS DB インスタンスを作成します。
  • E. 動的なアプリケーション負荷を処理するために、インスタンスベースの Docker クラスターで Amazon EC2 を作成します。

正解:A、D

解説:
https://docs.aws.amazon.com/AmazonECS/latest/developerguide/Welcome.html
1. Relational database: RDS
2. Container-based applications: ECS
"Amazon ECS enables you to launch and stop your container-based applications by using simple API calls. You can also retrieve the state of your cluster from a centralized service and have access to many familiar Amazon EC2 features."
3. Little manual intervention: Fargate
You can run your tasks and services on a serverless infrastructure that is managed by AWS Fargate. Alternatively, for more control over your infrastructure, you can run your tasks and services on a cluster of Amazon EC2 instances that you manage.


質問 # 315
ある企業には、2 つの Amazon EC2 インスタンスでホストされている動的 Web アプリケーションがあります。会社には独自の SSL 証明書があり、各インスタンスで SSL 終了を実行します。
最近トラフィックが増加しており、運用チームは、SSL 暗号化と復号化が原因で Web サーバーの計算能力が上限に達していると判断しました。
ソリューションアーキテクトはアプリケーションのパフォーマンスを向上させるために何をすべきでしょうか?

  • A. AWS Certificate Manager (ACM) を使用して新しい SSL 証明書を作成し、ACM 証明書を各インスタンスにインストールします
  • B. Amazon S3 バケットを作成する SSL 証明書を S3 バケットに移行する SSL 終了用のバケットを参照するように EC2 インスタンスを設定する
  • C. SSL 証明書を AWS Certificate Manager (ACM) にインポートします。 ACM からの SSL 証明書を使用する HTTPS リスナーを使用して Application Load Balancer を作成します。
  • D. 別の EC2 インスタンスをプロキシ サーバーとして作成します。 SSL 証明書を新しいインスタンスに移行し、既存の EC2 インスタンスに直接接続するように設定します。

正解:C

解説:
https://aws.amazon.com/certificate-manager/:
"With AWS Certificate Manager, you can quickly request a certificate, deploy it on ACM-integrated AWS resources, such as Elastic Load Balancers, Amazon CloudFront distributions, and APIs on API Gateway, and let AWS Certificate Manager handle certificate renewals. It also enables you to create private certificates for your internal resources and manage the certificate lifecycle centrally."


質問 # 316
会社には、重要なデータを含む Amazon S3 バケットがあります。会社は、データが誤って削除されないように保護する必要があります。
これらの要件を満たすために、ソリューション アーキテクトはどの手順を組み合わせて実行する必要がありますか? (2つ選んでください。)

  • A. S3 バケットで MFA 削除を有効にします。
  • B. S3 バケットにバケット ポリシーを作成します。
  • C. S3 バケットでバージョニングを有効にします。
  • D. S3 バケット内のオブジェクトのライフサイクル ポリシーを作成します。
  • E. S3 バケットでデフォルトの暗号化を有効にします。

正解:A、C

解説:
To protect data in an S3 bucket from accidental deletion, versioning should be enabled, which enables you to preserve, retrieve, and restore every version of every object in an S3 bucket. Additionally, enabling MFA (multi-factor authentication) Delete on the S3 bucket adds an extra layer of protection by requiring an authentication token in addition to the user's access keys to delete objects in the bucket.
Reference:
AWS S3 Versioning documentation: https://docs.aws.amazon.com/AmazonS3/latest/dev/Versioning.html AWS S3 MFA Delete documentation: https://docs.aws.amazon.com/AmazonS3/latest/dev/UsingMFADelete.html


質問 # 317
ある企業はオンプレミスでコンテナ化されたアプリケーションを構築しており、そのアプリケーションを AWS に移行することにしました。li がデプロイされるとすぐに、アプリケーションには数千人のユーザーが含まれることになります。同社は、大規模なコンテナの展開を管理する方法がわかりません。企業は、運用オーバーヘッドを最小限に抑える高可用性アーキテクチャでコンテナ化されたアプリケーションをデプロイする必要があります。
これらの要件を満たすソリューションはどれですか?

  • A. Amazon EC2 インスタンス上で実行されるリポジトリにコンテナ イメージを保存します。複数のアベイラビリティーゾーンに分散された EC2 インスタンス上でコンテナーを実行します。Amazon CloudWatch で平均 CPU 使用率を監視します。必要に応じて新しい EC2 インスタンスを起動します
  • B. コンテナーイメージを含む Amazon EC2 Amazon Machine Image (AMI) を作成します。 複数のアベイラビリティーゾーンにわたる Auto Scaling グループ内の EC2 インスタンスを起動します。平均 CPU 使用率のしきい値を超えた場合、Amazon CloudWatch アラームを使用して EC2 インスタンスをスケールアウトします。
  • C. コンテナイメージを Amazon Elastic Container Registry (Amazon ECR) リポジトリに保存します。AWS Fargate 起動タイプで Amazon Elastic Container Service (Amazon ECS) クラスターを使用してコンテナを実行します。ターゲット追跡を使用して、需要に基づいて自動的にスケールします。
  • D. コンテナイメージを Amazon Elastic Container Registry (Amazon ECR) リポジトリに保存します。Amazon EC2 起動タイプで Amazon Elastic Container Service (Amazon ECS) クラスターを使用してコンテナを実行します。ターゲット追跡を使用して、需要に基づいて自動的にスケールします。

正解:C

解説:
AWS Fargate is a serverless experience for user applications, allowing the user to concentrate on building applications instead of configuring and managing servers. Fargate also automates resource management, allowing users to easily scale their applications in response to demand.


質問 # 318
ある会社は、新しいサーバーレス ワークロードをデプロイする準備をしています。ソリューション アーキテクトは、最小権限の原則を使用して、AWS Lambda 関数の実行に使用されるアクセス許可を設定する必要があります。Amazon EventBridge (Amazon CloudWatch Events) ルールが関数を呼び出します。
これらの要件を満たすソリューションはどれですか?

  • A. lambda:'* をアクションとして、Service:events.amazonaws.com をプリンシパルとして、リソースベースのポリシーを関数に追加します。
  • B. lambda:InvokeFunction をアクション、* をプリンシパルとして、関数に実行ロールを追加します。
  • C. lambda:InvokeFunction をアクションとして、Service:amazonaws.com をプリンシパルとして、関数に実行ロールを追加します。
  • D. lambda:InvokeFunction をアクションとして、Service:events.amazonaws.com をプリンシパルとして、リソースベースのポリシーを関数に追加します。

正解:D

解説:
https://docs.aws.amazon.com/eventbridge/latest/userguide/resource-based-policies-eventbridge.html#lambda-permissions


質問 # 319
ある企業は、AWS クラウドで 3 つのアベイラビリティーゾーンにまたがって動作する 3 層 Web アプリケーションを実行しています。アプリケーション アーキテクチャには、Application Load Balancer、ユーザー セッション状態をホストする Amazon EC2 Web サーバー、および EC2 インスタンス上で実行される MySQL データベースが含まれています。同社はアプリケーションのトラフィックが急激に増加すると予想している。同社は、将来のアプリケーション容量の需要に合わせて拡張し、3 つのアベイラビリティーゾーンすべてで高可用性を確保できるようにしたいと考えています。
これらの要件を満たすソリューションはどれですか?

  • A. マルチ AZ DB クラスターデプロイメントを使用して、MySQL データベースを Amazon RDS for MySQL に移行します。高可用性を備えた Memcached 用 Amazon ElastiCache を使用して、セッション データを保存し、読み取りをキャッシュします。Web サーバーを 3 つのアベイラビリティーゾーンにある Auto Scaling グループに移行します。
  • B. MySQL データベースを単一のアベイラビリティーゾーン内の Amazon RDS for MySQL に移行します。高可用性を備えた Redis 用 Amazon ElastiCache を使用して、セッション データを保存し、読み取りをキャッシュします。Web サーバーを 3 つのアベイラビリティーゾーンにある Auto Scaling グループに移行します。
  • C. マルチ AZ DB クラスターデプロイメントを使用して、MySQL データベースを Amazon RDS for MySQL に移行します。高可用性を備えた Redis 用 Amazon ElastiCache を使用して、セッション データを保存し、読み取りをキャッシュします。Web サーバーを 3 つのアベイラビリティーゾーンにある Auto Scaling グループに移行します。
  • D. MySQL データベースを Amazon DynamoDB に移行します。DynamoDB Accelerator (DAX) を使用して読み取りをキャッシュします。セッションデータをDynamoDBに保存します。Web サーバーを 3 つのアベイラビリティーゾーンにある Auto Scaling グループに移行します。

正解:C

解説:
This answer is correct because it meets the requirements of scaling to meet future application capacity demands and ensuring high availability across all three Availability Zones. By migrating the MySQL database to Amazon RDS for MySQL with a Multi-AZ DB cluster deployment, the company can benefit from automatic failover, backup, and patching of the database across multiple Availability Zones. By using Amazon ElastiCache for Redis with high availability, the company can store session data and cache reads in a fast, in-memory data store that can also fail over across Availability Zones. By migrating the web server to an Auto Scaling group that is in three Availability Zones, the company can automatically scale the web server capacity based on the demand and traffic patterns.
References:
https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Concepts.MultiAZ.html
https://docs.aws.amazon.com/AmazonElastiCache/latest/red-ug/AutoFailover.html
https://docs.aws.amazon.com/autoscaling/ec2/userguide/what-is-amazon-ec2-auto-scaling.html


質問 # 320
e コマース会社は、注文処理タスクを完了するために、いくつかのサーバーレス機能と AWS サービスを含む分散アプリケーションを構築しています。これらのタスクには、ワークフローの一部として手動承認が必要です ソリューション アーキテクトは、注文処理アプリケーションのアーキテクチャを設計する必要があります ソリューションは、複数の AWS Lambda 関数を応答性の高いサーバーレス アプリケーションに結合できる必要がありますAmazon EC2 インスタンス、コンテナ、またはオンプレミス サーバー 運用上のオーバーヘッドが最も少なく、これらの要件を満たすソリューションはどれですか?

  • A. AWS Lambda 関数と Amazon EventBridge (Amazon CloudWatch Events) イベントを使用してアプリケーションを構築する
  • B. Amazon Simple Queue Service (Amazon SQS) を使用してアプリケーションを構築する
  • C. すべてのアプリケーション コンポーネントを AWS Glue ジョブに統合する
  • D. AWS Step Functions を使用してアプリケーションを構築します。

正解:A


質問 # 321
組織は、いくつかの S3 バケットへのアクセスを制御する必要があります。ゲートウェイ エンドポイントを使用して、信頼できるバケットへのアクセスを許可する予定です。
この要件を達成するのに役立つのは、次のうちどれですか?

  • A. 信頼できる S3 バケットのバケット ポリシーを生成します。
  • B. 信頼された VPC のエンドポイント ポリシーを生成します。
  • C. 信頼された S3 バケットのエンドポイント ポリシーを生成します。
  • D. 信頼できる VPC のバケット ポリシーを生成します。

正解:C

解説:
A VPC endpoint enables you to privately connect your VPC to supported AWS services and VPC endpoint services powered by AWS PrivateLink without requiring an internet gateway, NAT device, VPN connection, or AWS Direct Connect connection. Instances in your VPC do not require public IP addresses to communicate with resources in the service. Traffic between your VPC and the other service does not leave the Amazon network.
When you create a VPC endpoint, you can attach an endpoint policy that controls access to the service to which you are connecting. You can modify the endpoint policy attached to your endpoint and add or remove the route tables used by the endpoint. An endpoint policy does not override or replace IAM user policies or service-specific policies (such as S3 bucket policies). It is a separate policy for controlling access from the endpoint to the specified service.
[2024年04月]更新のAmazon SAA-C03日本語公式認定ガイドPDF [Q301-Q322] | PassTest (3)
[2024年04月]更新のAmazon SAA-C03日本語公式認定ガイドPDF [Q301-Q322] | PassTest (4)
We can use a bucket policy or an endpoint policy to allow the traffic to trusted S3 buckets. The options that have 'trusted S3 buckets' key phrases will be the possible answer in this scenario. It would take you a lot of time to configure a bucket policy for each S3 bucket instead of using a single endpoint policy.
Therefore, you should use an endpoint policy to control the traffic to the trusted Amazon S3 buckets.
Hence, the correct answer is: Generate an endpoint policy for trusted S3 buckets.
The option that says: Generate a bucket policy for trusted S3 buckets is incorrect. Although this is a valid solution, it takes a lot of time to set up a bucket policy for each and every S3 bucket. This can simply be accomplished by creating an S3 endpoint policy.
The option that says: Generate a bucket policy for trusted VPCs is incorrect because you are generating a policy for trusted VPCs. Remember that the scenario only requires you to allow the traffic for trusted S3 buckets, and not to the VPCs.
The option that says: Generate an endpoint policy for trusted VPCs is incorrect because it only allows access to trusted VPCs, and not to trusted Amazon S3 buckets. References:
https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints-s3.html
https://aws.amazon.com/premiumsupport/knowledge-center/connect-s3-vpc-endpoint/ Amazon VPC Overview:
https://www.youtube.com/watch?v=oIDHKeNxvQQ
Check out this Amazon VPC Cheat Sheet:
https://tutorialsdojo.com/amazon-vpc/


質問 # 322
......

無料SAA-C03日本語試験問題集試験点数を伸ばそう:https://www.passtest.jp/Amazon/SAA-C03-JPN-shiken.html

[2024年04月]更新のAmazon SAA-C03日本語公式認定ガイドPDF [Q301-Q322] | PassTest (2024)

FAQs

AWSのsaa-C03の試験は、いつまでですか? ›

8/30より「AWS認定ソリューションアーキテクト – アソシエイト(SAA-C03)」試験の開始 2022年8月30日より、「AWS認定ソリューションアーキテクト – アソシエイト(SAA-C03)」試験が開始されます。 現行試験(SAA-C02)は2022年8月29日 が試験の最終日との事です。

Saa-C03の更新はいつですか? ›

SAA-C03になって難易度が上がったらしい

SAAは2022年8月30日に試験内容の改定が行われ、バージョンがSAA-C02からSAA-C03に更新されました。 それに伴い、出題される分野の割合が変わったり、試験対象となるサービスの範囲が広がったようです。

AWS C03とは何ですか? ›

AWS SAA-C03試験とは

AWS Certified Solutions Architect – Associate (SAA-C03) とは、幅広い AWS のサービスにわたる AWS テクノロジーに関する知識とスキルを示します

AWSのSAAの難易度は? ›

AWS認定資格の一つであるSAA(ソリューションアーキテクト - アソシエイト)。 難易度は中級程度で、公式ページでは目安として「AWSを利用してクラウドを構築した実務経験1年以上のレベル」と明記しています。 出題範囲が幅広く勉強も大変そうですが、中にはAWS未経験の状態から受験・合格を果たす方もいらっしゃるようです。

Saa-C03の合格点はいくつですか? ›

試験スコアについて
試験AWS ソリューションアーキテクト - アソシエイト(SAA-C03)
受験日2023/12/22
点数838 点
タイトル試験スコアについて
何回目の受験か1
6 more rows

AWSの試験に落ちた場合、どうなりますか? ›

試験に合格できなかった場合は、不合格になった日から 14 日間経過すると、再度受験できます。 受験回数には制限はありません。 しかしながら、試験は受験ごとに登録料金全額を支払う必要があります。 一度合格した試験は、2 年間は同じ試験を再受験することができません。

AWS SAA C03はいつから? ›

本ブログでは「SAA-C03」に合格するために何をすればよいか、簡潔にお伝えさせていただきます! 2022 年 8 月 30 日に AWS 認定ソリューションアーキテクトアソシエイト試験のバージョンが「 SAA-C02 」から「 SAA-C03 」に変更になりました。

AWS SAA 何ヶ月? ›

SAA は実務歴が1年以上求められる資格試験ですが、しっかりと勉強すれば 1 ヶ月半もあればインフラ構成と AWS の両方を理解でき、合格可能です。

AWSの試験日変更は何回までできますか? ›

AWS 認定試験のスケジュールを変更できるのは 2 回までです。

Saa-C03はどのように変更されるのですか? ›

SAAは2022年8月30日からC03試験に変更され、旧C02試験と比べて試験内容や出題範囲の比重が変更された。 最初C02の参考書を使って勉強していたが、後でやったUdemyのC03対応模試や、本試験を受けてみて結構内容が変わってるなと感じた。

AWSの資格試験の合格点はいくつですか? ›

試験時間130分、出題数65問、出題形式は4つの選択肢から1つの答えを選ぶ形式と、5つ以上の選択肢から2つ以上の答えを選ぶ形式の2パターンがあります。 試験結果は 100~1000 で、合格基準は720以上になります。 詳しく知りたい方は以下参照ください。

AWS 何割で合格? ›

7. AWS認定 セキュリティ
対象者セキュリティ担当者
証明できることAWS プラットフォームのセキュリティ強化における技術的な専門知識。
試験時間170分
受験料30,000円(税別)
合格ライン75%
2 more rows

SAAとはAWSの資格ですか? ›

AWSのソリューションアーキテクト(以下SAA)とは、AWSで提供されているサービスを構成するコンピューティング・ネットワーキング・ストレージ・データベースの知識が必要になる資格になります。 また、AWSで必要なデプロイや管理の他、安全性や信頼性を意識した構成能力も求められます。

AWS SAAの合格最低点は? ›

合格基準は、基礎レベルの試験では 700 点、アソシエイトレベルの試験では 720 点、プロフェッショナルレベルとスペシャリティの試験では 750 点となっています。

AWS認定の勉強時間はどのくらいですか? ›

AWS認定FOUNDATIONALに合格するための勉強時間の目安は一般的に40〜80時間ほどです。 AWSサービスの理解度を問う内容を中心に出題され、前提として高度なIT知識は必要ありません。 未経験でもAWSサービスの特徴を理解することで、独学で十分合格できます。

AWSの試験予約はいつまでできますか? ›

受験の予約は1日前まで AWS資格試験は受験日の1日前(24時間前)まで予約できますが、希望する日時が埋まっている可能性もあります。 日時に希望がある場合は早めに予約してね! オンライン受験の場合、試験監督の言語が英語にかぎり年中無休24時間予約できるため、スケジュールによっては申し込み後すぐに受験も可能です。

AWS-C03の試験はいつから? ›

2022 年 8 月 30 日に AWS 認定ソリューションアーキテクトアソシエイト試験のバージョンが「 SAA-C02 」から「 SAA-C03 」に変更になりました。

AWSの試験に遅刻したらどうなる? ›

スケジュールされている試験時刻の 30 分前から試験を起動できます。 予約の前に自分のコンピューターで試験ベンダーのシステムテストを必ず実行しておいてください。 予約に 15 分以上遅れた場合、あるいはコンピューターがシステムテストに合格しなかった場合、試験は起動できず、受験料は返金されません

AWS SOAのラボ試験はいつからなくなりますか? ›

SOA(AWS SysOps Administrator)

どれも本番稼働後に必要となる運用管理技能です。 インフラ環境に力を入れたい方は、SOAに挑戦すると良いでしょう。 また、SOAではラボ試験も提供されていましたが、2023年3月28日以降、一時的に停止されています

Top Articles
Latest Posts
Article information

Author: Catherine Tremblay

Last Updated:

Views: 5979

Rating: 4.7 / 5 (47 voted)

Reviews: 86% of readers found this page helpful

Author information

Name: Catherine Tremblay

Birthday: 1999-09-23

Address: Suite 461 73643 Sherril Loaf, Dickinsonland, AZ 47941-2379

Phone: +2678139151039

Job: International Administration Supervisor

Hobby: Dowsing, Snowboarding, Rowing, Beekeeping, Calligraphy, Shooting, Air sports

Introduction: My name is Catherine Tremblay, I am a precious, perfect, tasty, enthusiastic, inexpensive, vast, kind person who loves writing and wants to share my knowledge and understanding with you.