2.2. S3バケット(Webサイト)へのアクセス、ログの保存確認¶
作業の目的 [why]¶
コンテンツ用S3バケット"<S3バケット名プレフィックス>-XXXXXXXXXXXX"にアクセスし、コンテンツの確認をします。 ログ用S3バケット"<S3バケット名プレフィックス>-XXXXXXXXXXXX-log"にログが保存されることも確認します。
完了条件/事前条件 [設計者用情報]
完了条件 [after]
主処理は、以下を満たしたときに成功したものとします。
- 完了条件1
- コンテンツ用S3バケット"<S3バケット名プレフィックス>-XXXXXXXXXXXX"にコンテンツが存在する。
事前条件 [before]
主処理の実施は、以下の状態であることを前提とします。
- 事前条件1
- コンテンツ用S3バケット"<S3バケット名プレフィックス>-XXXXXXXXXXXX"が存在する。
- 事前条件2
- ログ用S3バケット"<S3バケット名プレフィックス>-XXXXXXXXXXXX-log"が存在する。
作業対象 [what]¶
- S3サービス
標準時間(合計)¶
8分
パラメータ設定¶
パラメータ設定の標準時間: | 2分 |
---|
作業に必要なモノ・情報 [resource]¶
作業開始には、以下が全て揃っていることが必要です。
リソース1: S3バケット名
- 確認するコンテンツS3バケットの名称です。
- 今回は"<S3バケット名プレフィックス>-XXXXXXXXXXXX"とします。
パラメータの指定¶
作業に必要なパラメータを変数に格納をします。
0.1. Webサイト用S3バケット名の指定¶
Webサイト用S3バケット名を指定します。
変数の設定:
S3_BUCKET_PREFIX='<S3バケット名プレフィックス>'
コマンド:
AWS_ID=$( \ aws sts get-caller-identity \ --query 'Account' \ --output text \ ) \ && echo ${AWS_ID}
結果(例):
XXXXXXXXXXXX
変数の設定:
S3_BUCKET_NAME="${S3_BUCKET_PREFIX}-${AWS_ID}" \ && echo ${S3_BUCKET_NAME}
結果(例):
<S3バケット名プレフィックス>-XXXXXXXXXXXX
0.2. ログ用S3バケット名の指定¶
ログ用S3バケット名を指定します。
変数の設定:
S3_BUCKET_LOG="${S3_BUCKET_NAME}-log" \ && echo ${S3_BUCKET_NAME}
結果(例):
<S3バケット名プレフィックス>-XXXXXXXXXXXX-log
パラメータの保存¶
設定されている変数の保存先となるファイル名を指定します。
変数の設定:
DIR_PARAMETER="${HOME}/tmp/parameter-handson-cli" FILE_PARAMETER="${DIR_PARAMETER}/$(date +%Y-%m-%d)-s3-bucket-read-expand-prefix-awsid.env" \ && echo ${FILE_PARAMETER}
結果(例):
${HOME}/tmp/parameter-handson-cli/2019-04-30-s3-bucket-read-expand-prefix-awsid.env
各変数に正しいパラメータ値が格納されていることを確認しながら保存します。
変数の確認:
cat << EOF > ${FILE_PARAMATER} # 0.0. AWS_DEFAULT_REGION:"ap-northeast-1" AWS_DEFAULT_REGION="${AWS_DEFAULT_REGION}" # 0.1. S3_BUCKET_NAME:"<S3バケット名プレフィックス>-XXXXXXXXXXXX" S3_BUCKET_NAME="${S3_BUCKET_NAME}" # 0.2. S3_BUCKET_LOG:"<S3バケット名プレフィックス>-XXXXXXXXXXXX-log" S3_BUCKET_LOG="${S3_BUCKET_LOG}" # 0.3. S3_PREFIX_LOG:"Logs" S3_PREFIX_LOG="${S3_PREFIX_LOG}" EOF cat ${FILE_PARAMATER}
下段の変数が入っていない、もしくは上段と同等の値が入っていない場合は、それぞれの手順番号に戻って変数の設定を行います。
タスクの実施¶
課題
(未検証)
タスク標準時間: | 6分 |
---|
1. 前処理¶
1.1. 処理対象の状態確認¶
主処理の実施は、以下の状態であることを前提とします。
前提と異なることが判明した場合、直ちに処理を中止します。
事前条件1: コンテンツ用S3バケット"<S3バケット名プレフィックス>-XXXXXXXXXXXX"が存在する。
「コンテンツ用S3バケット"<S3バケット名プレフィックス>-XXXXXXXXXXXX"が存在する。」ことを確認します。
コマンド:
aws s3api list-buckets \ --query "Buckets[?Name == \`${S3_BUCKET_NAME}\`].Name" \ --output text
結果(例):
<S3バケット名プレフィックス>-XXXXXXXXXXXX
事前条件2: ログ用S3バケット"<S3バケット名プレフィックス>-XXXXXXXXXXXX-log"が存在する。
「ログ用S3バケット"<S3バケット名プレフィックス>-XXXXXXXXXXXX-log"が存在する。」ことを確認します。
コマンド:
aws s3api list-buckets \ --query "Buckets[?Name == \`${S3_BUCKET_LOG}\`]"
結果(例):
[ { "CreationDate": "2019-04-30T01:23:45.000Z", "Name": "<S3バケット名プレフィックス>-XXXXXXXXXXXX-log" } ]
1.2. 主処理に必要な情報の取得¶
URLの取得
変数の設定:
S3_BUCKET_LOCATION=$( \ aws s3api get-bucket-location \ --bucket ${S3_BUCKET_NAME} \ --output text \ ) \ && echo ${S3_BUCKET_LOCATION}
結果(例):
|S3_BUCKET_LOCATION|
変数の設定:
URL_S3_BUCKET="http://${S3_BUCKET_NAME}.s3-website-${S3_BUCKET_LOCATION}.amazonaws.com" \ && echo ${URL_S3_BUCKET}
結果(例)
http://<S3バケット名プレフィックス>-XXXXXXXXXXXX.s3-|S3_BUCKET_LOCATION|.amazonaws.com
2. 主処理¶
Webサイトにアクセスする¶
URLにアクセスしてWebサイトのコンテンツが表示されることを確認します。
コマンド:
echo ${URL_S3_BUCKET}/index.html
WebブラウザでURLにアクセスし、コンテンツが表示されることを確認します。
3. 後処理¶
完了条件の確認¶
主処理は、以下を満たしたときに成功したものとします。
完了条件1: コンテンツ用S3バケット"<S3バケット名プレフィックス>-XXXXXXXXXXXX"にコンテンツが存在する。
「コンテンツ用S3バケット"<S3バケット名プレフィックス>-XXXXXXXXXXXX"にコンテンツが存在する。」ことを確認します。
コマンド:
curl -LI ${URL_S3_BUCKET} \ -s \ -w '%{http_code}\n' \ -o /dev/null
結果(例):
200
完了条件2: ログ用S3バケット"<S3バケット名プレフィックス>-XXXXXXXXXXXX-log"にログファイルが存在する。
「ログ用S3バケット"<S3バケット名プレフィックス>-XXXXXXXXXXXX-log"にログファイルが存在する。」ことを確認します。
コンテンツへのアクセスから30分〜1時間ほど待つと、15分前までのログが書き出されているはずです。
コマンド:
aws s3 ls s3://${S3_BUCKET_LOG}/
結果(例):
2019-04-30 01:23:45 290 Logs注釈
ログが存在しない場合は、出力はありません。
コマンド:
aws s3 ls s3://${S3_BUCKET_LOG}/${S3_PREFIX_LOG}/
結果(例):
2019-04-30 01:23:45 290 2019-04-30-01-23-45-XXXXXXXXXXXXXXXX 2019-04-30 01:23:45 292 2019-04-30-01-23-45-YYYYYYYYYYYYYYYY
注釈
ログはベストエフォート設計のため、全てのアクセスが記録される保証はありません。