AWS麻雀のCDP:Stack Deploymentパターン

JAWS-DAYS 2015 AWS麻雀体験企画
– AWS麻雀のCDP役を理解する –

7.Stack Deploymentパターンを実践理解する

AWS麻雀CDP役(AWS OpsWorks Or Elastic Beanstalk Or AWS CloudFormation Or AWS CodeDeploy{発 扱い}+ コンピュート、データベース、ネットワークのいずれか2牌)
00

今回のStack Deploymentパターンは、AWSの利用環境を、予め設定した内容で自動構築し、簡単にコンテンツ更新を行えるパターンです。

システム開発や運用保守の段階では、試験環境を準備して、結果が問題ないと確認したうえで本番環境に適用します。
しかしながら、試験環境の設定、コンテンツを本番に適用する作業を手で行うと、ヒューマンエラーなどのトラブルが懸念されます。

そこで、あらかじめ試験環境構築を設定ファイル(テンプレート)で定義し、その通り実施する事で、本番環境構築を安全かつ容易に行えるようにします。
また、コンテンツを簡単にデプロィ(本番環境に展開)可能なうえ、バージョン管理を実施できる手法を試してみます。

具体的には Elastic Beanstalk を利用して、簡単にWebサービス用PHP開発環境を構築します。
続いて、自動で作成された構成である、EC2(Webサーバ)や、ロードバランサー、AutoScallingの設定を確認してみます。
そして、このような Elastic Beanstalk で指定した自動構成を実施する定義情報がある AWS CloudFormation の中身を少し紹介します。

参考情報は以下です。

AWS Elastic Beanstalkで環境構築自動化(supertaihei02 さん)
http://qiita.com/supertaihei02/items/b2373890b7e739ded318

Elastic Beanstalk 開発、テスト、デプロイ
http://docs.aws.amazon.com/ja_jp/elasticbeanstalk/latest/dg/create_deploy_PHP_eb.sdlc.html

AWS Elastic BeanstalkへGitでデプロイする方法(YoshikiNakamura さん)
http://qiita.com/YoshikiNakamura/items/55525fa0b17e74c25ceb

ZipファイルでElastic Beanstalkにデプロイ(サーバワークス CSチーム かわむら さん)
http://blog.serverworks.co.jp/tech/2012/09/28/elastic-beanstalk_deploy_zip/

 1. Elastic Beanstalk でWebサービス用PHP開発環境を構築

先ずは Elastic Beanstalk でWeb サービス用PHP開発環境を構築します。

管理コンソールで Elastic Beanstalk の画面を開きます。
02

実は最初の画面で、PHPを選択して 「Lunch Now」だけでも基本的な環境は作れてしまいます!
急いでいる方は、 「Lunch Now」が終わるのを待って、 2.コンテンツのデプロイ から参照ください。
さすがにこちらでは少し解説しないと内容を知る事にはなりませんので、 「create a new application」 で内容を確認しながら進めます。
03
残念ながら Elastic Beanstalk の画面は日本語化が間に合っていませんね。

Application name と Discription を入力し、次に進みます。
04

Web Server Environment を選びます。
05

今回は Permissions (権限)はそのまま次へ。
06
詳細が気になる方は、以下を参照ください。
http://docs.aws.amazon.com/ja_jp/elasticbeanstalk/latest/dg/AWSHowTo.iam.roles.aeb.tiers.web.html

platform は PHP、Environment(環境) Type は折角なので、Single instance(単独サーバ環境)より、Load Balancing, Auto Scaling で、インスタンス(サーバ)がダウンしても自動で復旧し、過負荷時にサーバ自動で追加起動する設定にしてみます。
07

最初の application version はサンプルを利用します。
Deployment Limits はどれだけのサーバ数を確保するというような設定と考えると良いでしょう。
今回は試験なので、Fixed でとりあえずインスタンス(サーバ)1台以上をキープの設定に変更してみます。
08
詳細が気になる方は、以下を参照ください。
http://docs.aws.amazon.com/ja_jp/elasticbeanstalk/latest/dg/using-features.rolling-version-deploy.html

Environment(環境)名と、URLを入力します。

すでにある名前は使えないので、Check availability で確認しましょう!
09

MySQLなどのRDMSを利用する場合は、RDSの設定をチェックします。
VPC( Virtual Private Cloud)の環境を使う場合は、VPCの設定をチェックします。
今回は使う予定がないので、そのまま次に進みます。
10

詳細の設定で、Instance type は無償試用対応インスタンスでパフォーマンスの良い t2.micro を選択し、EC2 key pair は既存のものがあれば選択します。
その他は初期値のままで良いでしょう。(後から変更も可能です。)
10-1
11

Environment(環境) Tag も設定できますが、今回は試すだけなのでパスします。
12

最後に設定の確認画面が表示されますので、Launch (構築)します。
13

14

構築中は半円の矢印がくるくる回っています。
しばらくコーヒーを味わえるぐらいの時間がかかります。
15

無事環境が構築されたら、緑丸の表示がでます。
Recent event でも確認できます。
さらに Show All で詳細を確認できます。
16

詳細を確認したら、URLのリンクをクリックしてみます。
17

初期コンテンツとして用意されているのはこのページです。
18

以上で、環境構築は完了です。

2.新しいコンテンツをデプロイ(展開)してみる

環境を構築しましたが、まだ実際のコンテンツが表示されている訳ではありません。
とりあえず、以下のサイトの無料テンプレートでコンテンツのデプロイ(展開)を試してみます。

Cafi Net カフィネット 無料テンプレート 73/5ページ/スライドショー
http://japanism.info/free-template.html

先ずは以下のような構成でコンテンツを圧縮したZipファイルを作成します。
20-1

Upload and Deploy で作業を開始します。
19

先ほどのZipファイルを選択し、デプロイします。
20

以下のように、再度作業中の画面が表示されます。
21

Running Version が変わり、Recent Events に Deploying new version の記述が追加されます。
22

再表示すると、入れ替わったコンテンツが確認できます。
23

ただ、これではPHPが動くかどうか確認できません。
そこで、livedoor天気予報のAPIを利用したコンテンツと、定番の phpinfo() を確認するファイルを追加して、デプロイしてみます。

livedoor天気予報 Weather Hacks
http://weather.livedoor.com/weather_hacks/

test.php

<?php
    $point = "390010";
    $url   = "http://weather.livedoor.com/forecast/webservice/json/v1?city=".$point;
    $json  = file_get_contents($url, true);
    $json  = json_decode($json, true);
?>
<!DOCTYPE html>
<html lang="ja">
<head>
<meta charset="utf-8">
<title>Stack Deploymentパターン</title>
</head>

<body>
<h2>Stack Deploymentパターン</h2>
<p>Elastic Beanstalk に デプロイするコンテンツ試験!</p>
<p>今回は livedoor天気情報 Wether Hacks <a href="http://weather.livedoor.com/weather_hacks/" target="_blank">http://weather.livedoor.com/weather_hacks/</a> のAPIをPHPで使った例にしてみました。</p>

<table border="1">

<tr><th colspan="2">
<a href="<?php echo $json['description']['text']; ?>" target="_blank"><?php echo $json['title']; ?></a>
</th></tr>
<tr><td colspan="2">
<?php echo $json['description']['text']; ?><br />
<a href="<?php echo $json['description']['text']; ?>" target="_blank"></a>
</td></tr>

<?php
foreach($json['forecasts'] as $value){
    echo "<tr>";
    echo "<td>".$value['dateLabel']."(".$value['date'].")</td>";
    echo "<td>";
    echo "<image src=\"".$value['image']['url']."\" />".$value['image']['title']."<br />";
    if($value['temperature']['min'] != "NULL") echo "最低気温".$value['temperature']['min']['celsius']."度 ";
    if($value['temperature']['max'] != "NULL") echo "最低気温".$value['temperature']['max']['celsius']."度 ";
    echo "</td>";
    echo "</tr>\n";
}
?>

<tr>
<td>高知その他のポイント</td>
<td>
<?php
foreach($json['pinpointLocations'] as $value){
    echo "<a href=\"".$value['link']."\" target=\"_blank\">".$value['name']."</a><br />";
}
?>
</td>
</tr>

<tr>
<td>提供時点</td>
<td><?php echo str_replace("T"," ",$json['publicTime']); ?></td>
</tr>

<tr>
<td>API提供先</td>
<td><a href="<?php echo $json['copyright']['link']; ?>" target="_blank"><?php echo $json['copyright']['image']['title']; ?></a></td>
</tr>

</table>

</body>
</html>
?>

info.php

<?php
phpinfo();
?>

先のZipファイルに、このPHPプログラムの2ファイルを追加します。
24

Zipファイルを選択し、デプロイします。
25

デプロイが完了したら、表示してみます。

URL/info.php
26

URL/test.php
27
PHPのプログラムがしっかり動いてます!

 3.自動で設定された環境を確認する

自動で設定された環境を確認してみます。

先ずは、EC2関連の設定を確認します。
30

インスタンス(サーバ)が稼働しているのが確認できます。
31

セキュリティグループの設定が追加されています。
32

ロードバランサー(アクセスを複数サーバに振り分ける装置)も設定されています。
33

ロードバランサー(アクセスを複数サーバに振り分ける装置)も設定されています。
34

Auto Scalling 関連の設定もされています。
35
36

ボリューム(サーバのハードディスク)は以下です。
37

続いて、状況を監視する CloudWatch の設定を確認します。
40

アラームが設定されています。
この設定をもとにAuto Scalling などが実施されます。
41

続いて、ログ(記録)などが保管される、S3(ストレージ)を確認します。
45

バケット(保管容器)が追加されています。
46

バケットの中身を確認すると、デプロイしたZipファイルの各バージョンのファイルが保管されているのが確認できます。
47

最後に、AWSのリソース(利用環境)を構成する設定がある、CloudFormationを確認します。
50

Stackと呼ばれる定義が作成されています。
51

Resourcesで構成した内容を確認します。
52

Templateで実際作成された定義を確認してみます。
53
これだけ長い定義記述を自動で作成している事が確認できます。
解読するためインデントを整理するのも大変な量です。

 4.構築した環境の動作を確認する

本当に構成された環境がうまく動いているのか、確認してみます。

インスタンス(サーバ)を削除してみます。
61

62

しばらく待つと、自動で新しいインスタンス(サーバ)が構築されています。
63

Elastic Beanstalk の画面でも確認します。
64

Recent Events でも確認できます。
65

66

5.設定変更の注意

過去 Elastic Beanstalk で設定した内容の変更、削除は必ずElastic Beanstalkの画面で行いましょう。
無視すると、思わぬトラブルに見舞われます。(過去の経験談)

Applicationを選択します。
64

Configuration を選びます。
71

変更をしたい部分の歯車マークをクリックします。
今回、Instances をクリックしてみます。
72

 

以下の変更画面が表示されます。
73
以下のサイトなどを参考にして、変更します。
さすがに、設定変更は専門の知識がないと厳しいでしょう。

インスタンス
http://docs.aws.amazon.com/ja_jp/elasticbeanstalk/latest/dg/using-features.managing.ec2.html

Elastic Beanstalk 全般
http://docs.aws.amazon.com/ja_jp/elasticbeanstalk/latest/dg/Welcome.html

6.Gitによるデプロイなど

Gitによるデプロイや、PHPフレームワークのfuelphpを使う場合などは、私の過去の記事を覗いてみてください。

Windows環境で Elastic Beanstalk を使ってデプロイ(アプリ更新)
Elastic Beanstalk でFuel PHPをデプロイ
Elastic Beanstalk で RDS(MySQL)を使う
Elastic Beanstalk の RDS を FuelPHP から利用

さらに詳しい内容を知りたい方は以下が参考になるでしょう!

CloudFormationで環境構築を自動化する(竹永篤史 さん)
http://www.atmarkit.co.jp/ait/articles/1408/25/news014.html

AWS CloudFormation サービスサンプルテンプレート
http://docs.aws.amazon.com/ja_jp/AWSCloudFormation/latest/UserGuide/sample-templates-services-us-west-2.html

AWS Elastic Beanstalkの(多分)最速設定(soramugi さん)
http://qiita.com/soramugi/items/1258127d159703fe731d

ElasticBeanstalkのログ保存方法(今岡久敏 さん)
http://blog.cloudpack.jp/2015/01/28/how-to-store-log-of-elasticbeanstalk/

Elastic BeanstalkでWordPressをインストールしてみました(サーバワークス CSチーム かわむら さん)
http://blog.serverworks.co.jp/tech/2012/06/29/elastic-beanstalk_wordpress_install/

Elastic Beanstalk アプリケーションソースバンドルを作成する
http://docs.aws.amazon.com/ja_jp/elasticbeanstalk/latest/dg/using-features.deployment.source.html

広告

AWS麻雀のCDP:Job Observerパターン

JAWS-DAYS 2015 AWS麻雀体験企画
– AWS麻雀のCDP役を理解する –

5.Job Observerパターンを実践・理解する

AWS麻雀CDP役(1〜4ECU+7ECU+1〜SQS{中扱い})
01

今回のJob Observerパターンは、SQSのキュー(処理待ちリクエストなど、一時的な保管データ)と、CloudWatchというリソース情報管理する機能を利用します。
SQS内の処理待ちリクエストが一定量を超えてないかCloudWatchで監視し、超えた時点でAuto Scaling機能で、EC2のインスタンス(サーバ)を追加起動します。
これにより、バッチ処理(Webと違い、計算などの処理を黙々と行うこと)を行うサーバを自動で増減し効率良く処理する事ができます。

例えば、バックグラウンドで実施している動画のサムネイル画像作成処理などで、サムネイル作成指示用SQSのキューが増分した場合、自動で処理サーバを増やす事で一定の処理パフォーマンスを保つができるようになります。

今回はとりあえずt2.microEC2インスタンス(サーバ)と、AMI(サーバイメージ)を作成して、SQS内のキューをコンソールより追加して試してみます。
SQSのキューが5個を超えた時点でサーバの負荷大になると想定し、新しいインスタンス(サーバ)が追加されるよう設定し、処理が実施されるか試したいと思います。

参考情報は以下です。

Amazon SQS との組み合わせで素早く Auto Scaling
http://aws.typepad.com/aws_japan/2015/01/auto-scaling-with-sqs.html

“SQS”と”CloudWatch”と”Auto Scaling”(スズキさん)
http://blog.suz-lab.com/2011/06/sqscloudwatchauto-scaling.html

Amazon SQSとCloudWatchによる高速AutoScaling(横田あかりさん)
http://dev.classmethod.jp/cloud/amazon-sqs-cloudwatch-rapid-autoscaling/

Amazon SQS のディメンションおよびメトリックス
https://docs.aws.amazon.com/ja_jp/AmazonCloudWatch/latest/DeveloperGuide/sqs-metricscollected.html
先ずは好きなインスタンスで、サーバを立ち上げます。
今回は、Amazon Linux AMI 2015.03 (HVM) t2.micro を利用します。

余談ですが、今回から管理コンソールが日本語化表示です!
00

 

1.EC2のイメージ作成

今回は、バッチジョブと呼ばれる裏方作業のサーバをEC2で起動します。
但し、実際のバッチジョブのアプリ実装は大変ですので、あくまでサーバの起動までを試します。

管理コンソールでEC2の画面を表示します。
00A

インスタンスの作成を行います。
02

Amazon Linux AMI を選択します。
03

t2.micro を選択します。(試して課金はさけたいところ、くれぐれもお間違いなく!)
04

作成 します。
05

既存のキーペアーを選択するか、新しく指定して インスタンスを作成します。
06

以上で、新しいインスタンスが作成。
07

作成したインスタンスのイメージ(AMI)を作成します。
これはSQSの処理待ちキューが増えた場合に、サーバ(インスタンス)を増やす場合の元イメージになります。
本来はシステムを構築したインスタンスのイメージを使います。
が、今回は動きを確認するだけで、Amazon Linux AMI をそのまま使います。
08

インスタンス行の上で 右クリックで、イメージ、イメージの作成 を選択します。
09

イメージ名、説明を適当に設定し イメージの作成をします。
10

 

イメージ(AMI)が完成します。
11

作成したイメージ(AMI)を確認します。
12

 

2.SQSの設定

今回はSQSの処理待ちキューの数が一定量を超える事で、バッチ処理サーバを増やす想定です。
このSQSは、バッチ処理サーバとは別に、業務サーバや、Webサーバなどよりバックグラウンドで行う処理の指示と関連する情報を保管します。
バッチ処理サーバは、このSQSに蓄積されたキューの処理指示に従い、裏方処理を実施します。
SQSは複数のバッチ処理サーバからのアクセスを考慮した処理も実装可能です。

処理待ちを管理するのSQSのキューを作成します。
00B

 

新しいキューの作成 を行います。
13

キュー名、キューの設定 を行います。可視性、メッセージの消滅は短めに設定しました。
キューの作成 をします。
14

キューが出来上がりました。
キューの試験用データは他の設定完了後に行います。
15

 

3.AutoScallingの設定

SQSのキューが閾値を超えた際にバッチ処理サーバを増やします。
これはコンソールのEC2内にある、AutoScalling という機能を利用します。
AutoScalling は今回の例の他に、AWSのロードバランサーと組み合わせて、自動スケールアウト・無停止Webサーバの設定などによく用いられます。

Auto Scalling グループの作成 を行います。
16

起動設定の作成 を行います。
17

マイAMI を選択します。
18

先に作ったイメージ(AMI)を選択します。
19

t2.micro を選択します。(試して課金はさけたいところ、くれぐれもお間違いなく!)
次の手順 に進みます。
20

起動設定を作成します。
名前 を設定し、確認画面にスキップ します。
21

起動設定の作成 を行います。
22

先のEC2のインスタンス作成と同じ設定にします。
23

グループ名 の設定、サブネット を選択します。
次の手順 に進みます。
24

スケーリング範囲を 1 および 2 に設定します。
本来範囲は処理量に応じて設定しますが、今回は試験なので1台の増分で止めます。
名称 、アクションを設定します。
アクションは、今回は試験なので1インスタンス(サーバ)づつ追加にしています。
確認 します。
25

AutoScalling グループの作成 を行います。
26

作成されました。
27

以下のように表示されます。
28

 

4.CloudWatchの設定

CloudWatchはAWSの各サービスの状況を監視し、アラームによる通知・処理などを行います。
その他のサービスと連携し、今回のようなSQSのキュー数の閾値によるインスタンス(サーバ)起動なども行えます。

SQSのキュー数を監視するためのCloudWatchのアラームを作成します。
00C

アラームの作成 を行います。
29

SQSメトリックス を選択します。
30

ApproximateNumberOfMessagesVisible をチェックし、次へ 進みます。
ApproximateNumberOfMessagesVisible はSQS内の有効なキューの数です。
31

名前、説明 を設定します。
ApproximateNumberOfMessagesVisible の値が5以上でアクションを実施するよう設定します。
通知 アクションを削除し、Auto Scalling アクション を追加します。
32


追加した アクション に、アラーム 警告 を選択します。
グループ他には、先に設定した Auto Scalling の設定を選択し、アラームの作成 を行います。

33

作成されたばかりの状態です。
34
以上で設定は終わりです。

 

5.試験の実施

設定が完了しましたが、SQSにキューを登録しない限りインスタンス(サーバ)の数はそのままです。
SQSにデータを5件登録、そして削除した場合のインスタンス(サーバ)の数を確認してみます。

EC2のインスタンスの画面で、稼働しているのは先に作成したインスタンス(サーバ)1個のみです。
40

SQSの画面でキューのメッセージを追加(メッセージの送信)します。
41

5件ほど適当なメッセージを入れて、メッセージの送信 します。
42

43

メッセージの表示 で確認します。
44

メッセージのポーリングを開始します。
45

キュー内に5件のメッセージがあります。
46

CloudWatchの画面で、早速 アラーム が発生しています!
47

最初EC2のインスタンス(サーバ)画面に戻って、起動数が変わらず、、、。
先の赤書きの部分を間違えて設定して、、、最大数を2に変更しました。
48

EC2の画面で、もう1つ同じイメージ(AMI)のインスタンス(サーバ)が起動し始めました。
49

ステータスチェックも合格し、無事起動です!
50

では、意地悪くインスタンス(サーバ)のトラブルを想定し、起動したインスタンス(サーバ)を削除してみます。
51

52

terminatedとは削除された状態で、削除されています!
53

少し待つと、再度アラームの処理で、新しいインスタンス(サーバ)が起動を始めます!
54

これは サーバ管理者の眠れない夜! 撲滅に効果大ですね!(^^)v

では、SQSのキュー内のメッセージを削除してみます。
55

56

SQSキュー内のメッセージが4個になりました。
57

SQSのアラートが消えて正常になっています!
58

EC2のインスタンス(サーバ)が自動で削除(terminated)されています!
59

今回のCDPパターンは地味ですが、この機能は
・ソフト会社で基幹系システムのSI屋さん
・Webサービスでバックグランド処理をかかえるIT屋さん
などには必須の機能ですね!

このブロッグでは触りの部分のみ紹介しましたが、もっと突き詰めて設定すると素晴らしいパフォーマンスの停止しないシステムを構築可能でしょう!!

JAWS-DAYS 2015 AWS麻雀体験企画 に戻る

AWS麻雀のCDP:Direct Hostingパターン

JAWS-DAYS 2015 AWS麻雀体験企画
– AWS麻雀のCDP役を理解する –

5.Direct Hostingパターンを実践・理解する

AWS麻雀CDP役(8Gpbs+9Gpbs+4TB)

00

今回のDirect Hostingパターンは、CMSなどのWebコンテンツを、S3に静的htmlとして出力するなどで簡単に負荷対策を行う必要が無いWebサーバーを実現できます。

短期間で急激にアクセス数が増加する場合など、EC2のインスタンス増設では間に合わない場合がある。
また、アクセス増を見込んで予め準備しておくのではコスト増となり、他ではロードバランサーとAutoScaleでの対応も検討できるが、設定が必要なうえ少しタイムラグがある。

例えば、wordpressやMovable TypeのようなCMSで更新後htmlに変換し、S3に出力し、静的サイトとして公開する事で、特定サービスのアクセス数が急激に増加してもS3側で問題なく処理できます。
結果、負荷対策を行う必要が無いWebサーバーとして利用することができます。

今回はwordpressのコンテンツをS3に静的htmlサイトとして出力する方法でDirect Hostingパターンを試してみます。但し、Route53を使わず、EC2環境を利用し、デフォルトの割り当てDNSホスト名でwordpress環境を構築します。
wordpress環境は、構築時間を超短縮するため AMIMOTO AMI を利用します。

参考情報は以下です。
wordpressをAmazon S3で運用する方法(ITANDI技術ブログ)
http://tech.itandi.co.jp/2014/05/wordpress-amazon-s3/

WordPress の StaticPress プラグインで Amazon S3 に静的なサイトを構築する(inokappa さん)
http://qiita.com/inokappa/items/d4df29279b94e04590bd

StaticPress
http://ja.staticpress.net/

megumiteam/staticpress-s3
https://github.com/megumiteam/staticpress-s3

S3をWeb Storageとして利用しますが、その環境の構築などは以下を参考にしてください。

AWS麻雀のCDP:Web Storageパターン
https://yukataoka.wordpress.com/2015/04/06/webstorage/

先ず、S3にコンテンツを更新するユーザと権限、アクセスキーの作成を行います。

AWSのコンソール画面で、Identity & Access Management を選択します。
01

Usersを選択し、Create New Users します。
02

ユーザ名を入力し、Create します。
03

Access Key ID と Secret Access Key を保管します。
05


Access Key ID:<——- Access Key ———–>
Secret Access Key:<——- Secret Key ———–>

作成したユーザを選択します。
06

Inline Policies の click here をクリックします。
07

Policy Generator を Select します。
08

以下の画面で、
Effect => Allow
AWS Service => Amazon S3
Actions => All Actions Select
ARN => arn:aws:s3:::バケット名/*
を登録し、Add Statement します。
09

以下が追加されますので、Next Step します。
10

Policy に青拝啓部分の追記し、Apply Policy します。
11

今回の例
{
 ”Version”: “2012-10-17”,

 ”Statement”: [
  {
   ”Sid”: “Stmt1429413096000”,
   ”Effect”: “Allow”,
   ”Action”: [
    ”s3:*”
   ],
   ”Resource”: [
    ”arn:aws:s3:::s3.ykata.net/*”
   ]
  },
  {
   ”Action”: [
    ”s3:ListAllMyBuckets”,
    ”s3:ListBucket”,
    ”s3:GetBucketLocation”
   ],
   ”Resource”: [
    ”arn:aws:s3:::*”
   ],
   ”Effect”: “Allow”
  }
 ]
}

以下が表示されます。
12

続いて、S3に静的htmlを更新する試験用のwordpress環境を作ります。

とにかく時間と手間をかけないため、デジタルキューブさんのAMIMOTO AMIを利用させて頂きます。
手順は以下をご参照ください。

AMIMOTO AMIの使い方(デジタルキューブ さん)
http://ja.amimoto-ami.com/how-to-use/

13

先ず静的HTMLを出力するプラグイン、StaticPress を追加します。
14

追加後、有効化します。設定はデフォルトそのままで良いでしょう。
15

StaticPress で作成した静的htmlをS3にアップするためのプラグイン staticpress-s3 のZIPを先のURLより取得して追加します。
16

追加できると、以下のようになります。
17

先にIdentity & Access Management で設定した、Access Key ID と Secret Access Key  リージョンを設定します。
東京リージョンは ap-northeast-1 です。
18

つづいて、該当するBacketを選択し、変更を保存します。
19

拡張子をhtmlにするため、パーマリンクを以下に変更します。
%postname%.html
20

S3は以前のWeb Storageパターン で構築した環境をそのまま利用します。
21

早速構築をしてみましたが、、、エラー!で終わります。
=>数時間色々粘ってみましたが、GitHubのコード解析するには時間的に厳しく別方法を探す事にしました。
22

代替えとして s3cmd をwordpressのEC2内に設定して、sshのオペレーションで送ることにしました。
以下を参考に設定をすることにします。

[技術ブログVol.10] 最新のs3cmd (ver1.5.0) をyumでインストールする(ディーネット さん)
http://www.denet.ad.jp/technology/2014/03/vol10-s3cmd-ver150-yum.html

staticpress-s3 のプラグインを停止します。
30

以下のようにS3の設定がなくなります。
出力先ディレクトリィにファイルが出力されるだけになります。
31

構築をしてみます。
32

無事出力されました。
33

以降はsshで wordpress が稼働しているEC2のコマンドラインで実施します。
(ssh接続の詳細が不明な方は検索サイトで EC2 ssh などのキーワードで検索ください。)

以下、コマンドでの手順です。

sudo yum update

sudo yum -y –enablerepo epel install s3cmd

インストールが簡単に終わります。
先ず試しにバージョンを表示させようとするとエラーが発生します。

s3cmd –version

!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
An unexpected error has occurred.
Please try reproducing the error using
the latest s3cmd code from the git master
branch found at:
https://github.com/s3tools/s3cmd
If the error persists, please report the
following lines (removing any private
info as necessary) to:
s3tools-bugs@lists.sourceforge.net
Error loading some components of s3cmd (Import Error)
!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

Invoked as: /usr/bin/s3cmd ?-version
Problem: ImportError: No module named S3.ExitCodes
S3cmd: unknown version. Module import problem?
python: 2.7.9 (default, Apr 1 2015, 18:18:03)
(後略)

こちらのエラーは Amazon Linux の新しいAMIのPythonのバージョンが影響しているようです。
以下のForumの投稿が参考になりました。

AWS Discussion Forums
https://forums.aws.amazon.com/thread.jspa?threadID=174345

投稿の回答に従ってコマンドを実行します。

sudo yum-config-manager –enable epel/x86_64
sudo yum install ansible -y
sudo alternatives –set python /usr/bin/python2.6
sudo yum clean all
sudo yum install yum-python26 -y
sudo yum install python-boto -y
sudo yum update -y

s3cmd –version が以下のとおり表示されるようになりました。
34

以下のサイトの情報を参考に、s3cmdを設定、実際にS3にファイルを転送してみました。

Amazon S3編~s3cmdでS3を操作してみよう!~(ナレコムAWSレシピ さん)
http://recipe.kc-cloud.jp/archives/1059

s3cmd –configure

Enter new values or accept defaults in brackets with Enter.
Refer to user manual for detailed description of all options.

Access key and Secret key are your identifiers for Amazon S3. Leave them empty for using the env variables.
Access Key: <——- Access Key ———–>
Secret Key: <——- Secret Key ———–>
Default Region [US]: ap-northeast-1

Encryption password is used to protect your files from reading
by unauthorized persons while in transfer to S3
Encryption password:Enter
Path to GPG program [/usr/bin/gpg]:Enter

When using secure HTTPS protocol all communication with Amazon S3
servers is protected from 3rd party eavesdropping. This method is
slower than plain HTTP, and can only be proxied with Python 2.7 or newer
Use HTTPS protocol [No]:Enter

On some networks all internet access must go through a HTTP proxy.
Try setting it here if you can’t connect to S3 directly
HTTP Proxy server name:Enter

New settings:
Access Key: <——- Access Key ———–>
Secret Key: <——- Secret Key ———–>
Default Region: ap-northeast-1
Encryption password:
Path to GPG program: /usr/bin/gpg
Use HTTPS protocol: False
HTTP Proxy server name:
HTTP Proxy server port: 0

Test access with supplied credentials? [Y/n] y
Please wait, attempting to list all buckets…
Success. Your access key and secret key worked fine 🙂

Now verifying that encryption works…
Not configured. Never mind.

Save settings? [y/N] y
Configuration saved to ‘/home/ec2-user/.s3cfg’

s3cmd put -r /var/www/vhosts/i-e849991d/static s3://s3.ykata.net

上記コマンドでS3に転送した結果が以下です。
35

AWSのコンソールでS3にアップされた様子です。
36

wordpressのサイトです。
37

S3のサイトです。
38

一部CSSや、JavaScriptのファイルか、フォルダ構成に不備があるのか、wordpressのテーマなどの設定の影響か、レイアウトが崩れてしまっています。
=>今回はCDPの実践手順の確認なので、これでOK(妥協)にします。(汗)

JAWS-DAYS 2015 AWS麻雀体験企画 に戻る

AWS麻雀のCDP:Cache Distributionパターン

JAWS-DAYS 2015 AWS麻雀体験企画
– AWS麻雀のCDP役を理解する –

4.Cache Distributionパターンを実践・理解する

AWS麻雀CDP役(9Gpbs+4TB+1〜4ECU)

CDP4-00

今回のCache Distribution パターンは、動画などのコンテンツ配信では、遠方な場所への配信を行うと遅延などによる品質低下を避けるため、例えばオリジナルのコンテンツを世界のリージョン(データセンター)にキャッシュし配信する事で、高品質な配信サービスを実現できる。

CloudFrontは執筆時点東京リージョンで1GBの転送で20円弱です。世界のリージョンのキャッシュサーバー(エッジサーバー)を個人でも利用できますね!

よく利用するパターンで、S3に公開するコンテンツを保管し、CloudFrontで配信します。
S3に動画などのコンテンツを保管し配信する方法は、前回の AWS麻雀のCDP:Web Storageパターン を参照ください。
今回の説明は前回のS3に構築した環境を利用する前提で説明します。

前回構築したS3の環境。
CDP4-04

またログを保管するためのbacketもs3に準備しておきます。
CDP4-06

上記準備が終わったら、マネジメントコンソールで CloudFrontを選択します。
CDP4-01

以下の画面で Create Distribution を行います。
Distribution は一つのまとまりのように捉えると良いでしょう。
CDP4-02

今回はWeb Distribution を開始します。
RTMP については説明を省きますので こちら を参照してください。
CDP4-03

Origin Domain Name にS3で先に公開したドメインを入力か、自動で紹介される場合は選択します。
EC2のWebサイトや、外部で公開しているWebサイトなどのドメインも登録して、キャッシュ利用可能です。
Origin ID には任意に設定します。
CDP4-05

ログを保管したい場合は以下のように設定してください。
Bucket for Logs は先に設定したs3のbacketを指定します。
(注意:この設定ではログが保管されませんでした。)

Create Distribution します。
CDP4-07

以下の画面で、Statusが Enabled になるまで待ちます。
コーヒーを1杯飲める以上の時間(結構待ちます)がかかります。
CDP4-08

以上で出来上がりです。
指定された Domain Name でアクセスしてみます。
CDP4-09

しっかり表示されました。
現在は Disable にしていますので、アクセスできません。
CDP4-10

動画ファイルも直接表示されました。
CDP4-11

問題はS3に記録した筈のログがすぐには見えない事です。
最初これではまりましたが、1時間以上経過しないと保管されないようです。
=> 上記ではログも問題なく設定したつもりでしたが、保管されておらず設定の見直しが必要です。

EC2のWebコンテンツでも試してみましたが、Origin Domain Name 以外ほぼ同じ設定でした。

JAWS-DAYS 2015 AWS麻雀体験企画 に戻る

AWS麻雀のCDP:Web Storageパターン

JAWS-DAYS 2015 AWS麻雀体験企画
– AWS麻雀のCDP役を理解する –

3.Web Storageパターンを実践・理解する

AWS麻雀CDP役(8Gpbs+4TB+1〜4ECU)

cdp3-00

今回のWeb Storage パターンは、EC2動的サイトを運用している場合、S3にPDF、動画などの重い静的ファイルの配信を任せることで、EC2動的サイトの負荷を軽減する事が可能です。

このように、EC2で公開するWebサイトなどの負荷をS3に静的ファイルを置いて分散することができます。

今回のWeb Storage パターンとは異なりますが、静的コンテンツしかない場合はS3のみでWebサイトを構築する事も可能です。
ついでに今回はS3のみの静的サイトも構築してみました。

 

マネジメントコンソールでS3を選択します。
cdp3-02

 

 

以下の画面で、Create Backet を行います。
Backetは静的コンテンツの入るフォルダと考えると良いでしょう。
cdp3-03

バケットの名称と、リージョンを選択し、Createします。
リージョンは日本なので東京で良いでしょう。
cdp3-04

今回利用するBacketができました。
cdp3-05

Backetの Static Website Hosting を設定します。
Endpoint にリンク用のURLが表示されますので控えておいてください。
以下の例は demo-s3web.s3-website-ap-northeast-1.amazonaws.com です。
cdp3-06

Enable website hosting を選択し、Index Document には index.html など適宜設定します。
cdp3-07

Permissions でこの bucket へのアクセス権限などを設定します。
Add bucket policy をクリックします。
cdp3-08

bucket policy設定用の画面が表示されます。
そのまま記述するのは面倒ですので、AWS Policy Generater を使って設定を作ります。
cdp3-09

以下の画面で、
Select Type of Policy => S3 Bucket Policy
Effect => Allow
Principal => *
Actions => GetObject
ARN => arn:aws:s3:::バケット名/*
を登録し、Add Statement します。
cdp3-10

以下のように追加できていたら、Generate Policy します。
cdp3-11

以下が表示されますので、この設定をコピーします。
cdp3-12

Bucket Policy Editor 画面に戻って貼り付け、Save します。
cdp3-13

続いてファイルをアップするため、Bucketに移動します。
cdp3-14

Upload します。
cdp3-15

Add File します。
cdp3-16

必要なファイルを洗濯します。
cdp3-17

Start Upload します。
cdp3-18

以下のようにFileがアップされれば終了です。
cdp3-20

今回の例では
http://demo-s3web.s3-website-ap-northeast-1.amazonaws.com/ファイル名
のリンクをEC2の動的プログラムに設定するだけです。
以下はEC2のPHPプログラム内のHTMLからS3の動画フィアルを<video>タグでの表示例です。
(いつもはEC2インスタンスを停止させていますので、普段 http://aws.ykata.net/ は参照できません。)
cdp3-21

cdp3-22

Bucket名をドメインにすると、静的サイトをRoute53や、お名前.comなどで取得したドメインで運用できます。
お名前.comのような外部DNSを利用する場合は、DNSのcnameレコードで登録します。
以下のURLサイトはこのしくみを使っています。

http://s3.ykata.net/s3web.html

JAWS-DAYS 2015 AWS麻雀体験企画 に戻る

AWS麻雀のCDP:Stampパターン

JAWS-DAYS 2015 AWS麻雀体験企画
– AWS麻雀のCDP役を理解する –

2.Stampパターンを実践・理解する

AWS麻雀CDP役(1〜4ECU+5ECU+1〜4ECU)
CDP2-01

今回のStamp(スタンプ)とは、間接的な意味で使われています。

EC2で環境設定済みの仮想サーバーを構築し、AMI(amazon machine image)を作成します。

AMIはOSや使うソフトが設定済でプレインストールされたHDDのようなものと考えてください。

このAMIを活用すると、あたかもスタンプを押すように仮想サーバーを複製して、環境設定済みの仮想サーバーを大量に用意できます。

これがStampパターンです。

今回は、現在稼働しているEC2のサーバのAMIを作成し、このAMIを使って複製サーバを起動してみます。

ちなみに、AMIは前回作成したSnapshotからも作成できます。

サーバに負荷をかける開発などでは、定期的に確保したSnapshotでこのStampパターンを実践して何度も助かりました。(汗)

以下、AMIを作成し、そのAMIで新しいサーバを立ち上げてみます。

今回はEC2の以下のWebサイトを複製します。
CDP2-02

EC2のインスタンスの画面で、該当するEC2で右クリックか、選択してActionボタンをクリックします。(以下同じ)
CDP2-03A

Image、Create Image を選択します。
CDP2-04A

name、description を入力、Create Image を実行します。
CDP2-05A

以下が表示されればAMIが作成されています。
CDP2-08

AMIの画面で確認します。
CDP2-09A

作成したAMIから複製サーバを作成します。
CDP2-10A

EC2の目的に合ったInstanceを選択します。
今回はデモなので、最少のt2.microを選択し、Review and Lanche します。
CDP2-11A

初期値ではssh以外通信できません。
Security Group を複製元と同じ設定にします。
CDP2-12A

以下のように、複製元の設定を選択してWeb用のポートを空けます。
CDP2-13A

以上で、Launch します。
CDP2-14A

ssh接続用の key pair を設定します。
CDP2-15A

以上で複製サーバの作成が完了。
CDP2-16A

作成されたInstanceが起動しています。
CDP2-17A

Instanceが起動した(Status Checks が2/2 になる)ら、下部に表示されているURLにアクセスしてみます。
CDP2-19A

以下、左がオリジナル、右が複製サーバのWebにアクセスした様子です。
複製なので、URL以外は変わりません。
CDP2-20A

以下のように、SnapshotからAMIを作成する事もできます。
手順は同じです。
CDP2-18A

以上がStampの実践です。

JAWS-DAYS 2015 AWS麻雀体験企画 に戻る

AWS麻雀のCDP:Snapshotパターン

JAWS-DAYS 2015 AWS麻雀体験企画
– AWS麻雀のCDP役を理解する –

1.Snapshotパターンを実践・理解する

AWS麻雀CDP役(1〜4ECU+2TB+3TB)
CDP2-01

Snapshot(スナップショット)とは、ある瞬間のデータを複製したバックアップです。

物理的なサーバ(オンプレミス)でいうと、AWSのEC2はCPUとメモリ、EBSがOSなどがインストールされているHDDにあたります。

HDDにあたるEBSのある瞬間のデータを保管することを、スナップショットの作成と言います。

このスナップショットは簡単に取れるので以下のような際に便利です。
・定時バックアップ
・開発の各時点の試験環境の保管
・システムバージョンアップ前の状態保管(不具合時に戻す)

自作プログラムや、有償サービスを利用して自動化する事が可能です。

取得したスナップショットは、99.999999999%の耐久設計されたAWSのS3に保管されます。

所得したスナップショットからAMI(Amazon Machine Image)を作成しておくと、同じ環境をすぐに構築できます。

但し、スナップショットを取得する際にデータベースソフトなどを稼働させている場合は、常駐サービスを停止するなどは自身で対応しなければならない。
実際にAWSのコンソール(Web管理画面)でスナップショットを作成します。

事前にEC2インスタンス(サーバ)を作成している状態を想定しています。
分からない方は以下を参照してください。

AWSを利用するためのアカウントの作成(amazon web services サイト)
http://aws.amazon.com/jp/register-flow/

0から始めるAWS入門②:EC2編(hiroshik1985 さんのサイト)
http://qiita.com/hiroshik1985/items/f078a6a017d092a541cf

以下の操作をするだけで簡単にスナップショットを取得できます。

このインスタンス(Voi-8d074094)のスナップショットを作成。
CDP01-2

Volumes画面で、Volume ID (vol-e6c45cec)確認。
CDP01-10

Snapshot画面で、Crate Snapshot を実施。
CDP01-4

Volume、Name他を入力。Create。

CDP01-7

作成中。
CDP01-8

完了。

CDP01-9

以上でSnapshotが作成されました。

JAWS-DAYS 2015 AWS麻雀体験企画 に戻る