项目作者: erozedguy

项目描述 :
Aws Autoscaling Group with ALB
高级语言: HCL
项目地址: git://github.com/erozedguy/Terraform-AWS-Auto-Scaling-and-ALB.git
创建时间: 2021-07-13T21:56:02Z
项目社区:https://github.com/erozedguy/Terraform-AWS-Auto-Scaling-and-ALB

开源协议:Apache License 2.0

下载


Terraform AWS Auto Scaling with ALB

Terraform

Descripcion

  • La Arquitectura consiste en un auto scaling group con un ALB para balanceo de carga
  • Para el Auto scaling group se toman en cuenta 3 subnets publicas distribuidas en zonas de disponibilidad diferentes
  • Cuando se coloque la direccion DNS del ALB en un navegador se podra observar si la carga se esta distribuyendo entre las instancias, mediante la impresion del hostname en la pagina web de la siguiente forma
  • Para testear que nuestro auto scaling group funciona se realizan pruebas de estres de CPU ingresando a las instancias que se crean de acuerdo a la cantidad deseada que se especifican en los archivos de configuracion de terraform, y asi ver si se provisionan y disminuyen la cantidad de Instancias EC2 de acuerdo a la demanda.

Arquitectura

La Arquitectura esta diseñada e implementada en 3 AZs y consta de los siguientes recursos:

  • 1 Internet Gateway
  • 3 Subnets publicas
  • 1 Auto Scaling Group
  • 1 Application Load Balancer

asg

Uso

  • Para crear la infraestrutura debemos ejecutar los siguientes comandos:
    1. terraform init
    2. terraform validate
    3. terraform plan
    4. terraform apply -auto-approve

Archivos

Provider

  1. terraform {
  2. required_providers {
  3. aws = {
  4. source = "hashicorp/aws"
  5. version = "~>3.49"
  6. }
  7. }
  8. }
  9. provider "aws" {
  10. profile = "default"
  11. region = "us-east-1"
  12. }

01 - Vars Vpc

  1. variable "cidr" {
  2. type = string
  3. default = "10.0.0.0/16"
  4. }
  5. variable "azs" {
  6. type = list(string)
  7. default = [ "us-east-1a",
  8. "us-east-1b",
  9. "us-east-1c" ]
  10. }
  11. variable "subnets-ips" {
  12. type = list(string)
  13. default = [ "10.0.1.0/24",
  14. "10.0.3.0/24",
  15. "10.0.5.0/24" ]
  16. }

02 - Vpc

  1. resource "aws_vpc" "vpc" {
  2. cidr_block = var.cidr
  3. tags = {
  4. Name = "custom-vpc"
  5. }
  6. }

03 - Subnets

  1. resource "aws_subnet" "pub-subnets" {
  2. count = "${length(var.azs)}"
  3. vpc_id = aws_vpc.vpc.id
  4. cidr_block = "${element(var.subnets-ips, count.index)}"
  5. availability_zone = "${element(var.azs, count.index)}"
  6. map_public_ip_on_launch = true
  7. tags = {
  8. Name = "subnets-${element(var.azs, count.index)}"
  9. }
  10. }

04 - Security Groups

  1. resource "aws_security_group" "sg1" {
  2. name = "allow-ssh"
  3. description = "Port 22"
  4. vpc_id = aws_vpc.vpc.id
  5. ingress {
  6. description = "Allow Port 22"
  7. from_port = 22
  8. to_port = 22
  9. protocol = "tcp"
  10. cidr_blocks = ["0.0.0.0/0"]
  11. }
  12. egress {
  13. description = "Allow all ip and ports outboun"
  14. from_port = 0
  15. to_port = 0
  16. protocol = "-1"
  17. cidr_blocks = ["0.0.0.0/0"]
  18. }
  19. }
  20. resource "aws_security_group" "sg2" {
  21. name = "allow-web"
  22. description = "Port 80"
  23. vpc_id = aws_vpc.vpc.id
  24. ingress {
  25. description = "Allow Port 22"
  26. from_port = 80
  27. to_port = 80
  28. protocol = "tcp"
  29. cidr_blocks = ["0.0.0.0/0"]
  30. ipv6_cidr_blocks = ["::/0"]
  31. }
  32. egress {
  33. description = "Allow all ip and ports outboun"
  34. from_port = 0
  35. to_port = 0
  36. protocol = "-1"
  37. cidr_blocks = ["0.0.0.0/0"]
  38. }
  39. }

05 - Internet Gateway

  1. resource "aws_internet_gateway" "i-gateway" {
  2. vpc_id = aws_vpc.vpc.id
  3. tags = {
  4. Name = "i-gateway"
  5. }
  6. }

06 - Route Tables

  1. resource "aws_route_table" "pub-table" {
  2. vpc_id = "${aws_vpc.vpc.id}"
  3. }
  4. resource "aws_route" "pub-route" {
  5. route_table_id = "${aws_route_table.pub-table.id}"
  6. destination_cidr_block = "0.0.0.0/0"
  7. gateway_id = "${aws_internet_gateway.i-gateway.id }"
  8. }
  9. resource "aws_route_table_association" "as-pub" {
  10. count = "${length(var.azs)}"
  11. route_table_id = "${aws_route_table.pub-table.id}"
  12. subnet_id = "${aws_subnet.pub-subnets[count.index].id}"
  13. }

07 - Launch Template

  • Las instancias del tipo t2.micro no soportan ebs_optimized, por lo cual es importante colocar este parametro en false
  1. resource "aws_launch_template" "template" {
  2. name = "ec2-template"
  3. image_id = "ami-0dc2d3e4c0f9ebd18"
  4. instance_type = "t2.micro"
  5. vpc_security_group_ids = ["${aws_security_group.sg1.id}", "${aws_security_group.sg2.id}"]
  6. ebs_optimized = false #t2.micro doesn;t support
  7. update_default_version = true
  8. user_data = filebase64("http.sh")
  9. key_name = "terraform-key"
  10. # block_device_mappings {
  11. # device_name = "/dev/sda1"
  12. # ebs {
  13. # volume_size = 12
  14. # delete_on_termination = true
  15. # volume_type = "gp2"
  16. # }
  17. # }
  18. monitoring {
  19. enabled = true
  20. }
  21. tag_specifications {
  22. resource_type = "instance"
  23. tags = {
  24. Name = "test"
  25. }
  26. }
  27. }

Archivo -> http.sh <-

  1. #!/bin/bash
  2. sudo yum update -y
  3. sudo yum install httpd -y
  4. sudo systemctl enable httpd
  5. sudo systemctl start httpd
  6. echo "<h1>HELLO from $(hostname -f)</h1>" > /var/www/html/index.html

08 - Application Load Balancer

  1. resource "aws_lb" "alb" {
  2. name = "app-lb"
  3. internal = false
  4. load_balancer_type = "application"
  5. security_groups = ["${aws_security_group.sg1.id}", "${aws_security_group.sg2.id}"]
  6. subnets = "${aws_subnet.pub-subnets[*].id}"
  7. tags = {
  8. Name = "app-lb"
  9. }
  10. }
  11. resource "aws_lb_target_group" "tg-group" {
  12. name = "tg-group"
  13. port = 80
  14. protocol = "HTTP"
  15. vpc_id = aws_vpc.vpc.id
  16. health_check {
  17. enabled = true
  18. interval = 30
  19. path = "/"
  20. port = "traffic-port"
  21. protocol = "HTTP"
  22. healthy_threshold = 3
  23. unhealthy_threshold = 3
  24. timeout = 6
  25. matcher = "200-399"
  26. }
  27. }
  28. resource "aws_lb_listener" "lb-listener" {
  29. load_balancer_arn = aws_lb.alb.arn
  30. port = "80"
  31. protocol = "HTTP"
  32. default_action {
  33. type = "forward"
  34. target_group_arn = aws_lb_target_group.tg-group.arn
  35. }
  36. }

09 - Auto Scaling Group

  1. resource "aws_autoscaling_group" "asg" {
  2. name = "asg"
  3. max_size = 9
  4. min_size = 3
  5. desired_capacity = 4
  6. vpc_zone_identifier = "${aws_subnet.pub-subnets[*].id}"
  7. health_check_type = "EC2"
  8. launch_template {
  9. id = "${aws_launch_template.template.id}"
  10. version = "${aws_launch_template.template.latest_version}"
  11. }
  12. instance_refresh {
  13. strategy = "Rolling"
  14. preferences {
  15. min_healthy_percentage = 75
  16. }
  17. }
  18. }
  19. resource "aws_autoscaling_attachment" "asg-attach" {
  20. autoscaling_group_name = "${aws_autoscaling_group.asg.id}"
  21. alb_target_group_arn = "${aws_lb_target_group.tg-group.id}"
  22. }
  23. resource "aws_autoscaling_policy" "asg-policy" {
  24. name = "policy-asg"
  25. autoscaling_group_name = "${aws_autoscaling_group.asg.id}"
  26. policy_type = "TargetTrackingScaling"
  27. target_tracking_configuration {
  28. predefined_metric_specification {
  29. predefined_metric_type = "ASGAverageCPUUtilization"
  30. }
  31. target_value = 75.0
  32. }
  33. }

10 - Outputs

  1. output "alb-dns" {
  2. value = "${aws_lb.alb.dns_name}"
  3. }

Test

  • Una vez ejecutado el comando terraform apply -auto-approve y una vez terminada la creacion de la infraestrutura, se obtienen los OUTPUTS, especialmente las IPS privadas de las instancias EC2 y el DNS de ALB
  • Comprobamos si las instancias se crearon de acuerdo a nuestra desired_capacity

OUTPUTS

  • De igual forma comprobamos en nuestro Auto Scaling Group

OUTPUTS

  • Luego comprobamos el funcionmieno de nuestro ALB

OUTPUTS

OUTPUTS

OUTPUTS

OUTPUTS

  • De acuerdo a las Auto Scaling Policies que se especifico, se escalara cuando el consumo del CPU supere el 75%
  • Para esto ingresaremos a nuestras instancias y ejecutaremos el comando stress --cpu 1, estresando a nuestra instancia, aumentado el consumo de CPU al maximo

OUTPUTS

  • Esperamos un tiempo y observamos se se aprovisionan mas instancias para cubrir la demanda
  • Se crean instancias adicionales para cubrir la demanda

OUTPUTS

  • Dejamos de ejecutar el comando stress --cpu 1y el consumo de CPU bajara, por lo cual ya no sera necesario tener las instancias que se crearon cuando la demanda aumento, por lo tanto estas instancias se terminaran de forma automatica, hasta llegar nuevamente a la desired_capacity

OUTPUTS