lunes, 1 de julio de 2024

Kubernetes - Redes y PODs I

Uno de los aspectos que, al menos a mi, me resulta más confuso cuando hablamos de Kubernetes es como funciona la red. Hay diferentes conceptos y abstracciones involucradas que se relacionan entre si, para permitir que los PODs se comuniquen entre ellos y con el exterior del cluster.

Empezando por lo básico, recordemos que un POD es una abstracción de uno o más contenedores que se ejecutan en el mismo host, compartiendo recursos como volúmenes y, para el caso que nos ocupa, la pila de red. Este punto es muy importante porque, si todos los contenedores que forman parte de un POD comparten la pila de red, pueden comunicarse entre ellos accediendo a localhost.

Comencemos por lo más simple, que consiste en que un POD solo encapsule un contenedor. En este caso, vamos a intentar explicarlo a partir de la imagen siguiente:

Un contenedor encapsulado en un POD.

El host donde se ejecuta el motor de contenedores tiene un interfaz de red físico eth0, al cual se conecta el bridge que crea dicho motor de contenedores. Este bridge, dependiendo de nuestra configuración, tendrá una dirección IP la cual, y es esto es muy importante, será el gateway de cualquier contenedor que creemos. A este bridge, se conectará el interfaz de red virtual veth del contenedor en el momento de su creación, siendo la dirección IP asignada a dicho interfaz veth, del mismo rango de red que el del bridge.

Podemos ver lo anterior con solo ejecutar el comando ip addr show en nuestro host físico:

Red en el host.

Como vemos en la imagen anterior, además del interfaz físico y de loopback, aparece el bridge cni0 creado por el motor de contenedores.

Ahora, podemos crear manualmente un POD y asignar un contenedor a dicho POD, para lo cual podemos hacer algo como lo siguiente:

Creación de un contenedor dentro de un POD.

En el momento de crear el POD, un interfaz veth aparece en el sistema y al inspeccionar el POD creado con los comandos anteriores, podemos ver la dirección IP asignada al mismo:

Dirección IP asignada al POD.

Con los comandos anteriores, hemos creado un POD y a continuación, hemos creado y arrancado un contenedor empleando una imagen simple de busybox. Al ejecutar el comando /bin/sh en dicho contenedor, podemos comprobar la dirección IP asignada al mismo:

Interfaz de red en el contendor.

Como vemos, la dirección IP es la misma, es decir, la dirección IP asignada al POD es la que se ha asignado al contenedor encapsulado por dicho POD.

En el caso de crear un segundo contenedor, la situación que tendríamos sería muy similar a la siguiente:

Dos contenedores en PODs separados.

De forma similar a como ocurría en el primer caso, el nuevo contenedor tiene un interfaz de red virtual al que se asigna una dirección IP del mismo rango y, si los contenedores tienen alguna manera de descubrimiento, podrán comunicarse entre ellos a través del bridge.

En este segundo caso, en el momento de crear el nuevo POD, podemos comprobar que un nuevo interfaz virtual veth aparece en nuestro host físico:

 

Creación de un segundo POD.

Repitiendo el proceso anterior y creando otro contenedor, encapsulado por este nuevo POD, podemos comprobar que, de nuevo, la dirreción IP del segundo contenedor es la misma que la del POD que lo encapsula:

Configuración de red del segundo contenedor.

Si ambos contenedores necesitan comunicarse entre ellos, podemos ver que esta comunicación funciona sin problema y se realiza a través del bridge cni0.

Los interfaces virtuales veth correspondientes a cada POD, desaparecerán del host en el momento en el que destruyamos los PODs.

Por tanto, hasta aquí tenemos el caso más sencillo usando contenedores pero, como hemos comentado, en Kubernetes un POD puede contener más de un contenedor y es en ese caso cuando todos comparten la pila de red. Por tanto, la imagen anterior, quedaría del siguiente modo:

Dos contenedores encapsulados por el mismo POD.

Para crear un POD y arrancar dos contenedores dentro del mismo, haríamos algo como lo siguiente:

Creación de dos contenedores encapsulados en el mismo POD.

Podemos observar en la salida anterior que ambos contenedores forman parte del mismo POD, ya que la columna POD ID muestra el mismo identificador para ambos. Además, como esperábamos, ahora solo hay un interfaz veth presente en el host:

Interfaces de red en el host.

Al comprobar la red en cada uno de los contenedores, podemos observar que ambos contenedores comparten la misma dirección IP:

Dirección IP en un contendor.....

.... y en el otro.

Es importante recordar que, como indica la documentación de Kubernetes, lo normal es que un POD solo encapsule un contenedor, siendo el caso de varios contenedores "dentro" de un mismo POD un caso de uso avanzado y solo recomendado cuando estos tienen una fuerte dependencia entre ellos.

Pensemos que, al fin y al cabo, lo que está haciendo Kubernetes es controlar al motor de contenedores para indicarle que, al crear el nuevo contenedor dentro del POD, no se cree un nuevo interfaz virtual, sino que utilice el ya existente. Por tanto, en este caso, ambos contenedores tienen un único interfaz de red común compartiendo la pila de red. Como es lógico, esto tiene las siguientes implicaciones:

  • Con la configuración adecuada, ambos contenedores son accesibles desde el exterior.
  • Al compartir la dirección IP, no pueden abrir el mismo puerto a la vez.

Ahora, podemos comprobar que efectivamente ambos contenedores pueden comunicarse entre si usando localhost como dirección haciendo algo como lo siguiente:

Arrancamos el servidor telnet en uno de los contenedores.

Ahora, podemos conectarnos al otro contenedor, usando crictl exec y ejecutar el comando telnet 127.0.0.1 para establecer una conexión contra el otro contenedor:

Conexión telnet con localhost.

Como podemos ver, nos podemos conectar de un contenedor a otro usando directamente localhost ya que, al compartir la pila de red, las redes de ambos contenedores son la misma.

¿Como implementa esto Kubernetes? mediante la ejecución de un contenedor adicional especial cuyo único objetivo es proporcionar la red al resto de contenedores del POD. Este contenedor, que es una instancia de la imagen pause, es el corazón del POD permitiendo la comunicación por red del contenedor o contenedores que estén encapsulados por el POD, ya sea entre ellos o con el exterior del cluster.

Hasta aquí tenemos un resumen breve de como funciona la red entre PODs o contenedores que se encuentran en el mismo host, pero como sabemos, un cluster de Kubernetes estará compuesto por varios nodos y los diferentes PODs deben comunicarse entre ellos estén o no en el mismo nodo del cluster.

En la siguiente entrada, veremos como funciona la red entre PODs cuando hablamos de un cluster y, por tanto, de PODs en diferentes nodos del cluster.


viernes, 24 de mayo de 2024

Ansible - Estructura de proyectos II

Hoy vamos a profundizar más en la estructura recomendada para un proyecto de Ansible. Como ya vimos, una estructura mínima que nos permite aprovechar ciertas características, como la encriptación mediante el uso de ansible-vault, era la siguiente:

Estructura mínima de proyecto.

Resumiendo lo expuesto anteriormente y por tanto, en el caso más simple:

  • En la carpeta raíz del proyecto, tendremos al menos el fichero de configuración ansible.cfg así como el fichero de inventario.
  • En la carpeta host_vars existirá un fichero que identificará, ya sea por nombre o dirección IP, a aquellos hosts que necesiten variables específicas.
  • En la carpeta group_vars existirán ficheros identificando a los grupos de hosts definidos en el fichero de inventario, y que contendrán variables comunes a dichos grupos de hosts.

Con una estructura así, podemos lanzar comandos ad-hoc simples teniendo todas las variables necesarias controladas y localizadas facilmente. De esta manera, podemos añadir o modificar las variables necesarias de forma simple y localizada, evitando así posibles duplicidades y errores. En resumen, con esta estructura:

  • Las variables comunes a grupos de hosts deben estar presentes en el fichero correspondiente al grupo, que debe encontrarse en la carpeta group_vars.
  • Es muy importante tener en cuenta que, al poder definir variables en múltiples sitios, es necesario que las variables tengan diferentes nombres. Ansible asigna un orden a las variables en función del ámbito de las mismas, lo cual puede llevar a situaciones en las que, variables con el mismo nombre, sean aplicadas según el orden de preferencia dado por Ansible llevando a resultados incorrectos en la ejecución del comando ad-hoc o playbook. En el siguiente enlace puedes consultar el orden que sigue Ansible para el uso de variables.

Como es lógico, todo esto son solo recomendaciones y dependerá del entorno en el que trabajemos, nuestra infraestructura y necesidades que tengamos.

Por tanto, con esta estructura podemos trabajar de forma cómoda con comandos ad-hoc, pero la potencia de Ansible es la posibilidad de crear playbooks con múltiples tareas. En ese caso, la estructura cambiará ligeramente ya que incluiremos el playbook en la carpeta raíz del proyecto, y nos quedaría algo como lo siguiente:

Proyecto con un playbook.

De forma muy simple, supongamos que tenemos que realizar ciertas tareas sobre un grupo de hosts, como por ejemplo:

  • Crear un nuevo usuario en el sistema.
  • Instalar un paquete.
  • Crear un directorio y aplicarle unos permisos determinados.
  • Copiar un fichero con cierta información.

Cada una de estas tareas, podemos realizarlas empleando comandos ad-hoc, pero, para que sea más sencillo y rapido realizar todas las tareas con una sola ejecución, podemos usar un playbook simple como el siguiente:

Playbook simple.

El playbook es un documento en formato YAML en el cual, si lo analizamos detenidamente, observamos lo siguiente:

  • Al ser un documento YAML, debe empezar siempre con tres guiones y terminar con tres puntos.
  • El playbook comienza con la especificación de su nombre, si queremos obtener los facts de todos los hosts, con la opción gather_facts, así como a que hosts queremos que se aplique, especificado con la opción hosts que, en este ejemplo, esta fijada en all.
  • Usando la cabecera tasks, definimos la lista de tareas que queremos que se apliquen a aquellos hosts sobre los que queramos lanzar el playbook.
  • Cada tarea está definida a continuación, especificando el nombre, módulo necesario y los parámetros del mismo.

Es importante darse cuenta del indentado o sangrado necesario, para asegurar que la sintaxis del playbook es correcta o Ansible devolverá un error al procesarlo.

Al usar un playbook, podemos hacer uso de características adicionales de Ansible como las siguientes:

  • Podemos usar el subdirectorio files, dentro de la carpeta del proyecto, para guardar aquellos ficheros estáticos que deben copiarse a los hosts. Al usar el módulo ansible.builtin.copy, Ansible buscará por defecto los ficheros a copiar dentro de dicha carpeta, lo que nos permite tener localizados de forma simple los ficheros cuyo contenido no cambia y que necesitamos copiar. En nuestro ejemplo tenemos lo siguiente:

Copia de fichero estático.

Como podemos ver, no especificamos la ruta donde se encuentra el fichero que queremos copiar, especificado por el parámetro src. Al usar un playbook, Ansible buscará la carpeta files y, si esta existe, buscará el fichero a copiar a las máquinas de destino. Para este ejemplo simple, dicho fichero está presente en la carpeta files y se copia a todos los hosts al ejecutar esta tarea.

  • Como vimos en entradas anteriores, usaremos variables, las cuales estarán presentes en el fichero de grupo correspondiente, dentro del directorio group_vars. En este caso, tenemos fijada la password del usuario que queremos crear con la variable secadmin_pass:

Creación de una cuenta de usuario.

Contenido del fichero group_vars/all.

De esta manera, en cada ejecución de la tarea para cada host, se creará el usuario con la password dada en el fichero. Adicionalmente, por simplicidad, he definido la password de SSH así como la de sudo en el fichero, para que no sea necesario especificarlas por línea de comandos.
  • De nuevo, por simplicidad, no he utilizado ansible-vault para encriptar las contraseñas, pero una de las ventajas de emplear esta estructura de directorios con un playbook es que podemos encriptar dicha información para protegerla, como ya vimos en una entrada anterior.

Por tanto, como vemos, emplear la estructura de directorios recomendada, simplifica un poco la creación de proyectos de Ansible y nos permite utilizar características como la encriptación mediante ansible-vault, copia de ficheros sin necesidad de especificar la ruta completa al fichero origen, etc...

En el caso de emplear templates, ficheros cuyo contenido cambia en función de una variable, o del resultado de la ejecución de una tarea anterior, añadiriamos la carpeta templates al directorio de proyecto, con lo que la estructura del mismo quedaría del siguiente modo:

Proyecto incluyendo la carpeta templates.

Mediante el uso de templates, Ansible puede copiar un fichero y al mismo tiempo modificar el contenido del mismo, mediante el uso de una o más variables. Veamoslo con un ejemplo práctico:

Uso de templates.

Como podemos ver, empleando el módulo ansible.builtin.setup, recogemos los facts de los hosts, los cuales quedan registrados en variables identificadas como ansible_ y posteriormente, en la siguiente tarea, usando el módulo ansible.builtin.template, copiamos el fichero especificado con el parámetro src. Este parámetro, que identifica el fichero que queremos que se copie, no incluye la ruta completa del mismo ya que se encuentra dentro de la carpeta templates del proyecto. El contenido de este fichero de plantilla puede ser algo como lo siguiente:
 
Contenido de un fichero de plantilla.

Cuando usamos el módulo template, Ansible copia el fichero a la ruta indicada por el parámetro dest y modifica el contenido del mismo, sustituyendo aquellas cadenas delimitadas con {{ }} por las variables que coincidan durante la ejecución del playbook con el nombre de las mismas. Por tanto, en este caso, al ejecutar el playbook, Ansible obtendrá los facts y registrará las variables correspondientes y, al ejecutar la tarea de copia usando el módulo template, realizará todas las sustituciones por las variables correspondientes.

Al ejecutar el playbook sobre un conjunto de contenedores, tenemos lo siguiente:

Ejecución de playbook simple.

Como podemos comprobar, cada una de las tareas se ha ejecutado en cada uno de los hosts gestionados y todas se han ejecutado correctamente. Analizando la salida vemos que, salvo la tarea Registrar facts de red, el estado del resto de tareas es changed. Cuando el resultado de una tarea es changed, Ansible nos indica que el sistema se ha cambiado, según las instrucciones descritas por la tarea. Sin embargo, cuando el resultado es ok, Ansible indica que el sistema ya se encontraba en el estado descrito por la tarea o, como en este caso, que se han recogido los datos correctamente.
 
Podemos comprobar que, efectivamente, el fichero que hemos utilizado como plantilla con el módulo template, se ha copiado y su contenido se ha modificado correctamente:
 
Resultado del uso de templates.

Para cada uno de los contenedores, se ha sustituido la cadena {{ ansible_hostname }} por el nombre del contenedor y la cadena {{ ansible_kernel }} por la versión de kernel, ambas obtenidas en la tarea anterior, en la que recogimos los facts de todos los hosts.

Como veremos más adelante, podríamos utilizar este proyecto de Ansible en un proyecto mayor encapsulándolo en lo que se denomina un rol. De forma muy simple, podemos entender un rol como el conjunto de tareas, junto con las variables, ficheros y plantillas necesarias, que describen el estado de un grupo de hosts. Esta idea, nos permitirá definir proyectos complejos que apliquen a muchos hosts, agrupados de tal manera que cada rol aplique solamente a los grupos de hosts que definamos, como servidores de aplicaciones, servidores web, firewalls, máquinas virtuales, etc. En esos casos, al ejecutar el playbook, podremos aplicar los roles correspondientes a cada grupo de forma eficiente en cada ejecución.

En próximas entradas analizaremos más detenidamente el concepto de rol para, más adelante, realizar un proyecto de configuración de hosts y emplear todo lo que hemos aprendido hasta ahora.

 

sábado, 2 de marzo de 2024

Ansible - Uso de vault y encriptación de ficheros

Como en cualquier infraestructura informática, la seguridad es fundamental. Pero si además hablamos de herramientas tan potentes como Ansible, es importante que protejamos los datos que estamos usando todo lo posible. 

Ya vimos como utilizar claves SSH para la comunicación entre nuestro nodo central de Ansible y los hosts bajo su control. Además de ser la opción recomendada por Ansible, nos permite evitar el uso de contraseñas para establecer la conexión.

Hoy vamos a estudiar la herramienta de la que dispone Ansible para realizar tareas de encriptación de nuestros datos.

En una entrda anterior vimos como definir la password utilizada para el escalado de privilegios, es decir para el comando sudo en los hosts remotos. Vimos que la password la definimos en el fichero group_vars/all del siguinte modo:

Password de sudo como variable.

Como es lógico esta password está en claro en dicho fichero, lo cual requiere que nos aseguremos que tiene los permisos correctos y que solo las personas autorizadas tengan acceso al mismo.

Para conseguir más seguridad, podemos usar vault para encriptar dicha password. El uso de vault para encriptar una cadena de caracteres es tan sencillo como lo siguiente:

Encriptación de una cadena de caracteres con ansible-vault.

Con esta cadena de caracteres, podemos editar el fichero group_vars/all y sustituir la password en claro por la salida del comando ansible-vault:

Password encriptada en fichero group_vars/all.

Al encriptar la cadena, Ansible nos ha solicitado una password de encriptación con lo que, a la hora de lanzar un playbook o un comando ad-hoc será necesario que proporcionemos dicha contraseña para desencriptar la variable correspondiente. Para esto usaremos la opción --ask-vault-pass como podemos ver en el siguiente comando:

Uso de variable encriptada.

Para evitar tener que introducir la password manualmente, en caso de ser necesario automatizar alguna tarea, podemos guardar la password empleada para encriptar la password en un fichero y lanzar el comando ad-hoc anterior del siguiente modo:

Comando ad-hoc especificando fichero con password de Vault.

Especificando la opción --vault-password-file y la ruta al fichero que contiene la password, ansible es capaz de desencriptar la password empleada parael escalado de privilegios. Como es lógico, este fichero deberá tener los permisos correctos para proteger la contraseña usada para el desencriptado.

El comando ansible-vault también nos permite encriptar ficheros completos, con lo que podemos, por ejemplo, hacer lo siguiente:

Encriptación de un fichero completo.

Ahora, suponiendo que necesitamos instalar el paquete de base de datos en ciertos hosts, podremos lanzar el comando ad-hoc siguiente, especificando el fichero que contiene la password empleada para encriptar el fichero:

Instalación de paquete. Especificamos la variable y el fichero con la password de encriptación.

Podemos desencriptar el fichero con el subcomando decrypt del siguiente modo:

Desencriptación de fichero.

Por sencillez, lo lógico sería utilizar la misma password de encriptación en todos los casos, pero si nos encontramos en un entorno con unos requisitos de seguridad muy estrictos, o si somos muy paranoicos, podemos usar diferentes passwords para diferentes vaults. Para esto asignamos lo que se denomina vault IDs en el momento de realizar la encriptación. Por ejemplo, si al encriptar el fichero anterior, hacemos lo siguiente:

Usando un identificador al encriptar un fichero.

Con el comando anterior, encriptamos el fichero dbservers de group_vars, y lo identificamos con el vault ID dbserver. Al emplear la opción dbserver@prompt, estamos indicando que se solicite la password para la encriptación. Una vez guardada esta password, que es diferente a la que hemos empleado para encriptar la password de sudo, podemos desinstalar el paquete especificado por la variable db_package, usando un comando ad-hoc como el siguiente:

Usando varias vaults con diferentes passwords de encriptación.

En este caso, tenemos encriptada la password de sudo y el fichero group_vars/dbservers así que, para poder usar la información encriptada correctamente:

  • Mediante la opción --vault-password-file vault_pass.info, especifico el fichero que contiene la password para desencriptar la variable que contiene la contraseña necesaria para sudo.
  • Mediante la opción --vault-id dbserver@another_vault_pass.info, especifico que, para el vault identificado con la cadena dbserver, la password debe buscarse en el fichero another_vault_pass_info.

El identificador se almacena con la cadena o fichero encriptado en el momento de crearlo, en la cabecera del mismo:

Cabecera de vault con ID.

En general, sino especificamos un ID en el momento de realizar una encriptación con ansible-vault, la cadena o fichero encriptado no tendrá ningún identificador asociado pero, si necesitamos emplear diferentes contraseñas, entonces lo mejor es emplear IDs para cada una y tenerlas bien registradas.

Con todo esto, tenemos una idea de como proteger la información sensible, como por ejemplo passwords, en los ficheros de proyecto de Ansible.

 

sábado, 27 de enero de 2024

Ansible - Estructura de proyectos I

Cuando trabajamos en proyectos de automatización con Ansible, lo normal es que tengamos una carpeta para cada uno de los proyectos. En dichas carpetas guardaremos el fichero de configuración de Ansible, el fichero de inventario, playbooks, etc.

En este post veremos como organizar dicha carpeta para aprovechar las funcionalidades de Ansible de la forma más simple y eficiente posible, además de ser la aproximación recomendada.

Hasta ahora, hemos tenido una carpeta donde, al menos, necesitamos el fichero de configuración de Ansible y el inventario. En el fichero de inventario, para comandos ad-hoc simples, hemos añadido en ocasiones variables, ya fuese a grupos o a hosts, para poder realizar determinadas operaciones. Para poder asignar de forma mucho más ordenada y clara variables a cada grupo de hosts, o a hosts individuales, Ansible recomienda que, en nuestra carpeta de proyecto, tengamos presentes las carpetas group_vars y host_vars. Con esto en mente, la estructura más básica de una carpeta de proyecto Ansible sería algo como lo siguiente:

Estructura mínima de un proyecto de Ansible.

Como es lógico y hemos visto hasta ahora, el contenido del fichero ansible.cfg debería tener las variables de configuración necesarias, en función de nuestro entorno y necesidades, pero al menos, debería incluir la ruta a nuestro fichero de inventario, el nombre del usuario remoto empleado para la conexión así como las opciones de escalado de privilegios que necesitemos.

¿Cual es la función de las carpetas group_vars y host_vars? contener ficheros cuyos nombres coincidirán con los nombres de grupos de hosts, en el caso de la carpeta group_vars, o de hosts individuales en el caso de la carpeta host_vars, de acuerdo con las entradas de nuestro inventario. En dichos ficheros podremos incluir variables, tanto de ansible como definidas por nosotros, para su uso durante la ejecución de playbooks o comandos ad-hoc. Es importante tener en cuenta que estos ficheros deben estar en formato YAML.

Para verlo con un ejemplo simple, supongamos que tenemos el grupo de hosts de bases de datos y el de servidores web. Definimos que, el paquete que debe instalarse en los servidores web, será la última versión disponible de Apache, lo cual podemos definir en el fichero correspondiente dentro de group_vars del siguiente modo:

Contenido de fichero group_vars.

El contenido del fichero, en formato YAML, contiene el nombre que he definido para la variable y el valor de la misma. Ahora, si uso un comando ad-hoc o un playbook en el que lanzo la instalación del paquete dado por el nombre de la variable sobre el grupo webservers, tengo lo siguiente:

Instalación de Apache usando variable.

Aunque no está la salida completa del comando, Ansible ha realizado la instalación de la última versión del paquete Apache en todos los hosts del grupo webservers. A partir de esto, entendemos lo siguiente:

  • Ansible busca por defecto la carpeta group_vars y, dentro de la misma, un fichero cuyo nombre coincida con el del grupo de hosts sobre el que estamos actuando.
  • Como no hemos definido nada relacionado con dicha carpeta en nuestro fichero de configuración, está claro que es una característica propia de Ansible.
  • Para usar una variable definida en un fichero de variables, la definimos entre dobles llaves {{}} como podemos ver en el comando anterior.

Si intentamos utilizar una variable de un grupo, con otro grupo diferente, recibiremos un error ya que, como acabamos de ver, Ansible buscará en el fichero de variables con el mismo nombre que nuestro grupo:

Usando una variable de otro grupo.

Como vemos, Ansible busca la variable en el fichero group_vars correspondiente al grupo sobre el que queremos actuar y, al no encontrarla, nos devuelve un error.

La única excepción a este comportamiento, es el fichero group_vars/all, el cual, si existe, será leido por Ansible en todas las ejecuciones. Así, por ejemplo, podemos incluir en el fichero group_vars/all la password para realizar sudo en nuestros hosts, de una manera similar a la siguiente:

Variables comunes a todos los hosts.

En este caso estamos definiendo una variable de Ansible, con lo que, al lanzar un comando ad-hoc simple como el módulo ping, será leido y utilizado directamente por Ansible:

Ejecución de comando ad-hoc.

Como podemos ver en la salida anterior, utilizamos el grupo dbservers, pero no la opción -k, porque estoy usando claves SSH, ni la opción -K, porque la password para sudo ya está definida en el fichero group_vars/all. Por tanto, Ansible busca la carpeta group_vars y, dentro de ella, leerá el fichero all y aplicará todas las variables que encuentre para, después, buscar el fichero con el nombre coincidente con el grupo de hosts sobre el que estamos actuando, para leer las variables definidas en el mismo.

Como es lógico, el directorio host_vars tiene un uso idéntico pero está pensado para hosts individuales, con lo que los ficheros que creemos en dicha carpeta, tendrán el nombre o dirección IP de hosts para los que queramos definir variables especiales.

Más adelante, veremos como usar vault con el inventario y como extenderlo aún más, con el uso de roles.

sábado, 20 de enero de 2024

Ansible - Autenticación, conexión y escalado de privilegios

En la entrada de hoy vamos a tratar los tipos o métodos de conexión que soporta Ansible, así como la autenticación y escalado de privilegios. Por defecto, Ansible siempre trabaja con OpenSSH y, si por algún motivo, nuestra máquina de control dispone de una versión antigua de OpenSSH que no soporta la característica ControlPersist, entonces empleará una implementación Python de OpenSSH llamada paramiko.

De forma muy sencilla, la característica ControlPersist de OpenssH está disponible desde la versión 3.9 y permite el multiplexado de conexiones. Mediante esta característica, varias sesiones SSH pueden compartir la misma conexión física lo cual, para entornos en los que estemos usando Ansible, presenta como principal ventaja, que se elimina la sobrecarga de crear nuevas conexiones y el negociado de las características de la conexión segura con lo que, en resumen, se consigue una mejora de rendimiento.

Ya vimos en el post anterior que, por defecto, Ansible usará siempre el usuario con el que estamos lanzando el comando o playbook, para establecer la conexión remota desde nuestra máquina de control. Podemos cambiar este comportamiento usando la opción de configuración remote_user, dentro de la sección defaults del fichero de configuración general de Ansible, o bien usando la variable ansible_user dentro del inventario, ya sea para un host específico a para un grupo de ellos.

Por tanto, y como regla general, es buena idea que especifiquemos el usuario de conexión en nuestro fichero de configuración, de una forma similar a la siguiente:

Fichero de configuración básico.
De esta manera nos aseguramos que siempre usaremos dicho usuario, para establecer conexión con los hosts que forman parte de nuestro inventario.

Ahora bien, aunque el método recomendado por Ansible es el uso de claves SSH, lo cual veremos en un momento, hasta ahora hemos estado conectándonos usando la passsword del usuario remoto. ¿Como le decimos a Ansible que debe solicitar la password del mismo? mediante las dos opciones que aparecen en todos los comandos ejecutados hasta ahora, que son -k y -K, las cuales, revisando la ayuda del comando ansible, se corresponden con la password de conexión y la password de escalado de privilegios:
 
-K, --ask-become-pass           ask for privilege escalation password
-k, --ask-pass        ask for connection password

Como es lógico, la password de conexión, es la que Ansible emplea cuando establece la conexión SSH con el host remoto y evidentemente, recibiremos un mensaje de error al intentar conectar con la password incorrecta.

Contraseña SSH incorrecta.

Si lanzamos manualmente comandos ad-hoc o playbooks, puede que resulte más seguro que, si no estamos empleando claves SSH, escribamos la password para realizar la conexión. Pero, como es lógico, esto impediría la ejecución de tareas desatendidas como, por ejemplo, aquellas que tengamos programadas en cron.

Una opción, que tiene importantes implicaciones de seguridad, es que fijemos la password como variable en el fichero de inventario. Por ejemplo, podemos hacer algo como lo siguiente:

Password SSH como variable.

Con esta configuración, ya podemos ejecutar comandos ad-hoc o lanzar playbooks sin necesidad de introducir la contraseña SSH cuando se solicite y, por tanto, podemos lanzar los comandos sin emplear la opción -k:

Ejecución sin password SSH.
 
Como vemos en la ejecución anterior, ahora Ansible solo solicita la password para el escalado de privilegios, usando para la conexión la especificada en el inventario.
 
Si optamos por no utilizar claves SSH, esta será la opción más cómoda, si no queremos introducir la password en cada ejecución, y totalmente requerida para el caso de tareas programadas. Aunque ya veremos más adelante como proteger esta información, es fundamental asegurar que, el fichero de inventario donde especifiquemos la password de conexión SSH, sea accesible solo por el usuario o usuarios requeridos.

Tras la conexión SSH, esta claro que queremos realizar alguna tarea en el host o hosts remotos. Esta tarea, por lo general, requerirá permisos de otro usuario para su ejecución. Como es lógico, si hablamos de tareas de administración, lo normal es que usemos el usuario root o un usuario con privilegios de administración para la ejecución de dichas tareas. En este punto es donde entra el escalado de privilegios, el cual, siguiendo la terminología utilizada por Ansible, se denomina become.

El uso del escalado de privilegios se puede configurar, de manera global, en el fichero ansible.cfg o al nivel de playbook o tarea. De forma general, podemos tener lo siguiente en el fichero de configuración ansible.cfg:

Configuración de become general.

Con la configuración definida dentro de la sección privilege_escalation, fijamos el comportamiento de ansible de forma general para todos los casos. En esta configuración estamos fijando lo siguiente:
  • become = true: Siempre se utilizará become, es decir, se realizará un cambio de usuario para el escalado de privilegios.
  • become_method = sudo: Especificamos que usaremos sudo para realizar el escalado de privilegios. Esto implica que sudo debe estar correctamente configurado en todas las máquinas remotas.
  • become_user = root: El usuario que se empleará para la ejecución de las tareas, es decir, el usuario que dispone de los permisos requeridos para realizar las tareas deseadas.

Es muy importante tener en cuenta que, si become es false, da igual el resto de opciones presentes de become, ya que no se hará el escalado de privilegios. Por ejemplo:

Fallo en la ejecución de la tarea remota. No se ha utilizado become.

Como se ve en la imagen anterior, aunque utilicemos la opción -K, para proprocionar la password para become, no se realiza el cambio al usuario root por la configuración que hemos fijado.

De la misma manera que hemos hecho con la password para la conexión SSH, también podemos especificar la password para el escalado de privilegios como una variable en el inventario:

Password para sudo como variable.
Ejecución sin especificar la password de sudo.
 
Con esta configuración, cualquier tarea programada funcionaría sin problemas ya que no sería necesaria intervención para introducir la clave. Pero, de nuevo, es muy importante controlar el acceso al fichero o ficheros de inventario que contengan las passwords necesarias.
 
Como ya hemos dicho al principio del post, Ansible recomienda el uso de claves SSH para establecer las conexiones con los hosts remotos. Como es evidente, esto pasa por crear el fichero authorized_keys correspondiente en el home del usuario remoto si este no existe. Una forma sencilla de copiar la clave pública de nuestra máquina de control, sería algo como lo siguiente:

Creando el fichero authorized_keys.

Con el comando ad-hoc anterior, copiamos la clave pública RSA del usuario que empleamos para conectarnos a los hosts remotos, usando el módulo copy de Ansible. Una vez hecho esto, podemos eliminar la variable ansible_password de nuestro inventario y lanzar comandos ad-hoc o ejecutar los playbooks sin necesidad de usar o especificar la password del usuario remoto:

Ejecución de comandos ad-hoc empleando claves SSH.
 
Como es lógico, el uso de claves SSH implica que, cuando creemos la plantilla o plantillas de nuestras máquinas, ya sean estas físicas o virtuales, sería recomendable que ya incluyeran el fichero authorized_keys necesario.

Para que nuestro entorno sea lo más seguro posible, lo recomendado para el caso de los ficheros que contienen nuestras claves SSH es:
  • Asegurar que los permisos de acceso a los ficheros son los correctos. En general, los permisos de los ficheros de clave SSH debería ser siempre 600 y el home del usuario empelado par ala conexión, debería tener permisos 700.
  • La clave SSH debería estar encriptada.

Respecto al último punto, si nuestra clave SSH esta encriptada, nos pasará algo como lo siguiente:

 

Usando una clave SSH encriptada.

Para evitar que nos pida la clave de desencriptación para cada conexión, podemos usar ssh-agent, cargar la clave y podremos trabajar de nuevo sin necesidad de introducir la contraseña necesaria:

Usando ssh-agent para cargar las claves encriptadas.
 
Este método es el recomendado por Ansible para el uso de claves SSH encriptadas, lo único que necesitamos tener en cuenta es que, si usamos diferentes claves para diferetens entornos o grupos de máquinas, tendremos que añadir la adecuada en cada momento.
 
Como último apunte de este post, es necesario que consideremos las implicaciones de seguridad relacionadas con el uso de Ansible. Es muy importante tener en cuenta que, el nodo principal de Ansible, es capaz de conectarse a toda nuestra infraestructura y realizar tareas administrativas, lo que la convierte en un sistema que debe ser protegido todo lo posible, con lo que, lo minimo recomendable es:
  • Restringir el acceso, tanto remoto como local, al grupo de administradores designados para el uso de Ansible.
  • Mantener el nodo de control actualizado y con todos los parches de seguridad instalados.
  • Configurar syslog para que registre toda la actividad del sistema, principalmente los accesos, tanto remotos como locales. Estos eventos deben enviarse a ficheros de log locales y a un servidor syslog centralizado.
Adicionalmente, en todas las máquinas controladas con Ansible, es muy importante asegurarnos de que todas las conexiones SSH que se realizan, se registran convenientemente en los logs del sistema. Para esto, es necesario que configuremos syslog para registrar los acceso SSH tanto en los ficheros de log locales como en un servidor syslog centralizado.
 
Como seguramente emplearemos sudo, la configuración de los sistemas controlados por Ansible que deberíamos plantearnos, debería cumplir al menos lo siguiente:
  • Emplear un usuario con permisos de administración diferente de root. Esto implica crear un usuario en el sistema, adicional al que usaremos para la conexión SSH.
  • Crear las reglas de sudo necesarias para dicho ususario, evitando usar una regla ALL para permitir la ejecución de todos los comandos.
  • Configurar syslog para que registre toda la actividad del sistema, principalmente los accesos, tanto remotos como locales, así como la ejecución de sudo. Estos eventos deben enviarse a ficheros de log locales y a un servidor syslog centralizado.
En próximos posts veremos como poder usar las contraseñas en nuestros ficheros, pero encriptar los mismos y desencriptarlos en el momento de lanzar nuestros comandos o playbooks.