Actualizar vRealize Automation – Actualizando vRA Parte 5

Continuando con esta serie de posts, hemos llegado por fin a la actualización de los appliances de vRealize Automation. De nuevo tendremos una serie de prerrequisitos que verificar, pero si ha seguido esta serie de publicaciones no debería tener ningún problema.

PRERREQUISITOS

  • Asegúrese de haber actualizado las versiones anteriores de vRealize Suite Lifecycle Manager a la última. Para obtener más información sobre la actualización de su vRealize suite Lifecycle Manager.
  • Asegúrese de haber actualizado la versión anterior de VMware Identity Manager a 3.3.2 o posterior. Para obtener más información sobre la actualización de VMware Identity Manager.
  • Verifique que ya haya instalado vRealize Automation 8.0, 8.0.1, 8.1 u 8.2.
  • Realice el mapeo de los binarios de vRealize Automation desde el recurso el repositorio local, My VMware o NFS. 
  • Aumente la CPU, la memoria y el almacenamiento según los requisitos del sistema de vRealize Automation 8.3. Para obtener más información, consulte Requisitos de hardware en vRealize Automation 8.3 Reference Architecture.

PROCEDIMIENTO

1. En la interface de vLCM -> Lifecycle Operations, haga clic en Manage Environments.

2. Navegue hasta la instancia en donde se encuentra vRealize Automation. Para este caso es IRD-VRA.

3. Haga clic en VIEW DETAILS y haga clic en el botón TRIGGER INVENTORY SYNC antes de actualizar.

4. Y después en SUMBIT para forzar la sincronización del inventario.

Nota 1: A veces, puede haber una desviación o un cambio en el entorno fuera de Lifecycle Manager y para que Lifecycle Manager conozca el estado actual del sistema, el inventario debe estar actualizado.

El resultado del Request debería ser Completed.

5. Una vez hecha la sincronización del inventario, vuelva a la instancia de vRA y haga clic en UPGRADE.

6. Clic en el botón PROCEED.

7. Seleccione el tipo de vRealize Suite LCM Repository, solo si ha asignado el mapa binario ISO, o puede seleccionar Repository URL con una URL de repositorio de actualización privada.

Para este caso seleccionaremos la opción vRealize Suite LCM Repository y luego haga clic en NEXT.

Nota 2: De manera opcional puede hacer clic en el botón VIEW COMPATIBILITY MATRIX para verificar la compatibilidad de la nueva versión con las soluciones existentes. Se requiere acceso a internet en la IP de vRA para esta acción.

8. Haga clic en RUN PRECHECK.

8. Lea los comentario y marque el check “I took care of the manual steps above and am ready to proceed” para habilitar el botón RUN PRECHECK.

10. Clic en RUN PRECHECK una vez mas y espere a que termine la validación.

Nota 3: Si durante el Pre-check obtiene un error asociado a la partición de los Logs en los appliances de vRA, lo invito a leer el post Solucionando precheck fallido: Disk space on Service-Logs partition needs to be increased – vRA Upgrade 8.x.

Nota 4: El Pre-Check valida los siguientes criterios:

  • Si las versiones de origen de vRealize Automation son 8.0.0 o 8.0.1, asegúrese de seguir los pasos indicados en el artículo KB78325 antes de actualizar para restaurar las cuentas root caducadas.
  • SSH habilitado: verifica que SSH para el usuario raíz esté habilitado.
  • Verificación de versión: verifica si la versión de destino seleccionada para la actualización es compatible con la versión actual de vRealize Automation .
  • Espacio en disco en la partición root, data, and services log partition: verifica si la cantidad necesaria de espacio libre en disco está disponible en la partición root, data, y services log.
  • Verificación de CPU y memoria: verifica si la cantidad requerida es 12 CPU y 40 GB de recursos de memoria disponibles en cada nodo de vRealize Automation antes de la actualización.
  • Verificación de existencia de propiedad de vCenter: verifica si los detalles de vCenter están presentes como parte de cada nodo en el inventario de Lifecycle Manager. Dado que se toma un snapshot durante el proceso de actualización, es importante tener los detalles correctos de vCenter dentro del inventario de Lifecycle Manager.
  • Verificación de recuperación de ID de referencia del objeto administrado para VMs de vRealize Automation: verifica si el ID de referencia de objeto administrado de la VM se puede recuperar de los detalles disponibles en el inventario de Lifecycle Manager. Esto es necesario debido a que se realizan operaciones relacionadas con snapshots en las máquinas virtuales, encontrando la máquina virtual que los usa.

11. Haga clic en NEXT

12. Después clic en SUBMIT y espere a que el proceso de actualización termine. Sea paciente, este proceso puede tardar mas de dos hora.

Nota 5: Si durante el proceso de actualización obtiene el siguiente error en el request. Lo invito a leer el post Solucionando error: vRA First boot check on failed on host.

com.vmware.vrealize.lcm.common.exception.EngineException: vRA First boot check on failed on host : irpaclyvm-vra-it-01.lab.local. Run command 'vracli status first-boot' to find first boot status        at com.vmware.vrealize.lcm.plugin.core.vra80.task.VraVaPreUpgradeTask.execute(VraVaPreUpgradeTask.java:111)        at com.vmware.vrealize.lcm.automata.core.TaskThread.run(TaskThread.java:45)        at java.base/java.util.concurrent.ThreadPoolExecutor.runWorker(Unknown Source)        at java.base/java.util.concurrent.ThreadPoolExecutor$Worker.run(Unknown Source)        at java.base/java.lang.Thread.run(Unknown Source)

Si el proceso de actualización ha terminado de manera satisfactoria el resultado del Request debería ser Completed.

13. En la interface de vLCM -> Lifecycle Operations, haga clic en Manage Environments y navegue hasta la instancia en donde se encuentra vRealize Automation. Para este caso es IRD-VRA. Verifique la versión del producto al lado del nombre vRealize Automation. Para este caso es 8.3.0.

14. Inicie sesión en la URL del Tenant en vRA y verifique el correcto funcionamiento de la solución.

Nota 6: En este punto puede comenzar su proceso de validación de toda su plataforma y una vez considere que todo esta funcionando correctamente proceda a eliminar los snapshots para cada una de la maquinas virtuales involucradas en el proceso de actualización de vRealize Automation 8.x.

Referencias

https://docs.vmware.com/en/VMware-vRealize-Suite-Lifecycle-Manager/8.3/com.vmware.vrsuite.lcm.8.3.doc/GUID-62A2C4A9-98BF-44A5-9C23-950016A615EA.html

Actualizar VMware Identity Manager (vIDM) – Actualizando vRA Parte 4

Continuando con esta serie de posts acerca de la actualización de la solución vRealize Automation 8.x, en esta oportunidad estaremos actualizando el componente de VMware Identity Manager (ahora Workspace ONE Access). Para este capitulo tendremos una serie de prerrequisitos que verificar. Pero si ha seguido esta serie de publicaciones no debería tener ningún problema.

PRERREQUISITOS

– Verifique que haya tomado una snapshot de los nodos de VMware Identity Manager (Si ha seguido esta serie de posts para la actualización de vRealize Automation 8.x omita este paso, ya lo hicimos en la Parte 1).

– Para una actualización de VMware Identity Manager en clúster, asegúrese de deshabilitar todos los nodos en espera en el equilibrador de carga para que el tráfico no se enrute a los nodos en espera y habilítelos nuevamente una vez que se complete la actualización.

– Por ultimo, debemos verificar que los Binarios ya se encuentre disponibles en vRealize Lifecycle Manager (vLCM). Desde el servicio de Lifecycle Operations vaya a la sección Home -> Settings -> Binary Mapping. Sino ha seguido esta serie de post no se preocupe! en el Post Configurar Binarios en vLCM – Actualizando vRA a 8.3 Parte 3 explico cual es el procedimiento para hacerlo. No tomara mas de 5 min de lectura. (Léalo y vuelva cuando este listo).

Deshabilitar nodos secundarios en el balanceador de vIDM (NSX-T)

Como pudimos observar uno de los prerrequisitos cuando tenemos una configuración de cluster en vIDM, es que debemos deshabilitar los miembros del balanceador que estén en Standby, es decir los nodos que son secundarios.

Para saber cuales es el nodo primario y cuales los nodos secundarios basta con ir a vLCM ->Lifecycle Operations ->Environments y clic en VIEW DETAILS de globalenvironment.

Nota 1: Bajo Product References podrá ver cual es el nodo primario y cuales los nodos secundarios. Tenga en cuenta esta información para cuando vaya a deshabilitar los miembros del balanceador.

Podemos ahora continuar con los siguientes pasos en la interface de NSX-T Manager.

1. Una vez identificado los nodos Standby debe hacer login en NSX-T y luego en Networking -> Load Balancing -> Virtual Servers, para editar el balanceador y sus miembros.

Identifique el Server Pool asociado a la solución de VMware Identity Manager (para este caso es wsa-server-pool).

2. Vaya a la sección de SERVER POOLS en la interface de NSX-T y luego seleccione el server pool asociado al vIDM.

3. Haga clic en los tres puntos verticales al lado izquierdo y luego Edit.

4. Después haga clic en el numero 3 que indica los miembros del Server Pool, para editarlo.

5. En esta vista haga clic en los tres punto y luego Edit en los miembros del pool que son secundarios.(Para este caso los nodos secundarios son irpaclyvm-vidm-it-02 y irpaclyvm-vidm-it-03).

Cambie el estado a Disabled para ambos miembros y clic en SAVE.

6. Después clic en APPLY para aplicar los cambio y debería verse de la siguiente forma.

7. Clic en SAVE para terminar.

Una vez hemos completado los prerrequisitos. Podemos continuar con el proceso de actualización de vIDM desde la interface de vRealize Lifecycle Manager.

PROCEDIMIENTO

1. En el servicio Lifecycle Operations haga clic en Manage Environment.

2. Navegue hasta la instancia globalenvironment.

3. Clic en VIEW DETAILS. 

4. Clic en los tres punto a la derecha de VMware Identity Manager y después en Trigger Cluster Health.

El resultado del Request debería ser Completed.

5. Vuelva a Environments -> globalenvironment y haga clic en el botón Upgrade. Y marque los check asociados al snapshot y al cluster health.

Nota 2: Si ya tomó el Snapshot marque el check, sino cree uno desde el vCenter Server o desde el vLCM para los appliances de vIDM.

6. Clic en el botón TRIGGER INVENTORY SYNC. Es mandatorio para poder habilitar el botón de PROCEED.

7. Clic en PROCEED y seleccione el tipo de repositorio.

Nota 3: Puede seleccionar cualquiera de los siguiente repositorios.

Nota 4: De manera opcional puede hacer clic en el botón VIEW COMPATIBILITY MATRIX para verificar la compatibilidad de la nueva versión con las soluciones existentes. Se requiere acceso a internet en la IP de vLCM para esta acción.

8. Clic en el botón RUN PRECHECK.

9. Lea los comentario y marque el check “I took care of the manual steps above and am ready to proceed” para habilitar el botón RUN PRECHECK.

10. Clic en RUN PRECHECK una vez mas y espere a que termine la validación.

11. Revise la información presentada y luego clic en NEXT.

12. Luego clic en SUBMIT y espere a que el proceso de actualización termine. Sea paciente, este proceso puede tardar mas de una hora.

Al final el resultado del Request debería ser Completed.

13. Vaya a de nuevo Environments -> globalenvironment y verifique la versión del producto. Para este caso mostrara 3.3.4.

14. Inicie sesión en la URL del Tenant en vIDM y verifique el correcto funcionamiento de la solución.

15. Siguiendo los pasos anteriormente mencionado para deshabilitar los miembros Standby del balanceador de vIDM, debemos hacer lo mismo pero esta vez para volver a activarlos. Deberían quedar todos los miembros con el estado en Enabled.

16. Por ultimo, verifique que hasta aquí continúe con acceso al portal de vRealize Automation.

Referencia

https://docs.vmware.com/en/VMware-vRealize-Suite-Lifecycle-Manager/8.3/com.vmware.vrsuite.lcm.8.3.doc/GUID-F2072ADF-4C4B-454E-A074-DB4B0B472184.html#GUID-F2072ADF-4C4B-454E-A074-DB4B0B472184

Backup para vRealize Automation 8.x – Actualizando vRA Parte 1

Esta serie de posts que consta de cinco partes, ha sido desarrollada con el fin de dar claridad al proceso involucrado cuando realizamos una actualización de la solución vRealize Automation 8.x, debido a que al enfrentarnos por primera vez, podría ser un poco confuso.

Como recomendación o best practice antes de la actualización de cualquier componente de la solución de vRA, necesitaremos garantizar un backup en frio, por esta razón, lo haremos para de todos sus componentes (vLCM, vIDM, vRA); para lo cual necesitaremos apagar toda la solución.

Para esto lo haremos como se indica a continuación:

0. Forzar sincronización de vIDM y vRA y verificar todas las contraseñas de administración de la solución para vLCM, vIDM y vRA.
1. Verificar que todos los servicio están funcionando correctamente
2. Detener servicios del cluster de vRA por consola
3. Apagar Appliances de vRA desde vLCM
4. Apagar Appliances de vIDM desde vLCM
5. Apagar vLCM desde el vCenter
6. Tomar backup
7. Tomar Snapshot (Recomendado)
8. Encender vLCM desde el vCenter
9. Encender vIDM desde vLCM
10. Encender Appliances de vRA
11. Iniciar servicios de vRA por consola

0. Antes de comenzar ser recomienda forzar una sincronización tanto de vRA como de vIDM desde vLCM. Para esto vamos a Home -> Environment -> “Environment que contenga la solución de vRA” y luego clic en VIEW DETAILS. Para este caso el Environment que contiene la solución de vRA es IRD-VRA.

Después haga clic en TRIGGER INVENTORY SYNC.

El resultado de este request debe ser Completed.

Lo mismo haremos para vIDM. Para esto vamos a Home -> Environment -> “Environment que contenga la solución de vIDM” y luego clic en VIEW DETAILS. Para este caso el Environment que contiene la solución de vIDM es globalenvironment.

Clic en el icono con los … al lado derecho de VMware Identity Manager y después haga clic en TRIGGER INVENTORY SYNC.

El resultado de este request debe ser Completed.

IMPORTANTE! Adicionalmente deberemos testear cada una de los passwords documentados para la solución, de tal manera que puedan ser utilizado durante el troubleshooting si algo sale mal. Esta tarea consiste en iniciar sesión en las consolas gráficas con los usuario administradores (admin, configadmin, etc.), iniciar sesión ssh a cada uno de los appliances con cada uno de los usuarios administradores documentados (root, sshuser, etc.).

Una vez completados los preliminares, podemos comenzar.

1. Verificar que todos los servicios están funcionando correctamente. Si existe algún problema resuélvalo antes de continuar.

Inicie sesión SSH al Primary Node de vRealize Automation y ejecute los siguientes comandos para verificar el estado de los servicios

Nota 1: En un ambiente de vRA en cluster verifique el nodo primario (Primary Node) desde vLCM haciendo clic Home -> Environment -> “Environment que contenga la solución de vRA” y luego clic en VIEW DETAILS. Para este caso el Environment que contiene la solución de vRA es IRD-VRA. El nodo primario estará marcado como Primary.

En la sesión ssh ya establecida ejecute el siguiente comando para verificar que todo este arriba y no existan problemas antes de apagar.

kubectl get pods --all-namespaces

kubectl -n prelude get pods

2. Detener servicios del cluster de vRA por consola.

Ejecute los siguientes comando en la sesión SSH del Primary Node de vRA

/opt/scripts/svc-stop.sh

sleep 120

/opt/scripts/deploy.sh --onlyClean

Se recomienda copiarlos y pegarlos primero en un Bloc de Notas para evitar que algún caracter especial sea ingresado

y después si copiarlos y pegarlos en la consola ssh del nodo primario de vRA.

Nota: Si por alguna razón obtiene el siguiente error en el primer comando. “Error: context deadnline exceed” intente lanzar el mismo comando desde otro nodo del cluster vRA.

Si el problema continua intente ejecutar el script de la siguiente forma.

Naveguen entonces hasta la ubicación del script y ejecute los siguientes comando

root@vra-01a [ ~ ]# cd /opt/scripts/

root@ivra01a [ /opt/scripts ]# ls -la

Verifique que el script svc-stop.sh exista en ese nodo.

Después ejecute el script desde la ubicación actual, de la siguiente forma

root@ivra01a [ /opt/scripts ]# ./svc-stop.sh

Una vez ha ejecutado los tres comando con éxito, hasta el script /opt/scripts/deploy.sh –onlyClean. Ejecute de nuevo el siguiente comando (solo para verificar) y no deberíamos tener recursos activos.

kubectl -n prelude get pods

En este punto ya podemos apagar los appliances de vRA desde vLCM.

3. En vLCM desde el servicio Lifecycle Operations vamos a la sección Home -> Environments -> “Environment que contenga la solución de vRA”.

Clic en el icono con tres punto al lado derecho del titulo vRealize Automation  … clic en Power OFF.

y luego SUBMIT para confirmar.

El request debería mostrarse como Completed.

Nota: Si tiene la versión 8.1 de vLCM en su ambiente, esta opción no estará disponible. Así que deberá apagar los appliances desde vCenter.

4. En vLCM desde el servicio Lifecycle Operations vamos a la sección Home -> Environments -> “Environment que contenga la solución de VMware Identity Manager” (en este caso globalenvironment).

Clic en el icono con tres punto al lado derecho del titulo VMware Identity Manager  … clic en Power OFF.

y luego SUBMIT para confirmar.

El resultado del Request debería ser Completed.

Esta acción debería haber apagado los appliances del vIDM de manera controlada. Sin embargo, no esta de mas verificar.

5. Por ultimo procederemos a apagar el Appliance de vLCM desde el vCenter.

6. En este punto podemos lanzar el Job de backup con la solución que tengamos disponible (en este caso Veeam Backup), para respaldar los siguientes appliances:

  • vRA
  • vIDM
  • vLCM

7.  Nunca sobra un Snapshot (Recomendado) de los siguientes appliances:

  • vRA
  • vIDM
  • vLCM

8. En este punto procedemos a encender de nuevo el Appliance de vLCM desde el vCenter

9. Continuar con el encendido de vIDM desde vLCM

En vLCM desde el servicio Lifecycle Operations vamos a la sección Home -> Environments -> “Environment que contenga la solución de VMware Identity Manager” (en este caso globalenvironment).

Clic en el icono con tres punto al lado derecho del titulo VMware Identity Manager  … clic en Power ON y después en SUBMIT.

El resultado del Request debería ser Completed.

Nota: Si tiene la versión 8.1 de vLCM o inferior en su ambiente, esta opción no estará disponible. Así que deberá encender los appliances desde vCenter.

10. Encender Appliances de vRA desde vLCM

En vLCM desde el servicio Lifecycle Operations vamos a la sección Home -> Environments -> “Environment que contenga la solución de vRA” (en este caso IRD-VRA).

Clic en el icono con tres punto al lado derecho del titulo vRealize Automation  … clic en Power ON y después en SUBMIT.

El resultado del Request debería ser Completed.

Nota: Si tiene la versión 8.1 de vLCM o inferior en su ambiente, esta opción no estará disponible. Así que deberá encender los appliances desde vCenter. Espere aprox. 5 min a que los appliances inicien completamente.

11. Por ultimo, debemos iniciar los servicios de vRA por consola (Si tenemos un cluster de vRA ver Nota 1 para identificar Primary Node).

Inicie sesión ssh al Primary Node de vRA y ejecutar los siguientes comandos.

kubectl get pods --all-namespaces

kubectl -n prelude get pods

Nota: Como puede observar en esta versión de vRA 8.1, no se inició los servicios de manera automática por lo que tendremos que iniciarlos ejecutando el siguiente comando. Sin embargo, es probable que en versiones mas recientes vRA suba los servicios automáticamente en donde el comando anterior (kubectl -n prelude get pods), debería mostrar todo los pods creados. Sino es el caso ejecute el siguiente comando.

/opt/scripts/deploy.sh

Nota: El script de inicio tardara aproximadamente 20 min. De manera que sea paciente.

Una vez termine la ejecución del script, podrá observar en la consola que el despliegue ha terminado de manera exitosa, con el siguiente mensaje: Prelude has been deployed sucessfully.

Solo por verificar vuelva a ejecutar el siguiente comando:

kubectl -n prelude get pods

Por ultimo, solo nos queda ingresar a la URL del Tenant en vRA y verificar que todo se encuentre operando normalmente.

Para continuar viendo esta serie de blogs explicando el proceso de actualización de la solución de vRA lo invito a leer la Parte 2.

Referencias

https://docs.vmware.com/en/vRealize-Automation/8.3/Administering/GUID-99D06124-13F8-489A-B43C-EAEC3F4FE582.html