- La virtualización de servidores optimiza el uso del hardware, reduce costes y facilita la escalabilidad de la infraestructura TI.
- Los hipervisores permiten crear múltiples máquinas virtuales aisladas, mejorando seguridad, gestión y continuidad de negocio.
- Existen distintos tipos de virtualización (servidores, red, almacenamiento, aplicaciones y escritorios) que se complementan entre sí.
- Una buena estrategia de seguridad, backup y gestión de MVs es clave para minimizar riesgos y aprovechar al máximo la virtualización.

La virtualización de servidores se ha convertido en una de las decisiones tecnológicas más importantes para cualquier empresa que quiera optimizar su infraestructura, recortar costes y ganar flexibilidad sin disparar la inversión en hardware. Aunque a veces se confunde con la nube, son conceptos distintos: virtualizar es, básicamente, exprimir al máximo los recursos de tus propios servidores físicos.
Hoy en día, ejecutar muchos sistemas operativos y aplicaciones en un solo servidor físico es algo totalmente normal gracias a las máquinas virtuales. Esto permite a las organizaciones trabajar de forma más ágil, segura y eficiente, mantener aplicaciones heredadas, mejorar la protección frente a desastres e incluso reducir la huella energética del centro de datos. Vamos a ver con calma qué es, cómo funciona, qué tipos existen, sus ventajas, riesgos de seguridad y mejores prácticas para gestionarlo bien.
Qué es la virtualización de servidores y por qué es tan importante
La virtualización de servidores es una técnica que divide un único servidor físico en varios servidores virtuales, cada uno con su propio sistema operativo y aplicaciones, como si fueran equipos independientes. Esto se consigue gracias a un software especializado denominado hipervisor, que actúa como capa intermedia entre el hardware y las máquinas virtuales.
En un entorno tradicional, un servidor físico se dedicaba casi siempre a una sola tarea: base de datos, correo, aplicación concreta… El resultado era un gran desperdicio de CPU, memoria y almacenamiento, ya que el equipo rara vez funcionaba al 100 % de su capacidad. Con la virtualización, ese mismo servidor físico puede alojar muchas máquinas virtuales, aprovechando mucho mejor los recursos.
Este enfoque no solo mejora la eficiencia, sino que transforma la infraestructura TI en un recurso estratégico: es más sencillo escalar, probar nuevos servicios, mejorar la resiliencia ante fallos y adaptar la tecnología al ritmo del negocio. No se trata solo de una cuestión técnica, sino de una palanca clara para la productividad y la competitividad.
Conviene recordar que virtualización y migración a la nube no son lo mismo. Virtualizar significa optimizar tus propios servidores; la nube implica consumir infraestructura de un proveedor externo (AWS, Azure, Google Cloud, etc.). Ambas pueden convivir en una estrategia híbrida, donde parte de los servicios se ejecutan en tu centro de datos y otros se despliegan en la nube.
Qué es un servidor y el problema del modelo tradicional
En el enfoque clásico, cada servidor físico se asignaba a una sola función. Cuando la empresa necesitaba más capacidad o nuevos servicios, se adquirían más servidores físicos. Esto generaba varios problemas: consumo eléctrico elevado, exceso de calor en el CPD, falta de espacio, costes de compra y mantenimiento, y una infraestructura muy poco flexible.
Además, ese planteamiento provoca un claro desaprovechamiento de recursos. La CPU y la memoria de muchos servidores se utilizan muy por debajo de sus capacidades reales. Para crecer, la única opción era seguir comprando hardware, con el impacto económico y logístico que eso conlleva.
La virtualización llega justo para atacar este punto débil: separar el software del hardware físico, consolidar cargas en menos máquinas y ajustar los recursos de forma dinámica según la demanda. Esto permite escalar de manera más eficiente y sostenible, tanto desde el punto de vista técnico como económico.
Cómo funciona la virtualización de servidores y qué es un hipervisor
La clave de la virtualización es una capa de software llamada hipervisor. Este componente se sitúa entre el hardware físico y las máquinas virtuales, y es el responsable de crear, ejecutar y gestionar todas esas instancias virtuales que comparten los mismos recursos.
El hipervisor se encarga de transformar la CPU, la memoria y el almacenamiento físicos en recursos virtuales, repartiéndolos entre las distintas máquinas virtuales en función de las necesidades de cada una. Desde el punto de vista de la MV, parece tener su propio procesador, su propia RAM y su propio disco, aunque en realidad comparte todo con otras MVs del mismo host.
Entre sus funciones principales destacan la capacidad de crear y eliminar máquinas virtuales bajo demanda, asignar recursos dinámicamente según la carga de trabajo, y aislar las MVs entre sí para evitar que un fallo en una afecte al resto. Todo esto se administra normalmente desde una consola centralizada que ofrece visibilidad de toda la infraestructura virtual.
Este enfoque hace posible que un solo servidor físico ejecute múltiples servicios simultáneamente, con menos hardware y un control mucho más fino del rendimiento. Además, facilita tareas como las migraciones, las copias de seguridad y la recuperación ante desastres, ya que una MV se puede mover o restaurar mucho más fácilmente que un servidor físico completo.
Tipos de virtualización de servidores y principales enfoques
Cuando se habla de virtualización, no solo existen diferentes tecnologías, sino también varios niveles o tipos de virtualización, cada uno con sus propias características, grados de aislamiento y consumo de recursos. Los tres enfoques más habituales en servidores son la virtualización completa, la para-virtualización y la virtualización a nivel del sistema operativo.
En la virtualización completa, el hipervisor abstrae totalmente el hardware, de modo que las máquinas virtuales crean que están trabajando sobre un servidor físico propio. Este modelo ofrece un alto grado de aislamiento entre MVs y mucha flexibilidad, pero requiere más recursos para gestionar esa capa de emulación.
La para-virtualización adopta una estrategia distinta: las MVs son conscientes de que están virtualizadas y colaboran con el hipervisor para gestionar mejor los recursos. Este enfoque reduce la sobrecarga, mejora el rendimiento en ciertos escenarios y puede ser más eficiente, y se emplea en casos como la virtualización anidada, aunque sacrifica un punto de aislamiento respecto a la virtualización completa.
Por último, la virtualización a nivel de sistema operativo no utiliza hipervisor como tal, sino que es el propio sistema operativo el que proporciona las funciones de separación entre entornos (por ejemplo, con contenedores). Es más económica y puede ofrecer un gran rendimiento, pero la flexibilidad es menor porque todas las instancias comparten el mismo kernel.
En función de tus necesidades, podrás optar por un modelo u otro, buscando el equilibrio entre rendimiento, aislamiento, coste y simplicidad. En muchos entornos corporativos conviven varios tipos de virtualización, según el tipo de aplicación, criticidad o requisitos de seguridad.
Principales hipervisores y plataformas de virtualización del mercado
En el mercado existen varias soluciones consolidadas para virtualizar servidores, cada una con sus ventajas, licenciamiento y ecosistema de herramientas. Las más conocidas son VMware vSphere, Microsoft Hyper-V, KVM y Proxmox VE, muy presentes tanto en grandes organizaciones como en pymes.
VMware vSphere es una de las plataformas líderes en el entorno empresarial. Destaca por su estabilidad, sus capacidades avanzadas de gestión, seguridad y alta disponibilidad, así como por un conjunto muy amplio de funciones para automatizar tareas y optimizar el rendimiento.
Microsoft Hyper-V viene integrado con Windows Server y es especialmente interesante para aquellas empresas que ya están muy metidas en el ecosistema Microsoft. Permite virtualizar de forma robusta entornos Windows y facilita la integración con otras herramientas del fabricante.
KVM (Kernel-based Virtual Machine) es una opción de código abierto muy extendida en sistemas Linux. Se integra con el kernel de Linux, ofrece buena eficiencia y escalabilidad, y se usa ampliamente en centros de datos y proveedores de servicios por su flexibilidad.
Proxmox VE es otra plataforma de código abierto que combina virtualización basada en KVM con contenedores LXC. Resulta especialmente atractiva para pymes y entornos mixtos por su bajo coste, facilidad de uso e interfaz de administración web muy completa.
Otros tipos de virtualización en la infraestructura TI
La virtualización no se limita únicamente a los servidores. Existen múltiples formas de virtualizar almacenamiento, red, datos, aplicaciones y escritorios, que, combinadas, permiten construir una infraestructura mucho más flexible y sencilla de administrar.
En el ámbito del almacenamiento, la virtualización del almacenamiento agrupa distintos dispositivos físicos (NAS, SAN, cabinas de distintos fabricantes) en un gran pool virtual que se gestiona de forma centralizada. Eso permite aprovechar todo el espacio disponible, simplificar tareas como el archivado o las copias de seguridad y abstraerse de las particularidades de cada hardware.
En redes, la virtualización de red combina elementos como conmutadores virtuales, routers y firewalls en una capa lógico-virtual que se administra desde software. Esto hace posible ajustar el enrutamiento, segmentar tráfico o desplegar servicios de red sin necesidad de tocar físicamente cada dispositivo.
Dentro de la virtualización de red hay dos enfoques muy importantes: las redes definidas por software (SDN), que separan el plano de control del plano de datos, y la virtualización de funciones de red (NFV), que lleva a software funciones tradicionalmente asociadas a dispositivos específicos (firewalls, balanceadores, analizadores de tráfico).
También existe la virtualización de datos, que crea una capa entre las fuentes de datos y las aplicaciones. Así, se pueden combinar datos procedentes de diferentes sistemas, en distintos formatos y ubicaciones (on-premise, nube, etc.), ofreciéndolos de forma unificada sin necesidad de replicarlos continuamente.
Virtualización de aplicaciones y escritorios
La virtualización de aplicaciones permite ejecutar software en sistemas operativos distintos de aquellos para los que fue diseñado, sin tener que modificar la máquina del usuario final. Es muy útil, por ejemplo, para usar una aplicación de Windows en un equipo con Linux o para centralizar el despliegue de aplicaciones críticas.
Para conseguirlo, se utilizan varios enfoques. Uno de ellos es el streaming de aplicaciones, donde la aplicación se sirve desde un servidor remoto y solo se ejecuta en el dispositivo del usuario cuando es necesario, reduciendo requisitos de instalación y mantenimiento local.
Otro enfoque es la virtualización de aplicaciones basada en servidor, que permite acceder a aplicaciones alojadas de forma centralizada a través de un navegador web o un cliente ligero, sin necesidad de instalarlas en cada equipo. Esto simplifica mucho la gestión y el control de versiones.
Por último, la virtualización local de aplicaciones empaqueta el código de la aplicación con su propio entorno de ejecución, de modo que pueda funcionar en diferentes sistemas operativos sin cambios. Es como llevar una burbuja autocontenida que evita conflictos con el sistema del usuario.
En paralelo encontramos la virtualización de escritorios, que se centra en proporcionar entornos de escritorio completos (por ejemplo, Windows 10 o versiones anteriores) a usuarios no técnicos que necesitan acceder a ciertas aplicaciones empresariales. Es habitual en equipos de atención al cliente, marketing, ventas o backoffice.
La infraestructura de escritorio virtual (VDI) ejecuta múltiples escritorios virtuales en servidores remotos, a los que los usuarios se conectan desde dispositivos cliente. Esto permite centralizar la administración, aplicar políticas de seguridad homogéneas y reducir el coste en hardware de escritorio.
Otra variante es la virtualización de escritorio local, donde el hipervisor se ejecuta directamente en el equipo del usuario y se crea una máquina virtual con un sistema operativo diferente. El usuario puede alternar entre el entorno local y el virtual como si cambiara de aplicación, lo que da mucha flexibilidad en entornos de pruebas o desarrollo.
Beneficios clave de la virtualización de servidores
La virtualización de servidores aporta una serie de ventajas muy claras frente a la infraestructura tradicional. La primera es el ahorro de costes: consolidar varios servidores virtuales en una sola máquina física reduce la necesidad de comprar nuevo hardware, disminuye los gastos de mantenimiento, el consumo eléctrico y el espacio ocupado en el centro de datos.
Otra ventaja crítica es la escalabilidad. Crear un nuevo servidor virtual suele ser cuestión de minutos, no de días. No hay que esperar a recibir nuevos equipos, montarlos y configurarlos: basta con desplegar una nueva MV y asignarle los recursos adecuados. Esto proporciona una flexibilidad enorme para adaptarse a picos de demanda o nuevos proyectos.
La asignación dinámica de recursos es otro punto fuerte. Los equipos de TI pueden ajustar CPU, memoria y almacenamiento de cada MV según la carga que soporte, evitando el sobreaprovisionamiento clásico de la infraestructura física. Varios servidores virtuales compartiendo un mismo host aprovechan al máximo la capacidad disponible.
En materia de seguridad, la virtualización ayuda al aislar las cargas de trabajo: si una máquina virtual se ve comprometida por malware, fallos de configuración o ataques, el resto de MVs pueden seguir funcionando sin verse afectadas. Además, muchos dispositivos de seguridad tradicionales (como firewalls) disponen de versiones virtualizadas más económicas y flexibles.
La gestión centralizada simplifica mucho el día a día del departamento de TI. Desde una única consola es posible ver el estado de todos los hosts, máquinas virtuales, redes y almacenamiento, así como automatizar tareas de mantenimiento, actualizaciones o movimiento de cargas entre servidores físicos.
No hay que olvidar el impacto en sostenibilidad. Al reducir la cantidad de servidores físicos en funcionamiento, se disminuye el consumo energético, las necesidades de refrigeración y la huella de carbono del CPD. Además, la virtualización facilita prolongar la vida útil del hardware, alineándose con objetivos de responsabilidad social y medioambiental.
Por último, la virtualización facilita la compatibilidad con sistemas heredados. Es posible ejecutar aplicaciones antiguas y sistemas operativos obsoletos en máquinas virtuales alojadas en hardware moderno, lo que hace mucho más sencilla la migración y la modernización progresiva sin dejar de dar soporte a herramientas críticas para el negocio.
Recuperación ante desastres y continuidad de negocio
Uno de los puntos donde la virtualización marca una gran diferencia es en la recuperación ante desastres. La mayoría de plataformas de virtualización incorporan funciones de backup y restauración muy avanzadas, como instantáneas (snapshots), clonación de máquinas y replicación entre hosts.
Al contener todo el sistema (SO, aplicaciones, datos y configuración) en un archivo o conjunto de archivos, una máquina virtual se puede copiar y restaurar de forma mucho más rápida que un servidor físico tradicional. Esto reduce radicalmente los tiempos de recuperación (RTO) y las pérdidas de datos (RPO) en caso de fallo grave, ataque o error humano.
Además, resultan mucho más sencillas las migraciones entre servidores físicos. Es posible mover una MV de un host a otro con muy poco o ningún tiempo de inactividad, lo que permite realizar tareas de mantenimiento de hardware o balancear cargas de trabajo sin afectar al negocio.
Si se combina la virtualización con soluciones de cloud híbrido, se pueden diseñar arquitecturas donde algunas réplicas de las MVs se almacenan en la nube, listos para levantarse en caso de desastre en el centro de datos principal. Esto aporta resiliencia y flexibilidad sin tener que duplicar toda la infraestructura física.
Seguridad en la virtualización de servidores: ¿es realmente segura?
La virtualización aporta ventajas importantes en seguridad, pero también introduce nuevos retos y posibles vulnerabilidades. Por el lado positivo, centralizar los datos en un entorno virtualizado facilita su protección y supervisión, frente a tenerlos dispersos en multitud de equipos de usuario final o dispositivos poco controlados.
El aislamiento entre máquinas virtuales contribuye a contener ataques, malware y virus dentro de una sola MV, reduciendo el impacto sobre el resto de servicios. Además, las soluciones de virtualización permiten aplicar controles de acceso muy granulares, incluso utilizando microsegmentación para dar acceso solo a aplicaciones o recursos concretos, hasta el nivel de una carga de trabajo individual.
La virtualización de escritorios tiene otro punto fuerte: el equipo de TI mantiene el control total de sistemas operativos y aplicaciones, aplicando parches y actualizaciones de manera centralizada. Esto evita depender de que cada usuario final mantenga su equipo al día, algo que no siempre ocurre.
Los propios hipervisores suelen tener una superficie de ataque más reducida que las soluciones basadas únicamente en hardware tradicional, al requerir menos componentes y ofrecer actualizaciones periódicas para corregir vulnerabilidades. Muchas plataformas permiten actualizar el hipervisor casi de forma automática, manteniéndolo protegido frente a amenazas emergentes.
Sin embargo, la virtualización también puede acarrear riesgos. El primero es la mayor complejidad del entorno. Como las máquinas virtuales se crean, clonan y mueven con facilidad, es más complicado garantizar configuraciones coherentes, políticas de seguridad homogéneas o un inventario completo de lo que realmente hay desplegado.
Un problema muy habitual es la proliferación de máquinas virtuales que acaban abandonadas o inactivas. Estas MVs huérfanas continúan consumiendo recursos y, lo que es peor, es poco probable que reciban parches o actualizaciones, convirtiéndose en objetivos fáciles para un atacante.
Además, aunque el aislamiento ayuda en muchos escenarios, no protege por sí mismo frente a un ataque de denegación de servicio distribuido (DDoS). Si una máquina virtual se ve saturada por tráfico malicioso y acapara los recursos del host, las demás MVs que comparten ese servidor también verán afectado su rendimiento.
Por todo esto, es fundamental que el departamento de TI aplique buenas prácticas de seguridad específicas para entornos virtualizados, desde el control de accesos y la monitorización hasta la gestión de parches y el ciclo de vida de las MVs.
Buenas prácticas de seguridad y gestión de máquinas virtuales
Para reducir los riesgos asociados a la virtualización de servidores, resulta imprescindible seguir una serie de mejores prácticas que cubran tanto la seguridad como la eficiencia operativa. La primera es mantener todo el ecosistema correctamente actualizado: hipervisor, sistemas operativos invitados, firmware y herramientas de gestión.
También es crucial instalar y actualizar soluciones antivirus y de seguridad específicas para entornos virtualizados. Muchas de estas herramientas están preparadas para trabajar de forma eficiente con múltiples MVs, aplicando análisis centralizados y políticas coherentes sin penalizar el rendimiento de cada máquina.
Otra medida clave es gestionar de forma estricta los permisos y el acceso remoto. Es recomendable aplicar autenticación avanzada (por ejemplo, multifactor) para acceder a las consolas de gestión y a las MVs críticas, evitando que credenciales comprometidas se conviertan en puertas de entrada a toda la infraestructura.
El cifrado del tráfico de red y la microsegmentación permiten acotar la exposición de cada servicio, limitando la comunicación solo a lo estrictamente necesario entre máquinas virtuales, redes y aplicaciones. Esto reduce de forma notable las posibilidades de movimiento lateral de un atacante dentro del entorno.
Otra buena práctica indispensable es eliminar regularmente las máquinas virtuales no utilizadas. Mantener un inventario actualizado y disponer de un proceso claro para dar de baja MVs ayuda a evitar la proliferación y minimiza el número de sistemas desatendidos sin parches ni controles.
En el ámbito de la protección de datos, conviene establecer políticas robustas de copia de seguridad tanto para las MVs como para los servidores físicos que las alojan. Las copias deben ser periódicas, probadas y almacenadas de forma segura (idealmente combinando disintos emplazamientos físicos o incluso la nube).
Finalmente, es importante definir e implantar una política de uso clara y detallada para las máquinas virtuales y los servidores host. Esta política debe cubrir cómo se crean las MVs, quién puede gestionarlas, qué requisitos de seguridad deben cumplir y cómo se retiran cuando dejan de ser necesarias.
Mejores prácticas concretas para gestionar máquinas virtuales
Más allá de la seguridad, una gestión eficaz de las MVs ayuda a evitar descontrol, sobrecargas y problemas de rendimiento. Una de las recomendaciones habituales es implantar sistemas de autoservicio controlado para que los propios equipos puedan solicitar o aprovisionar MVs sin generar cuellos de botella, pero siempre bajo políticas bien definidas.
Es muy útil proporcionar plantillas estandarizadas de máquinas virtuales, con configuraciones de CPU, memoria, almacenamiento y software base ajustadas a cada caso de uso. Esto garantiza que las MVs nazcan con un tamaño razonable, evitando sobredimensionamientos innecesarios o configuraciones inconsistentes, y seguir tutoriales para configurar servidores cuando sea necesario.
Conviene apoyarse en herramientas de monitorización del rendimiento específicas para entornos virtualizados. Estas soluciones permiten detectar cuellos de botella, identificar MVs infrautilizadas o sobrecargadas y ajustar recursos antes de que los usuarios sufran problemas.
En el ámbito del acceso remoto, resulta fundamental habilitar métodos seguros de conexión, combinando protocolos cifrados con autenticación avanzada y registro de actividad. De esta manera, se protege tanto la administración de la plataforma como el acceso de usuarios a sus escritorios o aplicaciones virtuales.
Por último, a la hora de diseñar la estrategia de protección de datos, es recomendable elegir una plataforma de backup y restauración específica para máquinas virtuales. Estas soluciones entienden la estructura de las MVs, permiten copias incrementales eficientes, restauraciones granulares y automatización completa del proceso.
Virtualización de servidores en data centers robustos: pasos clave
En centros de datos de cierta envergadura, la virtualización de servidores requiere una planificación cuidadosa para asegurar que el proyecto se implemente de forma segura y eficiente. El primer paso es evaluar con detalle los recursos necesarios: CPU, memoria, almacenamiento y red que demandarán las cargas a virtualizar.
También se debe gestionar correctamente el licenciamiento de todo el software implicado: hipervisor, sistemas operativos invitados, herramientas de gestión, bases de datos, etc. Algunas licencias cambian cuando se virtualiza, y es importante evitar sorpresas tanto legales como económicas.
Antes de mover nada, resulta crítico diseñar y configurar sistemas de backup robustos, que protejan todos los datos involucrados desde el primer momento. De esta forma, cualquier problema durante la transición podrá revertirse sin pérdida de información ni paradas prolongadas.
Otro elemento esencial es elaborar un plan de transición bien definido. Hay que decidir qué servidores físicos se migran primero, cómo se realizará la conversión a máquinas virtuales, qué ventanas de mantenimiento serán necesarias y cómo se minimizarán los tiempos de inactividad para los usuarios finales.
Conforme se va desplegando la nueva plataforma, es importante aplicar mejores prácticas para optimizar la infraestructura: diseño de redes virtuales, almacenamiento compartido eficiente, políticas de alta disponibilidad y monitorización continua. Esto permitirá que el entorno virtualizado sea escalable, seguro y fácil de gestionar a largo plazo.
En muchas organizaciones, especialmente en data centers globales y críticos, resulta recomendable contar con soporte especializado de proveedores con experiencia en virtualización, colocación y mantenimiento de hardware. Este acompañamiento reduce riesgos y agiliza todo el proceso de adopción.
Virtualización y cloud híbrido: cómo encajan
La virtualización de servidores y el cloud híbrido se complementan muy bien. Por un lado, la virtualización optimiza los recursos dentro del propio centro de datos, permitiendo correr múltiples servidores independientes en una misma máquina física, mantener aplicaciones antiguas sin hardware adicional y simplificar pruebas y copias de seguridad.
Por otro lado, el cloud híbrido combina infraestructura local y servicios en la nube. Esto ofrece la posibilidad de escalar cargas de trabajo hacia la nube cuando la demanda lo exige, realizar copias de seguridad externas o migrar ciertas aplicaciones sin interrumpir la operativa.
En conjunto, ambos enfoques dan lugar a una infraestructura más eficiente, adaptable y resiliente, que puede responder rápidamente a cambios en el negocio, picos de tráfico, nuevas líneas de producto o requisitos regulatorios específicos.
Muchas estrategias modernas de TI se apoyan justo en esta combinación: una base de servidores virtualizados en el data center para cargas críticas y estables, complementada con nubes públicas o privadas para escalar, almacenar backups o desplegar entornos temporales de desarrollo y pruebas.
Si se diseña adecuadamente, esta mezcla permite aprovechar lo mejor de ambos mundos: el control y la personalización del entorno propio junto con la elasticidad y el modelo de pago por uso de la nube.
La virtualización de servidores se ha consolidado como una pieza central en la modernización de la infraestructura tecnológica. Permite ahorrar costes, mejorar la seguridad, simplificar la gestión, ganar flexibilidad y, al mismo tiempo, preparar a la empresa para una integración natural con la nube y otros modelos avanzados de despliegue, convirtiendo el entorno IT en un verdadero habilitador del negocio.
Tabla de Contenidos
- Qué es la virtualización de servidores y por qué es tan importante
- Qué es un servidor y el problema del modelo tradicional
- Cómo funciona la virtualización de servidores y qué es un hipervisor
- Tipos de virtualización de servidores y principales enfoques
- Principales hipervisores y plataformas de virtualización del mercado
- Otros tipos de virtualización en la infraestructura TI
- Virtualización de aplicaciones y escritorios
- Beneficios clave de la virtualización de servidores
- Recuperación ante desastres y continuidad de negocio
- Seguridad en la virtualización de servidores: ¿es realmente segura?
- Buenas prácticas de seguridad y gestión de máquinas virtuales
- Mejores prácticas concretas para gestionar máquinas virtuales
- Virtualización de servidores en data centers robustos: pasos clave
- Virtualización y cloud híbrido: cómo encajan