Virtualización para Dummies

[ ACTUALIZACIÓN: Segunda parte de este post, publicada aquí el 28 de Agosto de 2008. ]

Y es que los manuales para Dummies siempre han sido muy clarificadores. Vayan mis disculpas a aquellos cuyo nivel de conocimiento sobre virtualización esté a años luz de este post (para ellos, les recomiendo profundizar en este link), pero como dicen algunos pedantes tecnológicos, a veces es importante el : “Back to the Basis”

Simplificando al máximo, lo habitual es que un sistema operativo se instale directamente sobre el hardware de un equipo. Las aplicaciones se instalan directamente en el sistema operativo. La interfaz se presenta mediante un display conectado directamente a la máquina local. Esto está muy bien (ya puede estarlo pues el 90% de los servidores siguen esta secuencia). Modificar cualquiera de estas capas, indefectiblemente afecta a las demás, haciendo que cualquier cambio pueda resultar difícil de implementar.

La virtualización, en su concepción mas “dummie”, no es mas (ni menos) que una aproximación para implementar los recursos informáticos aislando una capa de la otra: hardware, software, datos, redes, almacenamiento … Si conseguimos este aislamiento, el alcance de cualquier cambio o modificación, queda en un ámbito más controlado.

Hay diferentes tipos de virtualización:

· Virtualización de máquina

La virtualización de máquina utiliza software para crear una máquina virtual que emula los servicios y capacidades del hardware subyacente. Esto permite ejecutar más de un sistema operativo en una única máquina. En los servidores, este enfoque se denomina Virtualización de Servidores; en PC para el usuario final, se denomina la virtualización de escritorio.

· Virtualización de aplicaciones

Separa la aplicación del sistema operativo, lo que reduce los conflictos entre aplicaciones, y simplifica las distribuciones y actualizaciones de software.

· Virtualización de la presentación

Permite que una aplicación en un equipo pueda ser controlada por otro en una ubicación diferente.

· Virtualización de almacenamiento

Donde los usuarios acceden a aplicaciones y datos sin preocuparse de donde se almacenan

· Virtualización de red

Que permite a los usuarios remotos navegar en la red de una empresa como si estuvieran conectados físicamente.

¿Y todo esto para qué? Pues fundamentalmente para tres objetivos:

· simplificar cualquier proceso de administración,

· un uso más eficiente de los recursos de TI

· y la flexibilidad para proporcionar los recursos adecuados allí donde se necesiten

Pero si bajamos un poco el nivel de esta clasificación, ya hablamos de aspectos mucho más concretos como:

· Despliegue de nuevas capacidades sin configuraciones de componentes,

· Reducción de los problemas de compatibilidad de aplicaciones o escenarios de pruebas,

· Procesos mas fáciles de automatizar,

· Sistemas de “disaster recovery” más sencillos de implementar,

· Consolidación de servidores,

· Distribución automática de cargas de trabajo en tiempo real según demanda.

· O si nos vamos al puesto de trabajo, la virtualización de aplicaciones nos da menores costes de gestión ,

· Y si la virtualización alcanza al sistema Operativo, Aplicaciones, Datos y preferencias de usuario, estaremos ante el paradigma de la virtualización en el puesto de trabajo donde cualquier trabajador podrá acceder a los recursos de computación que necesite en cada momento y desde cualquier equipo. Ni que decir tiene lo que significa esto en términos de flexibilidad para los empleados y eficiencia IT.

En fin, no cabe duda que estamos ante una tecnología importantísima llamada a ir aumentando su presencia en todo tipo de entornos IT. Si bien no es en absoluto una tecnología nueva (mas de 40 años), si es cierto que comenzamos a vislumbrar sus posibilidades reales y completas en un entorno IT.

 

Y aunque de momento el uso principal se centra en la consolidación de servidores (aun por extender), desde Microsoft se prevé su uso intenso en entornos mucho mas diversos (empleados que pueden acceder a su puesto de trabajo personalizado, con todos sus settings y preferencias intactas, y recursos de computación necesarios en cada momento, desde cualquier máquina en cualquier lugar, o cargas de computación ejecutándose en tu data center que automáticamente hacen un redeploy que se adapta a la demanda específica y/o puntual, o la totalidad de la infraestructura que se restablece instantáneamente tras un evento catastrófico etc). Esto forma parte de lo que llamamos Dynamic IT.

¿Y que pinta tiene todo esto en tecnologías Microsoft ? (si no añado este apartado, mis compañeros de Technet me retirarían el saludo, la mención en la Newsletter, el link en la WEB y hasta el blog … (dependencias que tiene uno ... ;-)

Pues tiene una pinta muy completa:

· Virtualización de Máquinas (Servidores)

La característica "Hiper-V estará integrada como parte de Microsoft Windows Server 2008 (tambien accesible de forma independiente y separada como servidor independiente: Microsoft Hyper-V Server. Tanto esta tecnología, como la incorporada actualmente en Microsoft Virtual Server 2005 R2-- conforman la propuesta de Microsoft en Virtualización de Servidores.

 

· Virtualización de Máquinas (Puesto de trabajo)

Microsoft Virtual PC permite la ejecución de diferentes sistemas operativos en la misma máquina, lo que nos da gran flexibilidad a la hora de ejecutar aplicaciones no compatibles con un SO determinado, además de permitirnos disponer de mayor eficacia en el desarrollo y testeo de nuevo software. Existe además un componente adicional denominado Windows Vista Enterprise Centralized Desktop donde un desktop puede ser hosteado por completo en el server para posteriormente ser derivado de forma remota por completo a otro PC.

 

· Virtualización de Aplicaciones

Microsoft SoftGrid Application Virtualization transforma las aplicaciones en un servicio virtual, gestionado de forma centralizada, y del que se hace un streaming a los puestos de trabajo, servidores o portátiles cuando y donde sea necesario. Esto es una auténtica "pasada". os imagináis el control del que dispones sobre una de las tareas más pesadas de administrar como son el despliegue de software cliente, las actualizaciones , parcheo etc..?

· Virtualización de Presentación

Microsoft Windows Server Terminal Services, es ya un clásico que todos conocéis. Una aplicación de puesto de trabajo puede ejecutarse en un servidor compartido y presentar la interfaz de usuario en un sistema remoto como un desktop remoto, un cliente ligero etc..

 

¿Qué quieres saber mucho más sobre esto? Puedes echar un vistazo en esta WEB

Yo creo que estamos en un momento crucial para estos entornos "ubicuos"¿Cual es el uso que tu compañía/organización/administración hace o prevé hacer de la virtualización? ¿Algo? ¿Consolidación? ¿Nada?`

[ACTUALIZACIÓN: Segunda parte de este post, publicada aquí el 28 de Agosto de 2008.]