Ubuntu MegaHomeServer 1.1 – Introducción

raid

Este es el primer post de una guía para montarte una red casera de alto rendimiento. Aunque a todo el mundo le puede ser de utilidad, está especialmente diseñada para aquellos que como yo movemos teras y teras de audio y vídeo en casa, y queremos sacarle todo el partido a nuestros equipos.

Muchas son las razones para plantearse instalar un servidor casero, pero la principal es la gran flexibilidad, seguridad y calidad del software libre que pone a nuestro alcance sistemas que de otra forma tendríamos que pagar a un precio muy elevado.

Linux es el principal desencadenante de este fenómeno de principios del siglo XXI, pues con muy pocos recursos de hardware a devuelto a la vida a infinidad de computadoras que otros sistemas operativos dejaban obsoletas a gran velocidad. Al mismo tiempo, Linux fue el primer sistema operativo que llevó de forma real a los hogares y a la mayoría de las empresas la posibilidad de explotar las prestaciones de los procesadores a 64bits, de la mano de la pionera empresa AMD.

En unos años Microsoft y Apple han intentado llevar soluciones similares con productos de pago. Microsoft parece incapaz de subsanar las debilidades de seguridad siendo vulnerable a virus y malware de todo tipo. Apple ha intentado portar su Snow Leopard Server a los hogares ofreciendo prestaciones que el usuario no necesita y limitando las posibilidades de programas de software libre que implementa como apache.

Como decía, Linux comenzó siendo utilizada de forma genérica en ordenadores anticuados o en servidores muy potentes dedicados a las soluciones empresariales.

Ha llegado el momento de conferir a Linux inversiones en hardware relativamente importantes y plantearse que no es el sistema operativo del futuro, sino el del presente. Las “Workstations” de los hogares comienzan a necesitar de sistemas de seguridad avanzados y potentes que respalden de forma efectiva los terabytes de información que requieren los sistemas multimedia ya no solo de edición de video o audio, sino también los “media servers” de películas en formato digital y audio.

Es importante minimizar recursos y centralizar los archivos para evitar duplicados en la red. Gestionar el ancho de banda para la descargas de toda la familia a traves de un programa P2P (peer to peer o puerto a puerto), e incluso implementar un servidor proxy que permitar limitar los contenidos para menores y chequear las páginas con virus que nos podamos encontrar.

Es necesario realizar copias de seguridad de forma automática de las workstations ante cualquier fallo de hardware o software que nos hiciera perder la información, lo que en muchas ocasiones supone terabytes de información que no entran en un disco duro de los más caros y avanzados del mercado. Por otro lado, necesitamos información compartida en la red que se sirva a gran velocidad y de forma segura donde guardar los programas e imágenes de discos del software para realizar instalaciones en un tiempo aceptable.

Como ejemplo, sirvan algunas programas habituales en el mundo del audio y del video, Final Cut Pro es un conjunto de 7 DVD’s que ocupan 50 Gb. Instalar este software a través de la grabadora supondría unas tres o cuatro horas introduciendo “galletas” debido a la limitación del propio formato. Si convertimos estos DVD en archivos dmg (formato estandar de imagen de disco de apple) la única limitación será la rapidez de los discos de origen y destino, y la velocidad de la red.

Cuando hablamos de terabytes de software con características más o menos similares, la necesidad de sistemas que permitan manejar estos procesos de forma ágil comienza a ser imperiosa.

Linux permite de forma nativa el manejar un conjunto de discos como si fueran uno solo, y combinarlos de tal forma que puedan ofrecer una velocidad del conjunto superior a la de las partes. El software que permite realizar estas combinaciones es conocido como DM Raid.

Por otro lado, las tarjetas gigabit con soporte para jumbo frames permiten mandar paquetes grandes por la red a gran velocidad. Su precio relativamente asequible permite al usuario doméstico conectar los ordenadores de trabajo directamente al servidor sin pasar por un “switch” o repartidor de red, lo que aumenta considerablemente la velocidad de transferencia. Si es necesario se puede generar una segunda red, preferiblemente inalámbrica, para que los ordenadores distintos del servidor tengan comunicación directamente entre ellos.

Luego la estrategia para maximizar el rendimiento de la red se basa en dos pilares.

  1. Los discos más lentos y viejos se agruparán en el servidor linux en grupos de respaldo (Raid 1) y grupos stripe (Raid 0) para aumentar la velocidad.
  2. La red será configurada en estrella con interfaces gigabit que soporten jumbo frames y cables cruzados al resto de ordenadores.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.