Ubuntu 16.04 Home Server – HP Microserver gen 8

Ubuntu 16.04 Home Server

HP Microserver gen 8

 

Esta máquina se ha hecho famosa por muchas razones:

  1. Relación calidad-precio. En el momento en que se escribe este post, 205,02€ en amazon.
  2. Posibilidades de actualización y tunearlo. Os dejo algunos enlaces.
    1. https://www.linuxserver.io/2015/03/24/setting-up-a-linux-home-server-using-the-hp-proliant-microserver-gen8-g1610t-3/
    2. https://www.linuxserver.io/2016/11/06/revisiting-the-hp-proliant-gen8-g1610t-microserver/
  3. Poco ruidoso perfecto para engancharlo a la tele, si le instalas una nvidia de media ranura. Yo lo tuve así una temporada, pero finalmente le di mejor uso como servidor, puro y duro.
  4. Bajo consumo, muy bajo consumo.

Objetivo del howto:

Crear un servidor con Ubuntu 16.04, solido como una roca, con las siguientes prestaciones:

  • Acceso vía ssh
  • Escritorio seguro vía Xrdp + mate.
  • Gestión remota con webmin: servicios habituales + smartmontools + lmsensors
  • Servidor de máquinas virtuales para correr:
    • Windows 10
    • Ubuntu server con nextcloud
    • Los que quieras…

Actualización de Hardware:

Por orden de prioridad

  1. Memoria flash USB 3.0 SanDisk Ultra de 16 GB, 8,90€.
  2. Aumentar a 16Gb Ram. Dos módulos Kingston KVR16E11/8 en Amazón. 82,80€ * 2 uds
  3. Procesador: Intel Xeon E3-1230 v6 3.5GHz 8MB Smart Cache Caja – Procesador (Intel Xeon E3 v6, 3,5 GHz, LGA 1151 (Socket H4), 280,81€
  4. LSI MegaRAID SAS 9240-8i PCI Express x8 6Gbit/s  , 151,38€.

(1) +(2) : recomendable para un servidor ubuntu con una única maquina virtual (en nuestro caso para el LAMP nextcloud), incluso con un sólo módulo de 8 gb valdría).

(1)+(2)+(3): servidor de hasta (recomendable) 4 máquinas virtuales, a una muy potente (Windows 10)

(1)+(2)+(3): RAID 5, con arranque sin necesidad del pendrive (configurando la bios)

El hardware y Ubuntu 16.04

Para instalar ubuntu en el HP Microserver hay que tener en cuentas varias cosas:

  1. Está diseñado para correr distribuciones privativas: Windows*, Suse y Redhat. Para instalar ubuntu, necesitaremos un pendrive conectado a la ranura ILO interior, donde instalar el punto de montaje boot, con grub en modo i386. A efectos prácticos, vamos a instalar una versión de Ubuntu Server más antigua, la 14.0.1, y después vamos a actualizarla a la ultima 16.*. Por tanto la descargamos en ubuntu old-releases ubuntu-16.04.1-server-amd64.iso ,
  2. No funciona cualquier tarjeta controladora de discos duros: hay problemas de compatibilidad. La LSI megaraid 9240 es absolutamete compatible, incluso con Freenas (aunque no lo recomiendo por el derroche de recursos).
  3. Hay que configurar la bios para solicitar el arranque desde el dispositivo USB.

 

Instalación de Ubuntu 14.04.1 y actualización a ubuntu 16.04

Procedemos a una instalación estándar: a nuestros efectos nos sirve mi howto de la versión 12.04, con la sigiuentes modificaciones:

  • Daos de alta un nombre dinámico de host: yo en mi caso lo he hecho con dyndns.com . Le vamos a reservar para la máquina virtual. Pero si el nombre que seleccionais en dyndns es por ejemplo: nombre.dynddns.org, a la máquina real llamarla nombrebox.dyndns.org. Para distinguirla e identificarla cuando avanzemos en la configuración.
  • Reservar una dirección IP dentro de vuestra red que sea únicamente para vuestro servidor. Cuando llegue el momento de configurar la red en ubuntu, pulsad a la tecla escape hasta que aparezca el siguiente cuadro de diálogo, para configurar la red manualmente.

 

 

En mi caso la subsed será 192.168.1.0, la ip de mi servidor 192.168.1.10, y el router tiene la dirección 192.168.1.1.  (todo esto depende de vuestra red). Un consejillo, como servidores DNS poned los de Google 8.8.8.8 y 8.8.4.4  (en la instalación sin coma y sólo con un espacio 8.8.8.8 8.8.8.4)

La primera diferencia con el howto de la 12.04 es esta pantalla. Cuando aparezca el menú de particionado seleccionáis una configuración parecida a esta teniendo en cuenta:

  1. Si vais a instala el sistema operativo ( /) en una ssd, activar discard, noatime y nodiratime. Cuando ya tengamos instalado el sistema podemos modificar fstab y hacer un script con cron. En el pendrive seleccionar noatime y nodiratime.
  2. Nunca instaleis el espacio de intercambio (swap) en la ssd, instalarlo en el raid o en el/los discos duros donde vayais a tener el grueso de los datos.
  3. Si habeis instalado el LSI Megaraid, el Raid os aparecerá como un único disco. Si utilizais la controladora estándar del servidor tener en cuenta que solo los dos primeros puestos sata son 6G, los3, 4 y 5 (DVD) son Sata 2.
  4. Instalar el punto /boot en el pen drive. Apuntad en un papel el sd* que corresponde al pendrive paraa modificar grub si es necesario (habitualmente no lo es)
  5. Seleccionar actualizaciones de seguridad automáticas.
  6. En selección de software nos quedamos con lo mínimo debido a que vamos a actualizar después a la 16.04*
  7. Cuando llegue la pantalla siguiente pulsad no, e introducir el /sd* de vuestro pendrive. Normalmente no hará falta, pero así os aseguráis que seleccionais el dispositivo de arranque correcto.
  8. Bueno, lo más duro ya está hecho. Arrancáis el sistema y en el prompt:
    1. introducir vuestro nombre de usuario y password.
    2. Ejecutar:

sudo apt-get update && sudo apt-get -y dist-upgrade && sudo reboot

  • Cuando se reinicie la máquina, de nuevo usuario y password y ejecutáis:

sudo do-release-upgrade

Os vais a tomar un café y cuando volváis, reiniciad, y ya tenéis la última versión de ubuntu 16.04.

 

Más en la página.

De compras. Comprando Discos Duros. ¿Seagate, Hitachi, Western Digital?

Este post se podría haber titulado, ¡Bye, bye, Seagate! Le he estado comprando discos duros desde que me dedico a esto de la informática, y he de reconocer que en la última compra, ni me pensé la marca (muy mal hecho por mi parte). Hace un par de años compré 4 Seagate barracuda de 3TB, para montarlos en un Promise DS-4600. A los dos meses me falló un disco y le eché la culpa sin pestañear a Promise. Compré otros cuatro discos, y los monté en un servidor casero en ubuntu, en un Raid 10. Siguieron fallando. A día de hoy de los 8 discos me quedan 3 que no han dado error, pero por cuestiones de mera probabilidad, ya no me fio de ninguno de ellos. Acabarán la estantería como si fueran discos de 5900 rpm de los más baratos para respaldar información a largo plazo.

Me puse a investigar y descubrí un post sobre un informe de BlackBlaze a la que os dejo un enlace. Y la sorpresa fué desoladora.

fallos-disco-duro

La que había sido la mejor marca de Discos duros se convirtió de repente en la peor de todas. Ahora cuando escucho Seagate me hago cruces. He «tirado» unos 1200€ a la basura por confiar en Seagate, y eso no lo perdono. Cuando un usuario, ya sea empresa o particular, decide hacer una inversión de este calibre debería ser considerado con un poco de más respeto. La verdad es que me siento estafado. El informe de BlackBlaze, lo deja bastante claro. Dada la calidad de estos productos, no deberían tener el precio que tienen.

La gran sorpresa fue Hitachi, marca que yo siempre había considerado un poco «rara», pero que ha adoptado una política excepcional. La gran diferencia entre los discos de Hitachi, frente a WD o Seagate es que sus discos para RAID los HGST Deskstar NAS, son discos «enterprise» sin algunas funcionalidades de los Ultrastar. Los WD RED y los Seagate son Discos «desktop», con alguna funcionalidad extra. Los Hitachi Deskstar NAS, funcionan a 7200 rpm vs. las 5400 de los NAS de la competencia, y aunque son un poco mas ruidosos y seguro que se calientan un pelín más, la tasa de fallo los hace ampliamente preferibles.

La pregunta que viene ahora, ¿Raid o no?

Me atrevería a decir que el usuario medio tiende a tener más información en su casa que una Pyme, por una simple razón: contenidos multimedia.

La necesidad de respaldar grandes cantidades de información va e irá en aumento. Antes teníamos estantería llenas de libros, discos, CD’S,… y eso poco a poco ha ido cambiando a tener los discos duros llenos. Perder un disco duro, supone perder horas y horas de trabajo, y muchas veces, de horas de procesadores ardiendo comprimiendo vídeo, audio, …

Hay discos duros de una calidad inmensa. los «enterprise», que cuestan aproximadamente el doble que los discos habituales, los «desktop». Los primeros diseñados para formar parte de grandes grupos raid, y los segundos para estar sólitos en un equipo. Pero hay un dato que importa al usuario doméstico. Los primeros tienen una medida de calidad entre 1 y 2 MTBF (Mean Time Between Failures), y los desktop tienen valores muy por debajo del 1.

Como curiosidad os dejo un vídeo para ver por qué los discos duros para raid son mas caros que los desktop.

Luego comprarse un ultrastar para uso doméstico, puede no ser ninguna locura, si lo consideramos como una forma de proteger nuestra información. Sin embargo, los discos la mayor parte de las veces mueren por una subida de tensión, un golpe, falta de flujo de aire.

La única medida que tranquiliza de verdad es el raid. Si falla un disco, tenemos otro que conserva la información. El mejor raid para el usuario doméstico es el software raid de linux, o el raid de Mac OS. Una controladora tiene mas inconvenientes que ventajas, desde mi humilde punto de vista. Si muere la controladora, hay que disponer de otra «igual» para poder recuperar la información del raid. El Software raid, además de que es ampliamente comfigurable, también es exportable a otros PC’s sin necesidad de controladora. La ventaja fundamental de la controladora es que si hay una caida repentina del sistema conserva el caché de transferencia impidiendo que tengamos que hacer un rebuild del raid, pero practicamente por el mismo dinero que cuesta una controladora, y a veces por mucho menos, podemos adquirir un UPS (Unidad de Potencia Supletoria) por si se va la luz, seguir alimentando el ordenador.

Yo opto por el raid.

La segunda pregunta, ¿dispositivo de almacenamiento externo o linux server?

1. Un único equipo con copia de seguridad asociada: es lo de toda la vida. Nos compramos un buen disco duro ( yo os recomiendo el HGST IDK Deskstar, que es el que he comprado) y una SSD no muy grande para el Sistema Operativo (normalmente con 128-250Gb sobra). Os comento, que las SSD deben escribirse pocas veces para alargar su durabilidad, por lo que para el «scratching» es preferible tener un disco duro de alto rendimiento.

El problema viene con la copia de seguridad asociada. Hay dos tipos de dispositivos, por lo que he podido observar:

1. Dispositivos con control de RAID privativo: muchos dispositivos externos como el DS-4600 de Promise que os contaba antes, los WD My Cloud, y otros tantos, gestionan el funcionamiento del RAID con independencia del sistema operativo, es decir, olvidaos de usar el Software raid de linux, o de OSX, o el Jbod de Windows (aunque este no se si merece la pena contemplarlo). Si el raid falla, o pierdes toda la información o lo tienes que llevar a una empresa especializada que cobrará un trabajo difícil, delicado y por tanto caro.

2. Dispositivos esata o usb3, que hacen que el sistema operativo detecte los discos duros como si estuvieran dentro de la caja. Esto tiene la inmensa ventaja, sobre todo en entornos UNIX, de poder usar las herramientas del Software Raid, en caso de fallo de algún disco. Cosa que más tarde más temprano ocurrirá seguro, y además para eso tenemos un Raid, para defendernos en caso de fallo de un disco.

De ambas opciones, os recomiendo la segunda. Pero en ambos casos estos dispositivos tienden a calentar los discos duros, lo que acorta su vida, o ha hacer mucho ruido. Ambas cosas son malas para un entorno doméstico.

Si pretendemos dar una servicio a través de internet, lo que para un usuario doméstico significa acceder a sus archivos de una u otra forma, o presentar una página web,… tenemos que tener conectado el ordenador principal las 24 horas x 7 días a la semana, y eso es mucho consumo de energía para un hogar. Un ordenador de escritorio se tiene que reiniciar de vez en cuando, ya sea porque cambiamos alguna pieza de hardware, o actualizamos el software, o …. 1000 razones. El consumo de energía debe ser contemplado como una partida más del gasto en informática. La horas que un equipo está encendido también son horas de desgaste de todos los componentes que lo conforman, entre ellos los discos duros.

2. Home Server y Ordenador personal.

Ya hace años, con la aparición de los procesadores ARM que tener un servidor en casa no es nada descabellado. Por razones que ya he explicado en otros post, Linux toma una clara ventaja. Podemos optar por equipos de bajo consumo y cajas bien ventiladas que alargan la vida de los discos.

Yo en su momento opté un por una AMD Phenom de 4 núcleas y 16 Gb de RAM para virtualizar, que además me hacía las veces de Backup Server y servidor de internet. Pero investigando, investigando el otro día me encontré con esto.

microserver
HP Proliant microserver Gen 8

Se puede cambiar el procesador, desde el celeron que viene de base a un XEON, por ejemplo a un Intel BX80637E31230V2, a «3,5Ghz» x «4 nucleos» x «2 hilos», y se le pueden meter 16Gb de Ram ( y seguramente en un futuro no muy lejano 32Gbs). Sus 150w de fuente de alimentación,  lo convierte en un servidor de backup e internet perfecto para un hogar tal y como viene de serie. Pero la opción de expansión de procesador y memoria, lo hacen un servidor remoto perfecto de máquinas virtuales (Xen, vbox, vmware….) y una auxiliar en caso de necesidad de potencia de proceso.

Amazoneando un poco, el precio de la maquinita, a día de hoy es de 223,26€, y el equivalente en una unidad de backup externa, por ejemplo, el fantec QB-35USB3, cuesta 162,34€.

fantecLa diferencia de precio es casi insultante a favor del proliant, por la diferencia de consumo, pues el fantec necesita un ordenador encendido al lado para tener sentido, y el proliant en si mismo es un ordenador que nos presta otra multitud de servicios. Y lo más importante, el flujo de aire en el proliant tiene «mucha mejor pinta» que la caja externa. Os dejo un enlace a una amplia descripción de este servidor y a sus posibilidades.

 Respecto a los discos (a precios de Amazon a fecha de hoy) para incluir en el Raid yo he decidido cuatro modelos por su relación calidad precio, y os los comparto en la siguiente tabla.

Px/ud envio total ud Px/Gb 4 Ud RAID 10 RAID 5 Px Giga R10 Px Giga R5 Diferencia
HGST Deskstar NAS 4 TB 190,38 190,38 47,595 761,52 8 12 95,19 63,46 224,24
WD RED 4TB 178,49 2,99 181,48 45,37 725,92 8 12 90,74 60,49 188,64
HGST Deskstar NAS 3 TB 143,34 143,34 47,78 573,36 6 9 95,56 63,71 36,08
WD RED 3 TB 134,32 134,32 44,77333333 537,28 6 9 89,55 59,70 0

 

Ventajas de los WD RED: hacen el sistema más silencioso y menos temperatura.

Ventajas de los HGST: más rápidos ( un 20% aproximadamente por disco, no por raid) y una inferior tasa de fallo. Estos modelos podemos considerarlos «enterprise» sin alguna prestaciones extras.

Mi elección será los 4 Deskstar NAS de 3TB. Los comentarios que he encontrado de usuarios que los están usando son bastante tranquilizadores.

Espero que os haya sido de utilidad la comparativa. Y si tenéis discrepancias, seré el primer agradecido en que las comentéis en el blog.

Ubuntu MegaHomeServer 1.5 – La regla de la cadena

Aquí no estamos hablando de la famosa regla de la cadena de las Matemáticas para derivar e integrar, así que no cunda el pánico. O si, sí vienes de google buscando una solución al control de mañana. Si es un examen final, mejor vete a dormir.

La regla de la cadena en informática y el cualquier proceso constituido por elementos encadenados es que la velocidad y eficiencia del sistema está limitado al más débil de los elementos de la cadena.

Así por ejemplo de nada nos sirve un raid stripe que alcanze los 500 Mb/seg, si luego vamos a pasar un puerto ehernet de 100Mb/seg. Algo parecido pasa también con el software. Dependiendo del protocolo que implementemos para intercambiar archivos alcanzaremos velocidades distintas.

1. La red .

Normalmente las redes domésticas y empresariales suelen pasar por un repartidos de red (switch) lo que es muy recomendable para que los usuarios intercambién archivos entre sí al poder conectarse directamente cono otros equipos. El problema que genera este tipo de estructura a un servidor es que está condenado (salvo configuraciones bastante avanzadas) a que todas las conexiones del resto de ordenadores con él pasen por un único puerto ethernet, lo que genera tapones en la entrada y ralentiza las transmisiones de copias de seguridad grandes (TimeMachine) o instalaciones de librerías enormes (Logic o Final Cut).

La alternativa para prescindir del «switch» cuando tenemos pocos ordenadores ( entre 2 y 20, y no os asustéis que esto es teórico; que yo no tengo 20 ordenadores en casa) es montar la red en estrella.

¿Qué significa esto? Que todos los ordenadores se conectan directamente a nuestro servidor, y a través de él a internet. Esto nos permite eliminar uno de los eslabones más débiles de la red que es el repartidos de puertos, y optimizar las conexiones individuales.

Esto presenta el inconveniente de que si los terminales quieren compartir información entre ellos tendrían que dejarla primero en el servidor el terminal emisor, y después descargarla el receptor. Para solucionar esto podemos crear una red secundaria (inalámbrica) para este tipo de conexiones no intensivas en consumo de red: navegar por internet con el portatil o acceder con el iphone, …

Cuando los archivos son grandes lo habitual es que estén en el servidor.

2. Discos duros en red:

Un BarracudaXT alcanza una velocidad de 140 Mb/seg (según seagate).  Al pasar a ethernet esto se queda en unos 100Mb/seg, con jumbro frames en la gigabit y appletalk de protocolo (el más rápido y fiable según mi experiencia). Esta es la carga que el servidor deberá aguantar.

Si tenemos tres ordenadores a parte del servidor (uno en la tele, otro el portatil, otro en el estudio, otro para …. y yo que sé), la carga simultanea si hacemos copias de seguridad puede alcanzar los 300 Mb/seg. Si el servidor tiene instalado un disco en el que volcamos nuestras copias de seguridad, volvemos de nuevo al tapón de los 140 Mb/seg iniciales.

La forma de solucionar esto es sin duda el raid stripe. Es aquel raid que permite sumar las velocidades de los discos duros que tiene integrados y tiene el inconveniente de que en caso de corrupción del raid perdemos toda la información, pero si es para copias de otros sistemas y el raid se pierde, lo reconstruimos, empezamos otra vez a sacar copias de seguridad y «arreglado».

En casa tengo un raid stripe con 6 barracudas de 1,5Tb. La velocidad de escritura es de 480 Mb/seg y la de lectura 700Mb/seg. Se acabaron los problemas de colas.

Para servir archivos tengo un raid 10 con 4 seagates de 1,5Tb, es decir 3Tb de información segura cuya velocidad de lectura es de 150 Mb/seg. Más que de sobra para instalaciones. Esta información también se puede respaldar en el raid stripe, «por si las moscas».

Ubuntu MegaHomeServer 1.4 – Hardware nuevo o de segunda mano

La obsolescencia puede ser una poderosa aliada para un usuario doméstico que quiera montarse un servidor en Linux. Hay muchos componente de muchísima calidad que cuando salieron al mercado eran inaccesibles para el presupuesto de casa. Hay que saber que comprar y a que precio.

El portal ebay ofrece la posibilidad de adquirir hardware de todo el mundo, mucho procedente de grandes empresas que han renovado sus infraestructuras. Es importante entender que las necesidades de procesamiento de aplicaciones basadas en bases de datos de las empresas de hace unos años superan con creces nuestras necesidades de proceso domésticas.

1. Que comprar de segunda mano.

Hay componentes de ordenador muy resistentes, en los que incluso las horas de utilización son una garantía de funcionamiento. Estos son típicamente las placas y los procesadores. Podemos conseguir una placa con dos xeon o dos opteron de altísima calidad por el mismo precio o muy poco más de lo que nos costaría un procesador estándar de escritorio y una placa nueva con menos prestaciones. El procesador de escritorio alcanza temperaturas mucho mayores y no está pensado para estar conectado dia y noche aunque pueda hacerlo.

Otro componente recomendable son las cajas de gama alta construidas en metal, preferiblemente el aluminio. Debido a su gran tamaño no son fáciles de vender por que tienen elevados costes de embalaje y transporte. Por ebay, si eres paciente puedes encontrar alguna caja de “solo recogida”, y por ello con poca demanda a muy buen precio.

Suele ser necesario un proceso de restauración, limpiándola a fondo con productos antigrasa (KH7), reparando algunos elementos y sustituyendo los ventiladores, pero el metal es metal y sigue sirviendo.

Las tarjetas gráficas también suelen ser una buena opción. Intenta que tengan disipadores pasivos en vez de ventiladores que con el tiempo generan ruido y suelen ser sinónimo de un consumo excesivo de energía.

2. Que comprar con un cierto riesgo.

Comprar ram de segunda mano es una lotería en la que es importantísimo que si picamos lo hagamos con primeras marcas como infineon, kingston o similares. Si la ram ha estado en un equipo con escasa ventilación puede fallarnos en cualquier momento aunque es fácilmente sustituible y raras veces el fallo se traduce en una perdida de información.

3. Que no comprar.

Los discos duros tienen su propia historia y su vida útil se mide en horas. Si compramos un disco de segunda mano debemos pedir que nos digan las horas de funcionamiento, lo que se puede ver en un informe smart del disco. Hay discos defectuosos que siguen funcionando pero que a través de smart vienen avisando del fallo inminente. Si compras un disco de segunda mano, verifica la información smart.

Por regla general fíate de tus discos pues tu sabes el trato que han tenido, y si necesitas ampliar intenta que sean nuevos. Los discos viejos deberías utilizarlos en pares respaldados con raid 0, por si acaso alguno falla.

No es recomendable comprar sais de segunda mano porque las baterías tienen una vida limitada, llegando a ser inútiles. Tampoco es recomendable comprar fuentes de alimentación a no ser que sean de mucha calidad. Si las compras debes desmontarlas y limpiarlas a fondo para que estén bien refrigeradas. Los dispositivos móviles como lectoras de CD o DVD, disquetes,… suelen ser muy baratos nuevos y no merece la pena.

No compres nada fuera de la comunidad europea de bajo precio, como por ejemplo cables, adaptadores, etc … a no ser que te puedas permitir esperar 15 días o un mes. Si estás decidido a montarte el servidor, es lo primero que debes comprar en lo que buscas la placa y el resto de componentes, pues son estándares muy baratos y te servirán. Lo único malo es la espera.

Ubuntu MegaHomeServer 1.3 – Elección del hardware

Vamos a construir un mega-server, lo que no significa que vayamos comprar lo último de lo último, ni lo más caro. Necesitamos ser conscientes de nuestras necesidades y de los recursos que necesitamos para cubrirlas. Seguramente contamos con «retales» informáticos como procesadores, módulos de ram, discos,…

Hemos de ser conscientes que un servidor es un ordenador que se construye para estar constantemente encendido y en el que es tan importante preguntarse las necesidades de rendimiento como las repercusiones en el consumo.

1º. Procesador:

Sería deseable un procesador que no se calentase demasiado y que no consuma demasiada potencia a no ser que se solicite capacidad intensiva de procesamiento. No necesitaremos que sea muy rápido a no ser que lo utilizemos para copias de seguridad del propio sistema que requieran comprimir los datos, la verificación de virus en sistemas que compartimos vía samba, virtualización intensiva o el uso de bases de datos SQL de forma agresiva . Es preferible un sistema multi-núcleo para que todos los núcleos funcionen muy levemente y nunca suba demasiado la temperatura.

2º. Memoria Ram:

Linux consume muy poca ram en comparación con otros sistemas operativos como Windows u OSX. Si no vamos a virtualizar, con dos gigas de ram nos sobrará casi siempre 1,4 Gigas. Sin embargo es recomendable contar con este exceso de ram por si en algún momento necesitamos de ella. Este exceso nos permite evitar el acceso al área swap de intercambio que simula memoria ram sobre el propio disco duro lo que ralentiza el rendimiento del sistema.

La gran razón para aumentar el tamaño de la memoria ram es la virtualización. Un Windows 7 requiere 2 Gb de ram en su versión 386. Un ubuntu en versión gráfica unos 512Mb siendo recomendable aumentarle a 1Gb. Dependiendo de lo que quieras virtualizar tendrás que contar con más o menos ram.

Es importante tener en cuenta que las bahías de ram suelen ser dobles, es decir, tiene un rendimiento mayor la ram alcanzando velocidades superiores cuando se instalan los módulos de dos en dos. Luego normalmente, la ram instalada suelen ser multiplos de 2 Gb.

3º. Tarjeta gráfica:

La mayor parte de las placas de servidor incluyen una gráfica integrada con una memoria de unos 16 Mb. Un servidor no suele necesitar una tarjeta gráfica potente, a no ser que desempeñe labores de escritorio que si lo requieran. En el caso de que tu placa no integre un chipset gráfico, lo mejor es una tarjeta modesta que tenga unos cuatro años de antigüedad. Googlea un poco e informate de la compatibilidad con Linux antes de decidirte por una u otra. Además ten en cuenta que una gráfica potente supone un aumento de consumo eléctrico innecesario para un servidor.

Continuar leyendo «Ubuntu MegaHomeServer 1.3 – Elección del hardware»

Ubuntu MegaHomeServer 1.2 – Elección de la Distribución Linux

Linux Warrior

Cada usuario de Linux tiene su distribución favorita, por sus propias razones.

Para montar nuestro mega server necesitamos:

  1. Una distro sólida en la que los paquetes de software libre sean actualizados con la mayor frecuencia posible para evitar vulnerabilidades de seguridad, y que estén disponibles en fase “stable” y no “testing” para garantizar su uso con entornos de trabajo operativos.
  2. Una distro que saque el máximo jugo al hardware y que cuente con la más amplia selección de drivers para el hardware más reciente. Lo que suele suponer uno de los mayores problemas en Linux. El mejor hardware para linux suele ser el que salió al mercado hará unos cuatro años. La mayor parte de la culpa de esta situación la tienen las propias empresas de hardware que no liberan el código fuente de los drivers para sus dispositivos.
  3. Una distro claramente orientada a los usuarios particulares y que no persiga el mercado de la informática empresarial para acabar vendiendo una versión de su distribución. Por ejemplo, los usuarios de Red Hat notamos en el paso a Fedora como se limitaban las opciones de implementar software libre y se disparaba la demanda de recursos de hardware.
  4. Una distro promiscua en su forma de compartir archivos capaz de comunicarse con máquinas Unix, Linux, Windows, o Macintosh de forma rápida y segura.
  5. Una distro capaz de virtualizar otros sistemas operativos para múltiples propósitos.

Soy un gran admirador de debian, porque es tal vez, la distribución que de forma más eficiente administra los recursos hardware. Es la estrella de las máquinas con procesadores ARM que con una arquitectura a 32 bits y con una cantidad de RAM que varía entre los 32 y los 512 Mb son capaces de movilizar servidores de red con un consumo mínimo. El principal problema de debian es que es muy lento a la hora de implementar nuevas prestaciones de linux, como el nuevo sistema estándar de archivos en Linux, el ext4, y sus actualizaciones de seguridad son menos frecuentes que las del su pariente cercando Ubuntu. Sin embargo, el primor con que la comunidad Debian desarrolla su software “stable” es de envidiar por la mayoría de las distribuciones. El entorno de escritorio deja mucho que desear mostrando un escritorio de gnome bastante anticuado hasta el dia de hoy.

Desde este texto recomiendo debian para Equipos con procesador pentium o inferior, y cuatro discos o menos (Máximo de 4 TB en el conjunto), que no estén orientados ni a la virtualización ni al servicio servidor de internet en entornos caseros que no estén supervisados con cierta frecuencia por un usuario experimentado.

Ubuntu está basado en Debian, y se está convirtiendo en el auténtico estándar Linux para el usuario doméstico, principalmente por la rapidez con que incorpora los avances de la comunidad en los entornos gráficos Gnome, KDE y otros. Hay una enorme cantidad de software disponible actualizado frecuentemente. Ha sido uno de los primeros en incorporar el sistema ext4, y la forma en que se instala inhabilitando el acceso a la shell del usuario root de forma predeterminada y permitiendo el acceso a la administración a través del comando sudo de forma nativa, la hace más segura desde el principio que otras distribuciones que requieren de mucha más configuraciones.

Ofrece una versión específica para los equipos destinados a ser escritorios (desktop) y otra para los servidores de red “Ubuntu Server”.

Además de ambas versiones se ofrece una versión LTS (Long Time Support) que será actualizada a lo largo de cinco años en el caso del servidor, y dos años en el caso de la versión de escritorio.

Esto facilita la elección debido a que un servidor suele quedar instalado sin monitor ni entorno gráfico por razones de seguridad y estabilidad, y la instalación es un poco más tediosa que un equipo de escritorio.

Ubuntu Server permite configurarlo para que se instalen automáticamente las actualizaciones de seguridad sin necesidad de que el administrador introduzca ningún comando.

Ubuntu es además, el Linux más sencillo para configurar Netatalk, el protocolo de linux para intercambiar archivos con máquinas Macintosh de forma nativa, lo que permite usarlo también como servidor de copias de seguridad de Time Machine.

Ubuntu MegaHomeServer 1.1 – Introducción

raid

Este es el primer post de una guía para montarte una red casera de alto rendimiento. Aunque a todo el mundo le puede ser de utilidad, está especialmente diseñada para aquellos que como yo movemos teras y teras de audio y vídeo en casa, y queremos sacarle todo el partido a nuestros equipos.

Muchas son las razones para plantearse instalar un servidor casero, pero la principal es la gran flexibilidad, seguridad y calidad del software libre que pone a nuestro alcance sistemas que de otra forma tendríamos que pagar a un precio muy elevado.

Linux es el principal desencadenante de este fenómeno de principios del siglo XXI, pues con muy pocos recursos de hardware a devuelto a la vida a infinidad de computadoras que otros sistemas operativos dejaban obsoletas a gran velocidad. Al mismo tiempo, Linux fue el primer sistema operativo que llevó de forma real a los hogares y a la mayoría de las empresas la posibilidad de explotar las prestaciones de los procesadores a 64bits, de la mano de la pionera empresa AMD.

En unos años Microsoft y Apple han intentado llevar soluciones similares con productos de pago. Microsoft parece incapaz de subsanar las debilidades de seguridad siendo vulnerable a virus y malware de todo tipo. Apple ha intentado portar su Snow Leopard Server a los hogares ofreciendo prestaciones que el usuario no necesita y limitando las posibilidades de programas de software libre que implementa como apache.

Como decía, Linux comenzó siendo utilizada de forma genérica en ordenadores anticuados o en servidores muy potentes dedicados a las soluciones empresariales.

Ha llegado el momento de conferir a Linux inversiones en hardware relativamente importantes y plantearse que no es el sistema operativo del futuro, sino el del presente. Las “Workstations” de los hogares comienzan a necesitar de sistemas de seguridad avanzados y potentes que respalden de forma efectiva los terabytes de información que requieren los sistemas multimedia ya no solo de edición de video o audio, sino también los “media servers” de películas en formato digital y audio.

Es importante minimizar recursos y centralizar los archivos para evitar duplicados en la red. Gestionar el ancho de banda para la descargas de toda la familia a traves de un programa P2P (peer to peer o puerto a puerto), e incluso implementar un servidor proxy que permitar limitar los contenidos para menores y chequear las páginas con virus que nos podamos encontrar.

Es necesario realizar copias de seguridad de forma automática de las workstations ante cualquier fallo de hardware o software que nos hiciera perder la información, lo que en muchas ocasiones supone terabytes de información que no entran en un disco duro de los más caros y avanzados del mercado. Por otro lado, necesitamos información compartida en la red que se sirva a gran velocidad y de forma segura donde guardar los programas e imágenes de discos del software para realizar instalaciones en un tiempo aceptable.

Como ejemplo, sirvan algunas programas habituales en el mundo del audio y del video, Final Cut Pro es un conjunto de 7 DVD’s que ocupan 50 Gb. Instalar este software a través de la grabadora supondría unas tres o cuatro horas introduciendo “galletas” debido a la limitación del propio formato. Si convertimos estos DVD en archivos dmg (formato estandar de imagen de disco de apple) la única limitación será la rapidez de los discos de origen y destino, y la velocidad de la red.

Cuando hablamos de terabytes de software con características más o menos similares, la necesidad de sistemas que permitan manejar estos procesos de forma ágil comienza a ser imperiosa.

Linux permite de forma nativa el manejar un conjunto de discos como si fueran uno solo, y combinarlos de tal forma que puedan ofrecer una velocidad del conjunto superior a la de las partes. El software que permite realizar estas combinaciones es conocido como DM Raid.

Por otro lado, las tarjetas gigabit con soporte para jumbo frames permiten mandar paquetes grandes por la red a gran velocidad. Su precio relativamente asequible permite al usuario doméstico conectar los ordenadores de trabajo directamente al servidor sin pasar por un “switch” o repartidor de red, lo que aumenta considerablemente la velocidad de transferencia. Si es necesario se puede generar una segunda red, preferiblemente inalámbrica, para que los ordenadores distintos del servidor tengan comunicación directamente entre ellos.

Luego la estrategia para maximizar el rendimiento de la red se basa en dos pilares.

  1. Los discos más lentos y viejos se agruparán en el servidor linux en grupos de respaldo (Raid 1) y grupos stripe (Raid 0) para aumentar la velocidad.
  2. La red será configurada en estrella con interfaces gigabit que soporten jumbo frames y cables cruzados al resto de ordenadores.