Pasa por el Hula Hop

Este tema lo escribimos Fran Bardón y un servidor hace un mes aproximadamente. Nos lo hemos currado muchísimo, y cuando lo terminamos pensamos en ponerle como nuevo single de nuestro disco que de forma inminente está por salir.

La música me vino en sueños. Me levanté deprisa y corriendo y escribí algo de letra, que luego completó y mejoró sustancialmente mi compañero de grupo, Fran. Además de completar armonía y añadir gusto a los arreglos que fueron realizados con un cariño espectacular, buscando la inocencia de un niño que quiere divertirse, incluso cuando todo está en su contra.

Nos faltó mucha letra por meter, pero metimos lof fundamental.
Si alguien piensa que somos una oportunistas se equivoca. Somos los mismos que llevamos sufriendo toda esta mierda desde que empezamos a dedicarnos a la música, y fruto de ese sufrimiento ha nacido este canto de rebeldía.

No nos machacarán ni el corazón, ni el alma.

Somos músicos, espíritus libres, que necesitan de fenómenos como el 15M para seguir soñando y luchando.

Cuando vimos lo que estaba ocurriendo, no nos lo pensamos. Cogimos fotos, utilizamos el vídeo promocional de democraciarealya.es, y lo subimos a internet en cero coma. Pasamos de cualquier tipo de estrategia comercial y para probarlo, hemos ofercido gratuitamente el audio con la máxima calidad en nuestra página. www.nonosisi.com
Se que estamos aconstumbrados a desconfiar, pero no desconfiéis de los que más convencidos están de que todo esto tiene que cambiar.

Los músicos llevamos pasando hambre una década por culpa de todos estos mamonéos.

De corazón, no paséis por el hulahop y haced que todo esto cambie.

Ubuntu MegaHomeServer 1.5 – La regla de la cadena

Aquí no estamos hablando de la famosa regla de la cadena de las Matemáticas para derivar e integrar, así que no cunda el pánico. O si, sí vienes de google buscando una solución al control de mañana. Si es un examen final, mejor vete a dormir.

La regla de la cadena en informática y el cualquier proceso constituido por elementos encadenados es que la velocidad y eficiencia del sistema está limitado al más débil de los elementos de la cadena.

Así por ejemplo de nada nos sirve un raid stripe que alcanze los 500 Mb/seg, si luego vamos a pasar un puerto ehernet de 100Mb/seg. Algo parecido pasa también con el software. Dependiendo del protocolo que implementemos para intercambiar archivos alcanzaremos velocidades distintas.

1. La red .

Normalmente las redes domésticas y empresariales suelen pasar por un repartidos de red (switch) lo que es muy recomendable para que los usuarios intercambién archivos entre sí al poder conectarse directamente cono otros equipos. El problema que genera este tipo de estructura a un servidor es que está condenado (salvo configuraciones bastante avanzadas) a que todas las conexiones del resto de ordenadores con él pasen por un único puerto ethernet, lo que genera tapones en la entrada y ralentiza las transmisiones de copias de seguridad grandes (TimeMachine) o instalaciones de librerías enormes (Logic o Final Cut).

La alternativa para prescindir del «switch» cuando tenemos pocos ordenadores ( entre 2 y 20, y no os asustéis que esto es teórico; que yo no tengo 20 ordenadores en casa) es montar la red en estrella.

¿Qué significa esto? Que todos los ordenadores se conectan directamente a nuestro servidor, y a través de él a internet. Esto nos permite eliminar uno de los eslabones más débiles de la red que es el repartidos de puertos, y optimizar las conexiones individuales.

Esto presenta el inconveniente de que si los terminales quieren compartir información entre ellos tendrían que dejarla primero en el servidor el terminal emisor, y después descargarla el receptor. Para solucionar esto podemos crear una red secundaria (inalámbrica) para este tipo de conexiones no intensivas en consumo de red: navegar por internet con el portatil o acceder con el iphone, …

Cuando los archivos son grandes lo habitual es que estén en el servidor.

2. Discos duros en red:

Un BarracudaXT alcanza una velocidad de 140 Mb/seg (según seagate).  Al pasar a ethernet esto se queda en unos 100Mb/seg, con jumbro frames en la gigabit y appletalk de protocolo (el más rápido y fiable según mi experiencia). Esta es la carga que el servidor deberá aguantar.

Si tenemos tres ordenadores a parte del servidor (uno en la tele, otro el portatil, otro en el estudio, otro para …. y yo que sé), la carga simultanea si hacemos copias de seguridad puede alcanzar los 300 Mb/seg. Si el servidor tiene instalado un disco en el que volcamos nuestras copias de seguridad, volvemos de nuevo al tapón de los 140 Mb/seg iniciales.

La forma de solucionar esto es sin duda el raid stripe. Es aquel raid que permite sumar las velocidades de los discos duros que tiene integrados y tiene el inconveniente de que en caso de corrupción del raid perdemos toda la información, pero si es para copias de otros sistemas y el raid se pierde, lo reconstruimos, empezamos otra vez a sacar copias de seguridad y «arreglado».

En casa tengo un raid stripe con 6 barracudas de 1,5Tb. La velocidad de escritura es de 480 Mb/seg y la de lectura 700Mb/seg. Se acabaron los problemas de colas.

Para servir archivos tengo un raid 10 con 4 seagates de 1,5Tb, es decir 3Tb de información segura cuya velocidad de lectura es de 150 Mb/seg. Más que de sobra para instalaciones. Esta información también se puede respaldar en el raid stripe, «por si las moscas».

Ubuntu MegaHomeServer 1.4 – Hardware nuevo o de segunda mano

La obsolescencia puede ser una poderosa aliada para un usuario doméstico que quiera montarse un servidor en Linux. Hay muchos componente de muchísima calidad que cuando salieron al mercado eran inaccesibles para el presupuesto de casa. Hay que saber que comprar y a que precio.

El portal ebay ofrece la posibilidad de adquirir hardware de todo el mundo, mucho procedente de grandes empresas que han renovado sus infraestructuras. Es importante entender que las necesidades de procesamiento de aplicaciones basadas en bases de datos de las empresas de hace unos años superan con creces nuestras necesidades de proceso domésticas.

1. Que comprar de segunda mano.

Hay componentes de ordenador muy resistentes, en los que incluso las horas de utilización son una garantía de funcionamiento. Estos son típicamente las placas y los procesadores. Podemos conseguir una placa con dos xeon o dos opteron de altísima calidad por el mismo precio o muy poco más de lo que nos costaría un procesador estándar de escritorio y una placa nueva con menos prestaciones. El procesador de escritorio alcanza temperaturas mucho mayores y no está pensado para estar conectado dia y noche aunque pueda hacerlo.

Otro componente recomendable son las cajas de gama alta construidas en metal, preferiblemente el aluminio. Debido a su gran tamaño no son fáciles de vender por que tienen elevados costes de embalaje y transporte. Por ebay, si eres paciente puedes encontrar alguna caja de “solo recogida”, y por ello con poca demanda a muy buen precio.

Suele ser necesario un proceso de restauración, limpiándola a fondo con productos antigrasa (KH7), reparando algunos elementos y sustituyendo los ventiladores, pero el metal es metal y sigue sirviendo.

Las tarjetas gráficas también suelen ser una buena opción. Intenta que tengan disipadores pasivos en vez de ventiladores que con el tiempo generan ruido y suelen ser sinónimo de un consumo excesivo de energía.

2. Que comprar con un cierto riesgo.

Comprar ram de segunda mano es una lotería en la que es importantísimo que si picamos lo hagamos con primeras marcas como infineon, kingston o similares. Si la ram ha estado en un equipo con escasa ventilación puede fallarnos en cualquier momento aunque es fácilmente sustituible y raras veces el fallo se traduce en una perdida de información.

3. Que no comprar.

Los discos duros tienen su propia historia y su vida útil se mide en horas. Si compramos un disco de segunda mano debemos pedir que nos digan las horas de funcionamiento, lo que se puede ver en un informe smart del disco. Hay discos defectuosos que siguen funcionando pero que a través de smart vienen avisando del fallo inminente. Si compras un disco de segunda mano, verifica la información smart.

Por regla general fíate de tus discos pues tu sabes el trato que han tenido, y si necesitas ampliar intenta que sean nuevos. Los discos viejos deberías utilizarlos en pares respaldados con raid 0, por si acaso alguno falla.

No es recomendable comprar sais de segunda mano porque las baterías tienen una vida limitada, llegando a ser inútiles. Tampoco es recomendable comprar fuentes de alimentación a no ser que sean de mucha calidad. Si las compras debes desmontarlas y limpiarlas a fondo para que estén bien refrigeradas. Los dispositivos móviles como lectoras de CD o DVD, disquetes,… suelen ser muy baratos nuevos y no merece la pena.

No compres nada fuera de la comunidad europea de bajo precio, como por ejemplo cables, adaptadores, etc … a no ser que te puedas permitir esperar 15 días o un mes. Si estás decidido a montarte el servidor, es lo primero que debes comprar en lo que buscas la placa y el resto de componentes, pues son estándares muy baratos y te servirán. Lo único malo es la espera.

Ubuntu MegaHomeServer 1.3 – Elección del hardware

Vamos a construir un mega-server, lo que no significa que vayamos comprar lo último de lo último, ni lo más caro. Necesitamos ser conscientes de nuestras necesidades y de los recursos que necesitamos para cubrirlas. Seguramente contamos con «retales» informáticos como procesadores, módulos de ram, discos,…

Hemos de ser conscientes que un servidor es un ordenador que se construye para estar constantemente encendido y en el que es tan importante preguntarse las necesidades de rendimiento como las repercusiones en el consumo.

1º. Procesador:

Sería deseable un procesador que no se calentase demasiado y que no consuma demasiada potencia a no ser que se solicite capacidad intensiva de procesamiento. No necesitaremos que sea muy rápido a no ser que lo utilizemos para copias de seguridad del propio sistema que requieran comprimir los datos, la verificación de virus en sistemas que compartimos vía samba, virtualización intensiva o el uso de bases de datos SQL de forma agresiva . Es preferible un sistema multi-núcleo para que todos los núcleos funcionen muy levemente y nunca suba demasiado la temperatura.

2º. Memoria Ram:

Linux consume muy poca ram en comparación con otros sistemas operativos como Windows u OSX. Si no vamos a virtualizar, con dos gigas de ram nos sobrará casi siempre 1,4 Gigas. Sin embargo es recomendable contar con este exceso de ram por si en algún momento necesitamos de ella. Este exceso nos permite evitar el acceso al área swap de intercambio que simula memoria ram sobre el propio disco duro lo que ralentiza el rendimiento del sistema.

La gran razón para aumentar el tamaño de la memoria ram es la virtualización. Un Windows 7 requiere 2 Gb de ram en su versión 386. Un ubuntu en versión gráfica unos 512Mb siendo recomendable aumentarle a 1Gb. Dependiendo de lo que quieras virtualizar tendrás que contar con más o menos ram.

Es importante tener en cuenta que las bahías de ram suelen ser dobles, es decir, tiene un rendimiento mayor la ram alcanzando velocidades superiores cuando se instalan los módulos de dos en dos. Luego normalmente, la ram instalada suelen ser multiplos de 2 Gb.

3º. Tarjeta gráfica:

La mayor parte de las placas de servidor incluyen una gráfica integrada con una memoria de unos 16 Mb. Un servidor no suele necesitar una tarjeta gráfica potente, a no ser que desempeñe labores de escritorio que si lo requieran. En el caso de que tu placa no integre un chipset gráfico, lo mejor es una tarjeta modesta que tenga unos cuatro años de antigüedad. Googlea un poco e informate de la compatibilidad con Linux antes de decidirte por una u otra. Además ten en cuenta que una gráfica potente supone un aumento de consumo eléctrico innecesario para un servidor.

Continuar leyendo «Ubuntu MegaHomeServer 1.3 – Elección del hardware»

Ubuntu MegaHomeServer 1.2 – Elección de la Distribución Linux

Linux Warrior

Cada usuario de Linux tiene su distribución favorita, por sus propias razones.

Para montar nuestro mega server necesitamos:

  1. Una distro sólida en la que los paquetes de software libre sean actualizados con la mayor frecuencia posible para evitar vulnerabilidades de seguridad, y que estén disponibles en fase “stable” y no “testing” para garantizar su uso con entornos de trabajo operativos.
  2. Una distro que saque el máximo jugo al hardware y que cuente con la más amplia selección de drivers para el hardware más reciente. Lo que suele suponer uno de los mayores problemas en Linux. El mejor hardware para linux suele ser el que salió al mercado hará unos cuatro años. La mayor parte de la culpa de esta situación la tienen las propias empresas de hardware que no liberan el código fuente de los drivers para sus dispositivos.
  3. Una distro claramente orientada a los usuarios particulares y que no persiga el mercado de la informática empresarial para acabar vendiendo una versión de su distribución. Por ejemplo, los usuarios de Red Hat notamos en el paso a Fedora como se limitaban las opciones de implementar software libre y se disparaba la demanda de recursos de hardware.
  4. Una distro promiscua en su forma de compartir archivos capaz de comunicarse con máquinas Unix, Linux, Windows, o Macintosh de forma rápida y segura.
  5. Una distro capaz de virtualizar otros sistemas operativos para múltiples propósitos.

Soy un gran admirador de debian, porque es tal vez, la distribución que de forma más eficiente administra los recursos hardware. Es la estrella de las máquinas con procesadores ARM que con una arquitectura a 32 bits y con una cantidad de RAM que varía entre los 32 y los 512 Mb son capaces de movilizar servidores de red con un consumo mínimo. El principal problema de debian es que es muy lento a la hora de implementar nuevas prestaciones de linux, como el nuevo sistema estándar de archivos en Linux, el ext4, y sus actualizaciones de seguridad son menos frecuentes que las del su pariente cercando Ubuntu. Sin embargo, el primor con que la comunidad Debian desarrolla su software “stable” es de envidiar por la mayoría de las distribuciones. El entorno de escritorio deja mucho que desear mostrando un escritorio de gnome bastante anticuado hasta el dia de hoy.

Desde este texto recomiendo debian para Equipos con procesador pentium o inferior, y cuatro discos o menos (Máximo de 4 TB en el conjunto), que no estén orientados ni a la virtualización ni al servicio servidor de internet en entornos caseros que no estén supervisados con cierta frecuencia por un usuario experimentado.

Ubuntu está basado en Debian, y se está convirtiendo en el auténtico estándar Linux para el usuario doméstico, principalmente por la rapidez con que incorpora los avances de la comunidad en los entornos gráficos Gnome, KDE y otros. Hay una enorme cantidad de software disponible actualizado frecuentemente. Ha sido uno de los primeros en incorporar el sistema ext4, y la forma en que se instala inhabilitando el acceso a la shell del usuario root de forma predeterminada y permitiendo el acceso a la administración a través del comando sudo de forma nativa, la hace más segura desde el principio que otras distribuciones que requieren de mucha más configuraciones.

Ofrece una versión específica para los equipos destinados a ser escritorios (desktop) y otra para los servidores de red “Ubuntu Server”.

Además de ambas versiones se ofrece una versión LTS (Long Time Support) que será actualizada a lo largo de cinco años en el caso del servidor, y dos años en el caso de la versión de escritorio.

Esto facilita la elección debido a que un servidor suele quedar instalado sin monitor ni entorno gráfico por razones de seguridad y estabilidad, y la instalación es un poco más tediosa que un equipo de escritorio.

Ubuntu Server permite configurarlo para que se instalen automáticamente las actualizaciones de seguridad sin necesidad de que el administrador introduzca ningún comando.

Ubuntu es además, el Linux más sencillo para configurar Netatalk, el protocolo de linux para intercambiar archivos con máquinas Macintosh de forma nativa, lo que permite usarlo también como servidor de copias de seguridad de Time Machine.

Ubuntu MegaHomeServer 1.1 – Introducción

raid

Este es el primer post de una guía para montarte una red casera de alto rendimiento. Aunque a todo el mundo le puede ser de utilidad, está especialmente diseñada para aquellos que como yo movemos teras y teras de audio y vídeo en casa, y queremos sacarle todo el partido a nuestros equipos.

Muchas son las razones para plantearse instalar un servidor casero, pero la principal es la gran flexibilidad, seguridad y calidad del software libre que pone a nuestro alcance sistemas que de otra forma tendríamos que pagar a un precio muy elevado.

Linux es el principal desencadenante de este fenómeno de principios del siglo XXI, pues con muy pocos recursos de hardware a devuelto a la vida a infinidad de computadoras que otros sistemas operativos dejaban obsoletas a gran velocidad. Al mismo tiempo, Linux fue el primer sistema operativo que llevó de forma real a los hogares y a la mayoría de las empresas la posibilidad de explotar las prestaciones de los procesadores a 64bits, de la mano de la pionera empresa AMD.

En unos años Microsoft y Apple han intentado llevar soluciones similares con productos de pago. Microsoft parece incapaz de subsanar las debilidades de seguridad siendo vulnerable a virus y malware de todo tipo. Apple ha intentado portar su Snow Leopard Server a los hogares ofreciendo prestaciones que el usuario no necesita y limitando las posibilidades de programas de software libre que implementa como apache.

Como decía, Linux comenzó siendo utilizada de forma genérica en ordenadores anticuados o en servidores muy potentes dedicados a las soluciones empresariales.

Ha llegado el momento de conferir a Linux inversiones en hardware relativamente importantes y plantearse que no es el sistema operativo del futuro, sino el del presente. Las “Workstations” de los hogares comienzan a necesitar de sistemas de seguridad avanzados y potentes que respalden de forma efectiva los terabytes de información que requieren los sistemas multimedia ya no solo de edición de video o audio, sino también los “media servers” de películas en formato digital y audio.

Es importante minimizar recursos y centralizar los archivos para evitar duplicados en la red. Gestionar el ancho de banda para la descargas de toda la familia a traves de un programa P2P (peer to peer o puerto a puerto), e incluso implementar un servidor proxy que permitar limitar los contenidos para menores y chequear las páginas con virus que nos podamos encontrar.

Es necesario realizar copias de seguridad de forma automática de las workstations ante cualquier fallo de hardware o software que nos hiciera perder la información, lo que en muchas ocasiones supone terabytes de información que no entran en un disco duro de los más caros y avanzados del mercado. Por otro lado, necesitamos información compartida en la red que se sirva a gran velocidad y de forma segura donde guardar los programas e imágenes de discos del software para realizar instalaciones en un tiempo aceptable.

Como ejemplo, sirvan algunas programas habituales en el mundo del audio y del video, Final Cut Pro es un conjunto de 7 DVD’s que ocupan 50 Gb. Instalar este software a través de la grabadora supondría unas tres o cuatro horas introduciendo “galletas” debido a la limitación del propio formato. Si convertimos estos DVD en archivos dmg (formato estandar de imagen de disco de apple) la única limitación será la rapidez de los discos de origen y destino, y la velocidad de la red.

Cuando hablamos de terabytes de software con características más o menos similares, la necesidad de sistemas que permitan manejar estos procesos de forma ágil comienza a ser imperiosa.

Linux permite de forma nativa el manejar un conjunto de discos como si fueran uno solo, y combinarlos de tal forma que puedan ofrecer una velocidad del conjunto superior a la de las partes. El software que permite realizar estas combinaciones es conocido como DM Raid.

Por otro lado, las tarjetas gigabit con soporte para jumbo frames permiten mandar paquetes grandes por la red a gran velocidad. Su precio relativamente asequible permite al usuario doméstico conectar los ordenadores de trabajo directamente al servidor sin pasar por un “switch” o repartidor de red, lo que aumenta considerablemente la velocidad de transferencia. Si es necesario se puede generar una segunda red, preferiblemente inalámbrica, para que los ordenadores distintos del servidor tengan comunicación directamente entre ellos.

Luego la estrategia para maximizar el rendimiento de la red se basa en dos pilares.

  1. Los discos más lentos y viejos se agruparán en el servidor linux en grupos de respaldo (Raid 1) y grupos stripe (Raid 0) para aumentar la velocidad.
  2. La red será configurada en estrella con interfaces gigabit que soporten jumbo frames y cables cruzados al resto de ordenadores.

NONOSISI EP2

08-09-10 (12) Sapa-Tribus

Esta es la imagen del EP2 de NONOSISI. Foto que tiró una gran amiga en uno de sus viajes a Vietnam y que tomo prestada para nuestro segundo EP.
Creo que la imagen habla por sí misma sin que exista una relación causal entre lo que dicen nuestras letras y lo que aparece en la imagen. Sin embargo, la inocencia, la humildad y el desconcierto creo que nos ponen en comunicación sobre un tema común difícil de verbalizar.

Hablando del nuevo EP, estamos sorprendidos y felices de estar alcanzando cotas de calidad inesperadas. Sinceramente creo que estamos a la vanguardia de la música de este país.

La mezcla de Fran y Paco está sintetizándose en un nuevo lenguajes que respira solidaridad, verdad y ganas de vivir, sonar y tocar. Creo que no podemos pedir más los NONOSISI, únicamente implorar que nos deis la oportunidad de compartir todo lo bueno que estamos consiguiendo con tantas horas de estudio, y los conciertos que daremos al año que viene.

Estoy muy contento.

Macintosh o Hackintosh, esa es la cuestión

hackintosh_logo_by_jonzy-d4z6d1o

Desde que Apple se pasó a Intel la informática para usuario ha basculado claramente a favor de Unix, en sus variantes OSX y Linux, gracias al inapreciable esfuerzo de Microsoft de no evolucionar casi nada desde el Windows XP. Windows 7 incluso se ha mejorado para poder ser virtualizado y virtualizar.

Una cuarta vía, absolutamente ilegal pero apasionante, es el proyecto OSX86 que podéis visitar en http://www.osx86project.org/ . Es decir, montar OSX sobre un PC con hardware compatible o portable a Mac.

Un hackintosh no es un mac aunque corra el mismo sistema operativo por las siguientes razones:

1º. No es estable: una actualización de apple te puede tirar la máquina y complicarte seriamente la vida haciendote pasar horas y horas reinstalandolo todo.

2º. En la mayoría de los casos o es más caro o tiene el mismo precio que un mac equivalente.

3º. Suele ser una auténtica locura conseguir los kext adecuados cuando los encuentras para tu hardware.

4º. La suspensión e hibernación o no funcionan o te dejan la máquina colgada en el 90% de los casos.

La gran alternativa a OSX es Linux, sobre todo a nivel servidor. En mi opinión Ubuntu y Debian son los mejores servidores para el mundo Mac, con soporte nativo para intercambio de archivos (netatalk) y mucho más flexible que OSX Server a la hora de configurar un servidor web, aunque el servidor de correo sea bastante difícil de configurar.

Un Linux robusto con 4 Gb de Ram o más, es capaz de virtualizar un Windows y darnos todas las herramientas de diseño y ofimática que necesita el 99% de los usuarios de PC. Wine permite ejecutar muchísimos juegos y X11 sacarle todo el jugo a las gráficas más modestas.

Donde OSX no tiene rival es en Audio y Video profesional. Aplicaciones como Logic, Final Cut junto a un mac potente, son simplemente mejores y más baratas que los pcs que corren aplicaciones parecidas, siempre pendientes de antivirus y programas inutiles que se meriendan un 50% de la potencia de los procesadores simplemente por el mero hecho de estar encendidos.

Estoy preparando un Ubuntu Server con dos procesadores XEON que le saqué a un Mac Pro que amplié a ocho núcleos, y estoy comprando componentes de segunda mano para montar una torre con doce discos duros en Raid… cuando he terminado de configurar el ordenador me he pasado por 0sx86project y he comprobado para mi sorpresa que el equipo es 100% compatible… pero me que en Ubuntu porque es gratuito, legal, estable… y me ofrece un rendimiento que un mac pro con sus pocas ranuras de expansion y sus solo cuatro discos duros, en red no me puede ofrecer.

Y no tengo tanta pasta como para meterme en fibra optica y discos de 15000rpm.

La tecnología iscsi, las gigabits con jumbo frames y los raid 10 en ubuntu, me dan unos 450 Mb/seg de transferencia en red…. Bastante, pasa ser gratuito. ¿no os parece?

Tan afortunado

Sé que es raro en estos tiempos de crisis ser tan afortunado. Incluso, parece indecente.
Pero soy féliz y siguiendo mi vieja tradición premonitoria, vivo lo que compongo tiempo después, así que a lo mejor el secreto está en cantar aquello que deseamos vivir y esperar a que simplemente ocurra.

Este tema forma parte del repertorio de NONOSISI, grupo al cual pertenezco. Podéis ver otros temas y noticias del grupo en www.nonosisi.com aunque parezca increíble.