Ubuntu MegaHomeServer 1.5 – La regla de la cadena

Aquí no estamos hablando de la famosa regla de la cadena de las Matemáticas para derivar e integrar, así que no cunda el pánico. O si, sí vienes de google buscando una solución al control de mañana. Si es un examen final, mejor vete a dormir.

La regla de la cadena en informática y el cualquier proceso constituido por elementos encadenados es que la velocidad y eficiencia del sistema está limitado al más débil de los elementos de la cadena.

Así por ejemplo de nada nos sirve un raid stripe que alcanze los 500 Mb/seg, si luego vamos a pasar un puerto ehernet de 100Mb/seg. Algo parecido pasa también con el software. Dependiendo del protocolo que implementemos para intercambiar archivos alcanzaremos velocidades distintas.

1. La red .

Normalmente las redes domésticas y empresariales suelen pasar por un repartidos de red (switch) lo que es muy recomendable para que los usuarios intercambién archivos entre sí al poder conectarse directamente cono otros equipos. El problema que genera este tipo de estructura a un servidor es que está condenado (salvo configuraciones bastante avanzadas) a que todas las conexiones del resto de ordenadores con él pasen por un único puerto ethernet, lo que genera tapones en la entrada y ralentiza las transmisiones de copias de seguridad grandes (TimeMachine) o instalaciones de librerías enormes (Logic o Final Cut).

La alternativa para prescindir del «switch» cuando tenemos pocos ordenadores ( entre 2 y 20, y no os asustéis que esto es teórico; que yo no tengo 20 ordenadores en casa) es montar la red en estrella.

¿Qué significa esto? Que todos los ordenadores se conectan directamente a nuestro servidor, y a través de él a internet. Esto nos permite eliminar uno de los eslabones más débiles de la red que es el repartidos de puertos, y optimizar las conexiones individuales.

Esto presenta el inconveniente de que si los terminales quieren compartir información entre ellos tendrían que dejarla primero en el servidor el terminal emisor, y después descargarla el receptor. Para solucionar esto podemos crear una red secundaria (inalámbrica) para este tipo de conexiones no intensivas en consumo de red: navegar por internet con el portatil o acceder con el iphone, …

Cuando los archivos son grandes lo habitual es que estén en el servidor.

2. Discos duros en red:

Un BarracudaXT alcanza una velocidad de 140 Mb/seg (según seagate).  Al pasar a ethernet esto se queda en unos 100Mb/seg, con jumbro frames en la gigabit y appletalk de protocolo (el más rápido y fiable según mi experiencia). Esta es la carga que el servidor deberá aguantar.

Si tenemos tres ordenadores a parte del servidor (uno en la tele, otro el portatil, otro en el estudio, otro para …. y yo que sé), la carga simultanea si hacemos copias de seguridad puede alcanzar los 300 Mb/seg. Si el servidor tiene instalado un disco en el que volcamos nuestras copias de seguridad, volvemos de nuevo al tapón de los 140 Mb/seg iniciales.

La forma de solucionar esto es sin duda el raid stripe. Es aquel raid que permite sumar las velocidades de los discos duros que tiene integrados y tiene el inconveniente de que en caso de corrupción del raid perdemos toda la información, pero si es para copias de otros sistemas y el raid se pierde, lo reconstruimos, empezamos otra vez a sacar copias de seguridad y «arreglado».

En casa tengo un raid stripe con 6 barracudas de 1,5Tb. La velocidad de escritura es de 480 Mb/seg y la de lectura 700Mb/seg. Se acabaron los problemas de colas.

Para servir archivos tengo un raid 10 con 4 seagates de 1,5Tb, es decir 3Tb de información segura cuya velocidad de lectura es de 150 Mb/seg. Más que de sobra para instalaciones. Esta información también se puede respaldar en el raid stripe, «por si las moscas».

Ubuntu MegaHomeServer 1.4 – Hardware nuevo o de segunda mano

La obsolescencia puede ser una poderosa aliada para un usuario doméstico que quiera montarse un servidor en Linux. Hay muchos componente de muchísima calidad que cuando salieron al mercado eran inaccesibles para el presupuesto de casa. Hay que saber que comprar y a que precio.

El portal ebay ofrece la posibilidad de adquirir hardware de todo el mundo, mucho procedente de grandes empresas que han renovado sus infraestructuras. Es importante entender que las necesidades de procesamiento de aplicaciones basadas en bases de datos de las empresas de hace unos años superan con creces nuestras necesidades de proceso domésticas.

1. Que comprar de segunda mano.

Hay componentes de ordenador muy resistentes, en los que incluso las horas de utilización son una garantía de funcionamiento. Estos son típicamente las placas y los procesadores. Podemos conseguir una placa con dos xeon o dos opteron de altísima calidad por el mismo precio o muy poco más de lo que nos costaría un procesador estándar de escritorio y una placa nueva con menos prestaciones. El procesador de escritorio alcanza temperaturas mucho mayores y no está pensado para estar conectado dia y noche aunque pueda hacerlo.

Otro componente recomendable son las cajas de gama alta construidas en metal, preferiblemente el aluminio. Debido a su gran tamaño no son fáciles de vender por que tienen elevados costes de embalaje y transporte. Por ebay, si eres paciente puedes encontrar alguna caja de “solo recogida”, y por ello con poca demanda a muy buen precio.

Suele ser necesario un proceso de restauración, limpiándola a fondo con productos antigrasa (KH7), reparando algunos elementos y sustituyendo los ventiladores, pero el metal es metal y sigue sirviendo.

Las tarjetas gráficas también suelen ser una buena opción. Intenta que tengan disipadores pasivos en vez de ventiladores que con el tiempo generan ruido y suelen ser sinónimo de un consumo excesivo de energía.

2. Que comprar con un cierto riesgo.

Comprar ram de segunda mano es una lotería en la que es importantísimo que si picamos lo hagamos con primeras marcas como infineon, kingston o similares. Si la ram ha estado en un equipo con escasa ventilación puede fallarnos en cualquier momento aunque es fácilmente sustituible y raras veces el fallo se traduce en una perdida de información.

3. Que no comprar.

Los discos duros tienen su propia historia y su vida útil se mide en horas. Si compramos un disco de segunda mano debemos pedir que nos digan las horas de funcionamiento, lo que se puede ver en un informe smart del disco. Hay discos defectuosos que siguen funcionando pero que a través de smart vienen avisando del fallo inminente. Si compras un disco de segunda mano, verifica la información smart.

Por regla general fíate de tus discos pues tu sabes el trato que han tenido, y si necesitas ampliar intenta que sean nuevos. Los discos viejos deberías utilizarlos en pares respaldados con raid 0, por si acaso alguno falla.

No es recomendable comprar sais de segunda mano porque las baterías tienen una vida limitada, llegando a ser inútiles. Tampoco es recomendable comprar fuentes de alimentación a no ser que sean de mucha calidad. Si las compras debes desmontarlas y limpiarlas a fondo para que estén bien refrigeradas. Los dispositivos móviles como lectoras de CD o DVD, disquetes,… suelen ser muy baratos nuevos y no merece la pena.

No compres nada fuera de la comunidad europea de bajo precio, como por ejemplo cables, adaptadores, etc … a no ser que te puedas permitir esperar 15 días o un mes. Si estás decidido a montarte el servidor, es lo primero que debes comprar en lo que buscas la placa y el resto de componentes, pues son estándares muy baratos y te servirán. Lo único malo es la espera.

Ubuntu MegaHomeServer 1.3 – Elección del hardware

Vamos a construir un mega-server, lo que no significa que vayamos comprar lo último de lo último, ni lo más caro. Necesitamos ser conscientes de nuestras necesidades y de los recursos que necesitamos para cubrirlas. Seguramente contamos con «retales» informáticos como procesadores, módulos de ram, discos,…

Hemos de ser conscientes que un servidor es un ordenador que se construye para estar constantemente encendido y en el que es tan importante preguntarse las necesidades de rendimiento como las repercusiones en el consumo.

1º. Procesador:

Sería deseable un procesador que no se calentase demasiado y que no consuma demasiada potencia a no ser que se solicite capacidad intensiva de procesamiento. No necesitaremos que sea muy rápido a no ser que lo utilizemos para copias de seguridad del propio sistema que requieran comprimir los datos, la verificación de virus en sistemas que compartimos vía samba, virtualización intensiva o el uso de bases de datos SQL de forma agresiva . Es preferible un sistema multi-núcleo para que todos los núcleos funcionen muy levemente y nunca suba demasiado la temperatura.

2º. Memoria Ram:

Linux consume muy poca ram en comparación con otros sistemas operativos como Windows u OSX. Si no vamos a virtualizar, con dos gigas de ram nos sobrará casi siempre 1,4 Gigas. Sin embargo es recomendable contar con este exceso de ram por si en algún momento necesitamos de ella. Este exceso nos permite evitar el acceso al área swap de intercambio que simula memoria ram sobre el propio disco duro lo que ralentiza el rendimiento del sistema.

La gran razón para aumentar el tamaño de la memoria ram es la virtualización. Un Windows 7 requiere 2 Gb de ram en su versión 386. Un ubuntu en versión gráfica unos 512Mb siendo recomendable aumentarle a 1Gb. Dependiendo de lo que quieras virtualizar tendrás que contar con más o menos ram.

Es importante tener en cuenta que las bahías de ram suelen ser dobles, es decir, tiene un rendimiento mayor la ram alcanzando velocidades superiores cuando se instalan los módulos de dos en dos. Luego normalmente, la ram instalada suelen ser multiplos de 2 Gb.

3º. Tarjeta gráfica:

La mayor parte de las placas de servidor incluyen una gráfica integrada con una memoria de unos 16 Mb. Un servidor no suele necesitar una tarjeta gráfica potente, a no ser que desempeñe labores de escritorio que si lo requieran. En el caso de que tu placa no integre un chipset gráfico, lo mejor es una tarjeta modesta que tenga unos cuatro años de antigüedad. Googlea un poco e informate de la compatibilidad con Linux antes de decidirte por una u otra. Además ten en cuenta que una gráfica potente supone un aumento de consumo eléctrico innecesario para un servidor.

Continuar leyendo «Ubuntu MegaHomeServer 1.3 – Elección del hardware»

Ubuntu MegaHomeServer 1.2 – Elección de la Distribución Linux

Linux Warrior

Cada usuario de Linux tiene su distribución favorita, por sus propias razones.

Para montar nuestro mega server necesitamos:

  1. Una distro sólida en la que los paquetes de software libre sean actualizados con la mayor frecuencia posible para evitar vulnerabilidades de seguridad, y que estén disponibles en fase “stable” y no “testing” para garantizar su uso con entornos de trabajo operativos.
  2. Una distro que saque el máximo jugo al hardware y que cuente con la más amplia selección de drivers para el hardware más reciente. Lo que suele suponer uno de los mayores problemas en Linux. El mejor hardware para linux suele ser el que salió al mercado hará unos cuatro años. La mayor parte de la culpa de esta situación la tienen las propias empresas de hardware que no liberan el código fuente de los drivers para sus dispositivos.
  3. Una distro claramente orientada a los usuarios particulares y que no persiga el mercado de la informática empresarial para acabar vendiendo una versión de su distribución. Por ejemplo, los usuarios de Red Hat notamos en el paso a Fedora como se limitaban las opciones de implementar software libre y se disparaba la demanda de recursos de hardware.
  4. Una distro promiscua en su forma de compartir archivos capaz de comunicarse con máquinas Unix, Linux, Windows, o Macintosh de forma rápida y segura.
  5. Una distro capaz de virtualizar otros sistemas operativos para múltiples propósitos.

Soy un gran admirador de debian, porque es tal vez, la distribución que de forma más eficiente administra los recursos hardware. Es la estrella de las máquinas con procesadores ARM que con una arquitectura a 32 bits y con una cantidad de RAM que varía entre los 32 y los 512 Mb son capaces de movilizar servidores de red con un consumo mínimo. El principal problema de debian es que es muy lento a la hora de implementar nuevas prestaciones de linux, como el nuevo sistema estándar de archivos en Linux, el ext4, y sus actualizaciones de seguridad son menos frecuentes que las del su pariente cercando Ubuntu. Sin embargo, el primor con que la comunidad Debian desarrolla su software “stable” es de envidiar por la mayoría de las distribuciones. El entorno de escritorio deja mucho que desear mostrando un escritorio de gnome bastante anticuado hasta el dia de hoy.

Desde este texto recomiendo debian para Equipos con procesador pentium o inferior, y cuatro discos o menos (Máximo de 4 TB en el conjunto), que no estén orientados ni a la virtualización ni al servicio servidor de internet en entornos caseros que no estén supervisados con cierta frecuencia por un usuario experimentado.

Ubuntu está basado en Debian, y se está convirtiendo en el auténtico estándar Linux para el usuario doméstico, principalmente por la rapidez con que incorpora los avances de la comunidad en los entornos gráficos Gnome, KDE y otros. Hay una enorme cantidad de software disponible actualizado frecuentemente. Ha sido uno de los primeros en incorporar el sistema ext4, y la forma en que se instala inhabilitando el acceso a la shell del usuario root de forma predeterminada y permitiendo el acceso a la administración a través del comando sudo de forma nativa, la hace más segura desde el principio que otras distribuciones que requieren de mucha más configuraciones.

Ofrece una versión específica para los equipos destinados a ser escritorios (desktop) y otra para los servidores de red “Ubuntu Server”.

Además de ambas versiones se ofrece una versión LTS (Long Time Support) que será actualizada a lo largo de cinco años en el caso del servidor, y dos años en el caso de la versión de escritorio.

Esto facilita la elección debido a que un servidor suele quedar instalado sin monitor ni entorno gráfico por razones de seguridad y estabilidad, y la instalación es un poco más tediosa que un equipo de escritorio.

Ubuntu Server permite configurarlo para que se instalen automáticamente las actualizaciones de seguridad sin necesidad de que el administrador introduzca ningún comando.

Ubuntu es además, el Linux más sencillo para configurar Netatalk, el protocolo de linux para intercambiar archivos con máquinas Macintosh de forma nativa, lo que permite usarlo también como servidor de copias de seguridad de Time Machine.

Ubuntu MegaHomeServer 1.1 – Introducción

raid

Este es el primer post de una guía para montarte una red casera de alto rendimiento. Aunque a todo el mundo le puede ser de utilidad, está especialmente diseñada para aquellos que como yo movemos teras y teras de audio y vídeo en casa, y queremos sacarle todo el partido a nuestros equipos.

Muchas son las razones para plantearse instalar un servidor casero, pero la principal es la gran flexibilidad, seguridad y calidad del software libre que pone a nuestro alcance sistemas que de otra forma tendríamos que pagar a un precio muy elevado.

Linux es el principal desencadenante de este fenómeno de principios del siglo XXI, pues con muy pocos recursos de hardware a devuelto a la vida a infinidad de computadoras que otros sistemas operativos dejaban obsoletas a gran velocidad. Al mismo tiempo, Linux fue el primer sistema operativo que llevó de forma real a los hogares y a la mayoría de las empresas la posibilidad de explotar las prestaciones de los procesadores a 64bits, de la mano de la pionera empresa AMD.

En unos años Microsoft y Apple han intentado llevar soluciones similares con productos de pago. Microsoft parece incapaz de subsanar las debilidades de seguridad siendo vulnerable a virus y malware de todo tipo. Apple ha intentado portar su Snow Leopard Server a los hogares ofreciendo prestaciones que el usuario no necesita y limitando las posibilidades de programas de software libre que implementa como apache.

Como decía, Linux comenzó siendo utilizada de forma genérica en ordenadores anticuados o en servidores muy potentes dedicados a las soluciones empresariales.

Ha llegado el momento de conferir a Linux inversiones en hardware relativamente importantes y plantearse que no es el sistema operativo del futuro, sino el del presente. Las “Workstations” de los hogares comienzan a necesitar de sistemas de seguridad avanzados y potentes que respalden de forma efectiva los terabytes de información que requieren los sistemas multimedia ya no solo de edición de video o audio, sino también los “media servers” de películas en formato digital y audio.

Es importante minimizar recursos y centralizar los archivos para evitar duplicados en la red. Gestionar el ancho de banda para la descargas de toda la familia a traves de un programa P2P (peer to peer o puerto a puerto), e incluso implementar un servidor proxy que permitar limitar los contenidos para menores y chequear las páginas con virus que nos podamos encontrar.

Es necesario realizar copias de seguridad de forma automática de las workstations ante cualquier fallo de hardware o software que nos hiciera perder la información, lo que en muchas ocasiones supone terabytes de información que no entran en un disco duro de los más caros y avanzados del mercado. Por otro lado, necesitamos información compartida en la red que se sirva a gran velocidad y de forma segura donde guardar los programas e imágenes de discos del software para realizar instalaciones en un tiempo aceptable.

Como ejemplo, sirvan algunas programas habituales en el mundo del audio y del video, Final Cut Pro es un conjunto de 7 DVD’s que ocupan 50 Gb. Instalar este software a través de la grabadora supondría unas tres o cuatro horas introduciendo “galletas” debido a la limitación del propio formato. Si convertimos estos DVD en archivos dmg (formato estandar de imagen de disco de apple) la única limitación será la rapidez de los discos de origen y destino, y la velocidad de la red.

Cuando hablamos de terabytes de software con características más o menos similares, la necesidad de sistemas que permitan manejar estos procesos de forma ágil comienza a ser imperiosa.

Linux permite de forma nativa el manejar un conjunto de discos como si fueran uno solo, y combinarlos de tal forma que puedan ofrecer una velocidad del conjunto superior a la de las partes. El software que permite realizar estas combinaciones es conocido como DM Raid.

Por otro lado, las tarjetas gigabit con soporte para jumbo frames permiten mandar paquetes grandes por la red a gran velocidad. Su precio relativamente asequible permite al usuario doméstico conectar los ordenadores de trabajo directamente al servidor sin pasar por un “switch” o repartidor de red, lo que aumenta considerablemente la velocidad de transferencia. Si es necesario se puede generar una segunda red, preferiblemente inalámbrica, para que los ordenadores distintos del servidor tengan comunicación directamente entre ellos.

Luego la estrategia para maximizar el rendimiento de la red se basa en dos pilares.

  1. Los discos más lentos y viejos se agruparán en el servidor linux en grupos de respaldo (Raid 1) y grupos stripe (Raid 0) para aumentar la velocidad.
  2. La red será configurada en estrella con interfaces gigabit que soporten jumbo frames y cables cruzados al resto de ordenadores.

Macintosh o Hackintosh, esa es la cuestión

hackintosh_logo_by_jonzy-d4z6d1o

Desde que Apple se pasó a Intel la informática para usuario ha basculado claramente a favor de Unix, en sus variantes OSX y Linux, gracias al inapreciable esfuerzo de Microsoft de no evolucionar casi nada desde el Windows XP. Windows 7 incluso se ha mejorado para poder ser virtualizado y virtualizar.

Una cuarta vía, absolutamente ilegal pero apasionante, es el proyecto OSX86 que podéis visitar en http://www.osx86project.org/ . Es decir, montar OSX sobre un PC con hardware compatible o portable a Mac.

Un hackintosh no es un mac aunque corra el mismo sistema operativo por las siguientes razones:

1º. No es estable: una actualización de apple te puede tirar la máquina y complicarte seriamente la vida haciendote pasar horas y horas reinstalandolo todo.

2º. En la mayoría de los casos o es más caro o tiene el mismo precio que un mac equivalente.

3º. Suele ser una auténtica locura conseguir los kext adecuados cuando los encuentras para tu hardware.

4º. La suspensión e hibernación o no funcionan o te dejan la máquina colgada en el 90% de los casos.

La gran alternativa a OSX es Linux, sobre todo a nivel servidor. En mi opinión Ubuntu y Debian son los mejores servidores para el mundo Mac, con soporte nativo para intercambio de archivos (netatalk) y mucho más flexible que OSX Server a la hora de configurar un servidor web, aunque el servidor de correo sea bastante difícil de configurar.

Un Linux robusto con 4 Gb de Ram o más, es capaz de virtualizar un Windows y darnos todas las herramientas de diseño y ofimática que necesita el 99% de los usuarios de PC. Wine permite ejecutar muchísimos juegos y X11 sacarle todo el jugo a las gráficas más modestas.

Donde OSX no tiene rival es en Audio y Video profesional. Aplicaciones como Logic, Final Cut junto a un mac potente, son simplemente mejores y más baratas que los pcs que corren aplicaciones parecidas, siempre pendientes de antivirus y programas inutiles que se meriendan un 50% de la potencia de los procesadores simplemente por el mero hecho de estar encendidos.

Estoy preparando un Ubuntu Server con dos procesadores XEON que le saqué a un Mac Pro que amplié a ocho núcleos, y estoy comprando componentes de segunda mano para montar una torre con doce discos duros en Raid… cuando he terminado de configurar el ordenador me he pasado por 0sx86project y he comprobado para mi sorpresa que el equipo es 100% compatible… pero me que en Ubuntu porque es gratuito, legal, estable… y me ofrece un rendimiento que un mac pro con sus pocas ranuras de expansion y sus solo cuatro discos duros, en red no me puede ofrecer.

Y no tengo tanta pasta como para meterme en fibra optica y discos de 15000rpm.

La tecnología iscsi, las gigabits con jumbo frames y los raid 10 en ubuntu, me dan unos 450 Mb/seg de transferencia en red…. Bastante, pasa ser gratuito. ¿no os parece?

Snow Leopard server vs. Ubuntu server

mac-tux

Mal acostumbrado como estoy al sistema operativo OSX a nivel usuario, decidí rascarme el bolsillo y comprar por ebay una licencia del Snow Leopard Server.

¿Por qué lo hice? Por que supuse que sería igual de sencillo y flexible que el sistema operativo cliente, pero nada más lejos de la realidad.

Mi intención era montar un servidor que me permitiera servir páginas web desde mi casa con una página de entrada montada en iweb y luego un arbol de wikis, blogs, y phpportals… además de tener acceso a mis archivos desde el exterior de forma segura…

La máquina en que lo monté un Mac pro del 2006 con cuatro núcleos Xeon a 2,66 Ghz, 4 satas 1,5 Gbs montados en raid 10, un sai …. Después de montarlo me dí cuenta:

1º. Que no está pensado como servidor casero, por mucho que nos lo quieran vender así. Open Diretory es absolutamente inútil para un grupo de trabajo.

2º. El servidor web apache tal y como viene montado te obliga a elegir entre mostrar la infraestructura de blogs y wikis propia de apple, o empezar desde cero a montarte el portal.

3º. Absurdamente, compartir archivos entre tus macs via open directory, especialmente leopard’s vs snos leopards,.. me ha dado algun problema en la autenticación.

4º. Configurar el vpn con máquinas windows 7 no me ha sido posible.

5º. Al conectarlo al router, y en las mismas condiciones, unas veces me permitía configurarlo como pasarela y otras no, dependiendo de si le daba la gana o no.

6º. Y lo más importante, el rendimiento del Mac Pro se reducía a la mitad en cuanto a paquetes de diseño y ofimática.

7º. Al pasar los archivos del Snow Leopard Server, a un disco duro externo me conservaba los permisos de grupo, con lo que tenía que estar metiendo la contraseña para borrar un archivo, y cambiar permisos en los directorios, usuarios,… un coñazo.

Después de quince días de tenerlo en funcionamiento, hacerme una idea de lo que puede gastar un mac pro enchufado dia y noche, 365 días al año… saqué del armario un Athlon 64 y …

1º. Instalé Ubuntu Server 10.04 edition, sobre dos discos en raid 1 de 250 Gb –> por si acaso me fallaba un disco que no perdiera mis bases de datos SQL, ni mis sitios, ni nada.

2º. Lo configuré como pasarela de red en veinte minutos siguiendo el howto de la siguiente página.

http://server-servers.com/ubuntu-internet-gateway-and-router/

3º. Configuré webmin y squid en modo transparente. Hay howtos en este blog

4º. Configuré transmission-daemon e instalé en cliente transmission-gui en el mac pro.

5º. Retoco ssh para fortalezerlo, instalo rkhunter,…. y me enrollo hasta hacerlo una fortaleza en Unix.

Sorprendentemente, con Ubuntu tengo todo lo que necesito, y además vía netatalk hago copias de seguridad de algunos mac.

Y una observación importante. Cuando tení instalado el SL Server y corría Transmission para los torrrents el router se me quedaba colgado, y no podía ni navegar ni descargar archivos.

El ubuntu server, con dos tarjetas de red, 1 Gb de Ram, dos discos en raid 1 de 250 Gb, y un HD USB externo de dos TB,… descargando a 1,5 Mb/s reales no me ha parado todavía ni una descarga, ni me ha parado la navegación aunque cuando saturo el ancho de banda, lógicamente va más lenta.

Ahí queda eso. Linux cada vez da mas sorpresas.

Larga vida a debian y ubuntu.

Netatalk y Leopard

mac-tux

Netatalk y Leopard

Netatalk es un servidor de archivos compatible con el AppleTalk de Apple.

La actual versión de netatalk no tiene implementada la administración de passwords con encriptación SSL, lo cual nos ha dado bastantes dolores de cabeza a los usuarios que como yo utilizamos ambos sistemas.

El presente «como» pretende establecer un procedimiento para montar un servidor AFP en una distribución ubuntu. Los usuarios de debian pueden seguir este howto suprimiendo el comando “sudo” al principio de cada sentencia en la línea de comandos, y ejecutando sentencias como «root».

Continuar leyendo «Netatalk y Leopard»