Det skulle ske en dag, en af de firewalls / gateways jeg har ansvaret for død'er og vil ikke boote :-(
heldigvis havde jeg ladet den gamle Linksys router stå ved siden af firewallen og denne blev straks sat i produktion igen...

Årsagen var tydeligt at høre da forleden kom forbi lokalationen hvor denne gateway havde kørt og for sjov  hurtig tænde boxen.
 Lyden var ikke til at gå fejl af, Clonk klonk, tik tik. den ene harddisk i maskinens Linux Software Raid 1 var død og maskinen ville ikke boote på den anden disk.

Følgende er hvad jeg har måtte udføre for at redde denne Gateway, dvs hente de data ud som lå på disken.

  • Fra koble begge gamle harddisk og tilkoble en ny.
  • Pxe installer Ubuntu inden på den nye harddisk
    •  Til info så er der ingen CD-rom drev i maskinen, så boot fra en live-cd er umulbart ikke muligt og USB er kun version 1, dvs. fra 11 Mbit tiden
  • Tilkoble den harddisk som stadig virker fra det orginale software RAID.
  • Finde RAID partationen og mounte denne for at kopier data ud.


Praksis er dette hvad jeg skrev i min Konsole.

 Skift til root konsole

$Sudo su

Vis alle diskpartitioner som den kørrende maskine kan se, dvs både den nye installation og den gamle 

#Fdisk -l  

Disk /dev/sda: 40.0 GB, 40020664320 bytes
255 heads, 63 sectors/track, 4865 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk identifier: 0xcccdcccd

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1        4728    37977628+  83  Linux
/dev/sda2            4729        4865     1100452+   5  Extended
/dev/sda5            4729        4865     1100421   82  Linux swap / Solaris

Disk /dev/sdb: 163.9 GB, 163928604672 bytes
255 heads, 63 sectors/track, 19929 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk identifier: 0x000967c6

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1       19452   156248158+  fd  Linux raid autodetect
/dev/sdb2           19453       19929     3831502+  82  Linux swap / Solaris 

 Installer  RAID admin Tool MADM igen

#Apt-get install mdadm

 kør madam og lad denne undersøge den gamle "RAID" disk, hvis output er noget al'a er det bare godt :-)

 #mdadm --examine --scan /dev/sdb1 /dev/sdb2  

ARRAY /dev/md0 level=raid1 num-devices=2 UUID=99f785a7:5803b8cf:e368bf24:bd0fce4
1
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=25b68f3d:0308f204:14023cbf:4c94f29
c

 Tilføj denne info til bunden af madam.conf

#mdadm --examine --scan /dev/sdb1 /dev/sdb2 >> /etc/mdadm/mdadm.conf 

Ændre madam.comf sådan at de 2 sidste linjer ser sådan ud.

 #vim /etc/mdadm/mdadm.conf  

ARRAY /dev/md0 level=raid1 num-devices=2 UUID=99f785a7:5803b8cf:e368bf24:bd0fce4
1
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=25b68f3d:0308f204:14023cbf:4c94f29c

Genskab de gamle RAID devices (/dev/md0 + /dev/md1) i dette tilfælde

#mdadm --assemble --scan
mdadm: /dev/md0 has been started with 1 drive (out of 2).
mdadm: /dev/md1 has been started with 1 drive (out of 2).

se mdadm under /proc/mdadm

#cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid1 sdb1[1]
      156248064 blocks [2/1] [_U]
     
md0 : active raid1 sdb2[1]
      3831424 blocks [2/1] [_U]

 

Mount md1 til /mnt

#mount /dev/md1 /mnt/

Tilgå den gamle RAID partition under /mnt og kopier data ud, f.eks via Rsync over ssh.

#rsync -avzh /mnt/data/backup/  -e ssh root@fileserver:/data/backup/user

 Fyi. i dette tilfæde sende jeg sent 57.25G bytes via ssh over på min fileserver, orginal datamængde var 69 G bytes, så komprimering kan godt betale sig via Rsync

Alt data redet......

Jeg fand min vej ved at google lidt og læse denne side.

 

FYI.  skulle "den defekte disk ske at være ok" og raided bare rebuildes gørres dette med

#mdadm /dev/md0 -a /dev/sda2  

 Kommandoen fundet via læse denne historie om software raid recovery.

Strøm = udgifter = penge....

Ovenstående ligning er grunden til at jeg benytter Wake on Lan i min lejlighed.
En simple kommando og det er muligt at starte en maskine.

etherwake -D -b -i eth0  00-14-C2-C8-E5-B9

Ovenstående komando kræver naturligvis at man først installer etherwake via "apt-get install etherwake"
Server:~# man etherwake
       -b     Send the wake-up packet to the broadcast address.

       -D     Increase the Debug Level.

       -i ifname
              Use interface ifname instead of the default "eth0".

00-14-C2-C8-E5-B9 er MAC addressen på den maskine / netkort som maskinen skal startes via, dette kræver at Wake On Lan er enabled i bios og understøtter dette, f.eks kan jeg ikke vække min Imac i stuen :-( et mærkelig Apple valg :-(
.......

Når det er muligt at tænde en pc remote, er de muligt at tids-styre hvornår en bestemt maskine skal køre, f.eks. køre min file-server kun i dagtimerne, dvs. ca 15 timer i stedet for 24 timer.

 

Her er en række SSH commandoer jeg benytter til hverdag.

 Forbindeslse til en Vmware 1.xx server via en ssh tunnel  ->  sudo ssh -L 902:vmware-hostname-ip:902 bruger@ssh-gateway
Praktisk laver denne en forward af min lokale port 902 til vmware hosten inde på den anden side af ssh-gateway'en, herefter kan man via vmware-server-console forbinde sig til localhost:902 for at overtage den remote vmware-host med vmware-server-console.

 

Forbindslese til en Windows kasse via en ssh tunnel på linux -> sudo ssh -L 3389:windows-hostname-ip:3389 bruger@ssh-gateway,
Herefter kan man som ovenstående forbinde sig til localhost 3389 og overtage den windows maskinen på alm. vis.

Man kan gøre det samme som ovenstående fra en Windwods klient via ssh klient programmet putty.exe,her skal man do være opmærksom på at man ikke i forbindels med RDP kan benytte den kolake på 3389, da den klient man selv køre på benytter denne, men i stedet kunne man jo bruge port 3390.

 

SSH tunneler i bash script, f.eks. i forbindelse med at sende en backup til en remote lokalation som ligger bag en ssh gateway.

ssh -f -l ssh-username -L 7777:ssh-endpoint:22 ssh-remotehost sleep 30

scp -P 7777 -B -C -l 280 $tmp$File ssh-username@localhost:/data/backup/.

 

 

Dejlig forårsvejr og spamassassin valgte at drille, dårlig kombination :-(

 Symtom. Spamd ville ikke starte, dvs. processen startede men efter en laaang timeout, hvor den stod og brugte 80% af de Cpu og Ram resourcer som min lille gateway havde, døde processen, dvs. ingen service svarede på port 783 :-(

spamD

Fejlfinding på spamassassin kan gøres på følgende måde...

edit /etc/default/spamassassin konfig filen.

vi /etc/spamassassin

Edit linjen hvor der står

OPTIONS="--create-prefs --max-children 5 --helper-home-dir"

til

OPTIONS="--create-prefs --max-children 5 --helper-home-dir --syslog"

spamassassin

herefter genstart servicen 

/etc/init.d/spamassassin restart

 Nu vil alt fra spamassin lande i den konsole som service blev restartet i...

 debug

 problemet var opstået da jeg opgradede denne maskine til Debian Lenny, kunne jeg se på noget spam statastik og da det var meget svært at finde fejlen prøvede jeg med windows triks'et  Uninstall og Install igen

Apt-get remove spamassassin og en apt-get install spamassassin installerede 2 nye pakker (libsys-syslog-perl samt re2c)  hvorefter spamassassin igen kørte uden problemer.  Dejligt :-)

 

 

 

Forleden kunne jeg på Version2.dk læse en nyhed omkring et samarbejde mellem Debian og Freebsd, hvilket gør det muligt at køre en debian maskine med en Freebsd kernenen, hvilket har nogle features som endnu ikke er landet i Linux kernen.

Hvad det er kan man læse meget mere om her: http://glibc-bsd.alioth.debian.org/doc/intro.html#whatis

 Iso filer til AMD64 og I386 installationer kan findes her: http://glibc-bsd.alioth.debian.org/install-cd/

Jeg håber inden længe at kunne bringe en kort guide i hvordan man finder vej igennem Freebsd's installer, da den er "lidt" anderledes end Debians.
Installation

Her er links til screenshots fra min test installations på en sun virtuabox virtual klient: http://gallery.net-help.dk/main.php?g2_itemId=199

Installations guide leveret fra projektet kan ses her: http://glibc-bsd.alioth.debian.org/doc/installing.html