Raid1 und Lilo Probleme

Pierre Bernhardt pierre at starcumulus.owl.de
Sun Jul 25 19:09:17 CEST 2004


-----BEGIN PGP SIGNED MESSAGE-----
Hash: SHA1

Carsten Hensiek schrieb:

| Hallo,
|
| ich habe mir bis jetzt ein Software Raid1 gestrickt und möchte nun davon
| booten.
Ich benutzte dazu trotzdem eine /boot/partition.

| Ich habe jetzt nur noch Probleme von dem Raid zu booten. Habe das System
| schon auf die ensprechenden Partitionen kopiert und ein chroot darauf
| gemacht. Wenn ich dort jedoch lilo aufrufe tritt folgendes Problem auf.
|
| styx:/# lilo
| Fatal: Trying to map files from unnamed device 0x0000 (NFS/RAID mirror
| down ?)
| styx:/#
Hm... lilo -v -v -v sollte mehr erzählen.

|
| meine lilo.conf schaut wie folgt aus:
|
| --schnipp
|
| lba32
| boot=/dev/md0
| root=/dev/md0
| delay=20
| map=/boot/map
| vga=normal
| image=/vmlinuz
|        label=Linux
|        read-only
|
Machst Du denn echtes Kernel-Software-RAID?

Bei mir funktionierts, allerdings habe ich noch auf dem Raid ein LVM
laufen:

Meine lilo.conf sieht so aus:

space:/etc # cat lilo.conf
boot    = /dev/md0
change-rules
reset
lba32
read-only
menu-scheme = Wg:kw:Wg:Wg
prompt
timeout = 100
message = /boot/message
raid-extra-boot = /dev/hda,/dev/hdc


image   = /boot/vmlinuz
label   = Raid
root    = /dev/LVMroot/root
vga     = ext
initrd  = /boot/initrd
append  = " apm=off acpi=off vga=ext apci "

image   = /boot/vmlinuz
label   = Raid2
root    = /dev/LVMroot/root
vga     = ext
initrd  = /boot/initrd.raid
append  = " apm=off acpi=off vga=ext apci "

image   = /boot/vmlinuz.shipped
label   = failsafe
root    = /dev/LVMroot/root
vga     = ext
initrd  = /boot/initrd.shipped
append  = " ide=nodma apm=off acpi=off apci 1 "


Und mein /proc/mdstat:

space:/etc # cat /proc/mdstat
Personalities : [raid0] [raid1]
read_ahead 1024 sectors
md4 : active raid0 hdb2[0] hdd2[1]
~      37205120 blocks 32k chunks

md3 : active raid1 hdb1[0] hdd1[1]
~      20479936 blocks [2/2] [UU]

md2 : active raid1 hda3[0] hdc3[1]
~      8811584 blocks [2/2] [UU]

md1 : active raid1 hda2[0] hdc2[1]
~      1028096 blocks [2/2] [UU]

md0 : active raid1 hda1[0] hdc1[1]
~      56128 blocks [2/2] [UU]

unused devices: <none>

Und meine raidtab (die ich allerdings selber gamcht hab und
nicht wies drinsteht) sieht so aus:

space:/etc # cat raidtab
# autogenerated /etc/raidtab by YaST2

raiddev /dev/md0
~   raid-level        1
~   nr-raid-disks     2
~   nr-spare-disks    0
~   persistent-superblock 1
~   chunk-size        4
~   device   /dev/hda1
~   raid-disk 0
~   device   /dev/hdc1
~   raid-disk 1

raiddev /dev/md1
~   raid-level        1
~   nr-raid-disks     2
~   nr-spare-disks    0
~   persistent-superblock 1
~   chunk-size        32
~   device   /dev/hda2
~   raid-disk 0
~   device   /dev/hdc2
~   raid-disk 1

raiddev /dev/md2
~   raid-level        1
~   nr-raid-disks     2
~   nr-spare-disks    0
~   persistent-superblock 1
~   chunk-size        4
~   device   /dev/hda3
~   raid-disk 0
~   device   /dev/hdc3
~   raid-disk 1

raiddev /dev/md3
~    raid-level       1
~    nr-raid-disks    2
~    nr-spare-disks   0
~    persistent-superblock 1
~    chunk-size       4
~    device   /dev/hdb1
~    raid-disk 0
~    device   /dev/hdd1
#    raid-disk 1
~    failed-disk 1

raiddev /dev/md4
~    raid-level       0
~    nr-raid-disks    2
~    persistent-superblock 1
~    chunk-size       32
~    device   /dev/hdb2
~    raid-disk 0
~    device   /dev/hdd2
~    raid-disk 1

Vielleicht hilfts Dir ja weiter.

MfG...
Pierre Bernhardt

-----BEGIN PGP SIGNATURE-----
Version: GnuPG v1.2.4 (MingW32)

iD8DBQFBA+k8uOJP+ESj7AoRAny/AJsHTo0+CaOXgtaJmidrldcGRiGMcgCgwMYb
DRxYcjKwLufW61h8LVrbNNE=
=o+mn
-----END PGP SIGNATURE-----



More information about the Linux mailing list