Raid1 und Lilo Probleme
Pierre Bernhardt
pierre at starcumulus.owl.de
Sun Jul 25 19:09:17 CEST 2004
-----BEGIN PGP SIGNED MESSAGE-----
Hash: SHA1
Carsten Hensiek schrieb:
| Hallo,
|
| ich habe mir bis jetzt ein Software Raid1 gestrickt und möchte nun davon
| booten.
Ich benutzte dazu trotzdem eine /boot/partition.
| Ich habe jetzt nur noch Probleme von dem Raid zu booten. Habe das System
| schon auf die ensprechenden Partitionen kopiert und ein chroot darauf
| gemacht. Wenn ich dort jedoch lilo aufrufe tritt folgendes Problem auf.
|
| styx:/# lilo
| Fatal: Trying to map files from unnamed device 0x0000 (NFS/RAID mirror
| down ?)
| styx:/#
Hm... lilo -v -v -v sollte mehr erzählen.
|
| meine lilo.conf schaut wie folgt aus:
|
| --schnipp
|
| lba32
| boot=/dev/md0
| root=/dev/md0
| delay=20
| map=/boot/map
| vga=normal
| image=/vmlinuz
| label=Linux
| read-only
|
Machst Du denn echtes Kernel-Software-RAID?
Bei mir funktionierts, allerdings habe ich noch auf dem Raid ein LVM
laufen:
Meine lilo.conf sieht so aus:
space:/etc # cat lilo.conf
boot = /dev/md0
change-rules
reset
lba32
read-only
menu-scheme = Wg:kw:Wg:Wg
prompt
timeout = 100
message = /boot/message
raid-extra-boot = /dev/hda,/dev/hdc
image = /boot/vmlinuz
label = Raid
root = /dev/LVMroot/root
vga = ext
initrd = /boot/initrd
append = " apm=off acpi=off vga=ext apci "
image = /boot/vmlinuz
label = Raid2
root = /dev/LVMroot/root
vga = ext
initrd = /boot/initrd.raid
append = " apm=off acpi=off vga=ext apci "
image = /boot/vmlinuz.shipped
label = failsafe
root = /dev/LVMroot/root
vga = ext
initrd = /boot/initrd.shipped
append = " ide=nodma apm=off acpi=off apci 1 "
Und mein /proc/mdstat:
space:/etc # cat /proc/mdstat
Personalities : [raid0] [raid1]
read_ahead 1024 sectors
md4 : active raid0 hdb2[0] hdd2[1]
~ 37205120 blocks 32k chunks
md3 : active raid1 hdb1[0] hdd1[1]
~ 20479936 blocks [2/2] [UU]
md2 : active raid1 hda3[0] hdc3[1]
~ 8811584 blocks [2/2] [UU]
md1 : active raid1 hda2[0] hdc2[1]
~ 1028096 blocks [2/2] [UU]
md0 : active raid1 hda1[0] hdc1[1]
~ 56128 blocks [2/2] [UU]
unused devices: <none>
Und meine raidtab (die ich allerdings selber gamcht hab und
nicht wies drinsteht) sieht so aus:
space:/etc # cat raidtab
# autogenerated /etc/raidtab by YaST2
raiddev /dev/md0
~ raid-level 1
~ nr-raid-disks 2
~ nr-spare-disks 0
~ persistent-superblock 1
~ chunk-size 4
~ device /dev/hda1
~ raid-disk 0
~ device /dev/hdc1
~ raid-disk 1
raiddev /dev/md1
~ raid-level 1
~ nr-raid-disks 2
~ nr-spare-disks 0
~ persistent-superblock 1
~ chunk-size 32
~ device /dev/hda2
~ raid-disk 0
~ device /dev/hdc2
~ raid-disk 1
raiddev /dev/md2
~ raid-level 1
~ nr-raid-disks 2
~ nr-spare-disks 0
~ persistent-superblock 1
~ chunk-size 4
~ device /dev/hda3
~ raid-disk 0
~ device /dev/hdc3
~ raid-disk 1
raiddev /dev/md3
~ raid-level 1
~ nr-raid-disks 2
~ nr-spare-disks 0
~ persistent-superblock 1
~ chunk-size 4
~ device /dev/hdb1
~ raid-disk 0
~ device /dev/hdd1
# raid-disk 1
~ failed-disk 1
raiddev /dev/md4
~ raid-level 0
~ nr-raid-disks 2
~ persistent-superblock 1
~ chunk-size 32
~ device /dev/hdb2
~ raid-disk 0
~ device /dev/hdd2
~ raid-disk 1
Vielleicht hilfts Dir ja weiter.
MfG...
Pierre Bernhardt
-----BEGIN PGP SIGNATURE-----
Version: GnuPG v1.2.4 (MingW32)
iD8DBQFBA+k8uOJP+ESj7AoRAny/AJsHTo0+CaOXgtaJmidrldcGRiGMcgCgwMYb
DRxYcjKwLufW61h8LVrbNNE=
=o+mn
-----END PGP SIGNATURE-----
More information about the Linux
mailing list