Ubuntu 重灌後的 Softraid RAID0回復問題 [論壇 - Ubuntu安裝問題]


正在瀏覽:   1 名遊客


 到底部   前一個主題   下一個主題  [無發表權] 請登錄或者註冊



Ubuntu 重灌後的 Softraid RAID0回復問題
會員一級
註冊日期:
2007/10/4 22:34
所屬群組:
已註冊使用者
等級: 1
HP : 0 / 21
MP : 3 / 717
EXP: 86
離線
Dear 各位

先前安裝Ubuntu升級後就悲劇無法開機,後來重新安裝Ubuntu,先前有利用mdadm組了RAID0陣列(非開機碟),現在想要還原此陣列

我使用了
sudo cat /proc/mdstat
Personalities : [raid0] [linear] [multipath] [raid1] [raid6] [raid5] [raid4] [raid10]
md126 : active raid0 sdb[1] sdc[0]
3907023872 blocks super external:/md127/0 128k chunks

md127 : inactive sdb[1](S) sdc[0](S)
5032 blocks super external:imsm

unused devices: <none>
在使用指令
$ sudo mdadm --detail /dev/md126
/dev/md126:
Container : /dev/md/imsm0, member 0
Raid Level : raid0
Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
Raid Devices : 2
Total Devices : 2

State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

Chunk Size : 128K


UUID : a16808e0:881f84f9:9188e22c:1adfd2f8
Number Major Minor RaidDevice State
1 8 16 0 active sync /dev/sdb
0 8 32 1 active sync /dev/sdc

列出我確實有陣列存在
下以下指令
sudo mount /dev/md126 /SMB2
mount: wrong fs type, bad option, bad superblock on /dev/md126,
missing codepage or helper program, or other error

In some cases useful info is found in syslog - try
dmesg | tail or so.

卡住了,我要如何掛載回去?? 謝謝了各位。

2016/6/1 17:30
應用擴展 工具箱
回覆: Ubuntu 重灌後的 Softraid RAID0回復問題
會員二級
註冊日期:
2016/2/24 19:05
所屬群組:
已註冊使用者
等級: 5
HP : 0 / 114
MP : 15 / 976
EXP: 59
離線
> In some cases useful info is found in syslog - try dmesg | tail or so.

2016/6/1 21:35
應用擴展 工具箱
回覆: Ubuntu 重灌後的 Softraid RAID0回復問題
會員一級
註冊日期:
2007/10/4 22:34
所屬群組:
已註冊使用者
等級: 1
HP : 0 / 21
MP : 3 / 717
EXP: 86
離線
dmesg | tail
列出以下。
[ 115.321008] nvidia-modeset: Freed GPU:0 (GPU-20aa6aa2-8ae3-3520-c63f-ea5d368665f0) @ PCI:0000:06:00.0
[ 115.940464] nvidia-modeset: Allocated GPU:0 (GPU-20aa6aa2-8ae3-3520-c63f-ea5d368665f0) @ PCI:0000:06:00.0
[ 116.464175] nvidia-modeset: Freed GPU:0 (GPU-20aa6aa2-8ae3-3520-c63f-ea5d368665f0) @ PCI:0000:06:00.0
[ 117.090858] nvidia-modeset: Allocated GPU:0 (GPU-20aa6aa2-8ae3-3520-c63f-ea5d368665f0) @ PCI:0000:06:00.0
[ 117.621821] nvidia-modeset: Freed GPU:0 (GPU-20aa6aa2-8ae3-3520-c63f-ea5d368665f0) @ PCI:0000:06:00.0
[ 118.245640] nvidia-modeset: Allocated GPU:0 (GPU-20aa6aa2-8ae3-3520-c63f-ea5d368665f0) @ PCI:0000:06:00.0
[ 118.779520] nvidia-modeset: Freed GPU:0 (GPU-20aa6aa2-8ae3-3520-c63f-ea5d368665f0) @ PCI:0000:06:00.0
[ 119.403756] nvidia-modeset: Allocated GPU:0 (GPU-20aa6aa2-8ae3-3520-c63f-ea5d368665f0) @ PCI:0000:06:00.0
[ 119.936993] nvidia-modeset: Freed GPU:0 (GPU-20aa6aa2-8ae3-3520-c63f-ea5d368665f0) @ PCI:0000:06:00.0
[ 120.572798] nvidia-modeset: Allocated GPU:0 (GPU-20aa6aa2-8ae3-3520-c63f-ea5d368665f0) @ PCI:0000:06:00.0

看起來沒相關訊息阿。

2016/6/2 22:30
應用擴展 工具箱
回覆: Ubuntu 重灌後的 Softraid RAID0回復問題
管理員
註冊日期:
2011/3/11 6:32
所屬群組:
討論區管理群
等級: 44
HP : 216 / 1084
MP : 1088 / 24938
EXP: 38
離線
請在 mount 後立刻執行命令(如果真的有)錯誤訊息才有意義
tail 只會輸出紀錄檔的最後幾行內容

2016/6/2 22:37
本篇發表文章以「創用CC BY 3.0 或更新之台灣地區版本」授權條款釋出,如何使用敬請參考
 Creative Commons — 姓名標示 3.0 台灣 — CC BY 3.0 TW
 http://creativecommons.org/licenses/by/3.0/tw/

「你不懂的東西就不要亂講,被懂得人看破手腳就算了,騙不懂的人誤導別人,還要別人把你當成大師,這就真的是說不過去了。」
 by Allen Own
 出處 http://www.plurk.com/p/i4uogm

自由知識創作平台介紹
 https://docs.google.com/document/d/1MGG6lW_0qCgH4U785R-IwSc_INdoBGej1l-JxiA4gPE
如何建立新的自由知識創作平台文件
 https://docs.google.com/document/d/11NdzOW2lGYksfyQIcPMPye5tlmj1J0QTkgPTmQvIvKA
應用擴展 工具箱
回覆: Ubuntu 重灌後的 Softraid RAID0回復問題
會員五級
註冊日期:
2012/4/22 10:50
所屬群組:
已註冊使用者
等級: 34
HP : 166 / 831
MP : 548 / 16403
EXP: 25
離線
starhw 寫到:
Dear 各位

先前安裝Ubuntu升級後就悲劇無法開機,後來重新安裝Ubuntu,先前有利用mdadm組了RAID0陣列(非開機碟),現在想要還原此陣列

我使用了
sudo cat /proc/mdstat
Personalities : [raid0] [linear] [multipath] [raid1] [raid6] [raid5] [raid4] [raid10]
md126 : active raid0 sdb[1] sdc[0]
3907023872 blocks super external:/md127/0 128k chunks

md127 : inactive sdb[1](S) sdc[0](S)
5032 blocks super external:imsm

unused devices: <none>
在使用指令
$ sudo mdadm --detail /dev/md126
/dev/md126:
Container : /dev/md/imsm0, member 0
Raid Level : raid0
Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
Raid Devices : 2
Total Devices : 2

State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

Chunk Size : 128K


UUID : a16808e0:881f84f9:9188e22c:1adfd2f8
Number Major Minor RaidDevice State
1 8 16 0 active sync /dev/sdb
0 8 32 1 active sync /dev/sdc

列出我確實有陣列存在
下以下指令
sudo mount /dev/md126 /SMB2
mount: wrong fs type, bad option, bad superblock on /dev/md126,
missing codepage or helper program, or other error

In some cases useful info is found in syslog - try
dmesg | tail or so.

卡住了,我要如何掛載回去?? 謝謝了各位。



因為沒使用過這個功能,剛剛研究了一下,

先報告我目前測試的結果

我先在「Virtual Box」建立一個新的系統「Xubuntu 16.04 64位元」。

先安裝「mdadm」。

執行


$ sudo apt-get install mdadm



然後根據「這篇」的內容來參考操作。

參考第三個步驟

執行


$ sudo mdadm --create /dev/md1 --level=raid0 --raid-devices=2 /dev/sda5 /dev/sda6



若我還沒執行第五個步驟,格式化「/dev/md1」這個虛擬裝置
(注意這個步驟,原來的資料會不見喔,所以執行前請斟酌)


$ sudo mkfs -t ext4 -L bigdisk /dev/md1



先執行第六個步驟,掛載「/dev/md1」


$ sudo mkdir /mnt/share -p
$ sudo mount /dev/md1 /mnt/share



就會出現樓主提到的訊息

starhw 寫到:
mount: wrong fs type, bad option, bad superblock on /dev/md126,
missing codepage or helper program, or other error

In some cases useful info is found in syslog - try
dmesg | tail or so.



(我有執行「dmesg | tail」,不過我忘了紀錄顯示內容)

若先把「/dev/md1」格式化後,就可以正常掛載了。

但現在就產生一個疑問,需要確認的,根據樓主提供的訊息,
表示樓主原來的「/dev/md126」應該是可以正常使用的,所以應該是已經格式化過了。

所以建議樓主可以先執行下面的指令,先確認「/dev/md126」是什麼格式。

以我剛建立的系統為例,

執行


$ sudo blkid



顯示


/dev/sda1: UUID="651f7727-f8a5-4567-b3d3-3213ad19d728" TYPE="swap" PARTUUID="fbfbdb70-01"
/dev/sda2: UUID="e88a61cb-a01e-480a-8b19-edab457b07fa" TYPE="ext4" PARTUUID="fbfbdb70-02"
/dev/sda3: UUID="ce401c69-3b6c-4537-b1d5-10f12759abf7" TYPE="ext4" PARTUUID="fbfbdb70-03"
/dev/sda5: UUID="9742aea7-9355-5b59-29ec-504f5fc28369" UUID_SUB="d8a72e09-d031-9fb8-6859-351346dc90ec" LABEL="at-vb:0" TYPE="linux_raid_member" PARTUUID="fbfbdb70-05"
/dev/sda6: UUID="9742aea7-9355-5b59-29ec-504f5fc28369" UUID_SUB="581b338d-a7fa-4309-4799-379554499373" LABEL="at-vb:0" TYPE="linux_raid_member" PARTUUID="fbfbdb70-06"
/dev/md1: LABEL="bigdisk" UUID="88e0ea1a-0e1f-45e1-8630-b1bee2f61a94" TYPE="ext4"



或是執行


$ sudo blkid /dev/md1



顯示


/dev/md1: LABEL="bigdisk" UUID="88e0ea1a-0e1f-45e1-8630-b1bee2f61a94" TYPE="ext4"



就可以看到「TYPE="ext4"」。

後來我有測試,若一開始「/dev/md1」沒有格式化,
執行「sudo blkid /dev/md1」,則不有會任何顯示。


## 額外參考

另外我一開始是使用「mount raid」來當關鍵字查詢,

有查到「一篇」,裡面提到的狀況,跟樓主提的,有雷同,不過我好像沒看到解決的方式。

然後有另外找到「一篇」,
也是跟樓主講的,從舊的硬碟來mount,不過這篇是沒遇到問題,可以參考他的執行步驟。

其他還有參考幾篇,就不一一列了。

## manpage

$ man blkid

$ man mdadm


另外我在這篇「[索引] 硬碟掛載」,有列一些相關的指令,就請移駕到那裡去看了。


報告完畢


2016/6/2 22:54
應用擴展 工具箱


 [無發表權] 請登錄或者註冊


可以查看帖子.
不可發帖.
不可回覆.
不可編輯自己的帖子.
不可刪除自己的帖子.
不可發起投票調查.
不可在投票調查中投票.
不可上傳附件.
不可不經審核直接發帖.