RHEL4U7下的9TB mkfs.ext3分區問題

火星人 @ 2014-03-04 , reply:0


RHEL4U7下的9TB mkfs.ext3分區問題

硬體設備:DL 380G5一台  內裝兩塊A8002A HBA卡(EMULEX晶元)  MSA2000FC AJ745
操作系統:RHEL4U7
問題如下:
(parted) mkfs
分區編號? 1
文件系統?  ? ext3
未實現: 關於創建 ext3 文件系統的支持尚未實現。
(parted) print
/dev/mapper/mpath0 的磁碟幾何結構:0.000-8584682.000 兆位元組
磁碟標籤類型:gpt
Minor    起始點        終止點  文件系統    名稱                  標誌
1          0.017 8584681.983
(parted) quit
# fdisk -l

Disk /dev/cciss/c0d0: 146.7 GB, 146778685440 bytes
255 heads, 63 sectors/track, 17844 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

           Device Boot      Start         End      Blocks   Id  System
/dev/cciss/c0d0p1   *           1          13      104391   83  Linux
/dev/cciss/c0d0p2              14       17844   143227507+  8e  Linux LVM

WARNING: GPT (GUID Partition Table) detected on '/dev/sda'! The util fdisk doesn't support GPT. Use GNU Parted.


Disk /dev/sda: 9001.6 GB, 9001691512832 bytes
255 heads, 63 sectors/track, 1094393 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1      267350  2147483647+  ee  EFI GPT

WARNING: GPT (GUID Partition Table) detected on '/dev/sdb'! The util fdisk doesn't support GPT. Use GNU Parted.


Disk /dev/sdb: 9001.6 GB, 9001691512832 bytes
255 heads, 63 sectors/track, 1094393 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1      267350  2147483647+  ee  EFI GPT

WARNING: GPT (GUID Partition Table) detected on '/dev/dm-2'! The util fdisk doesn't support GPT. Use GNU Parted.


Disk /dev/dm-2: 9001.6 GB, 9001691512832 bytes
255 heads, 63 sectors/track, 1094393 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

     Device Boot      Start         End      Blocks   Id  System
/dev/dm-2p1               1      267350  2147483647+  ee  EFI GPT

Disk /dev/dm-3: 205.5 GB, 205595800576 bytes
255 heads, 63 sectors/track, 24995 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Disk /dev/dm-3 doesn't contain a valid partition table
# mkfs.ext3 /dev/mapper/mpath0
mke2fs 1.35 (28-Feb-2004)
mkfs.ext3: Filesystem too large.  No more than 2**31-1 blocks
         (8TB using a blocksize of 4k) are currently supported.
不讓創建文件系統。那裡出現錯誤?
《解決方案》

回復 #1 ldren 的帖子

建議考慮ext4文件系統
《解決方案》

我使用的方式是gpt+ext3的方式。這個相對穩定些。感謝答覆。
《解決方案》

超過2T,,需要使用GPT.
《解決方案》

目前情況如下:能否看出可以做出7.5TB?
# cd /dev/mapper/
# ls
control  mpath0  mpath0p1  VolGroup00-LogVol00  VolGroup00-LogVol01
# cat /proc/partitions
major minor  #blocks  name

104     0  143338560 cciss/c0d0
104     1     104391 cciss/c0d0p1
104     2  143227507 cciss/c0d0p2
   8     0 8790714368 sda
   8     1 7679999983 sda1
   8    16 8790714368 sdb
   8    17 7679999983 sdb1
253     0  137756672 dm-0
253     1    5406720 dm-1
253     2 8790714368 dm-2
253     3 1237549039 dm-3

# mkfs.ext3 /dev/mapper/mpath0
mke2fs 1.35 (28-Feb-2004)
mkfs.ext3: Filesystem too large.  No more than 2**31-1 blocks
         (8TB using a blocksize of 4k) are currently supported.
# mkfs.ext3  /dev/mapper/mpath0p1
mke2fs 1.35 (28-Feb-2004)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
154697728 inodes, 309387259 blocks
15469362 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=310378496
9442 block groups
32768 blocks per group, 32768 fragments per group
16384 inodes per group
Superblock backups stored on blocks:
        32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
        4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
        102400000, 214990848
Writing inode table xxxx/9442
《解決方案》

# mkfs.ext3  /dev/mapper/mpath0p1
mke2fs 1.35 (28-Feb-2004)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
154697728 inodes, 309387259 blocks
15469362 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=310378496
9442 block groups
32768 blocks per group, 32768 fragments per group
16384 inodes per group
Superblock backups stored on blocks:
        32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
        4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
        102400000, 214990848

Writing inode tables: done
Creating journal (8192 blocks): done
Writing superblocks and filesystem accounting information: done

This filesystem will be automatically checked every 26 mounts or
180 days, whichever comes first.  Use tune2fs -c or -i to override.
#
# mount /dev/mapper/mpath0p1 /var/ftp/pub
# dh -f
bash: dh: command not found
# df -h
Filesystem            容量  已用 可用 已用% 掛載點
/dev/mapper/VolGroup00-LogVol00
                      130G  4.5G  119G   4% /
/dev/cciss/c0d0p1      99M   15M   79M  16% /boot
none                   16G     0   16G   0% /dev/shm
/dev/mapper/mpath0p1  1.2T  109M  1.1T   1% /var/ftp/pub
#

結果為1.2T。看來gpt+ext3的方式難成功。各位能看出那個步驟錯誤了?
《解決方案》

ext3支持超過8T的文件系統么?
《解決方案》

回復 #7 straw 的帖子

EXT3 Size Limits  :

Block size    Max file size   Max filesystem size
1KiB                  16GiB                  2TiB
2KiB                  256GiB               8TiB
4KiB                  2TiB                   16TiB
8KiB              16TiB                  32TiB

決定單個文件大小取決於文件系統大小的限制,而決定文件系統大小則跟block的大小有關係。

[ 本帖最後由 hbwangting 於 2009-6-2 11:41 編輯 ]
《解決方案》

原帖由 ldren 於 2009-6-1 18:14 發表 http://linux.chinaunix.net/bbs/images/common/back.gif
目前情況如下:能否看出可以做出7.5TB?
# cd /dev/mapper/
# ls
control  mpath0  mpath0p1  VolGroup00-LogVol00  VolGroup00-LogVol01



/dev/mapper/裡面為什麼看不到dm-2設備?懷疑樓主的mutipath沒做成功,lz可以貼出multipath -ll命令的輸出結果,你mkfs.ext3 /dev/mapper/mpath0時的mpath0設備如果不是EVA陣列櫃的空間,而是本地陣列的空間,就可以解釋為什麼不時8TB而是1.2TB啦,當然這些都是我個人的猜測。
《解決方案》

以下是鏈路,沒有問題的。

# multipath -ll
mpath0 (3600c0ff000d7b45dd84cf94901000000)

\_ round-robin 0
\_ 0:0:0:0     sda 8:0  
\_ 1:0:0:0     sdb 8:16
# cd /dev/mapper/
# ls
control  mpath0  VolGroup00-LogVol00  VolGroup00-LogVol01
本地磁碟也不會是。因為我指定了路徑,mkfs.ext3 /dev/mapper/mpath0/mapth0p1




[火星人 via ] RHEL4U7下的9TB mkfs.ext3分區問題已經有209次圍觀

http://www.coctec.com/docs/service/show-post-6030.html