歡迎您光臨本站 註冊首頁

請教 PVFS2 segementation fault 問題!

←手機掃碼閱讀     火星人 @ 2014-03-04 , reply:0

請教 PVFS2 segementation fault 問題!

之前使用pvfs2 沒有問題,但是在為了使用外置存儲,調整本地存儲掛載點,重新安裝一次之後,出現如下的segementation fault的問題。請大俠們幫忙!

**********************************************************************
        Welcome to the PVFS2 Configuration Generator:

This interactive script will generate configuration files suitable
for use with a new PVFS2 file system.  Please see the PVFS2 quickstart
guide for details.

**********************************************************************

You must first select the network protocol that your file system will use.
The only currently supported options are "tcp", "gm", and "ib".
(For multi-homed configurations, use e.g. "ib,tcp".)

* Enter protocol type :

Choose a TCP/IP port for the servers to listen on.  Note that this
script assumes that all servers will use the same port number.

* Enter port number :

Next you must list the hostnames of the machines that will act as
I/O servers.  Acceptable syntax is "node1, node2, ..." or "node{#-#,#,#}".

* Enter hostnames : 174.19.234.2,174.19.234.3,174.19.234.4,174.19.234.5

Now list the hostnames of the machines that will act as Metadata
servers.  This list may or may not overlap with the I/O server list.

* Enter hostnames : 174.19.234.2,174.19.234.3,174.19.234.4,174.19.234.5

Configured a total of 4 servers:
4 of them are I/O servers.
4 of them are Metadata servers.

* Would you like to verify server list (y/n) ? y

****** I/O servers:
tcp://174.19.234.2:3334
tcp://174.19.234.3:3334
tcp://174.19.234.4:3334
tcp://174.19.234.5:3334

****** Metadata servers:
tcp://174.19.234.2:3334
tcp://174.19.234.3:3334
tcp://174.19.234.4:3334
tcp://174.19.234.5:3334

* Does this look ok (y/n) ? y

Choose a file for each server to write log messages to.

* Enter log file location :

Choose a directory for each server to store data in.

* Enter directory name: : /mnt/pvfs2

Writing fs config file... Done.
Writing 4 server config file(s)... Done.
Segmentation fault

請高手指導
《解決方案》

where is nntp?
《解決方案》

where is your details?
《解決方案》

4 IO server
4 pvfs2 client
OS:SuSE EL 9
kernel:2.6.5-7.191

在每台IO server上配置
#cd /usr/src/
#tar zxvf pvfs2-1.4.0.tar.gz
#cd pvfs2-1.4.0
#./configure --disable-kernel-aio --with-kernel=/usr/src/linux-2.6.5-7.191
#make
#make install

#pvfs2-genconfig /etc/pvfs2-fs.conf /etc/pvfs2-server.conf
配置最後一步,出 segmentation fault 錯!重啟后試過幾次,仍然出錯。無法定位問題,請高手幫忙

help
thx

[ 本帖最後由 jiangyi_hust 於 2006-7-13 16:25 編輯 ]
《解決方案》

segfault 一般是程序自身的問題,並和這個程序運行需要的環境也有關係. 配置最後出錯,service還沒有起來所以debug也無法enable.

個人建議:

1. change OS to RHEL4 (just have a try) with NXbit & SELinux disabled.(just for troubleshooting)
2. try latest pvfs2 1.5.1
3. carefully check your gcc, glibc, pthread environment ensure that are all ok.
4. try to log something when re-produce the issue.
《解決方案》

Thanks for nntp's help!
The problem is fixed!
《解決方案》

and the issue and problem is ?
《解決方案》

use the PVFS2 release 1.5.1 and change the OS.

安裝操作系統的時候使用的是安裝伺服器,在安裝過程中可能有些包沒有裝好,安裝完成後伺服器的名字顯示的是linux,也有none的。
在重新安裝后名字顯示是所要求的名字。
所以估計問題是OS的問題。之前使用的是PVFS2 1.4.0
《解決方案》

請問nntp 在不考慮單點故障的情況下,pvfs2能否使用在流媒體環境中。
pvfs2的條帶化的讀寫方式 與流媒體的應用 配合起來是否在性能上有不合拍的地方?!

我覺得搞清這個問題的前提是需要搞清楚 流媒體請求對文件的讀寫方式是怎樣的
請關注!
《解決方案》

涉及到performance benchmark的問題,就是一個頭大的問題,因為要測試的可能組合非常多,configure和tuning的組合也很多,這樣兩個一對上,排出來的測試排列組合和結果也爆多。

我個人覺得pvfs2不適合流媒體環境,討論RAID性能的時候,因為是在一個disk system上面,通過利用SCSI 技術優勢,stripe程度越高,對於流媒體(大文件,順序讀)服務的性能提高就越大.  但是 pvfs2 是跨物理主機的文件系統,文件跨主機之後(striped),讀開銷不但要算上涉及這個文件的單個host上的disk I/O 開銷,還有host/host之間的通信開銷. 雖然一個大文件(比如4GB media file)因stripe多個host得到了併發操作的好處,他的開銷也同時提高了.

LVS+dedicated media server+centralized high performance storage 的方案要比  multi-clients(media service system)+pvfs2 cluster+low end host based storage的方案好很多.

舉例來說,如果是對應流媒體應用,  4個伺服器作LVS 分掉client 的壓力,用一個高性能的FC SAN來集中存儲. 要比多client(media service system) 直接訪問pvfs2 cluster獲得媒體服務要好很多.

這是我個人意見,說得比較粗略,需要針對具體的benchmark需求做實際的具體的評估工作才能精確得到一個結果.

正常的流媒體應用應該都是大文件/順序讀行為.

[火星人 ] 請教 PVFS2 segementation fault 問題!已經有550次圍觀

http://coctec.com/docs/service/show-post-9268.html