求救!!請老大幫我看下什麼問題,我們網吧的LINUX伺服器老是6-10個小時就死機一次
老大能幫我看下這是什麼問題嗎,我們網吧的易游LINUX伺服器每隔6-10個小時就死機一次,開始以為是內存問題,更換內存后一樣死機,我們的系統是red hat linux es 3.0 up2的版本,
內核是:Linux ecofe3 2.4.21-15.ELsmp #1 SMP Thu Apr 22 00:10:37 EDT 2004 i686 athlon i386 GNU/Linux
sambd版本是:root@ecofe3 log]# rpm -q samba
samba-3.0.2-6.3E
進系統日誌查看是samba服務引起的死機
運行top -d 1 查看系統進程情況:內存一開機就是滿的,無論是加大內存也一樣
Oct 24 20:18:33 ecofe3 smbd: Can't become connected user!
Oct 24 20:19:17 ecofe3 smbd: smbd/service.c:make_connection_snum(627)
Oct 24 20:19:17 ecofe3 smbd: Can't become connected user!
Oct 24 20:19:42 ecofe3 smbd: lib/util_sock.c:read_socket_data(342)
Oct 24 20:19:42 ecofe3 smbd: read_socket_data: recv failure for 4. Error = Connection reset by peer
Oct 24 20:19:44 ecofe3 smbd: smbd/service.c:make_connection_snum(627)
Oct 24 20:19:44 ecofe3 smbd: Can't become connected user!
Oct 24 20:19:44 ecofe3 smbd: smbd/service.c:make_connection_snum(627)
Oct 24 20:19:44 ecofe3 smbd: Can't become connected user!
Oct 24 20:20:00 ecofe3 smbd: smbd/service.c:make_connection_snum(627)
Oct 24 20:20:00 ecofe3 smbd: Can't become connected user!
Oct 24 20:20:10 ecofe3 smbd: smbd/service.c:make_connection_snum(627)
Oct 24 20:20:10 ecofe3 smbd: Can't become connected user!
《解決方案》
接上面的貼子
運行top -d 1 查看系統進程情況:內存一開機就是滿的,無論是加大內存也一樣
21:54:15 up 5:19, 2 users, load average: 1.67, 1.63, 1.37
94 processes: 93 sleeping, 1 running, 0 zombie, 0 stopped
CPU states: cpu user nice system irq softirq iowait idle
total 0.0% 0.0% 0.9% 0.0% 0.0% 1.8% 97.1%
cpu00 0.0% 0.0% 0.0% 0.0% 0.0% 0.0% 100.0%
cpu01 0.0% 0.0% 1.8% 0.0% 0.0% 3.7% 94.4%
Mem: 1029732k av, 1021084k used, 8648k free, 0k shrd, 14860k buff
794984k actv, 150952k in_d, 21784k in_c
Swap: 2096472k av, 27364k used, 2069108k free 956356k cached
PID USER PRI NI SIZE RSS SHARE STAT %CPU %MEM TIME CPU COMMAND
7 root 15 0 0 0 0 SW 0.4 0.0 0:12 0 kswapd
6781 root 19 0 1160 1160 912 R 0.4 0.1 0:00 1 top
1 root 15 0 508 468 448 S 0.0 0.0 0:03 1 init
2 root RT 0 0 0 0 SW 0.0 0.0 0:00 0 migration/0
3 root RT 0 0 0 0 SW 0.0 0.0 0:00 1 migration/1
4 root 15 0 0 0 0 SW 0.0 0.0 0:00 1 keventd
5 root 34 19 0 0 0 SWN 0.0 0.0 0:00 0 ksoftirqd/0
6 root 34 19 0 0 0 SWN 0.0 0.0 0:00 1 ksoftirqd/1
9 root 25 0 0 0 0 SW 0.0 0.0 0:00 0 bdflush
8 root 15 0 0 0 0 SW 0.0 0.0 0:02 1 kscand
10 root 15 0 0 0 0 SW 0.0 0.0 0:01 0 kupdated
11 root 25 0 0 0 0 SW 0.0 0.0 0:00 0 mdrecoveryd
《解決方案》
再接上面的貼子
運行ps -auxm |grep smbd 查看smbd 進程有26個?是不是進程多了啊,
ot 6308 0.0 0.0 11012 380 ? S 19:52 0:00 smbd -D
root 6471 0.0 0.0 11084 368 ? S 20:38 0:00 smbd -D
root 6528 0.0 0.0 11100 228 ? S 20:45 0:00 smbd -D
root 6577 0.0 0.0 11124 368 ? S 21:02 0:00 smbd -D
root 6701 0.0 0.0 11156 348 ? S 21:30 0:00 smbd -D
root 6702 0.0 0.0 11156 408 ? S 21:31 0:00 smbd -D
root 6705 0.0 0.0 11164 452 ? S 21:32 0:00 smbd -D
cface 6715 0.2 0.0 11164 608 ? S 21:34 0:01 smbd -D
root 6735 0.0 0.0 11172 656 ? S 21:39 0:00 smbd -D
root 6739 0.0 0.0 11172 768 ? S 21:40 0:00 smbd -D
root 6740 0.0 0.0 11180 908 ? S 21:40 0:00 smbd -D
root 6744 0.0 0.1 11180 1844 ? S 21:43 0:00 smbd -D
stnt 6746 2.2 0.2 11752 2668 ? D 21:44 0:04 smbd -D
root 6749 0.0 0.1 11188 1940 ? S 21:45 0:00 smbd -D
cface 6752 0.1 0.2 11188 2764 ? S 21:47 0:00 smbd -D
cface 6753 0.1 0.2 11188 2820 ? S 21:47 0:00 smbd -D
cface 6756 0.1 0.2 11188 2972 ? S 21:47 0:00 smbd -D
cface 6757 0.0 0.2 11188 2588 ? S 21:47 0:00 smbd -D
cface 6758 1.2 0.2 11196 2892 ? S 21:47 0:00 smbd -D
cface 6759 2.0 0.2 11196 2912 ? S 21:47 0:00 smbd -D
root 6762 0.0 0.0 3696 700 pts/0 S 21:48 0:00 grep smbd
《解決方案》
再接上面的貼子
分區情況:
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/sda2 10080520 2405400 7163052 26% /
none 0 0 0 - /proc
none 0 0 0 - /dev/pts
usbdevfs 0 0 0 - /proc/bus/usb
/dev/sda1 101089 15133 80737 16% /boot
/dev/md0 153842724 81417068 64610848 56% /game
/dev/sdb2 5036316 32828 4747656 1% /home/download
/dev/sda5 58396384 4247248 51182736 8% /home/menu
/dev/sdb1 5036284 32828 4747624 1% /home/mp3
none 514864 0 514864 0% /dev/shm
/dev/sde1 76920416 66157700 6855308 91% /vdisks1
/dev/sdb3 66847408 32828 63418844 1% /vdisks2
老大幫我看下是怎麼回事啊,現在勝天易游平台的代理也搞不定啊!我的電腦硬體配置是雙AMD OPTERON240 +adaptec scsi陣列,天天死機人都走光了,
,
《解決方案》
內存那個不是問題,linux是先把內存給全部佔滿,程序請求后再分配,和windows不同,不用擔心。
別的我就不懂了,你那個「易游LINUX伺服器」沒聽說過。
《解決方案》
接貼
謝謝上樓的指點
確實不是內存的問題,我在網上查了一下主要是samba服務的問題
read_socket_data: recv failure for 4. Error = Connection reset by peer
百度上查了下還只有提問的,還沒有人拿出解決的方法來
《解決方案》
把smb.conf列出來吧。讓大家幫你分析下。
《解決方案》
你好,這是smb.conf,謝謝
#======================= Global Settings =====================================
unix charset = cp936
dos charset = cp936
display charset = cp936
workgroup = WORKGROUP
netbios name = ecofe3
server string = Yiyou File Server
guest account = nobody
log file = /var/log/samba/%m.log
max log size = 50
security = user
encrypt passwords = yes
smb passwd file = /etc/samba/smbpasswd
username map = /etc/samba/smbusers
socket options = TCP_NODELAY SO_RCVBUF=8192 SO_SNDBUF=8192
# interfaces = 192.168.1.254/24 192.168.2.254/24
os level = 33
# default case = lower
# case sensitive = no
valid users = cface,oface,update,stnt
admin users = update
write list = update
#============================ Share Definitions ==============================
path = /home/menu/data
writeable = yes
public = no
path = /home/menu/save
writeable = yes
admin users = update,cface,oface
public = no
path = /home/mp3
public = no
writeable = yes
path = /game/game1
public = no
writeable = yes
path = /game/game2
public = no
writeable = yes
path = /vdisks1
public = no
admin users = update,stnt
writeable = yes
path = /vdisks2
public = no
admin users = update,stnt
writeable = yes
path = /root
public = no
admin users =stnt
writeable = yes
《解決方案》
你把samba設置只監聽內網ip,
加入
use sendfile = no
試下有沒有問題。
《解決方案》
上樓說的設置只允許內部網路訪問的參數是怎樣的
網上查了的是這樣設置,只允許192.168.1.0子網的機器訪問
host allow = 192.168.1. 127.
不明白上面的參數127到底什麼意思, 因為我的子網是172.16.0.1 -172.16.7.254
謝謝