The OpenNET Project / Index page

[ новости /+++ | форум | wiki | теги | ]

форумы  помощь  поиск  регистрация  майллист  ВХОД  слежка  RSS
"Samba FreeBSD производительности системы"
Вариант для распечатки  
Пред. тема | След. тема 
Форумы Samba, вопросы интеграции Unix и Windows (Public)
Изначальное сообщение [Проследить за развитием треда]

"Samba FreeBSD производительности системы"  
Сообщение от NarkomanLove email(ok) on 17-Сен-06, 18:42 
Народ тут мне решилось перевести сервак на FreeBSD  
Раскопал сделал.  
Дальше поставил ФТП  
Скорость закачки на ФТП 8-25 метров.  
Очень почему-то колеблется.  
А вот Samba с настройками по умолчанию почему-то не прыгнула за 9-10 метров хотя Gigabit  
Вопрос вот в чем?  
какие настройки нужно внести в конф для повышения её быстродействия?  
FreeBSD 6.1  
SCSI 70GBx2 Raid1  
Gigabit planet 64bit.

server# top -S  
last pid: 716; load averages: 0.22, 0.07, 0.02 up 0+00:21:37 12:23:02  
84 processes: 3 running, 61 sleeping, 20 waiting  
CPU states: 1.5% user, 0.0% nice, 9.7% system, 9.7% interrupt, 79.0% idle  
Mem: 39M Active, 715M Inact, 129M Wired, 111M Buf, 113M Free  
Swap: 2022M Total, 2022M Free  

PID USERNAME THR PRI NICE SIZE RES STATE TIME WCPU COMMAND  
11 root 1 171 52 0K 8K RUN 20:03 74.66% idle  
677 visor 1 96 0 9728K 6476K RUN 0:09 8.54% smbd  
14 root 1 -44 -163 0K 8K WAIT 0:11 4.44% swi1: net  
28 root 1 -68 -187 0K 8K WAIT 0:06 3.08% irq25: skc0  
38 root 1 -16 0 0K 8K wdrain 0:03 2.05% bufdaemon  
3 root 1 -8 0 0K 8K - 0:01 0.05% g_up  
16 root 1 -40 -159 0K 8K WAIT 0:01 0.05% swi2: cambio  
673 root 1 4 0 1848K 1504K sbwait 0:11 0.00% ftpd  
12 root 1 -32 -151 0K 8K WAIT 0:04 0.00% swi4: clock sio  
37 root 1 171 52 0K 8K pgzero 0:02 0.00% pagezero  
4 root 1 -8 0 0K 8K - 0:02 0.00% g_down  
577 mysql 5 20 0 57304K 26504K kserel 0:01 0.00% mysqld  

в это время идет перекачка 1400 мегабайтного файла.  

убрал в ядре softupdate скорость закачки по ФТП стабилизировалась теперь 20-23 метра.  
а вот самба упала и теперь 6-7 метров.
пробовал также с опциями socket options = TCP_NODELAY SO_RCVBUF=8192 SO_SNDBUF=8192
ничего не помогает.
Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

 Оглавление

Сообщения по теме [Сортировка по времени, UBB]


1. "Samba FreeBSD производительности системы"  
Сообщение от universite email(ok) on 17-Сен-06, 20:15 
>Народ тут мне решилось перевести сервак на FreeBSD
>Раскопал сделал.
>Дальше поставил ФТП
>Скорость закачки на ФТП 8-25 метров.
>Очень почему-то колеблется.
>А вот Samba с настройками по умолчанию почему-то не прыгнула за 9-10
>метров хотя Gigabit
>Вопрос вот в чем?
>какие настройки нужно внести в конф для повышения её быстродействия?
>FreeBSD 6.1
>SCSI 70GBx2 Raid1
>Gigabit planet 64bit.

uname -a
dmesg после старта
какие опции ядра?
netstat -m при скачке через FTP и Samba.
sysctl -a | grep buf
sysctl -a | grep mem
sysctl -a | grep sem

Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

2. "Samba FreeBSD производительности системы"  
Сообщение от NarkomanLove email(ok) on 18-Сен-06, 11:25 
server# uname -a
FreeBSD server.cerber.net 6.1-RELEASE FreeBSD 6.1-RELEASE #0: Wed Sep 13 11:27:28 UTC 2006     root@server.cerber.net:/usr/src/sys/i386/compile/soft3  i386

server# dmesg
Copyright (c) 1992-2006 The FreeBSD Project.
Copyright (c) 1979, 1980, 1983, 1986, 1988, 1989, 1991, 1992, 1993, 1994
        The Regents of the University of California. All rights reserved.
FreeBSD 6.1-RELEASE #0: Wed Sep 13 11:27:28 UTC 2006
    root@server.cerber.net:/usr/src/sys/i386/compile/soft3
ACPI APIC Table: <INTEL    APIC  >
Timecounter "i8254" frequency 1193182 Hz quality 0
CPU: Intel(R) Pentium(R) III CPU family      1133MHz (1130.46-MHz 686-class CPU)
  Origin = "GenuineIntel"  Id = 0x6b1  Stepping = 1
  Features=0x383fbff<FPU,VME,DE,PSE,TSC,MSR,PAE,MCE,CX8,APIC,SEP,MTRR,PGE,MCA,CMOV,PAT,PSE36,MMX,FXSR,SSE>
real memory  = 1073741824 (1024 MB)
avail memory = 1041543168 (993 MB)
MADT: Forcing active-low polarity and level trigger for SCI
ioapic0 <Version 1.1> irqs 0-15 on motherboard
ioapic1 <Version 1.1> irqs 16-31 on motherboard
kbd1 at kbdmux0
acpi0: <INTEL   RSDT> on motherboard
acpi0: Power Button (fixed)
acpi_ec0: <Embedded Controller: GPE 0x35> port 0xca6,0xca7 on acpi0
Timecounter "ACPI-safe" frequency 3579545 Hz quality 1000
acpi_timer0: <32-bit timer at 3.579545MHz> port 0x508-0x50b on acpi0
cpu0: <ACPI CPU> on acpi0
acpi_button0: <Sleep Button> on acpi0
pcib0: <ACPI Host-PCI bridge> port 0xcf8-0xcff on acpi0
pci0: <ACPI PCI bus> on pcib0
pci0: <display, VGA> at device 2.0 (no driver attached)
rl0: <RealTek 8139 10/100BaseTX> port 0x2400-0x24ff mem 0xf8002000-0xf80020ff irq 23 at device 8.0 on pci0
miibus0: <MII bus> on rl0
rlphy0: <RealTek internal media interface> on miibus0
rlphy0:  10baseT, 10baseT-FDX, 100baseTX, 100baseTX-FDX, auto
rl0: Ethernet address: 00:50:fc:e1:5f:db
atapci0: <SiI 3114 SATA150 controller> port 0x2830-0x2837,0x2824-0x2827,0x2828-0x282f,0x2820-0x2823,0x2800-0x280f mem 0xf8002400-0xf80027ff irq 24 at device 9.0 on pci0
ata2: <ATA channel 0> on atapci0
ata3: <ATA channel 1> on atapci0
ata4: <ATA channel 2> on atapci0
ata5: <ATA channel 3> on atapci0
isab0: <PCI-ISA bridge> at device 15.0 on pci0
isa0: <ISA bus> on isab0
atapci1: <ServerWorks CSB5 UDMA100 controller> port 0x1f0-0x1f7,0x3f6,0x170-0x177,0x376,0x2810-0x281f at device 15.1 on pci0
ata0: <ATA channel 0> on atapci1
ata1: <ATA channel 1> on atapci1
ohci0: <OHCI (generic) USB controller> mem 0xf8001000-0xf8001fff irq 10 at device 15.2 on pci0
ohci0: [GIANT-LOCKED]
usb0: OHCI version 1.0, legacy support
usb0: <OHCI (generic) USB controller> on ohci0
usb0: USB revision 1.0
uhub0: (0x1166) OHCI root hub, class 9/0, rev 1.00/1.00, addr 1
uhub0: 4 ports with 4 removable, self powered
pcib1: <ACPI Host-PCI bridge> on acpi0
pci1: <ACPI PCI bus> on pcib1
pcib2: <ACPI Host-PCI bridge> on acpi0
pci2: <ACPI PCI bus> on pcib2
skc0: <Marvell Gigabit Ethernet> port 0x2c00-0x2cff mem 0xfa000000-0xfa003fff irq 25 at device 8.0 on pci2
skc0: bad VPD resource id: expected 82 got 55
skc0: Marvell Yukon Gigabit Ethernet rev. (0x1)
sk0: <Marvell Semiconductor, Inc. Yukon> on skc0
sk0: Ethernet address: 00:30:4f:37:9a:dd
miibus1: <MII bus> on sk0
e1000phy0: <Marvell 88E1000 Gigabit PHY> on miibus1
e1000phy0:  10baseT, 10baseT-FDX, 100baseTX, 100baseTX-FDX, 1000baseTX-FDX, auto
asr0: <Adaptec Caching SCSI RAID> mem 0xfa100000-0xfa1fffff,0xfb000000-0xfbffffff,0xfc000000-0xfdffffff irq 26 at device 9.0 on pci2
asr0: [GIANT-LOCKED]
asr0: ADAPTEC 2000S FW Rev. 380E, 2 channel, 256 CCBs, Protocol I2O
atkbdc0: <Keyboard controller (i8042)> port 0x60,0x64 irq 1 on acpi0
atkbd0: <AT Keyboard> irq 1 on atkbdc0
kbd0 at atkbd0
atkbd0: [GIANT-LOCKED]
psm0: <PS/2 Mouse> irq 12 on atkbdc0
psm0: [GIANT-LOCKED]
psm0: model IntelliMouse, device ID 3
sio0: <16550A-compatible COM port> port 0x3f8-0x3ff irq 4 flags 0x10 on acpi0
sio0: type 16550A
sio1: <16550A-compatible COM port> port 0x2f8-0x2ff irq 3 on acpi0
sio1: type 16550A
ppc0: <ECP parallel printer port> port 0x378-0x37f,0x778-0x77f irq 7 drq 1 on acpi0
ppc0: SMC-like chipset (ECP/EPP/PS2/NIBBLE) in COMPATIBLE mode
ppc0: FIFO with 16/16/8 bytes threshold
ppbus0: <Parallel port bus> on ppc0
plip0: <PLIP network interface> on ppbus0
lpt0: <Printer> on ppbus0
lpt0: Interrupt-driven port
ppi0: <Parallel I/O> on ppbus0
fdc0: <floppy drive controller> port 0x3f0-0x3f5,0x3f7 irq 6 drq 2 on acpi0
fdc0: [FAST]
fd0: <1440-KB 3.5" drive> on fdc0 drive 0
pmtimer0 on isa0
orm0: <ISA Option ROMs> at iomem 0xc0000-0xc7fff,0xc8000-0xcc7ff,0xcc800-0xd27ff,0xde000-0xdffff on isa0
sc0: <System console> at flags 0x100 on isa0
sc0: VGA <16 virtual consoles, flags=0x300>
vga0: <Generic ISA VGA> at port 0x3c0-0x3df iomem 0xa0000-0xbffff on isa0
Timecounter "TSC" frequency 1130457851 Hz quality 800
Timecounters tick every 1.000 msec
ipfw2 (+ipv6) initialized, divert loadable, rule-based forwarding disabled, default to deny, logging limited to 10 packets/entry by default
acd0: DMA limited to UDMA33, device found non-ATA66 cable
acd0: CDROM <ATAPI-CD ROM-DRIVE-56MAX/Ver 56CD> at ata0-master UDMA33
da0 at asr0 bus 0 target 0 lun 0
da0: <ADAPTEC RAID-1 380E> Fixed Direct Access SCSI-2 device
da0: Tagged Queueing Enabled
da0: 70092MB (143548416 512 byte sectors: 255H 63S/T 8935C)
Trying to mount root from ufs:/dev/da0s1a
rl0: promiscuous mode enabled
rl0: promiscuous mode disabled
sk0: link state changed to UP
gre0: gre_output: recursively called too many times(2)
server#


#options     SCHED_ULE        # ULE scheduler
options     SCHED_4BSD        # 4BSD scheduler
options     PREEMPTION        # Enable kernel thread preemption
options     INET            # InterNETworking
#options     INET6            # IPv6 communications protocols
options     FFS            # Berkeley Fast Filesystem
#options     SOFTUPDATES        # Enable FFS soft updates support
options     UFS_ACL            # Support for access control lists
options     UFS_DIRHASH        # Improve performance on big directories
options     MD_ROOT            # MD is a potential root device
options     NFSCLIENT        # Network Filesystem Client
options     NFSSERVER        # Network Filesystem Server
options     NFS_ROOT        # NFS usable as /, requires NFSCLIENT
options     MSDOSFS            # MSDOS Filesystem
options     CD9660            # ISO 9660 Filesystem
options     PROCFS            # Process filesystem (requires PSEUDOFS)
options     PSEUDOFS        # Pseudo-filesystem framework
options     GEOM_GPT        # GUID Partition Tables.
options     COMPAT_43        # Compatible with BSD 4.3 [KEEP THIS!]
options     COMPAT_FREEBSD4        # Compatible with FreeBSD4
options     COMPAT_FREEBSD5        # Compatible with FreeBSD5
options     SCSI_DELAY=5000        # Delay (in ms) before probing SCSI
options     KTRACE            # ktrace(1) support
options     SYSVSHM            # SYSV-style shared memory
options     SYSVMSG            # SYSV-style message queues
options     SYSVSEM            # SYSV-style semaphores
options     _KPOSIX_PRIORITY_SCHEDULING # POSIX P1003_1B real-time extensions
options     KBD_INSTALL_CDEV    # install a CDEV entry in /dev
options     AHC_REG_PRETTY_PRINT    # Print register bitfields in debug
                    # output.  Adds ~128k to driver.
options     AHD_REG_PRETTY_PRINT    # Print register bitfields in debug
                    # output.  Adds ~215k to driver.
options     ADAPTIVE_GIANT        # Giant mutex is adaptive.

options        IPFIREWALL
options        IPFIREWALL_VERBOSE
options        IPFIREWALL_VERBOSE_LIMIT=10
options        IPDIVERT
options        DUMMYNET
options        TCP_DROP_SYNFIN
options        ACCEPT_FILTER_DATA
options        ACCEPT_FILTER_HTTP
options        QUOTA

До скачки
server# netstat -m
295/485/780 mbufs in use (current/cache/total)
13/249/262/25600 mbuf clusters in use (current/cache/total/max)
13/243 mbuf+clusters out of packet secondary zone in use (current/cache)
0/0/0/0 4k (page size) jumbo clusters in use (current/cache/total/max)
0/0/0/0 9k jumbo clusters in use (current/cache/total/max)
0/0/0/0 16k jumbo clusters in use (current/cache/total/max)
103K/619K/722K bytes allocated to network (current/cache/total)
0/0/0 requests for mbufs denied (mbufs/clusters/mbuf+clusters)
0/0/0 requests for jumbo clusters denied (4k/9k/16k)
0/4/6656 sfbufs in use (current/peak/max)
0 requests for sfbufs denied
0 requests for sfbufs delayed
1 requests for I/O initiated by sendfile
0 calls to protocol drain routines
server#


Во время скачки по фтп
server# netstat -m
306/474/780 mbufs in use (current/cache/total)
0/262/262/25600 mbuf clusters in use (current/cache/total/max)
0/256 mbuf+clusters out of packet secondary zone in use (current/cache)
0/0/0/0 4k (page size) jumbo clusters in use (current/cache/total/max)
0/0/0/0 9k jumbo clusters in use (current/cache/total/max)
0/0/0/0 16k jumbo clusters in use (current/cache/total/max)
76K/642K/719K bytes allocated to network (current/cache/total)
0/0/0 requests for mbufs denied (mbufs/clusters/mbuf+clusters)
0/0/0 requests for jumbo clusters denied (4k/9k/16k)
0/4/6656 sfbufs in use (current/peak/max)
0 requests for sfbufs denied
0 requests for sfbufs delayed
1 requests for I/O initiated by sendfile
1 calls to protocol drain routines
server#

во время скачки по самбе
server# netstat -m
261/519/780 mbufs in use (current/cache/total)
0/262/262/25600 mbuf clusters in use (current/cache/total/max)
0/256 mbuf+clusters out of packet secondary zone in use (current/cache)
0/0/0/0 4k (page size) jumbo clusters in use (current/cache/total/max)
0/0/0/0 9k jumbo clusters in use (current/cache/total/max)
0/0/0/0 16k jumbo clusters in use (current/cache/total/max)
66K/653K/719K bytes allocated to network (current/cache/total)
0/0/0 requests for mbufs denied (mbufs/clusters/mbuf+clusters)
0/0/0 requests for jumbo clusters denied (4k/9k/16k)
0/4/6656 sfbufs in use (current/peak/max)
0 requests for sfbufs denied
0 requests for sfbufs delayed
1 requests for I/O initiated by sendfile
5 calls to protocol drain routines
server#

server# sysctl -a | grep buf
kern.ipc.maxsockbuf: 262144
kern.ipc.sockbuf_waste_factor: 8
kern.ipc.nsfbufs: 6656
kern.ipc.nsfbufspeak: 4
kern.ipc.nsfbufsused: 0
cluster_save buffer     0     0K       -     4648  32,64
   BIO buffer     0     0K       -      343  2048
     mbuf_tag     0     0K       -  2345892  32,256
         sbuf     0     0K       -     1288  16,32,64,128,256,512,1024,2048,4096
       devbuf   733  4861K       -      750  16,32,64,128,256,512,1024,2048,4096
kern.msgbuf:
kern.msgbuf_clear: 0
kern.consmsgbuf_size: 8192
mbuf_jumbo_1:  16384,        0,      0,      0,        0
mbuf_jumbo_9:   9216,        0,      0,      0,        0
mbuf_jumbo_p:   4096,        0,      0,      0,        0
mbuf_cluster:   2048,    25600,    256,      6,      256
mbuf:            256,        0,    517,    263,  5949058
mbuf_packet:     256,        0,    512,    268,  1431827
vfs.nfs.bufpackets: 4
vfs.runningbufspace: 20480
vfs.bufspace: 116604928
vfs.maxbufspace: 117325824
vfs.bufmallocspace: 0
vfs.maxmallocbufspace: 5833523
vfs.lobufspace: 116604928
vfs.hibufspace: 116670464
vfs.bufreusecnt: 7117
vfs.buffreekvacnt: 0
vfs.bufdefragcnt: 0
vfs.dirtybufferflushes: 0
vfs.altbufferflushes: 0
vfs.numdirtybuffers: 1014
vfs.lodirtybuffers: 905
vfs.hidirtybuffers: 1810
vfs.dirtybufthresh: 1629
vfs.numfreebuffers: 6147
vfs.lofreebuffers: 402
vfs.hifreebuffers: 804
vfs.getnewbufcalls: 131661
vfs.getnewbufrestarts: 0
vfs.reassignbufcalls: 257778
net.bpf.bufsize: 4096
net.bpf.maxbufsize: 524288
debug.sizeof.buf: 328
security.bsd.unprivileged_read_msgbuf: 1
server#

server# sysctl -a | grep mem
      memdesc     1     4K       -        1  4096
vm.kmem_size: 335544320
vm.kmem_size_max: 335544320
vm.kmem_size_scale: 3
vfs.ufs.dirhash_maxmem: 2097152
vfs.ufs.dirhash_mem: 1111832
hw.physmem: 1064534016
hw.usermem: 872214528
hw.realmem: 1073741824
hw.cbb.start_memory: 2281701376
hw.pci.host_mem_start: 2147483648
p1003_1b.memlock: 0
p1003_1b.memlock_range: 0
p1003_1b.memory_protection: 0
p1003_1b.shared_memory_objects: 1
server#


server# sysctl -a | grep sem
kern.ipc.semmap: 30
kern.ipc.semmni: 10
kern.ipc.semmns: 60
kern.ipc.semmnu: 30
kern.ipc.semmsl: 60
kern.ipc.semopm: 100
kern.ipc.semume: 10
kern.ipc.semusz: 92
kern.ipc.semvmx: 32767
kern.ipc.semaem: 16384
      acpisem   143     9K       -      143  64
          sem     4     7K       -        4  512,1024,4096
debug.acpi.semaphore_debug: 0
p1003_1b.semaphores: 0
p1003_1b.sem_nsems_max: 0
p1003_1b.sem_value_max: 0
server#

Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

3. "Samba FreeBSD производительности системы"  
Сообщение от universite email(ok) on 18-Сен-06, 17:13 
>
>#options  SCHED_ULE  # ULE scheduler
>options  SCHED_4BSD  # 4BSD scheduler
>options  PREEMPTION  # Enable kernel thread preemption
>options  INET   # InterNETworking
>#options  INET6   # IPv6 communications protocols
>options  FFS   # Berkeley Fast Filesystem
>#options  SOFTUPDATES  # Enable FFS soft updates support
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^

>options  UFS_ACL   # Support for access control lists
>options  UFS_DIRHASH  # Improve performance on big directories
>options  MD_ROOT   # MD is a potential root device
>
>options  NFSCLIENT  # Network Filesystem Client
>options  NFSSERVER  # Network Filesystem Server
>options  NFS_ROOT  # NFS usable as /, requires NFSCLIENT
>options  MSDOSFS   # MSDOS Filesystem
>options  CD9660   # ISO 9660 Filesystem
>options  PROCFS   # Process filesystem (requires PSEUDOFS)
>options  PSEUDOFS  # Pseudo-filesystem framework
>options  GEOM_GPT  # GUID Partition Tables.
>options  COMPAT_43  # Compatible with BSD 4.3 [KEEP THIS!]
>options  COMPAT_FREEBSD4  # Compatible with FreeBSD4
>options  COMPAT_FREEBSD5  # Compatible with FreeBSD5
>options  SCSI_DELAY=5000  # Delay (in ms) before probing SCSI
>options  KTRACE   # ktrace(1) support
>options  SYSVSHM   # SYSV-style shared memory
>options  SYSVMSG   # SYSV-style message queues
>options  SYSVSEM   # SYSV-style semaphores
>options  _KPOSIX_PRIORITY_SCHEDULING # POSIX P1003_1B real-time extensions
>options  KBD_INSTALL_CDEV # install a CDEV entry in /dev
>options  AHC_REG_PRETTY_PRINT # Print register bitfields in debug
>     # output.  Adds ~128k to driver.
>
>options  AHD_REG_PRETTY_PRINT # Print register bitfields in debug
>     # output.  Adds ~215k to driver.
>
>options  ADAPTIVE_GIANT  # Giant mutex is adaptive.
>
>options  IPFIREWALL
>options  IPFIREWALL_VERBOSE
>options  IPFIREWALL_VERBOSE_LIMIT=10
>options  IPDIVERT
>options  DUMMYNET
>options  TCP_DROP_SYNFIN
>options  ACCEPT_FILTER_DATA
>options  ACCEPT_FILTER_HTTP
>options  QUOTA
>
>До скачки
>server# netstat -m
>295/485/780 mbufs in use (current/cache/total)
>13/249/262/25600 mbuf clusters in use (current/cache/total/max)
>13/243 mbuf+clusters out of packet secondary zone in use (current/cache)
>0/0/0/0 4k (page size) jumbo clusters in use (current/cache/total/max)
>0/0/0/0 9k jumbo clusters in use (current/cache/total/max)
>0/0/0/0 16k jumbo clusters in use (current/cache/total/max)
>103K/619K/722K bytes allocated to network (current/cache/total)
>0/0/0 requests for mbufs denied (mbufs/clusters/mbuf+clusters)
>0/0/0 requests for jumbo clusters denied (4k/9k/16k)
>0/4/6656 sfbufs in use (current/peak/max)
>0 requests for sfbufs denied
>0 requests for sfbufs delayed
>1 requests for I/O initiated by sendfile
>0 calls to protocol drain routines
>server#
>
>
>Во время скачки по фтп
>server# netstat -m
>306/474/780 mbufs in use (current/cache/total)
>0/262/262/25600 mbuf clusters in use (current/cache/total/max)
>0/256 mbuf+clusters out of packet secondary zone in use (current/cache)
>0/0/0/0 4k (page size) jumbo clusters in use (current/cache/total/max)
>0/0/0/0 9k jumbo clusters in use (current/cache/total/max)
>0/0/0/0 16k jumbo clusters in use (current/cache/total/max)
>76K/642K/719K bytes allocated to network (current/cache/total)
^^^^^^^^^^^^^^

>
>во время скачки по самбе
>server# netstat -m
>261/519/780 mbufs in use (current/cache/total)
>0/262/262/25600 mbuf clusters in use (current/cache/total/max)
>0/256 mbuf+clusters out of packet secondary zone in use (current/cache)
>0/0/0/0 4k (page size) jumbo clusters in use (current/cache/total/max)
>0/0/0/0 9k jumbo clusters in use (current/cache/total/max)
>0/0/0/0 16k jumbo clusters in use (current/cache/total/max)
>66K/653K/719K bytes allocated to network (current/cache/total)
^^^^^^^^^^^^^^^^

Для сетвых интерфейсов не хватает памяти.
Нужно поиграться с количеством Maxusers и mbufs.
Также надо включить SoftUpdates

Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

4. "Samba FreeBSD производительности системы"  
Сообщение от Чюваг on 19-Сен-06, 00:37 
>>76K/642K/719K bytes allocated to network (current/cache/total)
>^^^^^^^^^^^^^^
>>66K/653K/719K bytes allocated to network (current/cache/total)
>^^^^^^^^^^^^^^^^
>
>Для сетвых интерфейсов не хватает памяти.
>Нужно поиграться с количеством Maxusers и mbufs.
Объясните, плз, чайнику, как определить хватает буферов или нет? 6.1p6 AMD64
Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

5. "Samba FreeBSD производительности системы"  
Сообщение от vlad11 email(??) on 19-Сен-06, 02:33 
>>>76K/642K/719K bytes allocated to network (current/cache/total)
>>^^^^^^^^^^^^^^
>>>66K/653K/719K bytes allocated to network (current/cache/total)
>>^^^^^^^^^^^^^^^^
>>
>>Для сетвых интерфейсов не хватает памяти.
>>Нужно поиграться с количеством Maxusers и mbufs.
>Объясните, плз, чайнику, как определить хватает буферов или нет? 6.1p6 AMD64

Если для домашней машины - то GENERIC хватит с головой, а если сервер под нагрузкой, то надо тюнинговать.

Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

6. "Samba FreeBSD производительности системы"  
Сообщение от Чюваг on 19-Сен-06, 09:48 
>Если для домашней машины - то GENERIC хватит с головой, а если
>сервер под нагрузкой, то надо тюнинговать.

Файлопомойка + 1С на 10 машин
Ядрышко пересобрано под железо (лишнее выкинуто, нужное добавлено)

Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

7. "Samba FreeBSD производительности системы"  
Сообщение от NarkomanLove email(ok) on 20-Сен-06, 14:43 
Вс еуже все перепробывал.
сейчас параметры такие:
sysctl
net.local.stream.recvspace=3217968
net.local.stream.sendspace=3217968
net.inet.tcp.sendspace=3217968
net.inet.tcp.recvspace=3217968
kern.ipc.somaxconn=1024
net.inet.ip.intr_queue_maxlen=5000
kern.ipc.maxsockbuf=8388608
net.inet.tcp.rfc1323=1

loader.conf
autoboot_delay="2"
kern.ipc.nmbclusters="60000"
kern.ipc.maxsockets="16424"

делал по этому статье
http://www.avdor.irkutsk.ru/faq/spisok.php?show_id=316&razdel=FreeBSD
и еще по куче таких-же без разницы.


server# netstat -m
280/1640/1920 mbufs in use (current/cache/total)
0/1166/1166/60000 mbuf clusters in use (current/cache/total/max)
0/1152 mbuf+clusters out of packet secondary zone in use (current/cache)
0/0/0/0 4k (page size) jumbo clusters in use (current/cache/total/max)
0/0/0/0 9k jumbo clusters in use (current/cache/total/max)
0/0/0/0 16k jumbo clusters in use (current/cache/total/max)
70K/2742K/2812K bytes allocated to network (current/cache/total)
0/0/0 requests for mbufs denied (mbufs/clusters/mbuf+clusters)
0/0/0 requests for jumbo clusters denied (4k/9k/16k)
0/4/6656 sfbufs in use (current/peak/max)
0 requests for sfbufs denied
0 requests for sfbufs delayed
0 requests for I/O initiated by sendfile
0 calls to protocol drain routines
server#

ФТП качает по 7-25 метров.
сабма не более 9 метров.
пошол вещатся.

Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

8. "Samba FreeBSD производительности системы"  
Сообщение от universite email(ok) on 21-Сен-06, 03:15 

>ФТП качает по 7-25 метров.
>сабма не более 9 метров.
>пошол вещатся.

В секцию global самбы добавьте:

socket options = TCP_NODELAY SO_RCVBUF=8192 SO_SNDBUF=8192

Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

9. "Samba FreeBSD производительности системы"  
Сообщение от openSCL (ok) on 21-Сен-06, 08:23 
>В секцию global самбы добавьте:
>socket options = TCP_NODELAY SO_RCVBUF=8192 SO_SNDBUF=8192

Добавляю SO_SNDBUF=ХХХХ и все клиенты висят, качать может только один.

Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

10. "Samba FreeBSD производительности системы"  
Сообщение от NarkomanLove email(??) on 21-Сен-06, 08:36 
>>В секцию global самбы добавьте:
>>socket options = TCP_NODELAY SO_RCVBUF=8192 SO_SNDBUF=8192
>

Попробовал эфект один и тот-же.
Сейчас подумал, а может дело в самбе?
Попробую более старую версию.
Вобще на сколько я понял Фри надо затачивать под гигабит и при чем конкретно, по умолчанию гигабит для неё это 100 мегабит.

Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

11. "Samba FreeBSD производительности системы"  
Сообщение от universite email(ok) on 21-Сен-06, 13:03 

>Вобще на сколько я понял Фри надо затачивать под гигабит и при
>чем конкретно, по умолчанию гигабит для неё это 100 мегабит.

Это кто такое вам сказал?
Скорее всего сетевуха воткнута в обычный PCI-32 слот и поэтому имеем ограничение по шине.
Еще можно поиграться с polling'ом, но можно получить черезчур высокую нагрузку по CPU.
Также попробовать заменить сетевуху на Интел.
https://www.opennet.ru/base/net/router_notes.txt.html


Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

12. "Samba FreeBSD производительности системы"  
Сообщение от universite email(ok) on 21-Сен-06, 13:04 
Биос на матери свежий?
Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

Архив | Удалить

Индекс форумов | Темы | Пред. тема | След. тема
Оцените тред (1=ужас, 5=супер)? [ 1 | 2 | 3 | 4 | 5 ] [Рекомендовать для помещения в FAQ]




Спонсоры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2022 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру