APU4C4 softirq Auslastung normal?

Das Grundgerüst des IPFire - Hardware Allgemein und auch spezielle Hardwarefragen und Probleme
Post Reply
Finn10111
Posts: 8
Joined: June 29th, 2013, 11:08 am

APU4C4 softirq Auslastung normal?

Post by Finn10111 » March 22nd, 2019, 8:19 pm

Hallo,

seit ein paar Tagen nutze ich ein PC Engines APU4c4 Board für IPFire. Soweit bin ich auch ganz zufrieden. Ich weiß, dass die CPU nicht sehr schnell ist, aber wenigstens ist das System deutlich sparsamer als mein Vorheriges. Trotzdem würde mich interessieren, ob meine CPU Auslastung im normalen Bereich liegt bzw. mit anderen Nutzern vergleichbar ist.

Ich habe einen VDSL 100 MBit/s Anschluss (ca. 87 MBit/s kommen an), nutze keinen Proxy, aber QoS. Beim Download aus dem Internet mit dem Rechner (grün) kommt bei 87 MBit folgende CPU Auslastung zu Stande:
system.cgi.png

Code: Select all

top - 20:28:52 up 1 day,  2:23,  1 user,  load average: 0.29, 0.26, 0.11
Tasks: 111 total,   1 running,  67 sleeping,   0 stopped,   0 zombie
Cpu(s):  0.7%us,  0.7%sy,  0.0%ni, 78.7%id,  0.0%wa,  1.8%hi, 18.0%si,  0.0%st
Mem:   4127068k total,   962248k used,  3164820k free,    80392k buffers
Swap:   906876k total,        0k used,   906876k free,   731808k cached

  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND
25261 root      20   0  3152 2076 1868 R    1  0.1   0:00.06 top
20261 finn      20   0  6668 2416 2012 S    1  0.1   0:00.27 sshd
   16 root      20   0     0    0    0 S    0  0.0   0:05.17 ksoftirqd/1
   22 root      20   0     0    0    0 S    0  0.0   0:05.51 ksoftirqd/2
   28 root      20   0     0    0    0 S    0  0.0   0:11.10 ksoftirqd/3
12781 nobody    20   0 68468  30m 4420 S    0  0.8   0:33.78 unbound
13508 nobody    20   0  161m 8288 5320 S    0  0.2  12:59.52 httpd
Eine ähnliche Auslastung habe ich mit iperf (ca 940 MBit/s), dabei läuft IPFire als Server und mein PC als Client. Besonders auffällig ist der hohe softirq Wert. Die Deaktivierung von QoS macht hierbei keinen Unterschied.

Wie gesagt, es läuft eigentlich alles ganz rund und die Performance reicht aus, mich würde lediglich interessieren, ob der hohe softirq Wert "normal" ist. Die Netzwerkkarte hat eben einiges zu tun, das ist verständlich. Aber ist es wirklich so, dass die Auslastung bei knapp 100 MBit/s Routing ebenso hoch ist wie bei knapp 1 GBit/s direkt von grün zu grün?

Vielen Dank und mit freundlichen Grüßen,
Finn Christiansen

User avatar
MichaelTremer
Core Developer
Core Developer
Posts: 5739
Joined: August 11th, 2005, 9:02 am

Re: APU4C4 softirq Auslastung normal?

Post by MichaelTremer » March 25th, 2019, 12:30 pm

Hi,

nein, normal ist der eigentlich nicht. Steht was im Log? Ist das nur, wenn man ordentlich Pakete durch schickt?
Support the project with our Donation Challenge!

Get Commercial Support for IPFire and more from Lightning Wire Labs!

Image

Finn10111
Posts: 8
Joined: June 29th, 2013, 11:08 am

Re: APU4C4 softirq Auslastung normal?

Post by Finn10111 » March 25th, 2019, 7:08 pm

Moin,

ja, mit nur wenig bis gar kein Traffic, also quasi Idle, liegt die CPU Auslastung bei 1-3 %. Allerdings liegt der softirq Anteil auch schon bei 0,3 - 1 %. Ich stelle aber gerade fest, dass ich den i668 Kernel (laut uname -a) nutze, da ich das System mit Hilfe eines Backup ISOs meines alten Systems installiert habe. Macht das einen relevanten Unterschied?

Bei einem Download bzw. bei Last erscheint nichts Besonders (?) in den Logs, die letzten dmesg Meldungen z.B. sind 15 Stunden alt, /var/log/messages zeigt auch nur immer das Selbe (vpn, monitoring, etc):

Code: Select all

dmesg -T

[Sun Mar 24 16:17:48 2019] perf: interrupt took too long (2520 > 2500), lowering kernel.perf_event_max_sample_rate to 79200
[Sun Mar 24 17:30:08 2019] perf: interrupt took too long (3173 > 3150), lowering kernel.perf_event_max_sample_rate to 63000
[Sun Mar 24 20:15:01 2019] perf: interrupt took too long (4068 > 3966), lowering kernel.perf_event_max_sample_rate to 48900
[Sun Mar 24 22:09:25 2019] perf: interrupt took too long (5128 > 5085), lowering kernel.perf_event_max_sample_rate to 39000
[Mon Mar 25 02:25:36 2019] ISO 9660 Extensions: Microsoft Joliet Level 3
[Mon Mar 25 02:25:36 2019] ISO 9660 Extensions: Microsoft Joliet Level 3
[Mon Mar 25 02:25:36 2019] ISO 9660 Extensions: RRIP_1991A
[Mon Mar 25 05:00:06 2019] udevd[3749]: Error changing net interface name red0.7 to red0: File exists
[Mon Mar 25 05:00:07 2019] ctnetlink v0.93: registering with nfnetlink.
[Mon Mar 25 05:00:40 2019] HTB: quantum of class 10001 is big. Consider r2q change.
[Mon Mar 25 05:00:40 2019] HTB: quantum of class 20001 is big. Consider r2q change.
[Mon Mar 25 05:00:40 2019] HTB: quantum of class 20202 is big. Consider r2q change.
[Mon Mar 25 05:00:40 2019] HTB: quantum of class 20210 is big. Consider r2q change.

Code: Select all

tail /var/log/messages

Mar 25 20:02:20 ipfire openvpnserver[4707]: example.org/x.x.x.x:60382 Incoming Data Channel: Cipher 'AES-256-CBC' initialized with 256 bit key
Mar 25 20:02:20 ipfire openvpnserver[4707]: example.org/x.x.x.x:60382 Incoming Data Channel: Using 512 bit message hash 'SHA512' for HMAC authentication
Mar 25 20:02:20 ipfire openvpnserver[4707]: example.org/x.x.x.x:60382 Control Channel: TLSv1.2, cipher TLSv1.2 ECDHE-RSA-AES256-GCM-SHA384, 2048 bit RSA
Mar 25 20:02:26 ipfire sshd[15985]: Connection closed by 192.168.1.14 port 57304 [preauth]
Mar 25 20:02:51 ipfire sshd[16009]: Connection closed by x.x.x.x port 32872 [preauth]
Mar 25 20:03:18 ipfire sudo:     nrpe : TTY=unknown ; PWD=/ ; USER=root ; COMMAND=/usr/lib/nagios/plugins/check_ide_smart -d /dev/sda
Mar 25 20:03:26 ipfire sshd[16098]: Connection closed by 192.168.1.14 port 57648 [preauth]
Mar 25 20:03:51 ipfire sshd[16124]: Connection closed by x.x.x.x port 33136 [preauth]
Mar 25 20:04:18 ipfire sudo:     nrpe : TTY=unknown ; PWD=/ ; USER=root ; COMMAND=/usr/lib/nagios/plugins/check_ide_smart -d /dev/sda
Mar 25 20:04:26 ipfire sshd[16204]: Connection closed by 192.168.1.14 port 57986 [preauth]

Post Reply