[sage] rsnapshot Prozesskontrolle

Dieter Braun dieter.braun.rgbg at gmx.de
Fri Sep 24 20:47:40 CEST 2010


  Hallo zusammen,

Am 24.09.2010 08:50, schrieb Dirk Winter:
> On 23.09.2010 14:27, Roeder wrote:
>> Was lastet denn da genau den Server so sehr aus? Das rsnapshot script
>> selbst? Oder gegebenenfalls rsync, wenn es von rsnapshot ausgeführt wird?
>>
> habe mir das gestern nochmal genauer angeschaut, daher die etwas verspätete Antwort.
> rsnapshot startet und fängt erst mal an zu löschen. Der load des Servers steigt dabei auf Werte von ~10. Die Swap Auslastung war bei 168k. Die CPU-Belastung steigt nicht wesentlich an und es gibt sogar noch ca. 100 MB freien RAM.
> Wenn ich rsnapshot und die Unterprozesse kille, sinkt der load wieder auf Werte von 0,5. Heute morgen ist der load bei 0,07

"Load" beschreibt doch hauptsächlich die gleichzeitig laufenden, aktiven 
Prozesse (siehe auch http://de.wikipedia.org/wiki/Load). Prozessor- und 
Speicherauslastung sowie Reaktionszeit des Systems hängen zwar schon 
damit zusammen, es kommt aber immer auf die Prozesse an. Der 
Zusammenhang ist daher nicht linear. Ich habe schon Systeme mit einer 
Load von 3 - 5 gesehen, die immer noch (halbwegs) performant geantwortet 
haben. Bei einer noch höheren Load merkt mensch das normalerweise aber 
schon deutlich.

Da ich bislang immer rsync direkt verwende (ja, auch ich mach 
Backup-to-Disk, auch wenn ich mich immer noch stark für Backup-to-Tape 
ausspreche, das ist für mich z. B. der letzte Schritt zum Auslagern) 
kenne ich rsnapshot bisher nicht wirklich. Arbeitet rsnapshot mit 
mehreren parallelen rsync's oder rm's (du scheinst das Problem ja 
hauptsächlich beim Löschen zu haben)? Schau dir doch mal während des 
Backups die Anzahl der rsync's, rm's, and related processes in der 
Prozessliste an. Wenn da ungefähr 10 auf einmal laufen, würde es die 
Load erklären.

Wie dem beizukommen ist, kann ich dir aber leider nicht schreiben. Ich 
könnte mir vorstellen, dass sich rsnapshot da eventuell konfigurieren lässt.

> Ich habe vorher tar-Archive der zu sichernden Verzeichnisse erzeugt und diese noch komprimiert. Dabei kam es nie so einem solchen Verhalten.

Pro tar-Prozess gibt es eine Load von 1, wenn diese noch komprimiert 
werden und das forkt höchstens eine Load von 2. (Habe mir das noch nie 
so wirklich genau angesehen, vom Prinzip her sollte es aber so sein.) 
Solange du also nicht mehrere tar's auf einmal laufen lässt, hält sich 
die Load natürlich in Grenzen (solange die Hardware nicht schwächelt).

Beste Grüße,
Dieter




More information about the SAGE mailing list