[sage] rsnapshot Prozesskontrolle
Dieter Braun
dieter.braun.rgbg at gmx.de
Fri Sep 24 20:47:40 CEST 2010
Hallo zusammen,
Am 24.09.2010 08:50, schrieb Dirk Winter:
> On 23.09.2010 14:27, Roeder wrote:
>> Was lastet denn da genau den Server so sehr aus? Das rsnapshot script
>> selbst? Oder gegebenenfalls rsync, wenn es von rsnapshot ausgeführt wird?
>>
> habe mir das gestern nochmal genauer angeschaut, daher die etwas verspätete Antwort.
> rsnapshot startet und fängt erst mal an zu löschen. Der load des Servers steigt dabei auf Werte von ~10. Die Swap Auslastung war bei 168k. Die CPU-Belastung steigt nicht wesentlich an und es gibt sogar noch ca. 100 MB freien RAM.
> Wenn ich rsnapshot und die Unterprozesse kille, sinkt der load wieder auf Werte von 0,5. Heute morgen ist der load bei 0,07
"Load" beschreibt doch hauptsächlich die gleichzeitig laufenden, aktiven
Prozesse (siehe auch http://de.wikipedia.org/wiki/Load). Prozessor- und
Speicherauslastung sowie Reaktionszeit des Systems hängen zwar schon
damit zusammen, es kommt aber immer auf die Prozesse an. Der
Zusammenhang ist daher nicht linear. Ich habe schon Systeme mit einer
Load von 3 - 5 gesehen, die immer noch (halbwegs) performant geantwortet
haben. Bei einer noch höheren Load merkt mensch das normalerweise aber
schon deutlich.
Da ich bislang immer rsync direkt verwende (ja, auch ich mach
Backup-to-Disk, auch wenn ich mich immer noch stark für Backup-to-Tape
ausspreche, das ist für mich z. B. der letzte Schritt zum Auslagern)
kenne ich rsnapshot bisher nicht wirklich. Arbeitet rsnapshot mit
mehreren parallelen rsync's oder rm's (du scheinst das Problem ja
hauptsächlich beim Löschen zu haben)? Schau dir doch mal während des
Backups die Anzahl der rsync's, rm's, and related processes in der
Prozessliste an. Wenn da ungefähr 10 auf einmal laufen, würde es die
Load erklären.
Wie dem beizukommen ist, kann ich dir aber leider nicht schreiben. Ich
könnte mir vorstellen, dass sich rsnapshot da eventuell konfigurieren lässt.
> Ich habe vorher tar-Archive der zu sichernden Verzeichnisse erzeugt und diese noch komprimiert. Dabei kam es nie so einem solchen Verhalten.
Pro tar-Prozess gibt es eine Load von 1, wenn diese noch komprimiert
werden und das forkt höchstens eine Load von 2. (Habe mir das noch nie
so wirklich genau angesehen, vom Prinzip her sollte es aber so sein.)
Solange du also nicht mehrere tar's auf einmal laufen lässt, hält sich
die Load natürlich in Grenzen (solange die Hardware nicht schwächelt).
Beste Grüße,
Dieter
More information about the SAGE
mailing list