Re: Durchsatz von tar -> DLT // Blockgrößen

Autor: Christian Weisgerber (naddy_at_mips.inka.de)
Datum: 11. Jun 2003


Raphael H. Becker <Raphael.Becker_at_gmx.de> wrote:

> BTW: Was ist denn "Konvenion", was Blockgrößen bei DLTs angeht?

DLT verwendet von Haus aus variable Blockgröße, jedenfalls von außen
betrachtet. Größere Blöcke bedeuten weniger Overhead, aber wie du
selbst schon beobachtet hast, gibt es ab ein paar kB keine nennens-
werten Unterschiede mehr. dump und tar operieren per Default mit
10kB, was schon reichen dürfte. Traditionell hat bei BSD physio(9)
eine 64kB-Grenze, größere Zugriffe werden entsprechend aufgespalten
und lohnen daher nicht.

> In diesem Fall sammelt tar nur diverse recht große Files ein, die
> gezippte dumps von anderen Servern sind. [...]
> Weiterer Vorteil ist, daß ich dumps > $tapesize ohne Schmerzen "verpackt"
> bekomme (was star ja leider genau nicht kann).

Ärgerlich, denn gerade für diese Anwendung bietet sich star gerade
an. Ich glaube, Hans-Günter macht sein Backup auch genau so.

> Also 39.000.000.000 Bytes (~39 GBytes) statisch veranschlagen und
> hoffen, daß es passt?

Ja.

-- 
Christian "naddy" Weisgerber                          naddy_at_mips.inka.de

Dieses Archiv wurde generiert von hypermail 2.1.7 : 11. Jun 2003 CEST