Ich verwende zur Datensicherung ein selbst gebautes Script und brenne die Daten danach auf Bluray Medien zur externen Hinterlegung.
Bisher habe ich dazu in etwa folgenden Aufruf verwendet:

tar -v --label="tkruse-home" -l -c -p --totals --ignore-failed-read ... | gpg --compress-algo bzip2 --cipher-algo AES256 -z 9 -c

Nun komprimiert bzip2 ja nicht besonders gut im Verhältnis zum dafür erforderlichen Aufwand (und die Dekomprimierung ist langsam). Leider unterstützt GPG von Haus aus lediglich bzip2 und zlib, nicht den von mir favorisierten lzma Algorithmus. (Der kommt bei 7zip auch zum Einsatz und sorgt für die gute Kompressionsrate.)
Jedoch ist bei modernen Linux Distributionen wie Debian und dem darauf basierenden Ubuntu auch das Kommandozeilentool „lzma“ verfügbar. Dies kann in guter alter Unix Manier als Filter eingesetzt werden, lediglich gpg muss dann noch beigebracht werden, keine eigene Komprimierung einzusetzen. Dies geschieht wenn man als „Algorithmus“ einen der Werte „none“ oder „uncompressed“ verwendet.
Der Aufruf sieht dann so aus:

tar -v --label="tkruse-home" -l -c -p --totals --ignore-failed-read ... | lzma -c -z -9 | gpg --compress-algo none --cipher-algo AES256 -c

Leider unterstützt das lzma Tool derzeit (2011) noch kein multithreading (im Gegensatz zu 7zip), so dass keine Parallelität auf multi-core Maschinen ausgenutzt werden kann.

Im Gegensatz zu anderen Backup Lösungen hat meine Lösung den Nachteil kein inkrementelles Backup zu unterstützen, die Backup Datei hat keine Redundanz gegen defekte Blöcke und als Ausgabe kommt lediglich eine große Datei heraus, die anschließend gesichert werden muss. Für mich reicht das – für einen normalen Anwender ist es vermutlich nicht das Mittel der Wahl.