Sicherheit von SSH-Keys erhöhen

Autor: Timo Zimmermann <timo.zimmermann_at_pharao-edv.de>
Datum: Sat, 17 May 2008 09:23:02 +0200
-----BEGIN PGP SIGNED MESSAGE-----
Hash: SHA1

Hi,
nachdem ich meine Keys getauscht habe und mich etwas mit der Materie
beschäftigt, stellt sich mir eine Frage:

Warum verwenden wir immer Schlüssel mit 1024*x bit?

Ich beziehe mich von hier an auf [1], da es IMHO das übersichtlichste
ist, um klar zu machen, was ich meine.

| Q: I use 16384-bit RSA keys, can these be broken?
| A: Yes, its just a matter of time and processing power. The 8192-bit
| RSA keyset would take about 3100 hours of CPU time to generate all
| 32,767 keys (100 hours on the 31 cores im using now). I imagine the
| 16384-bit RSA keyset would take closer to 100,000 hours of CPU time.
| One thing to keep in mind is that most keys are within a much smaller
| range, based on the process ID seed, and the entire set would not need
| to be generated to cover the majority of user keys (most keys are
| within the first 3,000 process IDs).

Verwendet werden Xeons - 31 cores mit 2.33GHz. Also nichts, was gerade
mal jeder zu Hause rumstehen hat.

Beziehen wir den Part mir der process ID nicht direkt mit ein, irgendwie
können wir die sicher dazu bringen nicht in den unteren Werten zu sein -
sprich die ID irgendwie selbst festlegen.

So wären das 4166 Tage, also 11,4 Jahre um alle Keys zu berechnen.

(Achtung, ab hier ist es ein Schätzwert, ich rechne das jetzt nicht um)
Selbst wenn wir davon ausgehen, dass wir die ersten 3000 in der gleichen
Zeit berenen könnten wie alle 8192bit keysets wären das 4,1 Tag.

Wir gehen also davon aus, dass es relativ lange dauert die keysets zu
berechnen.

Wenn wir jetzt einen key mit (1024*x +/- random_number) bit verwenden
wäre doch die warscheinlichkeit, dass das richtige keyset berechnet wird
sehr gering oder irre ich mich da?

1 bit verändern scheint ja gängig zu sein, die keysets für 1023 und
2047bit gibt es ja - aber was ist, wenn wir einfach 16001 bit
verwenden?

Das einzige Szenario in dem es Probleme wäre AFAIK, wenn ein Programm
nicht mit dieser von 1024*x abweichenden Länge zurecht kommt, wobei mir
das nicht bekannt wäre. (wobei das nichts bedeutetn soll)

Hat jemand von euch genauere Informationen warum wir immer brav 1024*x
verweden und nicht etwas "zufälligere" Zahlen?

Gruß
Timo

[1] http://metasploit.com/users/hdm/tools/debian-openssl/
-----BEGIN PGP SIGNATURE-----
Version: GnuPG v1.4.8 (MingW32)
Comment: Using GnuPG with Mozilla - http://enigmail.mozdev.org

iEYEARECAAYFAkguh9YACgkQnYDUQ3PvEu5o4QCeP91/ZSRaDpP0vxS7BEawzd9k
6/4AnjH5Uroq8O9NRphdWAq36rxU7bJk
=WU/U
-----END PGP SIGNATURE-----
-- 
http://mailman.uugrn.org/mailman/listinfo/uugrn
Wiki: http://wiki.uugrn.org/wiki/UUGRN:Mailingliste
Archiv: http://lists.uugrn.org/
Empfangen am 17.05.2008

Dieses Archiv wurde generiert von hypermail 2.2.0 : 17.05.2008 CEST