HD 4890 X2

Das wundert mich aber sehr. Bei meinem Bruder mit einem E7200 (2,5GHZ) läufts gar nicht, dabei hat er auch eine 8800GT (allerdings mit 512mb).
Hm, dann hat ers wohl nicht gepatcht, die Patches haben viel verbessert.
Denn es läuft sogar auf meinem (baldigen) Laptop, wie man in diesem Vid sieht, und das hat nochmal eine bisschen schwächere CPU
smile.gif
 
Zuletzt bearbeitet von einem Moderator:
Niranda BruteForce ist aber ein unglaublicher Mist, das geht zT ewig!
 
Zuletzt bearbeitet von einem Moderator:
Aber das Hacken von Passphrase ist nicht die feine englische Art und man sollte es doch bitte unterlassen.
 
Und ATI hat die Karte sicher nicht mit der Absicht entwickelt dass irgendwelche Leute damit WLAN-Keys schneller bruteforcen können ^^
 
Zum hacken von Wlan Passwörtern braucht man eher mehr Kerne als einen hohen Takt. Um anständig Pws zu hashen braucht man schon 150-180 (!)Karten aufwärts. Wenn man also 180 Gtx 9800 kauft zahlt man nur für die Grakas ca. 20000 Euro bei einer 4890 zahlt man insgesamt 40000. Dazu kommen noch Mbs, Prozessoren und ganz wichtig, die Stromrechnung. Also wenn ich Pws hashen würde würde ich lieber Gtx 9800 kaufen, vlt. ein paar mehr aber dabei dann immer noch deutlich billiger sein als mit den HD4890. Den Vorteil durch den höheren Takt kann man eher vernachlässigen.
 
Zuletzt bearbeitet von einem Moderator:
nein, sicherlich ist die Karte nicht dazu entwickelt. Fakt ist, dass BruteForce mit einer starken GPU ein wenig schneller geht, Fakt ist aber auch, dass es trotzdem noch verdammt lange dauert! Wenn du aber unter Linux mit Aircrack arbeitest, welches das Kismet-Protokoll ausliest, hast du einen riesen Vorteil.

Das alles ändert aber nichts daran, dass WPA nur so sicher ist wie das Passwort. Wenn du natürlich 1111 als PW hast, ist das binnen weniger Millisekunden geknackt, wenn es aber mal 10 Zeichen und mehr werden, und zwar Zahlen, Buchstaben und Sonderzeichen, dann kann man einpacken. Mein WPA2-Passwort hat 12 Zeichen, und zwar wahllos gemischt. Das bekommt man mit BruteForce sicher nicht geknackt. Bevor man da rankommt zerfällt der Router wegen Altersschwäche.
 
Zuletzt bearbeitet von einem Moderator:
nein, sicherlich nicht. Fakt ist, dass BruteForce mit einer starken GPU deutlich schneller geht, Fakt ist aber auch, dass es trotzdem noch verdammt lange dauert! Wenn du aber unter Linux mit Aircrack arbeitest, welches das Kismet-Protokoll ausliest, hast du einen riesen Vorteil.

Das alles ändert aber nichts daran, dass WPA nur so sicher ist wie das Passwort. Wenn du natürlich 1111 als PW hast, ist das binnen weniger Millisekunden geknackt, wenn es aber mal 10 Zeichen und mehr werden, und zwar Zahlen, Buchstaben und Sonderzeichen, dann kann man einpacken. Mein WPA2-Passwort hat 12 Zeichen, und zwar wahllos gemischt. Das bekommt man mit BruteForce sicher nicht geknackt. Bevor man da rankommt zerfällt der Router wegen Altersschwäche.
Ich habe ja dazu geschrieben, das man von den GTX 9800 ein paar mehr nehmen müsste. Und 20k Euro + STromrechnung sprechen für sich... Damit kriegst du halt ein 16-stelliges Pw mit sonderzeichen in einer Woche geknackt.
 
Sicher, aber ich als Homeuser ohne wichtige Daten auf dem PC/im Netzwerk bin von soetwas eh nicht bedroht. Ich glaub nicht, dass jemand mit einem Laptop im Auto sitzend fähig wäre, in mein Netzwerk einzudringen.

Aber ist es wirklich möglich, 16 Stellen in einer Woche zu knacken? Das wäre enorm...Für was braucht man soetwas? Wenn man wirklich so sensible Daten hat für die es sich lohnt, so einen Aufwand zu betreiben, wird man den Rechner doch wohl nicht am Internet hängen haben, und wenn, schon garnicht via WLAN. Außerdem kann man das Passwort auch alle 2-3 Tage ändern. Auch wenn es nur 1 Stelle ist, der Wardriver hat Pech gehabt und kann von vorne anfangen.
 
Ach, ich finds eh irre, dass ElcomSoft aus Russland die Software zur "Passwortwiederherstellung" einfach so vertreiben kann.

Wie kam eigentlich die Diskussion auf? Schließlich geht es ja um ATI hier im Thread, BruteForce-Angriffe sind doch nur mit Nvidia via Cuda möglich oder sind die da schon weiter?

Edit: LoLTroll es macht schon einen wahnsinns Unterschied ob du 8 oder 9 Stellen hast. Zwischen 8 und 12 stellen beim PW-knacken mit BruteForce liegen Welten (bzw. Jahre)
 
Zuletzt bearbeitet von einem Moderator:
Edit: LoLTroll es macht schon einen wahnsinns Unterschied ob du 8 oder 9 Stellen hast. Zwischen 8 und 12 stellen beim PW-knacken mit BruteForce liegen Welten (bzw. Jahre)

habe ich nie bestritten...

Ach, ich finds eh irre, dass ElcomSoft aus Russland die Software zur "Passwortwiederherstellung" einfach so vertreiben kann.

Es ist wie mit Dietrichen...Man kann sie ohne Probleme legal kaufen. Man darf damit nur nicht unbefugt Türen öffnen
wink.gif
 
Zuletzt bearbeitet von einem Moderator:
Fakt ist auch, dass man eine CPU schon lange nichtmehr für BruteForce verwendet, da Rainbowtables viel schneller sind. Da Stream SDK Cuda noch stark unterlegen ist, wird es wahrscheinlich so schnell kein BruteForce-Programm für ATI geben.

Edit: Okay, nach diversen Nachforschungen in den dunkelsten Stellen des Internets muss ich feststellen, dass es solche Programme auch für ATi gibt. Nicht in der Vielfalt wie bei Nvidia, aber es gibt sie. Namen werd ich hier aber sicherlich keine nennen
wink.gif
 
Zuletzt bearbeitet von einem Moderator:
Also: Mit Ati Karten scheint es doch schneller zu gehen, da sie ein bestimmtes Tool haben, welches die Berechnungen beschleunigt.


Sicher, aber ich als Homeuser ohne wichtige Daten auf dem PC/im Netzwerk bin von soetwas eh nicht bedroht. Ich glaub nicht, dass jemand mit einem Laptop im Auto sitzend fähig wäre, in mein Netzwerk einzudringen.

Aber ist es wirklich möglich, 16 Stellen in einer Woche zu knacken? Das wäre enorm...Für was braucht man soetwas? Wenn man wirklich so sensible Daten hat für die es sich lohnt, so einen Aufwand zu betreiben, wird man den Rechner doch wohl nicht am Internet hängen haben, und wenn, schon garnicht via WLAN. Außerdem kann man das Passwort auch alle 2-3 Tage ändern. Auch wenn es nur 1 Stelle ist, der Wardriver hat Pech gehabt und kann von vorne anfangen.
Ich schätze mal unter 75000 Euro wirst du nicht weckkommen. Du brauchst halt sehr viele Gpus dafür können die Prozessoren schwach seien. Mainboards Gehäuse, NTs etc., dann noch einen Raum wo du das abstellen kannst. Den Raum musst du noch kühlen.

So und jetzt habe ich mal die Stromrechnug ausgerechnet: (Mit Erklärungen für die, die in Physik nicht aufgepasst haben).
Ich gehe mal davon aus das eine Karte+Pc 400 Watt verbraucht,davon dann 180 Stück.

400x180=72000
Heißt: Der Komplex verbraucht 72000 Joule in der Sekunde. (Watt=Joule pro Sekunde also 1 joule in der Sekunde gleich 1 Watt)

So um jetzt herauszufinden wieviel Kilowattstunden der Pc verbraucht, teilen wir diesen Wert durch 1000

72000:1000=72

Also wissen wir das der Pc, wenn wir ihn eine Stunde laufen lassen, 72 Kilowattstunden verbraucht.

Bei einen Kilowattstundenpreis von 20 Cent kostet der Pc 14,4 Euro in der Stunde. Also 345 Euro am Tag, oder 2419 Euro in der Woche, oder wiederum 10713 Euro im Monat.

Hoffe es sind keine Fehler in der Rechnung...

Wenn man alle drei Tage das Pw ändert muss man halt den Test öffters laufen lassen. Billiger wirds daurch nicht, aber die Chance das man das PW in diesen drei Tagen knackt ist halt immer noch da.

EDIT: Das Programm von Elcom läuft aber nur mit einem Graka Kern in der Freewareversion. Für ein 11-stelliges Pw ohne sonderzeichen würdest du damit schon über 400 Jahre brauchen.
 
Zuletzt bearbeitet von einem Moderator:
na, prinzipiell sind ATI-Karten im Vorteil, da sie mehr GFlops schaffen. Eine HD4830, welche in etwa mit der 9800GT vergleichbar ist, schafft 50% mehr GFLOPs, trotzdem sind die Programme für die ATI-Karten noch nicht so fortschrittlich, wodurch sich zum bruteforcen Nvidia besser eignen dürfte.

Ich stell mal eine kleine Rechung an. Eine GTX295 schafft ca. 1.800 GFLOPs, die 9800GT schafft mit neuem G92b-Chip/55nm ca. 500 GFLOPs. Ich gehe davon aus, dass eine GTX295 450€ kostet, eine 9800GT 100€. Beide Preise sind realistisch. Wenn man jetzt ausrechnet, wieviel GFLOPs pro Euro ich für jede Karte bekomme, komm ich auf folgendes Ergebnis: Bei der GTX295 bekomme ich 4GFLOPs pro Euro, bei der 9800GT 5, also 25%mehr.

Um mit 9800GTs an die Leistung einer GTX295 zu kommen, benötige ich 3,6 Karten. Eine GTX295 verbraucht unter Volllast ca. 300W, eine 9800GT ca. 115 Watt. Mit 9800GTs brauch ich also 414 Watt für 1.800GFLOPs, mit einer GTX295 nur 300Watt. Für 3,6 Karten des Typs 9800GT bezahl ich ca. 360€ was ca. 90€ Ersparnis zur GTX295 ist, aber der Stromverbrauch ist dafür deutlich höher. Bei den immens vielen Karten könnten sich also doch die großen lohnen.
 
Zuletzt bearbeitet von einem Moderator:
Man kann ja nicht davon ausgehen, dass erst das letzte PW das richtige ist. Deswegen passt das mit den 400 Jahren nicht ganz so, erst recht, wenn die Rechenleistung sich wirklich alle 2 Jahre verdoppeln sollte.
 
Man kann ja nicht davon ausgehen, dass erst das letzte PW das richtige ist. Deswegen passt das mit den 400 Jahren nicht ganz so, erst recht, wenn die Rechenleistung sich wirklich alle 2 Jahre verdoppeln sollte.
Ja natürlich. Es Ist immer die Maximale Rechenleistung. Es könnte ja auch seien das du 3 sec rechnen lässt und das PW hast.

Bin grad daran auszurechnen wieviel sich ein Lagerraum erwärmt wenn man 72000 Joule pro sec. zuführt.
 
Ich hab mal im I-net nach einem Lagerhaus in der Umgebung Frankfurt geschaut und eins für 4500 Euro (monatlich) gefunden. Flächen 230qm², Höhe: 3m. Also wäre für jeden Pc etwas mehr als ein Qm Platz.Preis wären 4500 Euro pro Monat. Jetzt habe ich die Masse der Luft im Lagerhaus ausgerechnet:

Dichte von luft bei 0° wird über einen Faktor von 1,2931 g/dm³ berechnet. Also habe ich errechnet, wie groß der lagerraum in Dm³ ist.
Herauskamen 69.000.000 dm³

So jetzt habe ich herausgefunden gehabt das die Lust im Lagerraum 53360142,29g schwer ist. (=53360 kg=55,360 Tonnen)

Also habe ich die Formel W=c x m x [temperaturunterschied] (weiss nicht wie man Griechisch schreibt)

Umgeformt also [Temperaturunterschied]= W:c:m

Rauskommt: 1,342608696 x10-³ Klingt unglaublich wenig, ist es aber nicht wenn man sich überlegt dass, das jede Sekunde erwärmt.
Es sind also 0.0805° in der Min. und 4,833391° in der Stunde oder 116,001° am Tag. (Das Gebäude gibt natürlich Wärme an die aussenwelt ab aber das wäre zu Komplex um es hier mit einzurechnen, jedoch kann es, wenn das Gebäude gut gedämmt ist, doch schon sehr warm im inneren werden.)

So jetzt habe ich nochmal bei Alternate nach Lüftern geschaut. Der Leistungsstärkste Lüfter, der gelistet ist (Scythe Ultra Kaze), bräuchte sage und schreibe 30369 Exemplare um den Raum zu belüftenund die Luft in einer Stunde einmal auszutauschen..(Ist natürlich Utopisch und unwirtschaftlich so kleine Lüfter zubenutzten) Kosten würden ca 275000 Euro betragen (Nur für die Lüfter)

Nach kurzem googlen habe ich das hier gefunden. Ein Lüfter mit 14600m³ Luftdurchsatz pro Stunde. Kosten: 766 Euro. Man bräucht immer noch 118 Lüfter um die Komplette Luft in 4 Stunden einmal auszutauschen. Gesamt kosten wären 90000 Euro.



D.h. Man müsste min. 200000-300000 Euro investieren um überhaupt erstmal anfangen zukönnen PWs zuhashen. Sinn würde diese Kosten wohl nur in der Industriespionage machen. Monatlich würden nochmal kosten von ca. 15000 Euro anfallen.
Den Preis könnte man sicherlich nochmal mit größeren Industrielüfter optimieren. Aber unter 150000-180000 wird man den Preisbnicht drücken können. Nicht mit einberechnet sind die Kosten die die Lüfter durch Stromverbrauch kosten.
 
Zuletzt bearbeitet von einem Moderator:
das Ergebnis wäre interessant zu wissen.

Dann berechne ich mal die Stromkosten. Unser Ziel sind wahnsinnige 180.000 GFLOPs. Dafür brauchen wir 100 GTX295 oder aber 360 9800GT. Außerdem gehen wir nicht von einem SLI-System aus, das heißt, jede Grafikkarte steckt in einem Rechner. Pro Rechner nehmen wir eine kleine CPU für 60€, ein Mainboard für 50€, Ram für 20€, Netzteil für 50€, HDD für 40€, Gehäuse für 20€.
Unsere fiktiven PCs kosten also 240€ ohne Grafikkarte. Für das System rechnen wir 80 Watt Verbrauch unter Last ohne Grafikkarte was einigermaßen realistisch ist.
Zählen wir schnell zusammen: Bei der GTX295 benötigen wir den PC 100x, also kostet unser Rechenzentrum, bestückt mit HighEnd-Grafik, 69.000€. Für die selbe Rechenleistung bei Einsatz der 9800GT müssen wir 122.400€ bezahlen, also fast das Doppelte!

Rechnen wir also den Verbrauch unter Volllast aus. 100PCs bestückt mit GTX295 verbrauchen 38.000 Watt. Für die selbe Leistung mit der 9800GT brauchen wir 360 PCs. Diese verbrauchen gemeinsam 70.200 Watt, was in etwa das Doppelte darstellt.

Ziehen wir also eine kurze Zwischenbilanz: Wir wollen 180.000 GFLOPs erreichen. Einmal mit Highend, einmal mit Mittelklasse. Bei der Highend-Version sparen wir nicht nur den Platz von 260PCs, sondern haben auch einen Anschaffungspreis welcher beinahe nur halb so hoch ist und der Stromverbrauch beträgt auch nur die Hälfte als bei der Mittelklasse.
Für beide Systeme bereche ich jetzt also die Kosten für eine etwaige Stromrechnung.

Fangen wir mit dem High-End Rechenzentrum an. Es verbraucht 38.000 Watt, das sind 38 kWh. Wenn wir die 20Cent von Hans Würstchen annehmen, bezahlen wir also ca. 7,60€ für eine Stunde Passwort knacken. Gehen wir davon aus, dass wir 2 Wochen brauchen, bis der WPA-Key geknackt ist.
Nach 2 Wochen Betrieb haben wir Stromkosten in Höhe von 2553,60€.
Selbes Spiel jetzt mit dem MidRange-Komplex. Hier haben wir 70,2kWh. Das sind 14,04€ die Stunde. Das ganze Spiel natürlich wieder 2 Wochen lang, dann haben wir eine Rechnung von 4717,44€.

Rechnen wir also den Gesammtpreis aus. Um ein dementsprechend langes WPA-Passwort zu entschlüsseln, wenn wir von einem Einsatz ausgehen, müssen wir 71553,60€ bezahlen, wenn wir die GTX295 zum Einsatz bringen. Wollen wir die vermeintlich billigere und stromsparendere 9800GT verwenden, müssen wir 127117,44€ bezahlen.
Völlig außer Acht gelassen habe ich dabei den Platz. Dass 100PCs bedeutend weniger Platz brauchen als 360 PCs dürfte wohl jedem klar sein.

Somit wurde also die Vermutung von Hans Würstchen eindrucksvoll wiederlegt.
Zum hacken von Wlan Passwörtern braucht man eher mehr Kerne als einen hohen Takt. Um anständig Pws zu hashen braucht man schon 150-180 (!)Karten aufwärts. Wenn man also 180 Gtx 9800 kauft zahlt man nur für die Grakas ca. 20000 Euro bei einer 4890 zahlt man insgesamt 40000. Dazu kommen noch Mbs, Prozessoren und ganz wichtig, die Stromrechnung. Also wenn ich Pws hashen würde würde ich lieber Gtx 9800 kaufen, vlt. ein paar mehr aber dabei dann immer noch deutlich billiger sein als mit den HD4890. Den Vorteil durch den höheren Takt kann man eher vernachlässigen.

Ihm das ganze streitig zu machen war aber nicht mein Ziel, vielmehr wollte ich einfach mal die Mühen und Kosten für so ein Vorhaben berechnen, und wenn ich das eh mach, kann ich auch die Community daran teilhaben lassen.

Was lernen wir daraus? Lieber einen Mitarbeiter mit ein paar Tausender bestechen, als es mit einem Rechenzentrum/BruteForce zu versuchen!

Edit: Hans Würstchens Rechnung liegt ja auch schon vor. Ganz schön imposant, was dabei für Zahlen rauskommen! Wirklich ein netter Thread, das ist auf jeden Fall sehr interessant gewesen.
 
Zuletzt bearbeitet von einem Moderator:
Naja ich hatte mit meiner Behauptung geschätzt. Aber jetzt kann man zu dem Schluss kommen dass ein Gesamtsystem mit Belüftung ca. 160000 Euro kostet. Eingerechnet dafür ist ein Luftaustausch in 4 Stunden. Hinzu kommen ca. 9000 Euro monatliche Kosten. Desweiteren braucht man noch die Einverständiniss des Mieters seine Wand mit Lüftern zu löchern. Ausserdem muss bei soviel Lüftern wahrscheinlich ein Statiker kommen und das ganze berechnen. Dannach muss man noch den Einbau der Lüfter in die Wand bezahlen was auch locker 20000 Euro macht. Also sind wir schon wieder bei 180000 Gesamtkosten.

EDIT: Klugscheisser Flamm inc.

Fangen wir mit dem High-End Rechenzentrum an. Es verbraucht 38.000 Watt, das sind 38 kWh. Wenn wir die 20Cent von Hans Würstchen annehmen, bezahlen wir also ca. 7,60€ für eine Stunde Passwort knacken. Gehen wir davon aus, dass wir 2 Wochen brauchen, bis der WPA-Key geknackt ist.
Nach 2 Wochen Betrieb haben wir Stromkosten in Höhe von 2553,60€.
Selbes Spiel jetzt mit dem MidRange-Komplex. Hier haben wir 70,2kWh. Das sind 14,04€ die Stunde. Das ganze Spiel natürlich wieder 2 Wochen lang, dann haben wir eine Rechnung von 4717,44€.

38000 Watt sind nicht 38 kwh Es ist nur ein 0,01% von einem Kwh. Erst wenn man die Pcs eine Stunde laufen lässt, kommt man auf 38 Kwh

So das musste sein.^^
 
Zuletzt bearbeitet von einem Moderator:
das ist irre...hat aber (mir zumindest) Spaß gemacht, das Ganze mit Dir durchzurechnen:)

achja, wie gesagt, mir ging es nie darum, irgendeine Vermutung von dir in Frage zu stellen, weil ich von solchen Dimensionen bisher keine Ahnung hatte. Das ergab sich dann mehr oder weniger durch den Vergleich 9800GT/GTX295. Interessant wäre das auch mit Karten wie der GTS250, also eine 9800GTX+ welche ebenfalls für 100€ zu haben ist aber noch ein weniger stärker als die 9800GT. Da werden sich die Preise ein wenig nähern.

Außerdem ist auch die Belüftung für die 9800GT-PCs teurer, da die viel mehr Abwärme in der Halle produzieren als die GTX295-Rechner.
 
Zuletzt bearbeitet von einem Moderator:
Zurück