Entwickler-Ecke
Off Topic - Taktfrequenz bei Prozessoren: Bei 3.4 GHz ist Schluss ?
Hochhaus - Sa 30.11.13 17:23
Titel: Taktfrequenz bei Prozessoren: Bei 3.4 GHz ist Schluss ?
Hallo allerseits !
seit dem Pentium 4 ist die maximale verkaufte Frequenz bei Prozessoren bei ca. 3.4 GHz eingefroren. Früher stieg sie mit jedem neuen Prozessor an. So z.Bsp. vom Pentium II zum Pentium III usw. Inzwischen steigert Intel die Leistungsfähigkeit über die Prozessorarchitektur resp. mehreren Kernen weiter.
Aber wieso haben wir nicht Prozessoren mit 4 - 6 GHz Taktfrequenz ? Was ist der Grund dafür ? Klar kann man sie übertakten, aber über 4 GHz läuft nix mehr.
Grüsse,
Hochhaus
Hochhaus - Sa 30.11.13 18:22
Wieso bringt dann Intel nicht auch so etwas zustande ? Welcher ist schneller: Die AMD-CPU bei 5 GHz oder ein Intel-core-i7 Haswell bei 3.4 GHz ?
Hochhaus
Ralf Jansen - Sa 30.11.13 18:43
Zitat: |
Auf einem Thread wohl der mit der höheren Taktfrequenz |
Nur unter der Annahme das pro takt die verglichenen Systeme die gleiche Menge der Tasks schaffen würden. Dem ist natürlich bei weitem nicht so.
Zitat: |
Wenn man nen i7-irgendwas-K kauft, sollte man den jedoch übertakten, sonst nennt man das Geldverschwendung. |
Nicht (zwingend) wenn man die Stromrechnung mit ins Kalkül nimmt.
Zitat: |
Wieso bringt dann Intel nicht auch so etwas zustande ? |
Weil sie nicht müssen? Und es einen Zusammenhang zwischen Taktfrequenz und Leistungsaufnahmen gibt (dummerweise sogar näherungsweise exponentiell).
Hochhaus - Sa 30.11.13 18:49
Zitat: |
Und es einen Zusammenhang zwischen Taktfrequenz und Leistungsaufnahmen gibt (dummerweise sogar näherungsweise exponentiell). |
Ok. Dies lässt sich aber mit kleineren Strukturen in den Griff bekommen, was man ja auch tut ...
Hochhaus
Ralf Jansen - Sa 30.11.13 19:18
Zitat: |
Ok. Dies lässt sich aber mit kleineren Strukturen in den Griff bekommen, was man ja auch tut ... |
Kleiner Strukturen führen nicht zwangsweise zu geringerer Leistungsaufnahme. Sie haben das potential dazu aber mit der Strukturverkleinerung hat man üblicherweise mit steigenden Leckströmen zu kämpfen. Also ein noch höherer Anteil der Leistung geht als Abwärme verloren. Wenn man die letzten CPU Generation verfolgt wo man eher stabile max. Taktraten und stabile max. Leistungsaufnahmen sieht obwohl Strukturen verkleinert wurden würde ich sagen heben sich diese Effekte auf. Das verbauen komplexerer Kerne (oder einfach mehr Kerne) um pro Takt mehr zu schaffen scheint da offensichtlich sinnvoller zu sein um CPUs zu beschleunigen als durch Strukturverkleinerung höhere Taktfrequenzen zu ermöglichen.
Ich vermute mal hätten die AMD CPUs die Strukturbreite der aktuellen Intel CPUS würden die nicht mehr 5Ghz schaffen da die Abwärme von der kleineren Diefläche nicht mehr sicher abzuführen wäre. Oder nur noch mit einem Kühlsystem das in ihren Dimensionen und Portmoneebelastung eher unpraktisch wäre.
mandras - Sa 30.11.13 20:40
In guter Näherung:
Doppelte Taktfrequenz -> doppelte Leistungsaufnahme.
Grund: Strom fließt fast nur beim Umschalten von Gattern. Also doppelt so oft Umschalten führt zu doppelt so häufigem Stromfluß.
Doppelte Versorgungsspannung -> vierfache Leistungsaufnahme.
Grund: Bauteile bestehen im wesentlichen aus Kondensatoren und Widerständen. Bei beiden führt doppelte Spannung zu doppelten Energieumsatz.
Kleinere Strukturen -> weniger Leistungsaufnahme (aber nicht linear fallend!)
Grund: Kleinere Kapazitäten müssen umgeladen werden. Die Widerstände fallen aber nicht zwangsläufig mit der Strukturgröße, sie steigen ggf. sogar an.
In der Praxis versucht man die passende "Mitte" zu treffen aus Strukturgröße, Versorgungsspannung und Taktfrequenz.
Dann gibt es da noch andere Grenzen:
- endliche Beweglichkeit der Ladungsträger: Bei best. Strukturgröße ex. nun einmal eine maximale Taktfrequenz die nicht überschritten werden kann. Intel hat ja schon den genialen Trick, die Ladungsträgerbeweglichkeit im Silizium durch mechanische Vorspannung des Materials zu erhöhen. (wie war noch der Fachbegriff - strained? ka, ist lange her)
- Hot Spots: Durch Struktur aber auch Herstellungsungenauigkeiten entstehen Stellen auf dem Chip, die viel heißer werden als andere. Dies kann dazu führen, daß auch bei sehr guter Kühlung hier keine Erhöhung von Frequenz oder Spannung möglich ist (Ausnahme: Brutale Kühlung mit flüssigem Stickstoff. Der ist so kalt, daß auch die Hot Spots frieren).
Ich las von noch einer praktisch relevanten Grenze: Allein die Verteilung der GHz-Taktsignale auf den Chips verbrät mittlerweile ungeheuer viel Strom; daher sind diese Signalwege nicht beliebig auszureizen.
Es gibt noch viel mehr Einflüsse, das Studium liegt aber nun etwas zurück..
Martok - Sa 30.11.13 23:07
Sagmal,
Hochhaus, bastelst du dir grade eine "Future of Computing Technology" Hausarbeit zusammen? :zwinker:
Von der Elektrotechnikseite her findet sich viel interessantes
in dieser Diskussion [
http://electronics.stackexchange.com/questions/5621/why-does-a-faster-clock-require-more-power]. Spannende Punkte: Gate-Leckströme der CMOS-Transistoren können bei modernen CPUs mit
vielen Transistoren einen Großteil der Leistungsaufnahme ausmachen, das wird mit kleineren Strukturen nicht besser und dann sind da auch noch kapazitive Lasten (im Zweifelsfall mal angucken wie ein (MOS)FET funktioniert) die hohe
Ströme (nicht nur Spannungen) erfordern um schnell genug zu schalten (und das müssen sie, um mit dem Takt mithalten zu können).
mandras hat folgendes geschrieben : |
Doppelte Versorgungsspannung -> vierfache Leistungsaufnahme.
Grund: Bauteile bestehen im wesentlichen aus Kondensatoren und Widerständen. Bei beiden führt doppelte Spannung zu doppelten Energieumsatz. |
Die Kernspannung ist schon seit Jahren mehr oder weniger konstant um 1.3V herum. Im Mobilbereich auch gerne weniger, eben weil man damit sparen kann (siehe auch "undervolting" als Gegenteil zum Overclocken). Man versucht sich halt mit so wenig wie irgendwie geht.
Ich weiß nicht, ob das bei CPUs schon ein Problem ist, aber auf sehr kurzen Strecken werden auch isolierende Schichten irgendwann leitend, spätestens wenn man Tunneleffekte zwischen Leitern bekommt. Also ist die Spannung abhängig von der Strukturgröße nach oben begrenzt.
mandras hat folgendes geschrieben : |
Ich las von noch einer praktisch relevanten Grenze: Allein die Verteilung der GHz-Taktsignale auf den Chips verbrät mittlerweile ungeheuer viel Strom; daher sind diese Signalwege nicht beliebig auszureizen. |
Irgendwann müsste man die Leiter dann wieder breiter machen um den Strom drüber zu bekommen - aber das will man eigentlich gar nicht, weil man eher mehr Transistoren auf den gleichen Die bekommen möchte.
Also müsste man eigentlich kleiner, aber da wird die Fertigung immer schwieriger, da man mit der Strukturgröße schon unter den Wellenlängen der bei der Lithographie verwendeten Laser ist und da beim Verkleinern der Maske die Beugung problematisch ist. Die andere Stellschraube ist die Qualität des Siliziums bezüglich Fehlerdichte, das ist dann eine Frage was man für das Rohmaterial zu bezahlen bereit ist.
Im Endeffekt ist das eine wirtschaftliche Frage: es bringt einfach nix, ein paar Nullen an den Preis dranzuhängen, nur um ein paar Prozent mehr Leistung zu haben. "Mehr Kerne" oder "spezialisierte Hardware" ist in den aktuellen Anwendungsszenarien einfach günstiger.
€: Fakten, Fakten, Fakten (danke
mandras)
mandras - So 01.12.13 00:06
> da man sich mit der Strukturgröße den Wellenlängen der bei der Lithographie verwendeten Laser annähert.
Die ist heute schon viel kleiner als die verwendeten Lichtwellenlängen.
Ein weiteres große Problem bei der Frequenzerhöhung/Strukturverkleinerung ist auch das Übersprechen zwischen Leitungen.
Qunateneffekte werden mittlerweile wirklich zum Problem. Sowohl das von Dir angesprochene Tunneln von Ladungsträgern als auch daß einzelne Strukturen heute schon aus nur noch ein paar hundert Atomen bestehen.
Delete - So 01.12.13 00:33
Das Hauptproblem ist immer noch die Wärmeabfuhr.
Die erste Notebook-CPU der K8-Klasse von AMD verbrauchte 90 Watt und brauchte 2 Lüfter.
Die waren nicht zu überhören!
So etwas will heute niemand mehr haben: Leise sollen Notebooks sein.
Beispiel INTEL i7-3610QM: Eine Quad-CPU mit max. 3,2 GHz Turbo-Frequenz bei max. 45 Watt.
Im Betrieb verbraucht die CPU beim Surfen weniger als 4 Watt.
Der Lüfter ist nie zu hören.
Martok - So 01.12.13 00:34
mandras hat folgendes geschrieben : |
> da man sich mit der Strukturgröße den Wellenlängen der bei der Lithographie verwendeten Laser annähert.
Die ist heute schon viel kleiner als die verwendeten Lichtwellenlängen. |
Ähm, stimmt natürlich. Ich editier mal oben.
Hochhaus - So 01.12.13 09:52
Martok hat folgendes geschrieben : |
Sagmal, Hochhaus, bastelst du dir grade eine "Future of Computing Technology" Hausarbeit zusammen? :zwinker:
|
Nein. Aber ich finde solche Diskussionen sehr interessant !
Hochhaus
Anwender - So 01.12.13 10:41
also ich habe meinen ASUS Laptop vor 5,5 Jahren gekauft.
2x 2,4 Ghz
3 GB RAM
250 GB HDD
außer, daß die meisten jetzt 4 bis 8 GB und 500GB bis 1 TB HDD haben und natürlich der nochnochnochbesseren Grafikkarte (hab nur nvidia 8600 GS mit 256 MB) hat sich da nicht viel getan.
OK, die unterstützen jetzt UEFI.
Schön.
Meiner hat damals 899,-€ gekostet.
Heuten kostet ein vergleichbarer 400,- und einer mit o.g. Merkmalen immer noch 800€.
Aber die meisten Laptops haben gerade mal die 1,6 Ghz SingleCores überwunden, der lange verkauft wurde.
also "gefühlt" kann meiner locker mithalten mit den Geräten anderer Hersteller. Da ich keine Spiele zocke, fällt mir das außer wenig Festplattenspeicher kaum auf.
OK, - ich muß immer noch Maus-schubsen - und Staub WISCHEN
Delphi-Laie - So 01.12.13 13:04
Das war mir auch neu. Dennnoch ist die Eingangs- (bzw. Ausgangs-)frage berechtigt. Tatsächlich ging die stete Takterhöhung, von der wir alle verwöhnt waren, nicht ewig weiter. Scheinbar bzw. nahezu lineraere Gesetzmäßigkeiten werden als nur linear angenommen und leichtfertig extrapoliert. Ich bin mir ziemlich sicher, daß in den "Prozessorschmieden" schon lang vor dem öffentlichen Bekanntwerden der Stagnation der Taktfrequenzerhöhung bewußt war, daß die Steigerungsgeschwindigkeit nicht mehr aufrechterhalten werden kann und sich immer mehr verflachen muß und wird.
Delete - So 01.12.13 13:25
Delphi-Laie hat folgendes geschrieben : |
Das war mir auch neu. Dennnoch ist die Eingangs- (bzw. Ausgangs-)frage berechtigt. |
An der Berechtigung der Frage hat niemand gezweifelt.
Delphi-Laie hat folgendes geschrieben : |
Tatsächlich ging die stete Takterhöhung, von der wir alle verwöhnt waren, nicht ewig weiter. Scheinbar bzw. nahezu lineraere Gesetzmäßigkeiten werden als nur linear angenommen und leichtfertig extrapoliert. Ich bin mir ziemlich sicher, daß in den "Prozessorschmieden" schon lang vor dem öffentlichen Bekanntwerden der Stagnation der Taktfrequenzerhöhung bewußt war, daß die Steigerungsgeschwindigkeit nicht mehr aufrechterhalten werden kann und sich immer mehr verflachen muß und wird. |
Inwieweit geheimgehaltene Fakten existieren, läßt sich in der Regel nicht ermitteln.
jaenicke - So 01.12.13 13:31
Geheim gehalten? Das war doch von vorneherein klar. Selbst meinem Vater, der schon lange nicht mehr auf dem Laufenden ist (sein Physikstudium ist schon etwas länger her).
Und an der Uni ging es bei uns vor knapp 10 Jahren nicht darum, ob es so ist, sondern wie die Alternativen aussehen.
Delphi-Laie - So 01.12.13 13:53
jaenicke hat folgendes geschrieben : |
Geheim gehalten? Das war doch von vorneherein klar. Selbst meinem Vater, der schon lange nicht mehr auf dem Laufenden ist (sein Physikstudium ist schon etwas länger her). |
Ich kann mich noch an dreist-forsche Prognosen mit Zeithorizont ("Roadmaps") erinnern, die in grenzenlosem Optimismus bis zu 10 GHz gingen. Ob in den schon damals recht oberflächlichen und effekthascherischen PC-Zeitschriften oder Internet oder von den Prozessorherstellern selbst, ich weiß es nicht mehr genau. Irgendwann fiel auch mir auf, daß es jenseits der 3 GHz nicht mehr so recht vorankommen wollte.
Ralf Jansen - So 01.12.13 14:16
Zitat: |
die in grenzenlosem Optimismus bis zu 10 GHz gingen |
Physikalisch/akademische Betrachtungen extrapoliert aus dem Ist-Zustand verlieren halt meistens gegen die konkret finanziellen ;)
Als erreichbare Höchstgeschwindigkeit für zukünftige Entwicklungen Lichtgeschwindigkeit anzugeben ist ja auch nicht falsch es wird aber vermutlich dauerhaft mindestens an der Finanzierung scheitern.
jaenicke - So 01.12.13 14:52
Delphi-Laie hat folgendes geschrieben : |
Ich kann mich noch an dreist-forsche Prognosen mit Zeithorizont ("Roadmaps") erinnern, die in grenzenlosem Optimismus bis zu 10 GHz gingen. |
So etwas habe als ernsthafte Behauptung über eine Realisierbarkeit ich nur in gewissen "Experten"blättern gelesen, die einfach nur an Lesern interessiert sind, weniger am Inhalt. Da gab es ja auch anfangs welche, die dazu geraten haben die UAC auszuschalten und wieder als Admin zu arbeiten, da gibt es immer noch einige, die es am Mac für sinnvoll erachten keinen Virenscanner zu nutzen, usw.
In der echten Fachpresse habe ich so eine Behauptung nie als ernsthaft realisierbar gelesen, zumindest nicht in absehbarer Zukunft.
Entwickler-Ecke.de based on phpBB
Copyright 2002 - 2011 by Tino Teuber, Copyright 2011 - 2025 by Christian Stelzmann Alle Rechte vorbehalten.
Alle Beiträge stammen von dritten Personen und dürfen geltendes Recht nicht verletzen.
Entwickler-Ecke und die zugehörigen Webseiten distanzieren sich ausdrücklich von Fremdinhalten jeglicher Art!