ARCHIV 1999-2006

ARCHIV :: # 2964

CPUs: Ist kleiner doch nicht immer besser?

90nm-Prozessoren und nichts als Probleme

Autor: flo - Datum: 07.05.2004

Das Moorsche Gesetz besagt, dass sich die Packungsdichte von Transistoren auf einem Prozessoren in etwa alle 18 Monate verdoppelt. Damit fährt die Chip-Industrie seit der Formulierung im Jahr 1965 recht gut. Kaum tauchen am Horizont mögliche Hindernisse auf, wird doch wieder ein technischer Kniff ersonnen, der die physikalischen Grenzen wieder ein paar Jährchen nach hinten schiebt. Einer der elementarsten Kniffe ist seit jeher die Verkleinerung der Strukturbreiten der Transistoren und Leiterbahnen, denn so lässt sich die Versorgungsspannung und damit einhergehend der Strombedarf senken. Derzeit sind die meisten Chips in 130nm gefertigt, von einigen Ausnahmen abgesehen. Eigentlich sollte aber schon die nächste Generation mit nur 90nm auf dem Markt sein. Zwar sind Probleme beim Umstieg der Fertigungstechniken mehr oder minder normal (man erinnere sich an die ersten 300mm-Wafer oder SOI oder Kupfer etc.).
Diesmal jedoch scheint praktisch jeder Hersteller mit eben jenen 90nm hartknäckigste Probleme zu haben. Nach IBM und Agilent führen ernsthafte Probleme nun beim prominentesten Chiphersteller, Intel, möglicherweise gar zur Einstellung eines kompletten Chips. Die Entwicklung des "Tejas", des designierten Nachfolgers der Pentium-4-Variante "Prescott" (der selbst noch in den Untiefen der 90nm-Fertigung umher kurvt), soll laut Insiderinformationen, die dem WallStreet Journal zukamen, eingestellt werden.

Über die Gründe wird sich, so sich das Gerücht bestätigt, nur spekulieren lassen, denn Intel wird wohl nicht freimütig zugeben, dass entweder das Design oder der Fertigungsprozess Murks ist. Sieht man sich aber die momentanen Intel-CPUs an, oder genauer: die CPUs, die eigentlich schon lange da sein sollten, liegen Probleme im Zusammenspiel des prinzipiellen Designs und der 90nm-Technik nahe. Prescott, Intels erster 90nm-Prozessor, verbraucht nicht weniger, sondern sogar mehr Strom als sein Vorgänger, mitunter satte 100 Watt und mehr. Dothan, wie Prescott in 90nm gefertigt aber Nacholger des Pentium-M, wurde schon um mehrere Monate verschoben (und kommt "demnächst") - er sollte eigentlich weniger unter Hitzewallungen leiden, weist aber dennoch dieselbe Verspätung auf.

Hoher Stromverbrauch ist derzeit auch bei IBM ein Thema. So sind nach mehreren Berichten die 24,5 Watt des PPC970fx bei 2 GHz eher Wunschdenken als erreichbare Realität. Dass solche Angaben immer die "typische Stromaufnahme" beziffern und nicht die maximale (die nach Tests der XServe G5s angeblich eher bei 50 Watt liegt), ist kein Geheimnis und ganz normal. Dass sich allerdings dieser Wert nur erreichen lässt, wenn die CPU samt und sonders vor sich hin idelt, hat mit "typischen" Verhältnissen nun auch wenig zu tun. Immerhin aber verbrät der 970fx wenigstens weniger als sein Vorgänger.

Intels Prescott hingegen schafft ja nicht mal das. Nun ist Intels P4-Design auch grundlegend anders als das der G4s oder G5s. Vielleicht lässt sich Intels "brute force" Ansatz ja eben doch nicht so einfach fortsetzen, wie sie vielleicht geglaubt oder gehofft hatten. Intel will im Herbst 4 GHz erreichen, doch mit schon 100 Watt bei 3,4 GHz sind die Grenzen des Machbaren näher denn je. Schon der P4 verlangte nach einer Änderung des ATX-Standards, schon wieder eine Änderung macht keiner mehr mit. Und selbst wenn die aktuelle Spezifikation ausreicht, zum 120Watt-Prozessor noch eine 100Watt fressende Grafikkarte dazu und schon schmilzt das Gehäuse vor sich hin.

Allerdings ist es nicht nur die pure Stromaufnahme, die Intel und IBM (und Konsorten) zu schaffen macht. Scheinbar ist es auch oder vor allem die schlechte Ausbeute an überhaupt korrekt funktionierenden Chips. Agilent bemängelte ja eine drastische Verschlechterung der Signalqualität, Intel kämpft schon länger mit extremen Leckströmen, beides Phänomene, die natürlich bei immer kleiner werdenden Strukturen immer deutlicher zutage treten (und die hohe Stromaufnahme des Prescott lässt Leckströme von der Breite des Mississippi erahnen).

Den Stromhunger werden die Chipbastler wohl in den Griff kriegen, sogar bei Intel zeigt ja der Pentium-M, dass es auch anders geht (und den Verzicht auf die Angabe von GHz mit den neuen Familiennamen könnte man auch dahingehend deuten, dass Intel mehr oder minder versteckt vom einstigen Hauptargument "Ghz über alles" loskommen möchte und stattdessen den Pentium-M stärken möchte). Im Moment sieht es aber - zumindest für uns Laien - so aus, als wären die 90nm das wahre Problem. Ausgerechnet - versprachen doch bislang solche Sprünge im Fertigungsprozess immer Leistungssprünge und "Hitzeproblembewältigung". Haben das etwa die Entwickler auch gedacht und etwaige Probleme übersehen? Und da will Intel uns was von 65nm-Fertigung erzählen...

Kommentare

Klasse an flo...

Von: Schnapper | Datum: 07.05.2004 | #1
.. finde ich, dass er solche Sachverhalte auch für Laien verständlich rüberbringt, ohne "Experten" gleich zu langweilen. Großes Lob dafür.

Alles wieder abgeschrieben!

Von: MobMan | Datum: 07.05.2004 | #2
Wie langweilig!

Ebenso

Von: Patrick | Datum: 07.05.2004 | #3
wobei das doch eher ein Kai-Thema wäre, oder? BTW: wo steckt der eigentlich?!?

Zum Thema: die Probleme mit den 90nm wird die Industrie früher oder später in den Griff bekommen, aber ich habe echt Bedenken, was 65nm angeht. Intel hat ja lauthals verkündet, man könne mit der herkömmlichen Litho diese eigentlich für EUV schon vorgesehene Grösse bis 2006 packen und schob deshalb die EUV-Litho auf 2009/10. So wie es jetzt aussieht, war das nur Wunschdenken und EUV wird früher kommen, wenn es denn soweit wäre. Nach wie vor gibt es für EUV noch keinen kompletten (Labor)-Prozess und ich bezweifle stark, daß in 2 Jahren so etwas für die Serienproduktion existieren wird, die Entwicklungskosten sind halt extrem hoch. Somit werden die Prozessoren wohl eine zeitlang bei 4GHz stagnieren, bis die Technik soweit ist...

Ähm... ebenso klasse und

Von: Patrick | Datum: 07.05.2004 | #4
nicht langweilig :-(

Obwohl IBM da nicht mehr so

Von: tonidigital | Datum: 07.05.2004 | #5
viele Probleme hat, was mich natürlich sehr freut, letztens hat sich ein IBM Mensch zum Thema geäußert, das die Probleme ziemlich im Griff haben. Und wenn Intel das nicht hinbekommt, ist es für uns doch eher positiv >:-)

wie siehts bei AMD aus?

Von: dermattin | Datum: 07.05.2004 | #6
könnt ihr dazu was sagen?

"wobei das doch eher ein Kai-Thema wäre, oder? BTW: wo steckt der eigentlich?!?"

der rockt die offline welt ;)

Mehr als Prozesor ...

Von: cws | Datum: 07.05.2004 | #7
Wenn man jetzt an das denkt, was gerüchteweise an Voraussetzungen für Longhorn genannt wurde, dann findet sich hier ein weiterer Grund, warum MS damit keine Eile haben kann.
Es nähert bei mir auch den Verdacht, dass die 90er-Chip-PC nicht so schnell auf die 1200,-- EUR Aldi Preisklasse zu bringen sind.
Wenn das aber nicht gelingt gibt es keinen Massenmarkt, wenn es den nicht gibt wird es noch teurer und nur wer diese Rechner wirklich braucht wird sie kaufen.
Und machen wir uns nichts vor: Die meisten Kunden, die heute Spitzenrechenleistungen ob als PC, Mac oder Linux kaufen "brauchen" sie wohl nicht wirklich.

hier noch ein interessanter...

Von: dermattin | Datum: 07.05.2004 | #8
hier noch ein interessanter kommentar [Link]

nun...

Von: franknail | Datum: 07.05.2004 | #9
...90 nm, 65 nm? Was ich MICH frage, ist, warum mein MacWrite im Jahre 1984 schneller war, als heute Word auf meinem G4! Ich tippe schneller, als dieser Klotz von Software reagiert.

;)

AMD

Von: flo (MacGuardians) | Datum: 07.05.2004 | #10
AMD beginnt gerade erst mit der 90nm-Fertigung, Spekulationen zur Stromaufnahme habe ich nur etwas älteren Datums gefunden. Demnach blüht AMD aber ein ähnliches Debakel, man rumort 105W für einen 90nm Athlon64 4000+...

in einem artikel der ee-times ...

Von: mcj | Datum: 07.05.2004 | #11
... stand mal, dass das es zwei Probleme bei den 90nm fertigung gibt:

- übersprechen effect zwischen den leitungen
- höherer widerstand durch geringeren querschnitt.

-> bei der Lithografie Technik liegt das Problem offensichtlich momentan nicht. Das ist vermutlich auch der Grund, warum Intel das mit den 65nm angekündigt hat. Die Litho war absehbar, aber die Problem treten dann erst auf, wenn der Prozss nach Monaten die ersten Chips verfügbar macht.

Für ersteres Problem gibt es Planungssoftware, die für einen Ingenieur die leitungen optimal anordnen für zweiteres Problem, kenne ich keine Lösung, könnte mir aber vorstellen, dass man das mit Prozessoptimierungen/Optimierung der Materialien adressiert.

Gruss, m.

its not a Bug, ...

Von: cws | Datum: 07.05.2004 | #12
@dermattin

Ja, ein interessanter Artikel, aber zunächst muss man sehen, dass Intel mit seiner über Jahre verfolgten Strategie gescheitert scheint.
Das sie nicht dumm sind, nebenbei auch andere Eisen im Feuer hielten ist doch nicht überraschend. Es ändert aber nichts an dem elittenen Rückschlag. Der Artikel erliegt ein wenig der Sorge, dass Intel wie ein Phönix stärker als zuvor aus dem Desaster aufsteigt.

Diese Sorge halte ich für völlig unberechtigt. Zeigt uns doch das Pentium-Problem, dass man bei Intel auch nur mit Wasser kocht.
Die Alleinstellung der PowerPC Fraktion war bisher eher ein Nachteil. Das dies sich demnächst andern könnte sollte man jetzt nicht in einen Sieg für Intel umdeuten, es bleibt das Eingeständnis, das Milliarden Dollars im falschen Ofen verbrannt wurden.
Mal sehen was die Börse sagt, wenn der Pentium tatsächlich sterben sollte.

@mcj: planungssoftware ?

Von: namnam | Datum: 07.05.2004 | #13
welche denn?

Übersehen wurde aber bei der Diskussion

Von: Carlo | Datum: 07.05.2004 | #14
daß IBM eine neue Fertigungstechnologie gefunden hat, die zwar jetzt noch nicht zum Einsatz kommt, die aber auf Litho vollständig verzichten kann und die hochpräzise selbst kleinste Strukturen in bisher noch nicht mal denkbarer Weise zuläßt. Das soll zudem wesentlich preiswerter und mit viel weniger Ausschuß zu praktizieren sein, als herkömmliche Verfahrensweisen. IBM will diese Technologie bereits in naher Zukunft anwenden. Na denn, dann können wir uns ja schon mal freuen.
ps. Ich ärgere mich immer wieder, daß ich so interessante Meldungen, wenn ich sie finde, nicht mit Link abspeichere. Vielleicht hat sie auch jemand anders auch gelesen und kann das bestätigen.

Carlo Cavallo

einfach abwarten

Von: Heico | Datum: 07.05.2004 | #15
Hi,

die lieben Spekulationen ... ;-)
-------
Demnach blüht AMD aber ein ähnliches Debakel, man rumort 105W für einen 90nm Athlon64 4000+...
-------
ich würde erstmal abwarten - der Sockel940 (Opteron) ist eh' nur für 89Watt spezifiziert, der Sockel939 für 105Watt
(möglicherweise daher auch die 'rumorende' Wattangabe)

Gruß, Heico

@namnam

Von: mcj | Datum: 07.05.2004 | #16
Diese Software wird unter den Namen EDA (' electronic design automation') Tools geführt, bin nicht Mikroelekroniker, deshalb entschuldige, dass mein Sprachgebrauch holperig klingt. Mehr dazu unter:

[Link]

interessante info auch unter

[Link]

zu finden.

Gruss, m.

Ist doch toll das die CPUs...

Von: Maxefaxe | Datum: 07.05.2004 | #17
... mal ne Weile vor sich hin dümpeln. Da kann die Software-Industrie mal anfangen ihre Code-Monster zu entwirren die man sich ain folge ständig schnellerer CPUs ja gut leisten konnte.

Kein Mensch kauft bisher Software mit Bezug zu dessen Performance. Diese Meßlatte galt immer der Hardware. Aber in der Optimierung von Software sehe ich für die nächsten Jahre mehr Potential als in den kommenden CPUs.

um Mal kurz vom Thema abzuschweifen

Von: itsme | Datum: 07.05.2004 | #18
Hat sich jemand schon mal das Ding genauer angesehen?

[Link]

würde mich nicht wundern, wenn wir bei den nächsten iBooks eine ähnliche Displayvariante zu sehen bekämen.

thyl

Von: dermattin | Datum: 07.05.2004 | #19
"Es ist doch nur eine Frage der Zeit, bis intel die prozesstechnisch gewonnenen Erfahrungen auch auf den Pentium M anwenden wird. Wenn denn kein 90 nm P4 mit 4 GHz, dann vielleicht ein 90 nm Pentium M mit 3 GHz?!"

richtig. aber das schöne ist, wenn intel da mal ist, ist IBM sicher noch weiter:) z.zt. stehts 1,7 ghz (kaum lieferbar) zu 2 ghz.

"Ausserdem glaube ich, dass es durchaus noch weitergehen wird mit den Taktraten, immerhin wird auch schon über 10 GHz spekuliert"

naja laut spekulationen wollte intel heutzutage schon bei 6 ghz dual core sein :)

ich bin auf jeden fall sehr gespannt und ich will endlich mein geld ausgeben. apple, wo sind die neuen G5s?;)

@Thyl - gescheitert?

Von: cws | Datum: 07.05.2004 | #20
Zitat:Ich halte intels Strategie nicht für gescheitert. In 10 Jahren hat intel es geschafft, sich von einer Bude für Einfachprozessoren in eine Spitzenposition bei den Leistungsdaten zu bringen. Zitat Ende

Da hast du natürlich recht, was ich meine sind eben die Versuche der letzten Jahre den Hype der Taktfrequenz beim P4 zum Excess zu treiben, um dem Mantra des Takt=Speed zu genügen.

Zitat: Ausserdem glaube ich, dass es durchaus noch weitergehen wird mit den Taktraten, immerhin wird auch schon über 10 GHz spekuliert. Zitat Ende

Ja, aber nicht im Zusammenhang mit P4, P5, ...
da wurde bis "gestern" noch über 4-6 GHz spekuliert.

Zitat: Und mal erlich; bei der derzeitigen Desktop Software und deren geringer Thread-Barkeit sind schnellere CPUs dringend nötig, wenn man irgendwann so hübsche Sachen wie Spracherkennung, automatische Übersetzung, Mustererkennung, HDTV-Videobearbeitung etc. realisieren will. Zitat Ende

1. Will man das?
Spracherkennung halte ich für überbewertet und nicht wirklich nützlich.
2. Automatische Übersetzung OK
3. Mustererkennung OK
4. HDTV Video ist im Massenmarkt sicher noch weit entfernt, ist es doch bei den Profis noch nichteinmal etwas für eine absehbare Zukunft.

Was 3. und 4. angeht sehe ich die Probleme im Moment noch eher in der Software.
Schwächen der Software durch Hardwareleistung auszugleichen war bisher leicht, da es ständig rasant aufwärts ging mit der Rechenleistung. Dabei ist die alte Tugend des sparsamen Umgangs mit den Resourcen verloren gegangen.
Das rächt sich irgentwann.

@cws

Von: Thyl (MacGuardians) | Datum: 07.05.2004 | #21
1. Will man das?
Spracherkennung halte ich für überbewertet und nicht wirklich nützlich.

Eine funktionierende Spracherkennung könnte mich zwei Stunden am Tag sparen und eine Menge Kosten an Personal

4. HDTV Video ist im Massenmarkt sicher noch weit entfernt, ist es doch bei den Profis noch nichteinmal etwas für eine absehbare Zukunft.

HDTV kommt jetzt; und jetzt heisst dieses oder nächstes Jahr, wenn nicht etwas dazwischen kommt; und zwar in allen grossen Märkten US, JP und EU. Die bessere Bildqualität haut um und ist eine Chance für einen neuen Wachstumsmotor. Und dann wollen die Leute ihr aufgenommenes Material auch bearbeiten. Erste Consumer Videokameras tauchen auch schon auf.

@thyl

Von: namnam | Datum: 07.05.2004 | #22
> Erste Consumer Videokameras tauchen auch schon auf.

da haette ich gerne mal nen link!

BTW:

Von: Karl Schimanek | Datum: 07.05.2004 | #23
STMicroelectronics will in Crolles diesen Sommer auch auf 90nm umstellen.

@ cws

Von: johngo | Datum: 07.05.2004 | #24
Selbst wenn es keine grundsätzlich neuen Techniken (Spracherkennung etc.) geben würde, dann hoffe ich trotzdem täglich auf Prozessoren mit "100GHZ-Leistung". Ob sie dabei auch 100GHZ-Takt haben werden ist ein anders Thema.

Aber warum in aller Welt soll ich hier (ich sitze mal wieder vor einem ätzend langsamen Renderjob) auf ein Rendermotiv ne Stunde warten, wo ich es eigentlich umgehen bräuchte?



Gruss

johngo

HDTV

Von: cws | Datum: 07.05.2004 | #25
Du hast recht und auch wieder nicht.
Erleuchtendes findet sich hier: [Link]
Trotzdem sehe ich es in der gegewärtigen Situation noch nicht in den Wohnzimmern und auch noch nicht in den (deutschen) Sendern.

Allerdings ist es die erste aussichtsreiche, grosse Neuerung seit Erfindung des Farbfernsehens.

@johngo

Von: cws | Datum: 07.05.2004 | #26
Du wärst sicher ein Kunde für 100GHz Rechner oder Cluster ;-) , aber du bist sicher kein Massenmarkt, um den geht es mir wenn ich von "nicht brauchen" spreche. ALDI makes the world go around.
Es wird immer Anwender für HighEnd geben, die es wirklich brauchen. Wer sollte das besser wissen als der PIXAR Chef Jobs.

AMD -> IBM ...

Von: Bodo | Datum: 07.05.2004 | #27
... denn die AMD Prozessoren in 90nm werden von IBM gefertigt werden (und nicht nur die: laut Onkel Heinz) -> Ergo:
Hat IBM die Fertigungs-Probleme im Griff, kommen auch entsprechende AMD-Prozessoren

wer nen account hat...

Von: dermattin | Datum: 07.05.2004 | #28
...sollte sich mal diesen MW artikel angucken. scheint so als würde/könnte das viel weitreichendere folgen haben, als bisher beschrieben [Link]

Und Intel reagiert nur noch :D

Von: Karl Schimanek | Datum: 07.05.2004 | #29
[Link]

@thyl HDTV

Von: dermattin | Datum: 07.05.2004 | #30
wieso braucht man für HDTV schnell neue cpus? hat apple da nicht letztens was vorgestellt, womit man HDTV auch auf einem "popeligen G5" "machen" kann?:)

@namnam

Von: luivision | Datum: 08.05.2004 | #31
[Link]

bekommste in d fuer unter 4000euro.

bzw ein paar infos zur der jvc in deutsch:

[Link]


mfg Luivision

hmm

Von: Heico | Datum: 08.05.2004 | #32
Hi,

@Bodo
interessante Info - woher ?
Ich kenne z.B. Nov'03 :
-------
Damit zieht das Unternehmen (AMD) den deutschen Standort einem Angebot von IBM Microelectronics vor, seine Schaltkreise in der Anlage von "Big Blue" im Bundesstaat New York zu fertigen.
-------
Jan'04
-------
Der Nachfolger von VIAs aktuellem "Nehemiah"-Prozessor wird von IBM in East Fishkill produziert werden. Nach der Entscheidung von AMD für eine neue Fabrik in Dresden und damit gegen East Fishkill für die Produktion der kommenden 90nm-SOI-Athlon-Prozessoren stellt dies sicherlich einen kleinen Trost für IBM dar.
-------
zudem Apr'04:
-------
AMD hat in seinem Werk in Dresden begonnen, erste Chips in 90-Nanometer-Technik zu fertigen
-------

es gibt zwar 'Gerüchte', die besagen das AMD bei IBM fertigen lassen will - aber selbige Gerüchte sagen auch, daß AMD das nur machen will, weil eigene Kapazitäten nicht ausreichen.

Deine Aussage
-------
denn die AMD Prozessoren in 90nm werden von IBM gefertigt werden
-------
scheint daher wohl etwas übertrieben


Richtig ist allerdings, daß beide zusammenarbeiten und AMD auch Lizenzen von IBM besitzt.

Gruß, Heico

ist eh alles gleich ...

Von: sven | Datum: 08.05.2004 | #33
Die Entwicklung der Aktuellen CPU's ist ziemlich identisch. Alle CPUs benutzen Virtuelle Register, haben IOPs und versuchen alles Parallel auszuführen, also ich meine die großen bekannten PPC970, P4, Opteron.

Es geht alles in die gleiche Richtung mit der Entwicklung.

Neo

naja

Von: dermattin | Datum: 08.05.2004 | #34
es gibt schon verschiedene strategien, man kann also meiner meinung nach schon von verschiedenen ansätzen reden.

sven:

Von: Kai (MacGuardians) | Datum: 08.05.2004 | #35
Der P4 will alles parallel ausführen? Interessant.. Wie macht der das, wenn er nur so wenige Execution Units hat, die auch oft genug nichtmal parallel laufen können (FPU und SSE z.B.)? ;-)

Nein, auch Hyperthreading ist KEINE parallele Ausführung! Es gibt auch da nur eine Queue, nur ist die eben optimaler gefüllt!...

dual G5 mit 3000 Mhz ... wann?

Von: iPress | Datum: 10.05.2004 | #36
Weil es hier gerade um Prozessoren geht, wollte ich mal nachfragen, ob jemand was in letzter Zeit davon gehört hat?

Wenn ich mich recht erinnere hat dies Steve Jobs bei der letzten WWDC versprochen, daß binnen Jahresfrist 3 Ghz zu haben sind. Stimmt der Zeitplan noch?

Grüße

Wenn im

Von: Karl Schimanek | Datum: 10.05.2004 | #37
September kein 3GHz Mac auf meinem Tisch steht stimmt der Zeitplan nicht :) ;)