ARCHIV 1999-2006

ARCHIV :: # 3262

Häh, Plan B?

Das Ende des Goldrauschs?

Autor: thyl - Datum: 11.10.2004

In diesem Artikel auf Mactechnews (Dank an die Kollegen) wird IBMs CPU-Entwicklungschef zitiert, der einen PLan B ausgerufen haben soll, nachdem der Umstieg auf 90 nm Fertigung bei ZEs zu (zu) großen Leckströmen geführt hat, ein Problem, das derzeit alle Hersteller plagt und unter anderem auch dazu geführt hat, dass wir noch keinen 3 GHz G5 haben. Statt die Taktraten zu steigern, will IBM nach diesen Aussagen den Fokus in Zukunft auf mehr Funktionen legen.

Könnte es sein, dass wir hier Zeugen des Endes des 30 Jahre langen Wettlaufs um Taktraten, und ganz allgemein um mehr Leistung bei Rechnern werden? Sollten unsere Hoffnungen auf eine bessere Welt, auf Computer, mit denen wir reden können, die für uns Auto fahren, die in Eigenregie Reparaturdienste übernehmen und endlich wirklich Sprachen übersetzen können, beerdigt werden müssen? Ist die digitale Revolution zu Ende, bevor sie richtig angefangen hat?

Denn die Aussage des IBM-Entwicklers ist doch nur Pfeifen im Walde. Wenn man sich die Effizienz von ZEs ansieht, so kann man nur feststellen, dass diese im Laufe der Jahre gesunken und nicht gestiegen ist. Die Rechenleistung pro Takt ist doch eigentlich immer nur gesunken. Die hohen Taktraten erforderten immer mehr Pipeline-Stufen, die die Effizienz vermindern und der Abstand in der ZE-Leistung zur Hauptspeichergeschwindigkeit konnte nur mit immer größeren Caches überwunden werden.

Multi-Prozessor-Cores stellen eine immense Herausforderung für Desktop-Entwickler dar. Während sich viele Server-Anwendungen auf viele Threads verteilen lassen, ist das nicht bei allen Anwendungen im Desktop-Bereich möglich, oder erfordert viel Aufwand, beispielsweise falls die Berechnung des Bildschirminhalts auf mehrere ZEs verteilt werden soll. Die Vergrößerung der Caches wird irgendwann auch unsinnig (512 MB Third Level, oder so).

Jetzt wird es höchste Zeit für neue Speichertechnologien, am besten so schnell wie Cache, spottbillig und "nicht volatil", so dass man endlich auf Festplatten verzichten kann.

Kommentare

Ich glaube, auch ein Problem sind die...

Von: dermattin | Datum: 11.10.2004 | #1
...Anwendungen, sei es Adobe, M$ und die Mehrheit der Softwarefirmen. Heutige Programme werden schnell zusammengestrickt und sind daher unoptimiert. Programme, die Leistung bringen müssen, siehe z.B. Clustersoftware, schaffen dagegen weitaus mehr mit den heutigen CPUs, im Extremfall 30 (!) Gflops pro G5 CPU.

IBM hat noch Luft

Von: Karl Schimanek | Datum: 11.10.2004 | #2
Keine Bange: [Link]

Hier noch n paar Links zum Thema:

Vom 8. Juni 2004: [Link]

6. Oktober 2004: [Link]

@karl

Von: namnam | Datum: 11.10.2004 | #3
was willste uns denn mit den links sagen???
also wenn ich den ersten richtig verstehe, dann hat ibm noch jede menge schraeubchen an denen es drehen kann ... war das deine intention?

ansonsten verstehe ich diesen aufruhr nicht. das ibm (erfolgreich) diesen weg (plan b) geht, sollte spaetestens seit dem POWER4 und den prozessoren in den Blue Genes jedem, der sich dafuer interessiert, bekannt sein.

@Guido

Von: RollingFlo | Datum: 11.10.2004 | #4
Vollste Zustimmung, bis auf eines: Nicht gab, sondern gibt. :) Auch heute kitzeln Demo-Programmierer aus dem C=64 ab und an noch Neues heraus.
Heute stehen natürlich die Softwarefirmen unter einem großen Zeitdruck und da ist nicht viel mit Optimieren - sonst springt der Konkurrent in die Marktnische. Leider.
Wenigstens OS X wird fortwährend optimiert, und anscheinend hat man bei Tiger sogar gelernt, daß man das Produkt wirklich fertigstellen muss, bevor man es in den Laden stellt. ;)

rückkehr der alten konzepte

Von: chris | Datum: 11.10.2004 | #5
hi thyl.

ich halte das auch für den anfang vom ende des taktraten-wettlaufes. dieses ende hatte ich jedoch schon weit früher erwartet und mit ihm das wieder erwachen damaliger techniken und konzepte.

so könnte es z.b. wieder "in" werden funktionen auf verschiedene spezialisierte bausteine (z.b. dsps, co-pros, etc.) zu verteilen; oder sehr viele kleine schnelle execution-units in einen prozsoor (wie hieß das nochmal?) zu quetschen. - da ga'bs damals einen der galube ich 64 exec-units hatte und schlicht unbezahlbar war.

c.

namnam:

Von: Karl Schimanek | Datum: 11.10.2004 | #6
Von A bis Z, genau das hab ich gemeint.
Das mit dem "Plan B" ist auch schon ultra lang bekannt.

Dito. Leckströme: [Link]

@chris

Von: namnam | Datum: 11.10.2004 | #7
im prinzip hat man das alles ja schon integriert:
frueher waren coprozessoren nix anderes als die heutigen integrierten fpus.
dsp-aehnliche geschichten hat man ja mit SIMD. leider werden die noch nicht richtig genutzt und konsequent genutzt.
damit sind wir wieder bei der software. entweder man faengt an die mal richtig anzupassen oder wir muessen auf den gcc 4.0.x warten um von autovektorisierer zu profitieren ...

@Alle

Von: Thyl (MacGuardians) | Datum: 11.10.2004 | #8
Mei (Originalton Süd), Konzepte gibt's schon, aber kapiert ihr nicht, dass dies das Scheitern bedeuten kann (natürlich nicht muss)? Habe ich hier auch schon mal gesagt. Wenn schon 90 nm Probleme macht, wird 65 nm noch schwieriger, und dann wird nix mehr mit mehr Transistoren bei gleichen Kosten, und das Ende von Moores Gesetz ist erreicht, und das ganz unerwartet. Wer dann mehr Funktionen will, braucht mehr Fläche; schon jetzt führt das zu Laufzeitproblemen auf den Chips. Außerdem ist es das Ende der Mehr Rechenleistung für immer weniger Geld-Phase; lange bevor die Teilchen genug Rechenleistung haben für die wirklich interessanten Aufgaben.

Keine Panik

Von: Oliver | Datum: 11.10.2004 | #9
Das Wettrennen geht weiter, und die Kisten werden auch weiterhin immer schneller werden.

Wenn eine Technologie an ihre Grenzen kommt, wird eine andere Technologie eingeführt. Wer sagt, dass ein Computer unbedingt auf Basis von Silicon aufgebaut werden muss? Wer sagt, dass er überhaupt eine feste Taktung haben muss? Wer sagt, dass es allein ein Stromimpuls sein muss, der die Zustände schaltet?

Thyl (MacGuardians):

Von: Karl Schimanek | Datum: 11.10.2004 | #10
Ich glaub' das hat hier jeder geschnallt, nur dass was jetzt passiert, passiert ja nicht zum ersten mal.

Time will tell :-)

Assymchorone CPUs

Von: Rüdiger Goetz | Datum: 11.10.2004 | #11
Hallo,

Vor einiger Zeit hab ich (ich glaub im Spektrum der Wissenschaften) eine Artikel über assynchrone Chips bei Sun gelesen. Dabei werden Befehle anders als bisher nicht in einem synchronen Takt abgearbeitet, sondern "fliessen" quasi so schnell durch die Schlatkreise wie es halt geht. Damit bremst ein langsamer Befehl einen schnellen nicht mehr aus. Man könnte also einige einfache Befehle innerhalb eines Equivalents weniger Takte abarbeiten, während andere viele Takte brauchen. Ansatzweise findet das heut ja schon statt, indem manche Befhle mehr Takte brauchen als andere. Allerdings durchlaufen alle Befehle immer noch sehr viele Schritte parrallel.

Wenn ich mich recht erinnere hatt Sun damals einen prototyp in der Mache der eine assynchrone Subunit hatte. Was daraus geworden ist weiss ich leider nicht.
Klang aber interessant das Konzept. Es könnte u.U. zu einem weitere Performancesprung verhelfen (in dem es die einafche befehle beschleunigt und komplexe aus dem Korrsett des Taktes befreit).

Allerings wäre das ganze dann hefftig OutOfOrder

Bis dann

R"udiger

@Oliver

Von: Maxefaxe | Datum: 11.10.2004 | #12
Genau, wer weiss wie lange noch binär gerechnet wird. Schaltungen mit mehr als 2 Zuständen werden irgend wann den heutigen Transistor ablösen. Silizium ist sicherlich gut zum Erzeugen von großen gleichmäßigen Kristallen, hat aber sonst eher suboptimale Eigenschaften.

Wettbewerb

Von: Rüdiger Goetz | Datum: 11.10.2004 | #13
Hallo,

Wenn die bisherigen Performancesteigerungen nicht annähernd gehalten werden können, fürchte ich, wird dies zu massiven Probleme für die Hardwarehersteller und in der Folge auch für die FeldWaldUndWiesen-Software-Hersteller werden.

Bis lang kaufte man sich (mehr oder weniger) alle drei Jahre eine neue Kiste. In dieser Zeit war die Hardware in Firmen abgeschrieben. Zu Hause begann der Rechner zu lahmen etc. In dieser Zeit verdrei bis vierfachte sich bsilang die Leistung eines Rechners.

Wenn nun in Zukunft zu die Leistung langsamer wächst, ist die Motivation neue Rechner zu kaufen (50 % mehr Performance lohnen sich nicht. Ich wart noch 2 Jahre) geringer. Entsprechend drohen die Hardware absätze einzubrechen. Und in der Folge wirds auch die FeldWaldUndWiesen-Software-Hersteller treffen.

Kreative Softwareentwickler könnten dagegen eine neue Blüte erleben. Wenn neues aus den Rechnern nur durch neue Ideen herauszuholen ist, dann ist die ihre Stunde.

Just my 2 cent

udn

Prognosen sind schwierig, vor allem wenn sie die Zukunft betreffen.

Bis dann

R"udiger

Plan 9 from Outer Space

Von: Equinox | Datum: 11.10.2004 | #14
oder

Wedding PLANner
PLANet der Affen

Sind dann noch *geheimere* Pläne von IBM... :-))

OT:

Von: dermattin | Datum: 11.10.2004 | #15
Ihr Schnarchnasen ;) [Link]

Ist doch super....

Von: mathias | Datum: 11.10.2004 | #16
....dann spar ich einfach ein bischen mehr auf den 2,5 Ghz G5, und habe für alle Ewigkeit meine Ruhe. Traumhaft...

noch ma keine Panik

Von: mcj | Datum: 12.10.2004 | #17
hi,

kann mich den Vorrednern Oliver und R.G. nur anschliessen. das ist noch viel Potential in der entwicklung und letztenendes gab es doch schon immer Punkte, an denen die Cassandras meinten, dass jetzt das Ende der Fahnenstange erreicht war.

Dass die Performance pro Takt zurückgegangen sei, glaube zudem ich nicht so ganz, denn zum einen sind heutzutage ja gleich mehere Recheneinheiten auf einer CPU untergebracht, so dass dieser Effekt (des Pipeline-Flushings) ausgegleichen sein müsste und zum anderen sind viele Befehle auch eher optmiert worden, damit diese weniger Taktzyklen verbrauchen.
So ein simples addieren oder incrementieren oder shiften geht doch bei den meisten CPUs seit eh und jeh in einem Taktzyklus oder verwechsele ich da was?

Bezüglich Dual-Core Prozessoren und den (immensen) Herausforderungen für Entwickler habe ich da noch eine Frage: Ist das nicht so eine ähnliche Situation wie bei den Dual-G4s imd Dual-G5s, die schon von Apple verkauft wurden bzw. werden? Sowiet ich das von den Besitzern solcher Maschinen mitbekommen habe, sind die alle begeistert, wie das macosx die load auf die beiden CPUs verteilt. oder klappt das alles nicht so richtig? Ich habe da keine Erfahrung, da ich noch die eine Dual-maschine hatte. Aber ich hab den eindruck, dass das ganz gut läuft.

gruss, m.

Na und ?

Von: dieter | Datum: 12.10.2004 | #18
Moore's "Gesetz" ist also am Ende. Wo ist das Problem? Erstens gibt es derzeit kaum einen Rechner, der seinen Prozessor vom Speicher her so füttern kann, daß die ZE an ihre Begrenzung stößt (Algorithmen sind im Algemeinen so schnell wie memory copy). Zweitens ist in einem Ansatz mit besser optimierter Software noch sehr viel Luft drin (z.B. handgestrickter Assembler invertiert auf x86 mit MMX-Instruktionen Matrizen bis 100 mal so schnell wie aus C++ Programm erzeugter Code), vektorisierende Compiler dürften also noch einige Zeit für Leistungssteigerungen gut sein. Und wenn Software-Entwickler nach ihrem Zeug, das zu langsam ist, jetzt nicht mehr eine Schubkarre voll Transistoren mit Cache satt schmeißen können, wird es vielleicht auch wieder kleine, feine und gemein schnelle Programme geben. Und drittens ist wahn- und irrwitzige Rechenleistung für Joe random luser genau das, was die Welt jetzt am dringendsten nicht braucht. So seh ich das.

@mcj

Von: Thyl (MacGuardians) | Datum: 13.10.2004 | #19
Na ja, zwei ZEs sind halt nicht 4, 8 oder 16. Es gibt auf dem Markt soweit ich weiss, keine Workstations mit mehr als vier ZE, die meisten haben nur zwei. Mein Verdacht ist, dass die Firmen festgestellt haben, dass ihre derzeitigen Betriebssysteme und Programme nicht gut auf mehr als zwei Rechnern skalieren und vier und Mehr-Prozessorsysteme dann nicht so toll dastehen.