ARCHIV 1999-2006

ARCHIV :: # 1752

Intels grosses Dilemma

Oder: Wie sag ich's meinen Kunden?

Autor: kai - Datum: 19.02.2003

Intel ist in der Zwickmühle: Jahrelang hat man den Kunden eingetrichtert, dass mehr MHz auch mehr Leistung bedeutet und hat AMD für ihr Quantispeed-Rating, das sinnbildlich für die reale Performance steht an den Pranger stellen wollen wegen Kundentäuschung, und jetzt hat man den neuen Banias-Prozessor im Programm, der den alten Pentium 4-M für Mobilgeräte ablösen soll. Das Problem: Der P4-M ist mit bis zu 2.4 GHz getaktet und der Banias nur mit 1.6GHz! Letzterer soll aber mehr oder gleiche Leistung bringen. Das stellt das Intel-Marketing vor eine schier unlösbare Aufgabe, denn so oder so muss man zugeben, was man AMD zum Vorwurf machen wollte: Dass MHz nicht alles sind, was zählt.
Intel will das unmögliche schaffen und dabei nicht den mühsam geschaffenen MHz-Hype zerstören indem man den Fokus bei Banias auf andere Aspekte als Takt legt, so dürfen Centrino-Notebooks (Centrino ist der Name für das Gesamtkonzept inklusive Chipsatz und Banias!) nur mit WLAN ausgeliefert werden. WLAN ist eben lustigerweise immer noch Luxus bei x86-Notebooks, verbaute Antennen sind mehr als rar und Karten müssen fast immer extra dazugekauft werden, die Antenne steht dann schick und ungemein robust direkt aus dem PCMCIA-Slot...

Kommentare

*kicher*

Von: cab | Datum: 20.02.2003 | #1
Oh, die haben mein unaufrichtiges Beileid! Gegen die eigene Propaganda zu kämpfen ist schon schwer! *wechschmeiß*

Motorola holt auf......

Von: macbiber | Datum: 20.02.2003 | #2
......kann man da nur sagen - die einen erhöhen langsam den Takt und die anderen bauen Takt ab.

Wenn das so weitergeht ist Moto/IBM "optisch"(GHz) Intel bald ebenbürtig.

Ich könnte mich kringeln vor Lachen.......

@macbiber

Von: roser | Datum: 20.02.2003 | #3
Ist er ja auch. Bekannte benötigen auf einem 2,5 GHz ca. 4.5 Std. für eine 90 - 100 min. SVCD. Habe jetzt einen Dual 1.25, der schmeisst mir ca. 22 - 25 fps mit ffmpeg bei der Filmkonvertiererei in den umgerechneten .m2v (also fast Echzeit). Also: nicht verrückt machen lassen.

Roser:

Von: Kai | Datum: 20.02.2003 | #4
Mach mal den CPU-Monitor auf und guck wie die Auslastung ist. Nutzt ffmpeg beide CPUs? Würd mich interessieren, ob das Ding auf SMP (und Altivec) optimiert ist..
Wurde am PC mit demselben Encoder verglichen? Da gibt's nämlich krasse Unterschiede, und genauso wie der Fraunhofer-Encoder bei mp3s auch immer länger braucht als Xing oder ähnliches, gibt's auch MPEG-Encoder, die zwar länger brauchen, dann aber auch bessere Qualität ausspucken! ;-)

Aber mit satter Altivec- und SMP-Optimierung sollte der Mac selbst mit nem 3GHz-PC noch ganz gut mithalten sollen, da hilft dann auch kein SSE2 mehr! ;-) Immerhin hat der G4 vier Altivec-Units und massig Cache (sehr gut für Encoding-Sachen), der PC nur eine SSE-Unit (d.h. eineinhalb, eine für simpel und eine für komplex)! Aber dafür gibt's auf x86 halt momentan wesentlich dickere Frontsidebusse und Speicheranbindung, das ist für solche Zwecke auch sehr von Vorteil..

Wow!..

Von: Kai | Datum: 20.02.2003 | #5
Hab gerade ein bisschen gesucht und einiges gefunden!
James Klicman (lustiger Name! ;-) hat das mjpeg, die Komponente, die in ffmpeg (oder mediapipe) den MPEG-Encoder macht auf Altivec optimiert: Mindestens drei mal so schnell! Wow, nicht schlecht!.. Und soweit ich das sehe hat James nur nen 500MHz Nitro 7410, d.h. noch die alte G4-Altivec-Unit mit dem limitierten Befehlsdecoder, der nicht alle Units füttern kann, mit G4+ (V'ger 7450, ab 667MHz) sollte das noch viel mehr abgehen! ;-)

Ach ja, und Dual-CPU kann er auch:
"- A new mpeg-2 options tab has been added with GUI support of standard SVCD, XSVCD and generic VBR mpeg-2 profiles, multithreading for dual processor, and automatic split while encoding for multiple CD burning."

Nettes Teil, dieses ffmpeg, würd mich mal interessieren, wie das abgeht im Vergleich zu teuren kommerziellen, auch Altivec/SMP-optimierten encodern wie Mediacleaner! ;-) Kennt da irgendjemand nen Test?

@roser@Kai

Von: macbiber | Datum: 20.02.2003 | #6
Ja stimmt schon - der G4 ist nicht langsam solange er gut programmierte Software zum rechnen bekommt.

Aber genau da liegt der "Hase im Pfeffer".
Das ist nun wirklich kein Macspezifisches Problem - Hypertherading ist letztlich auch nur das Eingeständnis, daß man zwar technisch viel Rechenpower hat - ABER sie nicht nutzten kann.

Mir fällt halt auf, daß es "früher" Prozessoren wie den 68020/030/040/060 gab die mit jeder Stufe schneller waren als der Vorgänger und DAS obwohl die MHz nicht gesteigert wurden.
ein 040 mit 25Mhz war schneller als ein 030 mit 50Mhz. (Das konnte man auf der Amiga ganz toll beobachten)

Nun bin ich kein Programmierer - aber man macht halt im Laufe der Jahre(seit C64) so seine Erfahrungen mit steigendem Ressourcenverbrauch und dem was dann dabei rauskommt.

Ich denke sogar, daß bei konsequenter Nutzung/Ausnutzung des G4s noch einiges mehr an Leistung herauszuholen wäre.
Das Problem ist aber, daß man lieber wartet bis es schnellere Prozzis gibt - dann erledigt sich das Problem schon von selbst.

Ich bin mit meinem QS867 durchaus zufrieden-allerdings stört mich die völlig unnötige Lautstärke etwas.

Schade, daß sich Apple nicht entschliessen kann in einen iMac(SE?) einen wirklich aktuellen Prozzi einzubauen.
.....Wenn der aktuelle iMac17" doch nur einen L3-Cache von 2MB hätte.............
Also DAS wär ein echt "unmoralisches Angebot"


Dann könnte...

Von: Kai | Datum: 21.02.2003 | #7
..Apple den aber auch nicht gerade dick im Preis reduziert haben! ;-)
Der L3-Cache ist laut Holger Niederländer mithin die teuerste Komponente, und 2MB gleich doppelt so teuer!
SRAM war noch nie billig, aber ich wage gar nicht zu vermuten, was 2MB des sehr selten verwendeten DDR-SRAM kosten!...

L3 zu teuer

Von: macbiber | Datum: 22.02.2003 | #8
....kann schon sein, daß L3-Cache teuer ist - 2MB sind vielleicht auch zuuuu teuer.
Aber im kleinen G4 ist doch auch ein MB L3-Cache - das sollte man sich zumindest bei dem Spitzenmodell der iMacs auch leisten können.
----Einfach schade--

IPC, Mhz, etc & @ macbiber

Von: Mister Mike | Datum: 22.02.2003 | #9
macbiber, das mit der Leistungssteigerung bei neueren CPUs stimmt schon. Nur hast Du a) ein unglückliches Beispiel gewählt, da ein "25 Mhz" 68040 intern 50 MHz hat und daher nicht ganz so viel schneller ist und b) das heute noch so ist mit der Steigerung.

Ich wette, JEDER neuere G3 oder G4 ist schneller als der Vorgänger bei gleichem Takt (und "gutem" Compiler, wir wollen das jetzt nicht noch auf die Pipelinelänge und Codeoptimierungen ausweiten). Das habe ich doch gerade erst irgendwo abkommentiert, das was Du ansprichst, ist die IPC (Instruction per Cycle), die intel kontinuierlich absenkt, während Motorola die immer leicht steigert (Man kann dann noch einen Schritt weiter gehen und dazu noch die Leistungsaufnahme verrechnen, dann schneiden die Motos noch besser ab und Intel noch schwächer. Aber DAS wäre dann ein *rundum* netter Prozzi).

Zu den neueren G4 mit "mehr" AltiVec. Leider lässt sich das massiv verbesserte AltiVec der G4 ab dem 7450 fast gar nicht in die Praxis umsetzen, da der Bus VIEL (!!) zu langsam dazu ist. Zumindest betrifft das graphische Anwendungen, in RC5 schlägt sich das natürlich messbar nieder, ab RC5 traut sich ja gar nicht aus dem Prozessor raus, da läuft alles intern ab ;-)

Was die "ultra" Macs betrifft, so ohne Kompromisse ersten Grades (letzter mac dieser Art: Quadra 840av, davor Q700, davor IIfx, das wars dann schon m.E.), da werden wir dieses Jahr unsere Freude haben. Aber dann hör ich schon wieder klagende Stimmen bezüglich des Preises. Da ist dann nichts mit 2000?.

ffmpeg: technisch hats mich noch nie interessiert, aber das ist mein LEIBtool. Es braucht mehrere Stunden zwar, um 700 MB DivX auf 2 SVCDs umzurechnen, aber man merkt auf den ersten Blick keine Bildartefakte oder massive Unschärfen. (693 MB DivX --> 1075 MB mv2 in 5h, ich hab dran gearbeitet in Illu 10 daneben)

L2 / L3 Cache: Ich bin geil auf 4 MB (DDR SRAM) Cache ;-)

PS3

Von: Mr. Mike | Datum: 22.02.2003 | #10
Übrigens erscheinen diese Desktop Monster von Intel sowas von lächerlich im Vergleich zu dem, was das PlayStation 3 Konsortium (SONY, IBM, Toshiba) bastelt.

"The Cell" (nicht mit J. Lopez) basiert auf einem Modell für Cluster-Rechnen, gibt dabei aber das PS2 Prinzip nicht auf. Es klingt wie WAHNSINN wenn man die Patente ansieht. Da steht dann was von "preferrably 8 Attached Processor Units per processor element (PE)", "peferrably operating with 32 G(FL)OPS each" und "can also be implemented (...) using superconducting material, e.g. RSFQ logic".

Das Ganze vernetzt per Glasfaser (nein, siehe das nirgends nur als "option"), geteilte Speicher und Resourcen-Sharing übers ganze Netzwerk.

Person A guckt also "nur" einen Film, Person B aber ein aufwändiges 3D Spiel, für das die lokalen Zellen-kluster nicht ausreichen, also wird übers netzwerk von denen "Zellenleistung" geholt, die nicht alle ihre Zellen brauchen, zudem kann man von Servern auch Kapazität kriegen.

............naja, kein Wunder dass das Fertigstellen dessen noch eine Weile dauert ,-)

Mike:

Von: Kai | Datum: 22.02.2003 | #11
Sag ich doch die ganze Zeit! ;-) In vielen kleinen Cores die parallel laufen liegt die Zukunft, nicht in 10GHz CPUs!

Das beste an dem Cell-Chip ist, dass er wohl nicht mehr MIPS-basiert ist sondern PPC, dank IBM!
Bei der PS2 haben sie den Chip ja nur gefertigt (anfangs, mittlerweile baut Sony den glaub ich selbst!), aber bei der PS3 haben sie aktiv mitdesignt! ;-)

Mehr dazu hier