ARCHIV 1999-2006

ARCHIV :: # 4383

Mac Pro mit 8 Cores

wer bietet mehr?

Autor: dd - Datum: 13.09.2006

Bei dem ganzen Trubel um die neusten Variationen des iPods und Konsorten ist eine Meldung bei anandtech.com untergegangen, die die Technik-Fraktion begeistern dürfte: Beim untersuchen der Erweiterbarkeit des neuen Mac Pro hat Anand festgestellt, dass nicht nur die CPUs gesockelt sind und sich problemlos gegen das 3GHz-Modell austauschen lassen, das auch Apple verbaut, sondern dass auch die neuen Quad-Core Xeons, die Ende des Jahres kommen sollen, passen. Alle 8 Cores (bei zwei Chips) werden von MacOS X erkannt und laufen stabil. Es gab zwar Probleme, alle 8 Cores auszulasten, aber das dürfte sich mit den richtigen Programmen auch lösen lassen.

Kommentare

Das ist ja nichts Neues ...

Von: johngo | Datum: 14.09.2006 | #1
... es gibt immer noch Anwendungen,
wo heute noch Single-Anwendungen
die Pace setzen!

Core 2 Quadro im Takt

Von: MichaelK | Datum: 14.09.2006 | #2
bzgl. der Takthöhe...

"Während die Clovertown-Prozessoren mit zwei Kernen bis dahin mit zu 2,93 Gigahertz takten dürften, soll bei den Quad-Modellen bereits bei 2,66 Gigahertz Schluss sein. Wer dann keine optimierte Software oder viele ressourcenhungrige Anwendungen auf einmal verwendet, könnte mit zwei mal zwei Kernen mehr Geschwindigkeit erreichen als jemand mit insgesamt acht."

Quelle:
[Link]

Anantech und Mac

Von: Jo der Name | Datum: 15.09.2006 | #3
so weit ists schon gekommen.

Fehlt nur noch die innenbeleuchtete Wasserkühlung.

Na gut, wir haben sie gerade abgeschafft, insoweit sind wir der PC fraktion voraus ;)

@Thyl

Von: wonko_the_hopefully_sane | Datum: 14.09.2006 | #4
Wenn Du es "Verrat" nennen möchtest. Inhaltlich stimme ich in Teilen zu, finde jedoch, dass der Begriff "Verrat" besser zu den einstmals vorgetragenen und in Stücken gelebten Werten von Apple steht. Aus "Think different" ist vielleicht sowas wie "Think the same, only with a touch" geworden. Aber das ist aus Firmensicht für mich auch völlig legitim, auch wenn's schade ist. Ich habe lieber Apple so wie es jetzt ist, als dass sie mit wehenden Fahnen und alten Prinzipien treu untergegangen wären. Im übrigen finde ich es durchaus ok, wenn vieles inzwischen über die Digital-Schiene läuft, einfach, weils einfach ist. Hab erst neulich mit iPhoto mit drei Klicks ein Fotoalbum erstellt, was früher viel aufwändiger gewesen wäre, oder vielleicht für jemand anders sogar unmöglich. Jetzt kann man natürlich sagen, weg vom Papierkleber hin zur Maus büsst den Marx'schen Produktbezug ein ;-) Aber ich denke, Kreativität wird dadurch nicht weniger und es macht vieles für die meistens erst möglich oder zumidnest einfacher.

Allendale

Von: Vorname | Datum: 14.09.2006 | #5
Also Allendale (Core2Duo) hat nur 2MB Cache... und ist AFAIK nur wenig langsamer als Conroe.

Verstehe die Kritik nicht

Von: wonko_the_hopefully_sane | Datum: 14.09.2006 | #6
Passt doch wunderbar ins Apple-Konzept. Wir Jobs in der letzten Keynote sinngemäß gesagt hat, wird Apple den Fokus weiterhin vom Rechner hin zum Multimeadia-Gadget-eService-Dings bewegen ("Apple is in your den, Apple is in your car, Apple is in your pocket. ...").

Damit ist das Innenleben eines Apple-Rechners eben nicht mehr so wichtig, und der HW-Verkauf auch nicht mehr ganz so wichtig. Somit hat der Anwender zeitgemäße Rechnerleistung im applegewand und noch den Vorteil, ggf. selber aufzurüsten oder irgendwann doch mal komplett neu anzuschaffen. Ich find's gut. Und hey, wer erinnert sich nicht an die eigenen Aufrüstaktionen, wie einen CoPro in die 68er Kisten einzubauen, oder den 68LC40 durch den "vollwertigen" zu ersetzen, oder den 601 durch einen 603 oder gar 604, usw?

wonko

Von: Thyl (MacGuardians) | Datum: 14.09.2006 | #7
Das ist für mich ein Verrat an den einstmals hehren Zielen der Datenverarbeitung. Statt "Computer, Brief an meinen Papa mit schönen Grüßen und kurzem Bericht über meine Aktivitäten der letzten Tage erstellen" gibt es Musik und Videos in Digital, die man vorher auch schon ganz gut analog sehen konnte. Für die Aufgaben, die eigentlich vor uns wären, wie stärkere Eigenintelligenz, wären mehr Rechenleistung und andere SW notwendig. Stattdessen wendet sich Apple lieber der Unterhaltungselektronik zu. Pff

Das ist ja der (schlechte) Witz bei Core

Von: klapauzius | Datum: 14.09.2006 | #8
Auf der einen Seite pumpt man den shared Cache auf, auf der anderen Seite lässt man dann mehrere Kerne drauf los, was dann wieder eine irrsins-Logik auf dem Chip für Kohärenz erfordert.

Super Architektur, ey !

Rudolf M

Von: Vorname | Datum: 14.09.2006 | #9
Ich habe jetzt Kais-Beitrag nur überflogen (bin zu faul gerade alles komplett zu lesen) aber soweit ich sehe, hat Kai das ohne Intel-Bashing (aus seiner Perspektive) geschrieben. Bravo!

Dann müssen ja diese Flameanstichelungen nicht wirklich sein, oder?

Thyl:

Von: Kai (MacGuardians) | Datum: 14.09.2006 | #10
"-Skalierung auf mehr CPUs ist extrem schwierig"

Naja, Parallelisierung von Problemen ist ein altbekanntes Problem. Wenn man allerdings ne Chip-Architektur und die Tools dafür zur Hand hat, die von Anfang an konsequent dafür designed wurden tut sich der Programmierer leichter!
Der Punkt ist, dass die Programmierer umdenken werden MÜSSEN, es führt einfach kein Weg dran vorbei!
Und wenn sie ihr Zeug massiv threaden gibt's wiederum Probleme auf Single-CPU-Systemen, weil dann der Thread-Switching-Overhead dort sehr groß wird!

Was ich oben über x86 geschrieben habe gilt übrigens auch für den G5. NICHT für PPC allgemein, denn Cell und PowerX sind ja auch PPC, und die eignen sich für sowas! ;-)
Cell wegen dem grundlegenden Aufbau und PowerX wegen riesigen Caches und einem speziell darauf ausgelegten Speicher-Subsystem (aber selbst den Power5 gibt's auch nur bis max. 64 CPUs, bis dahin skaliert er allerdings extrem gut!).

"-Derzeit gibt es große Probleme, die Taktrate weiter zu erhöhen, daher ja der Schwenk bei intel auf den Core 2."

Es lag weniger an Problemen, die Taktrate zu skalieren (die gab's zwar, was beim 90nm-Umstieg klar wurde), sondern eher an einem Umdenken bei Intel, die ja die letzten Chipdesigner waren die glaubten, dass ständige Taktratensteigerungen die Lösung sind (P4 war bis 10GHz geplant). Irgendwann kam Gelsinger dann drauf, dass wenn das so weitergeht er in ein paar Jahren mit einem Atomreaktor aufm Schoß im Flugzeug sitzt (naja, soll mal bei Apple nachfragen, da kriegt er zumindest ne Vorstellung davon! >;-), weil die Energiedichte auf ein paar Quadratmillimeter dann so hoch ist wie bei nem Kernreaktor (TheReg nannte das den "Gelsinger Coefficient")...
Klar hätten sie das gerne gesehen, Taktratensteigerungen sind schließlich der "free lunch" bei dem niemand sein Zeug neu programmieren muss um davon zu profitieren!

D.h. der Code wird sich über kurz oder lang verändern müssen, die Core-Mikroarchitektur ist allerdings komplett auf das alte Paradigma hin optimiert (=besonders gut in singlethreaded Integer-Scheisscode mit vielen Verzweigungen)

"-Die Effizienz der Universal-CPUs a la x86 ist nur noch begrenzt zu steigern"

Mit steigender Core-Anzahl ja. Der Weg der momentan eingeschlagen wird ist einfach fürn Arsch: Alle kommen mit Dualcore raus, und gerade wie LANGSAM überhaupt erst absehbar ist, dass die erste Consumersoftware Dual unterstützt kommen auch schon die Quadcores raus, wo die mühsam Dual-optimierte Software (hallo Quake4!) dann wieder brach liegt, und das ganze Spiel geht wieder von vorne los. Wie lang wollen die das noch weitermachen? V.a. weil mit jeder Verdoppelung der Cores auf x86 die Probleme beim Speicherzugriff und der Kohärenz dramatischer werden und der potentielle Zugewinn somit weniger!

"-Der derzeit einzig gangbare Ausweg wären Spezialrecheneinheiten"

Jein. Spezialrecheneinheiten sind spezial, d.h. wenn die nicht flexibel genug sind wird sich auch nicht jedes Problem damit rechnen lassen.
Der einzig sinnvolle Ausweg wäre allemein eine Architektur, die von Anfang an konsequent für parallele Abarbeitung designed wurde. Wo man mit singlethreaded scheisscode einfach keinen Blumentopf gewinnen kann, weswegen der Programmierer sich von Anfang an darauf einstellen muss!

"-intel ist in Universalrecheneinheiten verhaftet"

Momentan ja, obwohl sie sowas wie die SPUs der Cell ja auch schon für 2008 auf der Roadmap haben. Allerdings immer noch mit fettem Wasserkopf in der Mitte, nix kapiert! ;-)

"-> Ohne Architekturänderungen stehen wir (allerdings auch alle anderen PC-Anbieter) ab nächstem Jahr leistungsmäßig wieder vor einer Wand."

Stehen sie doch jetzt schon! Wo ist denn bloß die Consumer-Software, die auch nur Dualcore nutzt? Quake4, DVD2one2, was noch?
An einem Problem kann eben immer nur ein Wasserkopf rechnen, ne Verdoppelung der Wasserköpfe bringt da einfach nix solang man das Problem nicht konsequent zerlegt!
Und wenn das Problem gut zerlegt ist braucht man keinen Wasserkopf mehr in der CPU, und das ist exakt der Punkt..

"Die Lösung wäre der Einsatz von CPUs mit Spezialrecheneinheiten, womit wir wieder bei GPUs und so was wie Cell wären."

Nein, die einzige längerfristige Lösung ist eine radikale Umstellung bei den Entwicklern, die einfach ihren Code anders schreiben müssen. Dank Wasserkopf können sie auf x86 vorerst weiterhin mit schlechtem Code durchkommen, aber längerfristig ist das einfach ein nutzloser Ansatz..
Aber keiner will seine über Jahre gewachsene Code-Base neu schreiben, nur: Wenn man Multicore wirklich konsequent nutzen will führt eben fast kein Weg daran vorbei...

P.S: BeOS bzw. das Entwicklerteam und Cell - DAS wäre echt ein "Match made in Heaven"! ;-)

Ich will keinen Cell ...

Von: johngo | Datum: 14.09.2006 | #11
... ich will einen Rechner mit 8 Cores,
der bezahlbar bleibt und mit allen
verfügbaren Programmen relativ gut
umgehen kann. Deshalb stelle ich mir
auch nur eine einzige - für mich
wichtige - Frage: wie teuer würde das
Teil als Apple-Computer sein?

Ich hoffe bezahlbar, denn dann bin ich
absolut glücklich. Warum? Weil der erste
Schritt, das man nun eine performante
WIN-Umgebung im Mac laufen lassen
kann, erspart mir zukünftig den zusätzlichen
Kauf eines WIN-PCs. Wenn nun ein System
kommt, welches mit vielen Cores Work- und
Renderstation zugleich sein kann, dann
spare ich mir auch den Rechner, der bei
mir bisher nur renderte. Ich spare wieder
Platz, Stress und Geld.

Soll heissen: es ist mit völlig wurscht,
ob eine Anwendung mit 8 Cores nur 450%
Leistung bringt, solange ich mit so vielen
Cores jederzeit (wenn im Hintergrund
gerippt, gerendert etc. wird) im Vordergrund
schnell und sauber arbeiten kann.

Spezialprozessoren sind für mich da aber
unattraktiver (ich will ihnen hier mit der
Aussage nicht die Berechtigung nehmen)
da sie eben nur spezielle Vorteile haben.
Ich wünsche mir jedoch universelle Vorteile
und sehe Mehrcore-Systeme auf der
gleichen Prozessorbasis als den richtigen
Weg an.

Was in Zukunft jedoch gewährleistet sein
sollte ist, das sich nicht genutzte Cores
auch so weit ausschalten, das der Strom-
verbrauch irgendwie dem jeweiligen Leistungs-
abruf entspricht.

@kai

Von: Rudolph Möshammer | Datum: 14.09.2006 | #12
siehs doch einfach so:

Intel == Spitze

PPC == Scheisse

Fakten interessieren hier keinen.

Universallösungen: Nie gut!

Von: Andi | Datum: 14.09.2006 | #13
Also irgendwie erinnert mich das etwas an die Quicktime-Funktionalität, die alle Progrämmchen zur Vorschaudarstellung von Bild/Film/etc. nutzen können. z.B. Im Finder für Bildvorschauen, oder in Öffnen-Dialogen.
Klar es ist systemübergreifend verfügbar, und die Programmierer haben es so sicher leichter. Nur wirklich fix war/ist das IMHO noch nie gewesen.
Gegen handoptimierten Code kann sowas nicht an. Soll auch nicht, hilft schliesslich dickere Hardware zu verkaufen... Schon vertrackt das.

Have a nice day!

@Vorname

Von: svenc | Datum: 14.09.2006 | #14
aber genau auf diese Anwendung habe ich gehofft.
Ich hatte mir schon immer gewünscht, das Bangen auf die jährliche Heizkostenabrechnung, durch die Erschließung eigener Erdgasvorkommen auf meinem Grundstück, zu beseitigen.
Wir haben extra ein Eckgrundstück gekauft, damit die Tankwagen besser ranfahren können, um Ladung aufzunehmen ;-)

Gruss

svenc

@macbiber

Von: svenc | Datum: 14.09.2006 | #15
zum Beispiel Cinema 4D und andere professionelle 3D-Renderprogramme.
Es werden aber immer mehr Programme auf Multicore-Systeme angepasst werden.
Der Trend geht halt dahin, mehr Cores zu verwenden, statt mehr Ghz.
Auch wenn dabei die PPC-Logic-Anbieter auf der Strecke bleiben (:-) ).

Der Zuwachs von 2 auf 4 Cores lag bei 3D-Programmen bei ca. 65% [Link]

Es ist nur ärgerlich, dass die neuen FB-DIMMs viele Performance-Vorteile des schnellen FSBs wieder vernichten.

Anandtech darf z. Zt. noch keine Benchmarks von der 8-Core-Maschine veröffentlichen, will das aber bald tun.

Selbst wenn der Zuwachs von 4 auf 8 Cores nur bei 40-50% liegt, rechnet sich die ersparte Zeit für professionelle Anwender sehr schnell.

Gruss

svenc

Apple Clones

Von: tiloprobst | Datum: 14.09.2006 | #16
"WOW... erinnert mich...
von: Takeo - am 13.09.06 um 20:50:07 Uhr
an die Zeit, als es noch Fremdhersteller-Macs gab, bis Apple die Lizenzen einzog... erinnert ihr Euch??"

hehe, nur zu gut.
"Apple hat uns torpediert" (Motorola nach dem Lizenzentzug durch Amok-Steve) .. ich werds nie vergessen ;)

@tiloprobst

Von: svenc | Datum: 14.09.2006 | #17
... das ist vielleicht der Grund, warum Motorola Apple danach nur sehr spärlich mit leistungsfähigen CPUs versorgt hat, oder sogar mit einem G4-Nachfolger.

Gruss

svenc

Octa..

Von: Kai (MacGuardians) | Datum: 14.09.2006 | #18
"Kann mir hier jemand mal überhaupt ein Program nennen, welches 8 Kerne nutzen kann??"

Die meisten 3D-Programme. Und DVD2one2. Ansonsten sieht's mager aus, ich glaub nicht, dass Photoshop, AfterFX etc. noch so toll skalieren, die sind ja in den meisten Jobs mit vier Cores schon fast nicht mehr schneller.
Interessant wäre, ob Final Cut Pro und Logic acht Cores können. Logic scheint ja die vier x86-Cores gut auszufahren, und auch FCP ist ziemlich gut dabei!
Ob das Threading allerdings noch für 8 Cores reicht muss man sehen..

"Und falls ja - stellt sich sofort die Anschlußfrage wie hoch der Multiplikationsfaktor ist - also wieviel Prozent der Coreleistung insgesamt das Program überhaupt ausschöpfen kann."

Ja, das ist das Kernproblem. Stichwort Speicher/Cachekohärenz und IPC!
8 Cores, die sich um den Speicher prügeln ist nicht wirklich toll, ganz besonders da Speicherzugriffe DER Flaschenhals schlechthin sind und die FB-DIMMs zwar wenn genügend Module vorhanden sind immerhin lesen und schreiben gleichzeitig können, aber dafür dann ne Monster-Latenz haben!

Dual-Opteron: Faktor 1.9 (statt 2)
Quad-Opteron: Faktor 3.25 (statt 4!)
Octa-Opteron: Faktor 4.81 (statt 8!!)
(Bei 2.8 GHz sind das 2154 CB-CPU)

Bei Intel sieht's ähnlich aus:
Octa Cloverton: CB-Faktor 4.76 (CB-CPU für 2GHz: 1723, Zahlen aus ner Intel-Demo!)

Zum Vergleich: CB-CPU für den 3GHz Woodcrest: 1611

So ab 8 Cores wäre langsam ne NUMA-Architektur interessant... Aber der Opteron hat sowas ja im Endeffekt mit seinen HT-Links, und sogar der skaliert da ziemlich scheisse! <:-)

Bei Servern ist das natürlich ganz anders, da die Workloads da anders sind. Da laufen ständig zig voneinander völlig unabhängige Programme und Prozesse gleichzeitig, Prozesse und Programme von denen man meistens WEISS, wieviel Leistung sie benötigen (sehr wichtig!), weswegen die Leistung besser skaliert als bei Anwendungsprogrammen, wo die Entwickler nie wirklich voraussagen können, mit welchen Situationen das Programm konfrontiert wird.
Naja, Wasserkopf-CPUs und viele Cores vetragen sich halt nicht so doll! ;-) Da nimmt man besser nen Chip, der direkt dafür designed wurde: Cell. Der skaliert dann wirklich fast linear mit der Anzahl der Cores, denn singlethreaded programmieren traut sich auf DEM Ding echt niemand! 8)
SGEMM Matrix-Multiplikation: 200 GFLOPS reale Performance auf acht SPUs. 204,8 GFLOPS sind das theoretische Maximum.

Nee, im Ernst, jetzt mal jeglichen Intel-Hass beiseite gelassen: x86-CPUs wurden nie für massiv parallele Systeme entworfen. Je mehr Kerne umso größer der "Verschnitt". Deshalb HAT Intel ja die Itanic gemacht, denn bei der sind 128-CPU-Systeme kein Thema!
x86-Systeme über zwei CPUs (also reale Chips, keine Cores!) kauft fast keine Sau (siehe aktuelle C't, da steht's auch wieder!), und vier Cores haben die jetzt auch nur, weil's die im Zuge der "Dualcoreisierung" quasi für lau gegeben hat.
Die Anwendungsbereiche, in denen man aus x86-Systemen mit vier oder mehr Chips noch was rauskitzeln kann sind extrem dünn gesät (Quad-G5- oder "Mac" Pro User können das bestätigen). Es gab nen Grund, warum Octa- und sogar Quad-Opterons auch 1.5 Jahre nach der Vorstellung der 8xx-Serie eigentlich nicht wirklich existent waren! Es gibt nen Grund, warum's vor Dualcore so wenig Anwendungs-Benchmark-Resultate von Quad-Xeons gegeben hat (ich hab nur einmal nen Cinebench-Wert gesehen, das war's eigentlich schon!): Die Dinger kauft einfach keine Sau, weil normale Software dadurch kein Stück schneller wird (oft sogar langsamer wegen Overhead!)
Sogar Cluster werden nur aus Dual-Rackservern gebaut! Warum nehmen die keine Quad- oder Octa-Chip-Systeme? Geben tut's die ja!
x86 war einfach nie drauf ausgelegt, dass mehrere Kerne in Harmonie parallel rechnen ohne sich gegenseitig auf die Füße zu treten, das war auch nie das Ziel bzw. die Zielgruppe. Cache-Kohärenz war immer ein "afterthought" und an ein für massiv parallele Abarbeitung geeignetes Systemdesign (Referenz: SGI ccNUMA) verschwendet auf x86 keine Sau nen Gedanken (Ausnahme: AMD mit Opteron und HT, das war schon relativ nett!). Das schlimmste war, als Serverworks die Xeons in Pärchen zusammenfassen musste, weil die wegen der Cache-Kohärenz (MEI statt MERSI) und den begrenzten gleichzeitig offenen Speicher-Requests maximal nur zwei CPUs konnten!
SPUs in ner Cell hingegen können sich gar nicht gegenseitig auf die Füße treten. Jede arbeitet für sich alleine ihre SPUlets ab, wenn sie was aus dem Speicher will meldet sie's beim PPE an (was dann die Speicherzugriffe möglichst optimal managt und wohl auch in Sachen Speicherkohärenz ne Rolle spielt), Kommunikation zwischen den SPUs und SPUs und PPE läuft über den superflotten EIB. Der Programmierer muss sich beim Schreiben des Programms schon automatisch auf diese Architektur einstellen, was im Endeffekt zu einer deutlich effizienteren Nutzung der vorhandenen Ressourcen führt als bei x86, wo der Ansatz meist lautet "machen wir einfach mal mehrere Threads, das reicht schon" - oops, Probleme beim Speicherzugriff weil jeder Thread gleichzeitig über die Mutti will? Naja, egal, reicht schon!
Übrigens: Effizient ist die Cell bei 40 Watt unter Vollast sowieso schon! ;-)

Spiele sind ein echtes Problem. Sogar bei den sehr sehr spärlich gesäten Dual-unterstützenden Spielen fällt mir nur ein einziges ein, das mit zwei CPUs ähnlich viel schneller läuft wie z.B. Cinebench: Quake 3, das läuft seit Tiger echt 1.8 mal schneller (wahrscheinlich das fine-grain kernel-locking)
Ansonsten ist Schicht im Schacht, Quake3 läuft kein Stück schneller auf Quad-Systemen (hat ja auch nur zwei Hauptthreads, Audio und Game). Quake4, seit langem wieder mal ein Game das Mehrkernsysteme unterstützt wird nur noch 1/3 schneller auf Dual. Was soll der Gamer dann mit Quad-Core? Und ja, Intel will die Kentsfield-Systeme allen Erstes als High-End-Spielerechner anpreisen! Und welche Spiele sollen damit schneller laufen?

subzero:
"- Kein Problem, quasi jedes 3D-, Compositing-, oder Sound-Tool kann mehrere Threads zum Rendern nutzen. Cinema 4D als einfachstes Beispiel (CineBench) sei da mal als konkretes Beispiel genannt. Du kannst nämlich bei solchen Prozessen extrem gut parallelisieren und die Last gleichmäßig auf fast beliebig viele Cores verteilen (jeder Core rechnet einen bestimmten Teil des Bildes oder übernimmt einzelne Tasks wie Raytracing oder allgem. Lighting). Der Cinebench lastet auch den Quadcore Mac Pro derzeit 100%ig aus und mit acht Cores sehe ich da auch noch nicht so große Probleme."

"Kein Problem"? "auf fast beliebig viele Cores verteilen"? Bwahahaha..
Tip: 100% Auslastung heisst noch lange nicht, dass das Programm auch viermal schneller ist! Denn: Warten der CPU auf Daten aus dem Speicher zeigt der CPU-Monitor auch als volle CPU-Auslastung an, auch wenn effektiv nix passiert!...
Tip 2: Vier Vokabeln, über die du dich mal schlau machen solltest:
Speicherkohärenz
Cache-Kohärenz
IPC
Speicherlatenz

Kai

Von: Thyl (MacGuardians) | Datum: 14.09.2006 | #19
Gestatte mir, mal Deine Aussage zusammenzufassen und zu ergänzen, zur Freude der intel-Befürworter, die dann wieder auf mich einhacken dürfen:
-Skalierung auf mehr CPUs ist extrem schwierig
-Derzeit gibt es große Probleme, die Taktrate weiter zu erhöhen, daher ja der Schwenk bei intel auf den Core 2.
-Die Effizienz der Universal-CPUs a la x86 ist nur noch begrenzt zu steigern
-Der derzeit einzig gangbare Ausweg wären Spezialrecheneinheiten
-intel ist in Universalrecheneinheiten verhaftet
-> Ohne Architekturänderungen stehen wir (allerdings auch alle anderen PC-Anbieter) ab nächstem Jahr leistungsmäßig wieder vor einer Wand.

Die Lösung wäre der Einsatz von CPUs mit Spezialrecheneinheiten, womit wir wieder bei GPUs und so was wie Cell wären.

Leistungsmäßig stehen wir nächstes Jahr nicht vor einer Wand

Von: KnoblauchTraubeNuss | Datum: 14.09.2006 | #20
Erstmal gibt es noch etwas Luft bei den Taktfrequenzen und dann kommt auch schon der 45nm-Prozess. Es gibt Evolution, statt Revolution. Kai hat allerdings recht, jenseits von 8 Cores ergibt das mit den heutigen (Universal)-Prozessoren wegen der mangelhaften Skalierung keinen rechten Sinn.

Spezialisten wie der Cell könnten zumindest kurzfristig helfen, allerdings sehe ich da das extrem große Problem der nicht unkomplizierten Anpassung der Software für einen Anfangs sehr kleinen und unkalkulierbaren Markt.

Vom stärkeren Einsatz der GPUs bin ich bisher nicht besonders begeistert, das einzige Programm mit Core Image Support welches ich nutze (Aperture) ist auf empfohlener Hardware zäh - fühlt sich langsamer an als vergleichbare Software (Lightroom) ohne Core Image Support.

@klapauzius

Von: svenc | Datum: 14.09.2006 | #21
wieviele "halbwegs versierte" Mac-Bastler mit Zugriff auf preisgünstige Intel-CPUs kennst Du denn?
Sagen wir mal 1-2% der üblichen Mac-Userschaft... Ich glaube, das tangiert Apple nur periphär....

Aber irgendwie kann ich mich mit dem Intel-Wechsel immer mehr anfreunden.
Für meinen "ollen" Dual 1.8 G5 habe ich noch immer keine Upgrade-CPU gefunden, die Cell-CPUs, die Kai so angepriesen hat, will mir niemand passend für mein Board liefern, und auch den G4-Nachfolger gibt es nicht passend... :-/

;-)

Gruss

svenc

Quadcore xeons = ? $

Von: Gerd | Datum: 13.09.2006 | #22
Den Quadcore Xeon gibts bestimmt nicht zum Schnäpchenpreis, und das dann mal zwei. Da wird Aufrüsten zum teuren Spass.

subzero

Von: nico | Datum: 13.09.2006 | #23
"HDMI ist nicht wirklich erstrebenswert für Profi-Geräte. (...) Die Profi-Lösungen von Blackmagic und AJA bringen da viel mehr, Stichwort 10bit uncompressed footage (12bit sind auch schon möglich)."

hdmi ist sehr interessant. wir arbeiten mit mehreren blackmagicdesign varianten (decklink extreme, multibridge extreme). gerade hat bmd auf der ibc diese karten vorgestellt:

[Link]
[Link]

hdmi macht wie uebliches hd-sdi bis zu 1920x1080 4:2:2 10bit unkomprimiert fuer wesentlich weniger kohle. geht eben nicht dual link hd-sdi (bis 4:4:4 rgb 12bit) und keine bis 16kanal eingebundenes audio, nur 2ch 48khz 24bit.
fuer viele aufgaben reicht es durchaus.
auch das haben die "profis" erkannt.

ghme

Von: dave | Datum: 13.09.2006 | #24
ich hab mich nich angesprochen gefühlt, war nur n allgemeiner hinweis.

du nervst nämlich ziemlich mit deinen ständigen negativen kommentaren zu allem und jedem, außer den neuesten apple produkten und prozessoren, latürnich....

@ macbiber

Von: johngo | Datum: 13.09.2006 | #25
> ... Für den einen mag das bei entspechenden Programmen eine ideale Lösung sein - für den anderen wär etwas überspitzt ein iMac vielleicht auch kaum langsamer - und 8 Kerne einfach nur Geldverschwendung. ...<

Ganz einfache Frage: wieso sollte sich
jemand überhaupt für ein Achtprozessor-
System interessieren, wenn er es partout
nicht braucht? ;-)

8 Kerne

Von: pm | Datum: 13.09.2006 | #26
Es gibt immer wieder Hochschul - Forschungs Anwendungen auch in der Privatindustrie welche 8 oder noch mehr Kerne nutzen kann.

Ist aber alles andere als neu. 8 Kerne konnte Ultrix von DEC seit sagen wir mal 1995 mindestens. Oder das Teil von SCS Supercomputing Systems.

Wenn Apple aber 8 Kerne Rechner bringt XServe Pro sozusagen, dann ist das für jedes Universiätscampus von Interesse. Das SCS Teil kostete damals eine 3 Zimmer Wohnung. Wenn Apple so ein Teil für sagen wir mal 18000 USD bringt ist das verkraftbar.

WOW... erinnert mich...

Von: Takeo | Datum: 13.09.2006 | #27
an die Zeit, als es noch Fremdhersteller-Macs gab, bis Apple die Lizenzen einzog... erinnert ihr Euch??
Das wird lustig, wenn bei Gravis und Konsorten demnächst Prozessoren im Angebot auftauchen ;)
Das dürfte sich auch ohne Lizenz verkaufen lassen, nur die Garantie ist so eine Sache...

Gruß,

Takeo

Prozessor upgrades gabs schon immer

Von: dokter | Datum: 13.09.2006 | #28
außer für den G5, also nix neues, nur einfacher und billiger

Den Scheiss

Von: Kay | Datum: 13.09.2006 | #29
..braucht kein Schwein!

ROFL

Von: ghme | Datum: 13.09.2006 | #30
Unser Schnucki Dave mal wieder.

Wenn Du meinst ich muss mir helfen lassen, kann ich sicher sein, dass alles in Ordnung ist.

Btw. warum fühlst Du Dich überhaupt angesprochen, Sweetheart? Ich würde Dich doch nie angreifen, dass wäre mir wirklich unangenehm...

Ich brauche soviel Cores wie möglich

Von: Ben | Datum: 13.09.2006 | #31
Wenn ich eine Filmsequenz rendern lasse, dann macht es schon einen Unterschied, ob ich nach 24 Stunden oder nach 3 Stunden fertig bin und nach Hause kann...
Maya und 3ds skalieren recht gut!

...

Von: dave | Datum: 13.09.2006 | #32
ghme.. lass dir mal helfen.

anandtech, mac pro, final words

Von: ein stänkerer | Datum: 13.09.2006 | #33
[Link]
"Final words
... While many were worried that Apple's move to Intel would make the Mac more generic, it has simply made the Mac Pro more versatile and desirable."

subzero, johngo

Von: macbiber | Datum: 13.09.2006 | #34
@suberzo
Ja - eine Profimaschine für Speziallösungen - vielleicht - aber tatsächlich ausprobiert ob das ganze dann mit 8Cores tatsächlich auch so funktioniert hat noch keiner.
Bei den meisten anderen Programmen muß man ja fast schon froh sein wenn sie 2 Kerne nutzen - dann in etwa mit Faktor 1,8.
Ich sehe so eine Entwicklung - einfach immer nur mehr cores - schon etwas zwiespältig(OK - aber das scheinst Du ja auch so zu sehen)

@johngo
im Prinzip ja - aber wenn Programm A nur 1 core nutzen kann - und Programm B 2cores - dann drehen die anderen immer noch Däumchen.
Für den einen mag das bei entspechenden Programmen eine ideale Lösung sein - für den anderen wär etwas überspitzt ein iMac vielleicht auch kaum langsamer - und 8 Kerne einfach nur Geldverschwendung.



Die Sache mit dem Aufrüsten ist ja auch nicht immer so einfach - denn nach einiger Zeit gibt es dann wieder einen schnelleren Bus, neue Graka, bessere HD.....wasweisich :-)
Ob sich das dann tatsächlich lohnt - OK ist vielleicht individuell verschieden.

HDMI

Von: ein stänkerer | Datum: 13.09.2006 | #35
"HDMI ist nicht wirklich erstrebenswert für Profi-Geräte. Wer sowas haben will, kann es ja gerne nachrüsten."

Q1/2007: iTV

Roman

Von: ein stänkerer | Datum: 13.09.2006 | #36
"Erst dann wenn die Mac Pro's mit diesen Prozessoren rauskommen kann man über den stolzen Preis hinwegsehen."
stolzer preis ? für nen highendmac sind die spottbillig !
vergleich die mac pros mal mit was vergleichbarem (super deutsch, hm?) oder den powermacs g5 => mac pro ist sein geld absolut wert !

"Weiss jemand wie schnell die 4-Core-Prozessoren getaktet sind?"

anadtech: [Link] "We grabbed a pair of 2.4GHz Clovertown samples..."

Tscha Apple

Von: klapauzius | Datum: 13.09.2006 | #37
Soviel zum Thema "Mit Hardware verdienen wir unser Geld".

Mit dem tollen Intel-Switch war das mal. Der halbwegs versierte Bastler kauft sich einfach 'nen neuen Prozessor und schon rennt die Kiste wieder. Und Apple guckt in die Röhre.

Höhöhö.

@klapauzius: nee

Von: rafi | Datum: 13.09.2006 | #38
für die G4s gabs auch schon Prozessorupgrades... glaub sogar für Notebooks. Also Dein Argument zieht nicht. Ausserdem ist das doch ein Kundenvorteil?

Naja, meinen 4 Jahre alten (und sehr geschätzten) G4 werd ich nicht upgraden. da kommt ein Mac Pro mit mindestens 8x mehr Ghz *freu*

@rafi

Von: klapauzius | Datum: 13.09.2006 | #39
Jou, aber einfach beim nächsten PC-Höker Prozessor kaufen, rein in den Apple-PC und lief, das gab's so nicht.

Klappi

Von: Vorname | Datum: 13.09.2006 | #40
Ist doch gut! Wo ist dein Problem ;) B)

Ach goldig...

Von: ghme | Datum: 13.09.2006 | #41
...wie hier manche immernoch verzweifelt versuchen ein bischen bashen zu können und doch kläglich scheitern...

Aber nur weiter so! Manche Neo-Apple-Haters haben ja (aus durchaus nachvollziehbaren Gründen) scheinbar schon aufgegeben. Daher bitte durchhalten, irgendwann kommt wirklich nochmal was, wo es sich zu meckern lohnt und dann will man ja nicht aus der Übung sein, gell...

Aber nicht doch

Von: klapauzius | Datum: 13.09.2006 | #42
Die Möglichkeit, Komponenten einfach durch neuere auszutauschen ist unbestritten einer der grössten Vorteile der x86-PC-Welt, zu der jetzt ja auch Apple gehört.

Das gibt's dann anderswo allerdings deutlich billiger. Und billig stehn wir doch drauf, oder ?

Also ich find 8 Cores lecker...

Von: Roman | Datum: 13.09.2006 | #43
Erst dann wenn die Mac Pro's mit diesen Prozessoren rauskommen kann man über den stolzen Preis hinwegsehen..

Und jetzt noch neben dem DVI-Ausgang einen HDMI-Ausgang, Blue Ray-Laufwerk (HD-DVD als zweites Laufwerk nachgerüstet), Apple-Monitor mit HDMI-Eingang, Frontrow und Cam dabei und die Sache erfüllt einigermassen meine Vorstellungen von einem Mac Pro.

Weiss jemand wie schnell die 4-Core-Prozessoren getaktet sind?

Quad Core

Von: Vorname | Datum: 13.09.2006 | #44
Hier haben schon Leute den Quad Core daheim:

[Link]

[Link]


Den echten Quad Core gibt es aber erst später. beim Kentsfield sind halt 2 Dies auf zusammengefassst. Aber tortzdem nicht schlecht...

Hey Kay und PPClis

Von: Vorname | Datum: 13.09.2006 | #45
Erster Computer mit Cell-Prozessor verfügbar
[Link]


Aber leider ;-)

"Als Einsatzgebiet sieht IBM so etwa die Medizintechnik, in der das BladeCenter QS20 den Vergleich und die Kartografierung von dreidimensionalen medizinischen Bilddaten vornehmen kann, die Luft- und Raumfahrt oder etwa die Erdöl- und Erdgasexploration, wobei der Cell die Visualisierung seismischer Daten für die Ortsauswahl von Bohrungen übernehmen könnte."


Ja genau das, was jeder Macuser daheim macht! Wir "brauchen" alle den Cell ;-) B)

Klapauzius hat ja recht ...

Von: M@rkus | Datum: 13.09.2006 | #46
... es lässt sich überall etwas Negatives finden, wenn man genug danach sucht.

Und offensichtlich gibt es Menschen, die finden ihren Lebensinhalt darin, etwas Negatives aufzuspüren, über das sie dann lästern können.

Es kann ich ja nicht gut sein, steht ja schliesslich Apple drauf ... gell Klapauzius. So werden auch erfreuliche Nachrichten noch in ihr Gegenteil umgebogen.

PS: Im RDF leben immer die anderen ... ;-) ... und ehrlich gesagt, würde es dich nicht geben, müsste man dich erfinden (du würdest mir sonst echt fehlen hier auf MacGuardians).

Was wollt Ihr denn mit 8 Kernen ?

Von: macbiber | Datum: 13.09.2006 | #47
Kann mir hier jemand mal überhaupt ein Program nennen, welches 8 Kerne nutzen kann??

Und falls ja - stellt sich sofort die Anschlußfrage wie hoch der Multiplikationsfaktor ist - also wieviel Prozent der Coreleistung insgesamt das Program überhaupt ausschöpfen kann.

Ich vermute mal keiner... :-)

Die Mögichkeit an sich, daß es so was gibt ist ja nett - eine Sinnvolle Nutzung jedoch.... naja.

Statt einen MacPro aufzurüsten ist es wohl sinnvoller sich einfach öfters einen neuen zu kaufen. :-)

@Roman

Von: subzero | Datum: 13.09.2006 | #48
HDMI ist nicht wirklich erstrebenswert für Profi-Geräte. Wer sowas haben will, kann es ja gerne nachrüsten.
Wikipedia: "HDMI wurde von der Industrie zielgerichtet für den Sektor Home-Entertainment eingeführt. Da im Consumer-Bereich immer mehr digitale Komponenten eingesetzt werden. [...] Lange Zeit hatte sich die Filmindustrie jedoch jeder Bestrebung, Videodaten digital auszugeben, widersetzt. Man fürchtete, dass jeder Kopierschutz über kurz oder lang überwunden werden könnte. Mit dem Kopierschutz HDCP 1.10 (High-bandwidth Digital Content Protection), der in der HDMI-Spezifikation vorgesehen ist und in praktisch jedem auf dem Markt befindlichen HDMI-fähigen Gerät zum Einsatz kommt, scheinen diese Bedenken nun nicht mehr zu bestehen."

Wenn ich einen Mac Pro zum Editing nutzen will, werde ich mir garantiert kein HDMI anlachen. Die Profi-Lösungen von Blackmagic und AJA bringen da viel mehr, Stichwort 10bit uncompressed footage (12bit sind auch schon möglich).
BluRay-Laufwerke sind noch nicht in ausreichenden Stückzahlen und zu vernünftigen Preisen erhältlich und was deine Vorstellungen vom zukünftigen Monitor angeht, hat das ja mal überhaupt nichts mit dem Mac Pro zu tun. ;)

@macbiber:
"Kann mir hier jemand mal überhaupt ein Program nennen, welches 8 Kerne nutzen kann??"
- Kein Problem, quasi jedes 3D-, Compositing-, oder Sound-Tool kann mehrere Threads zum Rendern nutzen. Cinema 4D als einfachstes Beispiel (CineBench) sei da mal als konkretes Beispiel genannt. Du kannst nämlich bei solchen Prozessen extrem gut parallelisieren und die Last gleichmäßig auf fast beliebig viele Cores verteilen (jeder Core rechnet einen bestimmten Teil des Bildes oder übernimmt einzelne Tasks wie Raytracing oder allgem. Lighting). Der Cinebench lastet auch den Quadcore Mac Pro derzeit 100%ig aus und mit acht Cores sehe ich da auch noch nicht so große Probleme. Denn sinnvoll sind immer mehr Cores sicher nicht, wenn dann das Bus-System nicht mehr hinterher kommt und die Verteilung der Arbeit mehr Overhead erzeugt. Von daher finde ich die Entwicklung etwas schade, dass man nun mit Intel-Chipsätzen einen quad-pumped Bus einsetzt, anstatt dedizierte und wirklich hochgetakte Busse einzurichten. Letzteres findet ja schon länger Verwendung, ist aber auch wesentlich teurer.

Der Standard-User wird von einem Acht-Kern-Monster wahrscheinlich nur wenig profitieren, weil die wenigsten Anwendungen des täglichen Gebrauchs wirklich darauf optimiert sind. Andererseits bieten die CPUs schon verdammt gute Leistungswerte für sich und OSX kann auch ganz gut Threads verteilen.

Dass die Profis jetzt alle sich aus dem teuren Flaggschiff die Prozessoren rausnehmen, um sie mit Quad-Core-Modellen zu ersetzen, ist auch nicht zu erwarten, weil es dann keinen Support mehr dafür von Apple gibt. Viel wahrscheinlicher ist wohl die Vorstellung (2007?) des Ultra-Macs mit acht Kernen und die Herabstufung des jetzigen Spitzenmodells in die Mittelklasse des Angebots. Bisher ist das ja gängige Praxis gewesen.

@ macbiber

Von: johngo | Datum: 13.09.2006 | #49
Naja, es muss ja nicht immer "ein"
Programm alle acht Prozesoren.

Sinnvoll wäre z. B. wenn im Hintergrund
ein Renderjob hochauflösende Bilddateien
errechnet, während im Vordergrund der
Anwender mit niedrig aufgelösten
Proxiedateien schon einmal ohne
Geschwindigkeitseinbusen (auch z. B.)
den Filmschnitt bearbeitet.

Dann widerum könnte im Hintergrund der
Endfilm gerechnet werden, während
man im Vordergrund absolut flüssig die
nächste 3D Datei aufbaut.

Nur so als Beispiel! ;)

Kohörenz beim shared Cache?

Von: Joe | Datum: 18.09.2006 | #50
klapauzius:
"Auf der einen Seite pumpt man den shared Cache auf, auf der anderen Seite lässt man dann mehrere Kerne drauf los, was dann wieder eine irrsins-Logik auf dem Chip für Kohärenz erfordert."

Wieso sollte das eine aufwendigere Logik erfordern als bei getrennten Caches? Wenn beide Kerne auf die gleichen Daten zugreifen (shared Cache), dann sollte die Kohärenz doch automatisch sichergestellt sein. Die wird dann zum Problem, wenn ein zweiter Prozessor vorhanden ist und die Daten auch im Cache hat oder jeder Kern (in "seinem" Cache) eine eigene Kopie eines Datensatzes hat und dieser auf dem aktuellen Stand gehalten werden muß.

"Super Architektur, ey !"

Gemeinsamer Cache ist eine Möglichkeit, getrennter eine andere. Wenn ein Datensatz von beiden Kernen benötigt wird, belegt er auch nur einmal Platz. Und wenn ein Programm schon nicht in der Lage ist, mehr als einen Kern vom Däumchendrehen abzuhalten, dann bringt vielleicht wenigstens der größere Cache was.

Es ist wie mit allem im Leben: In welchen Situationen wirken sich die Vor- oder die Nachteile stärker auf die Gesamtleistung aus?

Uuups: Nicht Single-Anwendungen ...

Von: johngo | Datum: 15.09.2006 | #51
... sondern Single-Prozessor-Systeme!