ARCHIV 1999-2006

ARCHIV :: # 2143

Einer geht noch, einer geht noch rein

Von Haarspalterei, Äpfeln und Birnen

Autor: flo - Datum: 02.07.2003

Ach ach, eigentlich wollte ich mich ja raushalten aus der allgemeinen Schimpferei über Apples angebliche Schummeleien und all die "G5-Basher-Artikel" von ganz schlauen Leuten. Aber da oben steht ja nicht umsonst "Guarding the Mac", und ein wenig Dienst an der Community ist auch noch dabei, wenn ein paar Ungereimtheiten inmitten all der Kritik geklärt werden. What is it all about? Ich wurde auf dieses Editorial bei Digital Video Editing hingewiesen. Alleine die Bezeichnung "Editorial" hebt den Beitrag aus der Assel-Ecke hervor, kennzeichnet es doch eine persönliche Meinung - und das ist ja völlig ok (aber persönliche Meinungen darf man auch auseinanderpflücken ;). Charly White, der Autor, ist eigentlich sehr begeistert vom neuen G5. Dass ein DV-Mensch sich über leistungsfähige Maschinen freut und vom G4 nicht ausnahmslos begeistert war, ist verständlich. Jedoch geilt er sich, wie leider so viele, am Marketing-Geschwafel von Apple auf: Der G5 sei gar nicht der erste 64-bittige Desktop. Denn es gäbe da ja den Opteron 244, der sei als Workstation deklariert (stimmt sogar). Fast schon absurd ist dann der "Streit" darüber, was denn nun eine Workstation sei, und was ein Desktop, womit er in einem Interview auch Rubinstein (Apple) und Akrout (IBM) konfrontiert (die zugegebenerweise nicht besonders souverän reagieren). Letztendlich definiert der Kollege White eine Workstation so: "If you have an 8x AGP Pro graphics subsystem, dual processors, every kind of I/O available, fast disks and 8 gigs of RAM, and it's still not a workstation, I don't know what the hell is. All I can say is, if it walks like a duck, quacks like a duck, or looks like a duck, it's probably a duck.".

However, der schnellste Rechner ist es eh nicht. In der Folge zitiert er einige Benchmarkergebnisse des Opteron 244 (1,8GHz Dual) und stellt die den Apple-Ergebnissen für den 2x2GHz G5 gegenüber. Was soll man sagen? Die Werte stimmen, man kann sie hier nachlesen. Demnach ist ein Opteron in diesen Benchmarks zwischen 34 und 57% schneller (Compiler: Intel).

Beinahe hätte der Schelm mich überzeugt, aber dann wollte ich es doch mal genau wissen: Dieser tolle Opteron 244, den man auch schon kaufen kann (hier), was kostet denn der? Also auf zu der Seite, AMD Workstation angeklickt, und dann die Konfiguration so weit möglich der des Top-G5 angepasst: Erst einmal die zitierte CPU (Opteron 244, Aufpreis: 1607 Dollar!), größere Platte (120 Gig, G5: 160), andere Grafik (GF 5600), Superdrive. Und am Ende steht der stolze Preis von 5258 Dollar.

So, und jetzt frage ich noch einmal, Herr White: Wo genau liegt der Unterschied zwischen einem Desktop und einer Workstation? In der Ausstattung, wie Sie meinen? Muss das nicht dem Lauf der Zeit angepasst werden? Wären sonst nicht alle heutigen Computer Ultra-High-End-Geräte? Nein, das Merkmal, das den Unterschied macht, ist der Preis. Und das Gefälle hier ist eindeutig: 2999 Dollar vs. 5258 Dollar. Das sind 75% mehr Kosten für das Opteron-Modell (oder anders herum: Der G5 kostet 57% vom Opteron). Ja, der Opteron ist mit dem Intel-Compiler und mit 4 Gig RAM deutlich schneller als der G5. Und? Pro Dollar schaut er aber kacke aus. So richtig kacke. Zu deutsch: Wenn man nicht eben 5000 Eier auf der Backe kleben hat, dann kann man sich nen Opteron im Schaufenster angucken und vielleicht als Benchmark-Fetischist von Zeit zu Zeit feuchte Träume kriegen.

Aber in dieser unseren realen Welt sollten wir doch alle mal auf dem Teppich bleiben und nicht Äpfel mit Birnen vergleichen, nicht Zahlen als Grundlage unseres Gemütszustandes hernehmen und vielleicht nicht jeden Käse, der auf Haxial verbreitet wird oder den Marketing-Abteilungen am Freitag Nachmittag aushecken für bare Münze nehmen. Diese bare Münze sparen wir uns doch lieber für einen G5 auf, der - Benchmarks hin oder her - nämlich einfach verdammt viel Leistung für's Geld bietet. Und in diesem Sinne, zurück zu den einführenden Worten von Herrn Charlie White:

"Well, hallelujah! Apple has entered the twenty-first century with the new Power Mac G5, the fastest Mac we've ever seen and a enormous improvement over its predecessor, the G4. Now, Apple will soon be selling computers that are in an entirely different league. It's time to celebrate."

Kommentare

..oder um ein paar leute zu zitieren...

Von: alex | Datum: 02.07.2003 | #1
"The first thing that surprised us was the compile time," said Brad Peebler, President & Co-founder, Luxology. "We moved our source code to the G5, recompiled the application and it was 2+ times faster than what we had on our fastest G4. The G5 also consistently outperformed the fastest Pentium 4s we have -- the tests were very impressive to us."

also schneller als alle P4 :-)

After seeing a demo of the Power Mac G5, film studio executives may have thought they were "Knocking on Heaven's Door" as representatives from studios that had not signed up for WWDC started to appear at Moscone on Monday afternoon, after the G5 was announced.

(quelle: macweek)
sind eher gute vorzeichen...warten wir's ab!

gruss,
al

Workstation

Von: hubi | Datum: 02.07.2003 | #2
Der Name sagt doch alles, eine Workstation ist zum Arbeiten da, und liefert alles was man braucht um seine Arbeit zu erledigen.
Unterschied zum Desktop ist in meinen Augen die Möglichkeit effektiv zu Arbeiten (jetzt mal bezogen auf die leistungshungrigen Applikationen, ansonsten ist mein iBook auch eine Workstation :), sprich nicht auf bestimmte Aktionen minutenlang warten zu müssen, nicht wegen Platzmangels abspeichern zu können, ...

Und wichtig ist was am Ende rauskommt. Womit der Opteron für 6000€ evtl. sinniger, evtl. auch kostengünstiger ist, weil man Termine besser einhalten kann, oder dieser vielleicht 16GB RAM halten kann, ...

OT: Steve Jobs beliebtester Unternehmenslenker

Von: Jenz | Datum: 02.07.2003 | #3
...wie man / frau beim guten Onkel nachlesen kann:
[Link]

hubi

Von: flo | Datum: 02.07.2003 | #4
Es mag Bereiche geben, in denen pure Rechenpower über die Einhaltung eines Termins entscheidet. Dann muss es sich aber wahrhaft um gewaltige Berechnungen handeln, denn ansonsten liegt der Unterschied im Sekunden-, Minuten- oder Stundenbereich.

In der Mehrzahl aller Bereiche - behaupte ich - liegt die Einhaltung oder Nichteinhaltung eines Termins sicher nicht an der Rechenkraft des Rechners.

Und dann sind *mir* 57% Kostenersparnis sicher lieber ;)

hmmm

Von: FOX | Datum: 02.07.2003 | #5
--- Und? Pro Dollar schaut er aber kacke aus. So richtig kacke.
----------

das gabs aber auch schon mal andersrum, oder?

sowas ist meiner ansicht nach "futter für die trolle"

Futter für die Trolle...

Von: flo | Datum: 02.07.2003 | #6
Was ist daran Futter für die Trolle? Ich habe lediglich gezeigt, dass der Opteron 244, der deutlich bessere SPEC-Werte hat, eben auch deutlich mehr kostet. Sogar prozentual mehr als er leistungstechnisch gegenüber dem G5 vorne liegt. Das kann man nun so auslegen, dass der Opteron eben eine Klasse über dem G5 liegt, oder - wenn er sich in die selbe Liga zählt - nun mal im Preis-Leistungsverhälnis hinten liegt.

Vor allem wollte ich nicht die ewige "Wer ist nun besser"-Diskussion entfachen, sondern endlich klarstellen, dass einige Vergleiche, die hier in den letzten Tagen von manchen gezogen wurden, halt so einfach nicht haltbar oder aussagekräftig sind. Desweiteren wollte ich damit die "Geisteshaltung" derer angreifen, die fast schon fanatischerweise immer nach etwas Ausschau halten, was vielleicht doch noch toller/besser/höher/weiter sein könnte und scheinbar nie zufrieden sind und dazu sich dann an allem, was sie finden, aufreiben und es bis zum Kotzen auf die Spitze treiben.

Deadlines & Renderzeiten

Von: xl | Datum: 02.07.2003 | #7
@flo: da muss ich Dir widersprechen, wenn ich zB bei einem After Effects Projekt Renderzeiten von 120 Stunden habe, kann ein schnellerer Rechner sehr wohl über die Einhaltung einer Deadline entscheiden.

Wenn da der G5 wirklich 4 - 5 mal so schnell ist wie mein QS 867, bin ich schlicht und ergreifend ein paar Tage früher fertig, zudem ist der Rechner nicht so lange blockiert und kann schneller wieder zum Arbeiten eingesetzt werden.

Und wenn wiederum der Opteron noch mal doppelt so schnell wäre, könnte man das Rendern schon fast über Nacht erledigen.

Ausserdem wird in dieser Diskussion immer gerne vergessen, daß ein schneller Rechner beim Animieren/Composen usw. auch ein schnelles interaktives Arbeiten gewärleistet, weil man nicht nach jedem Arbeitsschritt 30 sec auf die Preview Berechnung warten muss. Schnell genug ist ein Rechner da erst wenn die Bearbeitung in Echtzeit - und das Rendern in halber Echtzeit funktioniert. (nur mal als Beispiel: ein Frame einer durchschnittlichen 3D Szene in 2k Kino Auflösung rendert heutzutage oft schon eine Stunde - eine Sekunde besteht aus 24 Frames...)

Das man zum Surfen, mailen und i--movie schneiden keinen solchen rechner braucht ist schon klar.

ich sagte ja...

Von: flo (MacGuardians) | Datum: 02.07.2003 | #8
...es *gibt* solche Bereiche, aber das sind eben nur wenige und selbst in diesen Bereichen macht sich ein krasser Unterschied nicht immer so deutlich bemerkbar.

In diesen Bereichen gilt dann auch *zurecht* nicht an allen Arbeitsplätzen das Preis-Leistungsverhältnis, sondern ab und an die pure Leistung. Da die Leistung, was ich gar nicht abgestritten habe, beim Opteron so dolle ist, wird man sich dann das Teil hinstellen. In weniger kritischen Bereichen jedoch ist selbst eine nominell so hohe Leistung (wenn sie sich denn tatsächlich so niederschlägt) dann nicht mehr relevant.

Einen Artikel weiter unten übrigens dieser Link:
[Link]

nich streiten...

Von: Maxefaxe | Datum: 02.07.2003 | #9
...sondern freuen.
Wenn man vergleicht, dann nach Preis-Leistung. Da liegt der G5 schon beindruckend gut.

Der Dual Xeon des Vergleiches ist ja auch deutlich teuerer als der Dual G5 (und sieht zudem noch kotzhäßlich aus) Selbst wenn der XEON etwas fixer wäre als der G5 (wenn!!), so ist der G5 doch viel Leistung fürs Geld. Gerade im Hinblick auf den teueren halbsoschnellen Dual 1,4Ghz G4-Vorgänger und die üblichen P4s.

Welcher Rechner die dickeren Eier hat ist mir relativ gleich, Hauptsache das Ding rennt und ist bezahlbar und mein OS X läuft darauf!!

Workstation

Von: Wodka | Datum: 02.07.2003 | #10
Ich würde sagen, dass man eine Workstation an dem Bustakt erkennt. Obwohl dann natürlich die P4-Workstations (mit oder ohne Xeon) rausfallen würden.... Hm... merkwürdig.

luxology.net

Von: comical ali | Datum: 02.07.2003 | #11
ich habe mir mal die muehe gemacht auf deren seite zu gucken. und die haben sich die muehe gemacht etwas (mehr) ueber den G5 zu schreiben! da steht auch noch was ueber manpower und optimierungen .... ;) interessant zu lesen:
[Link]

habe ich das heute nicht schonmal gepostet?

Nachtrag Charlie:

Von: Kai (MacGuardians) | Datum: 02.07.2003 | #12
Besonders faszinierend finde ich an Charlie ja auch, dass er niemals erwähnt, dass in dem Profi-Sektor, in dem er sich bewegt "AMD" ein Fremdwort ist und von den Herstellern mit spitzen Fingern angefasst wird. Die Hersteller, die Fertigsysteme für Digitalvideo verkaufen, setzen fast ausschliesslich auf Intel. Intel ist (leider!) der Standard in dem Bereich! Ist nun mal so!
Wenn man sich selbst ein System zusammenschraubt und vom Hersteller support will hat man in den allermeisten Fällen leider Pech wenn man dem sagt, dass man ein Athlon-System zusammengebaut hat!
SMP-optimierungen werden wenn dann auf Intel ausgelegt (was man schön daran sieht, dass ein Dual-Athlon auch keinen besseren SMP-Faktor erzielt als ein Xeon, obwohl seine SMP-Implementierung viel besser ist weil er wie der G5 ne Point-to-point-Verbindung hat und sich die CPUs nicht den FSB teilen müssen!)

Schaut euch z.B. nur Lightwave an: Die optimieren echt gut, aber eben nur auf den P4! Auf Athlon läuft das total scheisse, teilweise schlechter als auf nem G4!

Die ersten, die neue Intel-Techniken (Hyperthreading, SSE, SSE2) unterstützen kommen aus genau dem Sektor, in dem Charlie unterwegs ist!

Warum tun die das? Weil sie sich auf einen Standard festlegen und den supporten und dafür die Garantie übernehmen, dass ihre Software auch zuverlässig läuft! Avid, Alias, Softimage, Discreet etc sind kein M$ und müssen (und können!) nicht sämtliche Hardware-Konfigurationen unterstützen, die es auf dem Planeten gibt!

Warum erwähnt Charlie das in seinen Artikeln mit keinem Wort?

SPEC...

Von: mattin | Datum: 02.07.2003 | #13
"Der kleine 1,6Ghz-Dual-Opteron kommt auf weit über 20 (also noch höher als der Dual-G5) .... liegt aber beim Cinebench sehr deutlich hinter einem Xeon-System."

lalala

ihr mit euren spec werten :)

nochmal Verteiltes Rechnen

Von: cws | Datum: 02.07.2003 | #14
... Anyone could guess that bringing multiple processors to bear on a build would make it go much faster, but Xcode lets you act on the obvious solution. With the Rendezvous-enabled distributed build feature.... aus der XCode Seite

Was sagt uns das?

wie war das noch mal?

Von: Bernhard Nahrgang | Datum: 02.07.2003 | #15
... mit SPEC fängt man Mäuse(gehirne) ;-)

@ mattin und Bernhard

Von: flo (MacGuardians) | Datum: 02.07.2003 | #16
Hehe, schön, *das* sind die Kommentare, die ich hören will. Etwas mehr Lockerheit in der Runde :)

flo

Von: mattin | Datum: 02.07.2003 | #17
angesichts des G5 fällt es mir mittlerweile sehr schwer, mich ausreichend zu motivieren, um zu trollen. ich grinse seit dem 23.06 nur noch vor mich hin und hör ständig "bist du verliebt..?" ;)

wie sagte jemand hier passend:
And you will see why 2003 won't be like 2003!

und charlie nasewhite? er hatte oft recht damit, apple auf die füsse zu treten, aber jetzt wird er es sehr schwer haben (sehr bezeichnend finde ich die umkehr der argumentation, hihi). naja warten wir den august ab :)

Still Cooler than Opteron™

Von: Mr.Mike (MacGuardians) | Datum: 02.07.2003 | #18
Macht jemand Aufkleber davon ? ;-)

[Link]

workstation

Von: tzunami | Datum: 02.07.2003 | #19
also eine 3D workstation erkennt man an einer profi gfx karte wie zum beispiel der fireGL, da der mac aber eine standard GFX karte verwendet, ist er auf jeden fall keine 3d workstation :-)

kernel threads

Von: neo | Datum: 02.07.2003 | #20
ich denke grade über eine Software nach die eine api Mac OS X zu verfügungstellt welche eineige thread bestandteile über das netz anderen rechner zum bearbeiten zuverfügung stellt ... Sollte man mal umsetzen so like HT via Netz ....

hilft euch das weiter?

Von: tzunami | Datum: 02.07.2003 | #21
Definition: workstation

1. A one-person computer that is more powerful and faster than most personal computers, and is typically used for graphics, scientific computing, CAD, CAE, and other applications requiring high performance and memory. 2. A terminal in a network, which may have its own processing capability. 3. A terminal or personal computer where one person works.

GeWoldi:

Von: Kai (MacGuardians) | Datum: 02.07.2003 | #22
Was mich tief beeindruckt, ist das hohe Niveau, auf dem diese Diskussion geführt wird.

Naja, wir kratzen da noch ziemlich an der Oberfläche! ;-) Wenn du mal wirklich Prozessordiskussion auf höchstem Niveau in sehen willst musst du mal zu Macintoshian Achaia auf Ars Technica gucken!

Hmmm.... Apple unterstellt seinen Käufern doch etwas Vergesslichkeit... Vor allem wenn man sieht, dass der Power4, aus dem durch "Eindampfen" ein G5 wurde, auch "nur" 12 Stufen hat. Hier ist Apple also von seiner Strategie abgewichen und hat zugunsten der höheren Taktrate auf Performance verzichtet. Oder ist dieser Weg vielleicht doch erfolgsversprechender, und Apple hatte uns damals angelogen?

Nein, das kann man so nicht sagen! Immerhin kriegt der G5 (wie viele andere CPUs - Alpha, Power4, Athlon, sogar Intels eigene Itanic!) auch mit weniger MHz (aber mehr Pipeline-Stufen) trotzdem wohl in vielen Dingen mehr Leistung hin als der P4, insofern stimmt die Behauptung "MHz heisst nicht automatisch Performance" schon!
Was Apple damals "vergessen" hat zu erwähnen ist, was los ist, wenn es fast keine Pipeline-Bubbles gibt. Dies kann der Fall sein wenn man sehr gute Compiler hat (wie Intel). Dann geht die Rechnung nämlich schon auf! Nachteil: Wenn der Code nicht auf den P4 mit einem entsprechenden Compiler kompiliert ist ist die Performance für'n Arsch, wie wir ja bei Einführung des P4 gesehen haben!
Ich bin immer noch der Meinung, dass ein G4 mit gescheit dickem FSB (und vielleicht einer besseren OoO-Execution/einem effizienteren und grösseren Lookahead-Buffer um unoptimierten Code besser zu verarbeiten) eine wahnsinnige Performancesteigerung ohne Takterhöhung mit derselben Pipeline erzielen hätte können! Nicht so schnell wie der G5, aber durchaus in derselben Liga wie Athlon und P4!

Noch ein kurzes Wort zum Power5, der ja nächstes Jahr erscheinen soll: Hier hat IBM eine Technik ähnlich Hyper-Threading vorgesehen, die beim P4 ab 3,0GHz zwei logische Prozessoren "vortäuscht".

Nicht zwei - VIER! ;-) Und im Gegensatz zu Intels "Dranflansch"-Ansatz ist das Ding voll für SMT gebaut worden, d.h. die SMT-Performance wird wohl auch noch besser werden!

Zum Thema 90nm-Prozess: Richtig, 90nm ist der nächste Schritt, aber "deutlich in der Luft" ist etwas zu optimistisch ausgedrückt! Intel wird Ende des Jahres 90nm einführen mit dem Prescott, und IBM sind die einzigen, die kurz dahinter sein werden! AMD hatte Anfangs massive Probleme mit dem 130nm-Prozess und auch mit SOI, und gerade SOI kann IBM als Erfinder schon seit Urzeiten problemlos!
AMD wird also nicht so schnell wie Intel und IBM auf 90nm gehen...
Und eine Fab muss man auch nicht gleich abreissen, nur wenn man den Prozess umstellt! ;-) Der G5 geht (zumindest in Desktops!) in 130nm noch locker bis 3GHz oder darüber, das ist dann in über einem Jahr, und da hat sich die East Fishkill-Fab schon gelohnt! Problematisch wird's bei den Notebook-CPUs, die müssen ja auch irgendwo (in 90nm!) gefertigt werden...
Das Problem ist, dass sie heute einfach noch keine 90nm-Fab bauen können, weil sie den Prozess noch nicht so gut im Griff haben für eine Massenfertigung, aber Apple braucht die Chips heute!

Wieso sollte ich viel Geld für eine 64 Bit Maschine ausgeben, und dann ein 32Bit OS darauf installieren.

Ganz einfach: Weil sowohl der G5 als auch der Opteron andere Features mitbringen, die die CPUs auch für 32bit-OSse und Anwendungen sehr interessant machen! ;-) Beim G5 sind das die superdicken Busse, die stark verbesserte CPU per se (2 FPUs statt einer, bessere Altivec-Einheit, besseres Zurechtkommen mit unoptimiertem Code usw) und die sonstigen Neuerungen bei den Rechnern per se! D.h. G5-Käufer werden auch ohne 64bit-Software stark von dem Ding profitieren können!
Beim Opteron sind's auch die dicken Busse, die Eignung für Systeme hoch bis 8fach, der 1MB L2-Cache, der integrierte Speichercontroller und noch andere architekturelle Verbesserungen.

Wieviele G5 Prozessoren können eigentlich maximal zusammenarbeiten?

Soweit ich das sehen kann: Soviele, wie der System-Controller verwalten kann! ;-) Durch die point-to-point-Verbindung sind die CPUs eigentlich völlig unabhängig voneinander, somit sollten da eigentlich keine Grenzen hinsichtlich der CPU per se bestehen!
Ich weiss allerdings noch nix genaueres über MERSI beim G5 muss ich zugeben!.. Würde mich allerdings wundern, wenn IBM das MERSI vom Power4 "kastriert" hätte! ;-)

Ausserdem finde ich einen Preis unter 300EUR für einen 140 Opteron gar nicht so schlecht.
Der ist dann aber auch nur Single-Fähig und hat wenig Takt! ;-)
Ich denk mal nicht, dass der in SPEC viel besser ist als der G5!

Und mit seiner kürzeren Pipe macht er den Taktunterschied zum G5 wieder locker weg...

DAS kommt wohl auf den Code an, den man beiden füttert! ;-)

oder warum hatte mein K6-2 (PC100) einen fast doppelt so hohen Speicherdurchsatz wie mein G4-400 (PC100)???

Das fällt mir ehrlich gesagt schwer zu glauben! Kommt wohl drauf an, welchen Benchmark du hernimmst! Apples FSB wird eigentlich schon sehr lange recht gut genutzt und fährt schon länger recht knapp am theoretischen Maximum!

Um es auf deutsch zu sagen: Apple hat übertaktete Systeme verkauft!

Argh! Zum letzten Mal: Nein, haben sie nicht!

Oder wieso gibts jetzt "nur" noch die 1,25GHz Variante?

Das Argument zieht nicht, denn die 1.25GHz-Variante steht genausowenig auf Motorolas 7455-Seite gelistet!
Wahrscheinlich wollte Moto schlicht und einfach zuviel Geld für den 1.42GHz, und weil der G4 sowieso ein Auslaufmodell ist verbaut Apple eben nur noch die 1.25GHz-Variante, die viel billiger ist wegen besseren Yields!

Und ausserdem..

Von: Kai (MacGuardians) | Datum: 02.07.2003 | #23
..hat Churchill das mit der Statistik nie gesagt! ;-)
Eine populäre "urban myth", hehe!..

@ Gewoldi

Von: flo (MacGuardians) | Datum: 02.07.2003 | #24
Schön, dass du dich auf unser Niveau herunterbegibst. Nur ging es in meinem Beitrag gerade um eines nicht: Wer nun schneller ist, Opteron oder G5. Aber was solls. Beziehst du dich auf andere Artikel?

Zur Pipeline: Du unterstellst, dass eine kurze Pipeline einer langen Pipeline leistungsmäßig überlegen ist oder zumindest effektiver ist. So einfach ist es sich nicht zu sagen. Eine lange Pipeline *kann* nur leichter zu Problemen führen, wenn man nämlich eine schwache Sprungvorhersage hat (oder die Codestückchen entsprechend "ungünstig" daher kommen ;). Die 16-stufige Pipeline des G5 ist im Übrigen nicht überall ganz so lang... Kuck dir mal die Ausführungen bei arstechnica dazu an.

Deinen restlichen Anmerkungen kann ich mal zustimmen, mal sehe ich den Punkt nicht, in allen Punkten aber frage ich mich, worauf du dich denn eigentlich beziehst? Zumindest nicht auf diesen Artikel hier.

PS: Der G5 ist bis zu 8fach möglich.

@xl

Von: thomm | Datum: 02.07.2003 | #25
Na teils teils,

wenn ich mich recht entsinne, gab es früher (pre pre OS X) sowohl Mac als auch PC-Systeme, da diese eigentlich nur die Steuersysteme für die Rechenknechte von Avid waren! Als Apple den Wechsel zu OS X machte, meinte man bei Avid wohl, man hätte es nicht mehr nötig, eine OS X - Version zu bringen ( aus meiner Erinnerung ). Apple hat aber Avid mit einem Tritt gegen das Schienenbein ( mit Anlauf :) ) nämlich FCP gezeigt, wo der Hammer hängt und rollt nun von "unten" den Videomarkt auf. Die ( "erzwungenen") Preissenkungen bei Avid sprechen ja Bände :). Da Sucksorola mit den Prozessoren nicht aus dem Knick kam, hat sich dieser Vorgang nur etwas verlangsamt aber es gilt: Wie beim Desktop-Publishing werden jetzt die teuren Videosaurier "gekillt" und in ca. 3 -4 Jahren zeigt Dir "jeder" einen Vogel wenn Du mit SoftimageDS und Konsorten bei den aktuellen Preisen eine TV/Kinoproduktion machst.

xl:

Von: Kai (MacGuardians) | Datum: 02.07.2003 | #26
Was hier gemeint war, ist unkomprimiertes Video - und da hat er durchaus Recht behalten, denn der erste Mac, der dafür prädestiniert ist mehr als einen Stream unkomrimiertes Video in Echtzeit bearbeiten zu können, dürfte der G5 sein.

Das stimmt. Aber ich denke nicht, dass er mit "natively" "unkomprimiert" gemeint hat! ;-) Warum? Ganz einfach: Glaubst du Januar 2000, zu dem Zeitpunkt, als er das geschrieben hat (Dual 1GHz P3s waren offensichtlich die Creme de la Creme!) waren die Busse so dick, dass die PCs das geschafft hätten? Also was sollte die Prognose? Unkomprimiertes Video ging damals eh nur auf ner SGI!

Dein Argument, da hätte es ja schon i-movie gegeben kann in diesem Zusammenhang ja wohl nicht ganz ernst gemeint sein.

Lies doch bitte was ich geschrieben habe:
Ja, er sagte "anything", nicht "anything professional"!

Ich hab die Entwicklung im Videomarkt schon mitverfolgt seit dem Quad-pumped FSB-P4 (Northwoods) und hab all die schönen Sächelchen gesehen, die nur für den PC rauskamen und erst mit dicken Bussen möglich waren, keine Panik!
Hätte Charlie also dieses Jahr oder meinetwegen auch letztes Jahr diesen Artikel geschrieben, könnte ich ihm inhaltlich wenigstens zustimmen. Da er den Artikel aber im Januar 2000 geschrieben hat, wo diese grosse Disparität bzgl der Busse einfach noch nicht da war (PCs hatten 133MHz FSB, Macs 100MHz, beides viel viel zu wenig für unkomprimiertes Video!) kann ich ihm einfach nicht zustimmen!

Und nein, Charlie ist definitiv kein Mac-Freund! Lies mal die Links aus meinem Artikel über ihn durch! Ausserdem sieht man das an dem Artikel jetzt wieder sehr deutlich!

Mein Beitrag

Von: Thyrfing | Datum: 02.07.2003 | #27
[Link]

Thyr

Also mit 4GB RAM kostet ein G5 ...

Von: johngo | Datum: 02.07.2003 | #28
... bei Apple auch über 5.000.-Euro!
Und mit 8 über 7.000.-!

Gruss

Mac billiger - PC billiger - Mac billiger

Von: cws | Datum: 02.07.2003 | #29
Das hatten wir doch alles schon, erinnert sich keiner mehr an die "does more - costs less" Werbekampagne?
Ich hab da noch den einen oder anderen Spot.mov, scheue aber den upload zum download wg rechtlicher Probleme.

Christian

Rechenleistung und Termine

Von: Jeff | Datum: 02.07.2003 | #30
Heute habe ich mal wieder am eigenen Leibe erfahren, daß ein G5 keineswegs überdimensioniert für meine Verhältnisse wäre. Habe heute mal wieder Daten für fette Verkaufsverpackungen bearbeiten dürfen. Sind Photoshop-Dateien von bis zu 800 MB in komprimiertem Zustand. (Unter anderem) weil mein G4 Dual 1 GHz trotz maximaler RAM-Ausstattung für solche Jobs absolut underpowered ist, habe ich meine Deadline versiebt und knackig Ärger bekommen. Insofern habe ich einen reelen Grund, mir einen G5 zuzulegen (mit mindestens 4 GB RAM). *Freu*

Nicht nur im Video-, sondern auch im Publishing-Sektor wird der G5 eine echte Erlösung darstellen.

johngo

Von: flo (MacGuardians) | Datum: 02.07.2003 | #31
Der Preis im Artikel für den Opteron bezieht sich nicht auf 4Gig (die hatte er laut spec-Angaben). Bei Boxxtech hat der Opteron 1 Gig RAM verbaut (was immer noch mehr ist als der G5 aufweist, aber weniger ließ sich nicht konfigurieren ;)

Jeff:

Von: flo (MacGuardians) | Datum: 02.07.2003 | #32
Hehehe, jaja, weil *unter anderem* dein G4 underpowered ist... :)

Sowas meinte ich mit "nicht nur die Rechenpower hält Termine ein"...

@ flo

Von: Jeff | Datum: 02.07.2003 | #33
*Schäm*

Gebe es ja zu, mein süßer kleiner G4 muss gerade ein wenig als Sündenbock herhalten.

Aber trotzdem hätte mir ein G5 heute sehr geholfen... Der G4 war definitiv am Limit, und der super-schnarchige Adobe-Illustrator hat sein übriges dazu getan. Bringt sogar manchmal OS X zum abrauchen. Ich kann es auch kaum glauben, aber es ist so. Passiert nur im AI. Heute schon das 5. Mal (ist erst seit 10.2.4 so). Also: Ich gebe die Schuld nun Adobe ;-)

monolith

Von: mattin | Datum: 02.07.2003 | #34
mich hat es grad ganz spontan gepackt ;)

[Link]

*hüstel* alles noch beta :)

@mattin

Von: Thyrfing | Datum: 02.07.2003 | #35
Was werden die Druiden denn opfern?

Einen jungfräulichen SPEC-Code?

Eine nette Ablenkung wäre ja, wenn am 25. das Dingen vor dem Hilton stehen würde....so zum Empfang....

Thyr

Thyrfing

Von: mattin | Datum: 02.07.2003 | #36
Druiden?

2003 - A DOSEN ODYSSEY !

@flo

Von: ks | Datum: 02.07.2003 | #37
Wie kommst du denn auf 8fach Systeme?
8fach superskalar, is doch glaube ich, was anderes ;)

so seh ich's

Von: bestbernie | Datum: 02.07.2003 | #38
Der G5 ist nagelneu,und hat je nach Ansicht den bisherigen Vorsprung der Dosen fast aufgeholt,oder gleichgezogen oder überholt.
Und das aus dem Stand heraus.
Wenn das nichts ist.Aber genöhle muß wohl sein.Ich hab mir son Teil bestellt und kann die Ankunft kaum erwarten und kann auch damit leben wenn ein Troll sagt aber der Obteron.
Mit meinem Passat bin ich auch nicht der schnellste auf den Strassen ,aber er hat seine Vorteile (und auch natuürlich Nachteile)

@ flo (MacGuardians)

Von: johngo | Datum: 02.07.2003 | #39
Das ist schon richtig ...

jedoch war von 2.999.- Euro
die Rede. Da hat der Mac
gerade einmal 512MB und jeder
Heav-User weis, das dies fast
nur zum Starten des Systems
reicht. Die Boxx wird dann oben
herum 4GB/8GB immer konkurrenz-
fähiger. Spart bei 4GB schon ca.
400.- Euro allein im RAM ein.

Und für "da oben" ist sie konzipiert.

Gruss

johngo

johngo

Von: derschmiegel | Datum: 03.07.2003 | #40
Die Boxx kann aber nur 4 GB. 8 GB scheint ein theoretischer Wert zu sein, wenn es denn mal 2 GB Riegel zu kaufen gibt. Das dürfte noch ein wenig dauern und der Preisvorteil für den G5 wäre... I don't know how to calculate that. Der G5 kann im August schon 8 GB, denn für "da oben" ist er konzipiert.
Wie wäre Dein Kommentar ausgefallen, wenn Apple den G5 mit diesen theoretischen Angaben beworben hätte?

Mattin:

Von: Kai (MacGuardians) | Datum: 03.07.2003 | #41
LOL! ;-) Super Bild!... Jetzt mach noch ein paar Zottelmenschen mit Keulen davor und es ist perfekt!

@CWS, neo

Von: Thyl | Datum: 03.07.2003 | #42
Na, da habt Ihr aneinander vorbeigeredet, bzw. Neo an cws ;-) Sieht so aus, als wenn auch Apple in Clustering einsteigen wollte. Leider aber nicht auf dem untersten, nämlich Kernel-Niveau (was mit Mach theoretisch gehen sollte), so dass nicht das Default-Thread System verwendet werden kann; aber immerhin.

ks

Von: flo (MacGuardians) | Datum: 03.07.2003 | #43
Das mit den (theoretisch) maximal 8 G5s in den Systemen, so wie sie jetzt dastehen, glaube ich in dem ganzen Rummel um die Vorstellung rum mitbekommen zu haben. Mit 8fach superskalar hat es freilich nix zu tun.

Mattin:

Von: Kai (MacGuardians) | Datum: 03.07.2003 | #44
Haha, ja, das würd eher auf die momentane Situation passen! ;-)

"Was? Macs billiger UND vielleicht sogar schneller? Unmöglich!"

Compiler

Von: BerndR | Datum: 03.07.2003 | #45
Wie sieht's denn mit anderen Compilern auf'm Mac aus? Läuft denn z.B. der IBM xlc?

Ich denke, so richtig fair wird der Vergleich erst mit den optimalen Compilern auf beiden Architekturen - also icc auf Intel/AMD und xlc(?) auf PowerPC.

Vielleicht haben wir ja einen Compilerspezialisten, der mitliest.

Bernd

Opteron = Serverprozessor 2:

Von: Kai (MacGuardians) | Datum: 03.07.2003 | #46
Stimmt, wollte ich auch noch sagen: Nur weil irgendjemand Workstations mit Opteron verkauft und AMD den Opteron auch für Workstations erwähnt, ist das noch lange keine Desktop-CPU!

Schliesslich verkauft HP auch Itanic-Workstations und genau wie AMD bewirbt Intel auch durchaus auf ihrer Webseite auch Itanic-Workstations! Macht das deswegen die Itanic zur Desktop-CPU?
Also warum nicht gleich mit der Itanic vergleichen? Wenn Opteron, dann auch Itanic!