ARCHIV 1999-2006

ARCHIV :: # 4110

Core Duo gesockelt

Wow!

Autor: thyl - Datum: 02.02.2006

Wo ich schon am Zetern bin. Einige (und immer mehr, gerade schon wieder eine) Websites berichten, dass der Core Duo in den neuen iMacs gesockelt, also upgradebar ist.

Was für eine Nachricht! Wie wäre es mit einem kleinen Blick in die intel-Spezifikationen? Da steht, mit welchem Gehäuse der Prozessor versehen ist und welcher Sockel dazu passt. Oder gibt es immer noch Leute, die glauben, intel würde für Apple eine eigene Version bauen? Pfff.

Wer die ersten Photos vom Innenleben des iMac gesehen hat, weiß zudem, dass ein solcher Austausch nichts für Anfänger ist, schon wegen der den Prozessor umgebenden Wärmepfeifen.

Und was soll ich denn da reinstecken? 2.16 GHz statt 1,8? Toller Sprung. Der Yonah ist eine Zwischenlösung, ich wette, mit der "echt neuen" Architektur (Merom, Conroe etc) wird intel wieder einen neuen Sockel einführen. Der Yonah wird dann eingestellt, und wer weiß, ob er bis Herbst überhaupt schneller wird. Die tollen Zeiten, wo es für alle G4s Upgrades gab, die was brachten, sind vorbei (waren sie aber schon mit dem G5, denke ich, denn da wird auch nicht mehr viel kommen, das ein Upgrade rechtfertigen könnte).

Kommentare

heul doch

Von: ediathome | Datum: 02.02.2006 | #1
Bäh langsam ist diese Rumgejammer wirklich nicht mehr erträglich. Von Apple wurden diese anderen Upgrades ja auch nie angeboten. Und selbst wenn man den Rechner upgradet ist es doch so, dass der Rest wie Mainboard etc. ja auch veraltet. Von daher halte ich auch von diesen G4 Upgrades nicht besonders viel. Ich finde die Intellinie nicht schlecht und schaue gerade interessiert auf das neue MacBook, das ich mir höchstwahrscheinlich sehr bald zulegen werde!

mal wieder subversives intelbashing?

Von: naaamd | Datum: 02.02.2006 | #2
ich dachte das hatten wir hinter uns.

1. als die ersten G4s notgedrungener weise runtergetaktet werden mussten (von 500 auf 450 Mhz) waere eine steigerung um ein sechstel sicher gerne willkommen gewesen.
2. koennte es sein , dass die yonahs irgendwann vielleicht noch ein bisschen (sicher nicht viel) hoeher getaktet werden, aber auf jedenfall werden sie billiger werden, so dass sich ein upgrade fuer den einen oder anderen lohnen wird
3. gings den meisten seiten darum, das es ueberhaupt moeglich ist - nicht ob das augenblicklich bei diesen preisen sinnvoll ist. den G5 muesste man uebrigens abloeten.

ganz abstrakt gesehen ging es also darum, das man ne neue rechnergeneration hat, bei der man theoretisch nen prozessor tauschen kann. ist ja an sich nicht negativ. worum es nicht ging, ist die diskussion um die prozessorarchitektur. das schwingt in deinem artikel aber mal wieder mit

Gähn...

Von: Photo-ku Inc. | Datum: 02.02.2006 | #3
also wirklich, langsam wird es lächerlich!

Taktratenwahn!!

Von: Der Jobs | Datum: 02.02.2006 | #4
Das sind 360Mhz!
Ihr seid verwöhnt! Jahrelang verteidigt ihr den Mac, als Resourcensparender (die Tiger-Kopie "Longhorn" läuft auf den wenigsten aktuellen PCs!) und redet von "Taktratenwahn" und jetzt seid ihr genauso...
Hallo?? 360Mhz mehr... WOW! Mein iBook hat gerade mal 300Mhz. Diese Upgrade-Karten machen auch nicht größere Sprünge. Vorallem kommen die aber auch Jahre später.

nerv...

Von: eastmac | Datum: 02.02.2006 | #5
Ein sprung von 1.8 auf 2,16 wäre doch bei einem PPC der grund gewesen gleich neue hardware zukaufen. Und nun "nur" 360Mhz schneller.

Wie alte waschweiber, intel ist fakt und gut.
Da kann hier keiner mehr etwas ändern und durch jamern wird es nicht besser.

eastmac

richtig lustig hier,

Von: nico | Datum: 02.02.2006 | #6
mehr davon! ;-)

Hmmmm

Von: Stephan aus B. an der S. | Datum: 02.02.2006 | #7
Also so richtig um Intel ging der Artikel jetzt nicht, eher doch um gesockelte Prozessoren in Macs, was ja schon mal nicht so häufig vorgekommen ist bis jetzt, oder verstehe ich das jetzt nicht richtig?

Es scheint sich ja eine richtige Gegenkultur gegen die Gegenkultur zu entwickeln...

Macht doch watta wollt...

Hallo, hallo,

Von: MichaelK | Datum: 02.02.2006 | #8
ich kann hier bisher kein intelbashing feststellen, obgleich scheinbar immer noch viele einfach verdrängen, daß der vormals hochgelobte PPC von Apple mitleiweile vorgeführt wird, als wäre es eine olle Blechdose von Aldi. Das, liebe Intellianer, ist der Grund des Ärgers. Es geht also weniger um die Intel-Prozessoren als vielmehr um die Firmenpolitik von Apple.

Ne ne, echt kein intel-Bashing

Von: Thyl (MacGuardians) | Datum: 02.02.2006 | #9
sondern meine Verblüffung darüber, wie wenig Ahnung die Leute immer noch von intel und deren Produktstrategie haben, denn der Sockel ist keine Meldung wert, finde ich (aus den dargelegten Gründen). Daher ist das auch keine Nachricht über den Sockel, sondern zum Thema intel-Kompetenz der Macianer ;-)

Kleine Zwischenfrage

Von: flo (MacGuardians) | Datum: 02.02.2006 | #10
Ob ein Computerhersteller den Prozessor sockelt oder ihn aber fest verlötet, kann das der Computerhersteller nicht selbst entscheiden? Unabhängig vom CPU-Hersteller?

Und eine gescheite Quelle konnte ich immer noch ncht finden, nur entweder Foreneinträge à la "ich glaube/denke/meine" oder irgendwelche Berichte aus dem orfeld des IDF: Ist/wird Merom nun pinkompatibel zu Yonah oder nicht? Gibt es da schon eine (halbwegs) offizielle/verlässliche Aussage dazu?

Falls ja würde die Geschichte schon etwas interessanter...

fest verlötet

Von: ohNe22 | Datum: 02.02.2006 | #11
Es gab in der Vergangenheit immer wieder Laptops auf deren Mainboards die CPU fest verlötet wurde. Aktuell habe ich kein Beispiel zur Hand, aber ich meine, dass das vor allem bei den ULV-Varianten bei Intel in den besonders schmalen Laptops.

…also, wenn der Sockel keine Meldung wert ist,

Von: Armin | Datum: 02.02.2006 | #12
…dann sollten wir dafür sorgen, dass mindestens die Hälfte der Gerüchteseiten eingestampft werden, weil sie auf einen Schlag unnötig gemacht wurden. Wo darüber berichtet wird, dass es möglich ist, eine iBook-Oberschale vom weißen Lack zu befreien und blau einzufärben, sollte ab sofort niemand mehr lesen.

Beim iMac-Duo der hier steht

Von: niemand | Datum: 02.02.2006 | #13
kann ich nachvollziehen, dass die CPU austauschbar ist, hard- wie Softwaretechnisch.

Die aktuelle Preislage rechtfertigt dies jedoch nicht.

Wie sinnvoll Upgrades sind ist ein Thema, das wohl von Fall zu Fall zwischen nachträglichem Leistungsbedarf und Selbstreparatur außerhalb von AC, selbst das für und wieder abgewägt werden muss.

Im Gegensatz zu G3/G4 ist man aber nicht von Dritten abhängig, oder wie beim G5 komplett aufgeschmissen.

Wie aber andere auch schon erwähnen, ist der hier angeprangerte "kleine" Sprung bei PPC ein Riesenhit gewesen. Tja Thyl, intel-bashing ist nicht so einfach, bei der Vorgeschichte.

Zu Merom: Pin-Kompatibilität >kann< nicht gewährleistet werden, höchstens abgespeckte à la Celeron. Mainboard-Chipsatz gibt's aber auch noch Herr Flo, also wenn du auf ein Update von Apple wartest solltest du weiter über Aperture schreiben.

Und zu dem Artikel von Thyl

Von: niemand | Datum: 02.02.2006 | #14
das ist kein Artikel, das ist ein persönlicher Kommentar zu RumorNews.

Man könnte erwarten dass sich hier einer die Mühe macht und mit Apple und intel telefoniert.

"Fahrt weiter in die Richtung, ich seh schon die Küste"

@MichaelK: Grade ausprobiert,

Von: niemand | Datum: 02.02.2006 | #15
habe ein Programm mit xCode compiliert, als UB und getestet, Dual G5, 17"PB, iMac-DUO

(Ich möchte jetzt mal wissen wie Macwelt vergleicht, weil die PPC und die intel iDVD laufen kaum auf der selben Hardware.)

die G4 Kisten werden vorgeführt weil die nicht annähernd mithalten können. Auch mein G5 muss momentan mit einem iMac mithalten, und kann sich nur >noch< teilweise behaupten.

Leider, und das ist der Punkt, ist auf dem Duo softwaremäßig wenig geboten.
Für mich ist NI wichtiger als Adobe, wh das Ding wird jetzt vorallem für UBs genutzt zum testen, aber sonst ist nicht viel los außer iTunes (und ein bisschen Wine)

Upgrades...

Von: Kai (MacGuardians) | Datum: 03.02.2006 | #16
"Diese Upgrade-Karten machen auch nicht größere Sprünge. Vorallem kommen die aber auch Jahre später."

Soso. Mein neues Dual 1.8 GHz G4-Upgrade ist leckere 7.2 mal so schnell in Cinebench wie das originale 400 MHz-Modul (311 statt 43)...

AAC-Encoding macht mein stinkend alter Digital Audio von 2000 mit nur einem ach-so-lahmen 1.8GHz G4 in 19.6x (20x hat der Core Duo 1.83 GHz - ebenfalls mit nur einem Chip!)

Eine DVD ist in 11 Minuten mit DVD2one 2 von 7.6 GB auf 4.3 runterkomprimiert. All das zum Preis eines großen Mac minis, und meine ganze Hardware kann ich weiternutzen. Sogar OS9 würde noch laufen falls es noch jemanden interessieren sollte...

In iDVD (der unverkrüppelten Version 5) ist das Ding genausoschnell wie ein Core Duo 1.83 GHz.

Mit dem Ding häng ich jeden von Apple produzierten G4-Mac ab, inklusive der schnellsten Powerbooks. In Dual-nutzenden Anwendungen sogar alle von Apple produzierten Single-G5s (sogar wenn diese G5-optimiert sind: iMac 2.1 GHz: 298 CB-CPU in Cinebench)

Also sagt nix gegen G4-Upgrades...

P.S: Um der Intel-Hurra-Truppe vorzubeugen: Ja, der Core Duo ist in Cinebench-Rendering fast doppelt so schnell (608), ich weiss. Dafür liegt er in OpenGL nur unmerklich über meiner stinkend alten Radeon 9800 (998 statt 908). Merkt ihr was? Hm, vielleicht sollte man Cinebench doch mit Vorsicht genießen! ;-)

P.S:

Von: Kai (MacGuardians) | Datum: 03.02.2006 | #17
"P.S: Um der Intel-Hurra-Truppe vorzubeugen: Ja, der Core Duo ist in Cinebench-Rendering fast doppelt so schnell (608), ich weiss. Dafür liegt er in OpenGL nur unmerklich über meiner stinkend alten Radeon 9800 (991 statt 908)."

Gemeint ist hier allerdings die 2GHz-Version! Die 1.83 GHz-Version hat 557 CB-CPU und 934 OpenGL!

Ham wer das hier jetzt auch durch

Von: ElRhodeo | Datum: 03.02.2006 | #18
Finde die Meldung, mit Verlaub, auch etwas blöd. Klar ist es jetzt noch völlig unrentabel, aber wenn es vielleicht doch noch eine Runde an kompatiblen Updates gibt? Sagen wir bis 2,4 Ghz oder so? Und dann auch noch für die MacBooks? Aus meiner Sicht sehr reizvoll, sich z.B. nach Ablauf der Garantie für 200€ oder so ein 1,67 Ghz-MacBook auf 2,4 hochrüsten zu können!
Und seit wann regt Ihr Euch auf, wenn irgendwelche Freaks was ausprobieren (in diesem Fall den CPU-Tausch)? An Projekten wie Mac Mini im Auto, externer HD am iPod, OSX auf Nasenhaarschneider u.ä. hattet Ihr doch auch nix auszusetzen.

lol

Von: lol | Datum: 03.02.2006 | #19
die ersten G4 wurden von 400 auf 350 runtergetaktet, du schnarcher

Jo, selber Basteln ist immer gut...

Von: Kai (MacGuardians) | Datum: 03.02.2006 | #20
Achtung: Es folgt eine POSITIVE AUSSAGE von Kai zum Intel-Switch! ;-)

*räusper*

Wenn man wirklich CPUs bei Alternate für kleines Geld kaufen kann und die in seine Macs schrauben kann, dann wäre das das erste Positive, was ich dem Intel-Switch abgewinnen kann.

Ich frag mich allerdings, was Apple dazu sagt, die bekanntlich vom Computerverkauf leben...

So. Wollte ich nur mal sagen. Man muss ja auch mal was Gutes sagen, nachdem die Lieferschwierigkeiten jetzt schon wieder losgehen weil Intel diesmal nicht genügend Chips produzieren kann (siehe Anandtech! ;-) und die Intel-Hurra-Truppe wohl spätestens jetzt in die Tischkante beisst.. Halt, die sind ja merkbefreit, die haben ja bis jetzt noch nichtmal realisiert, dass der versprochene perverse Performanceboost eine ziemliche Luftnummer war und dass Intels schnellste CPU pro Kern eine massiv geringere Leistung bringt als der G5 und selbst mit zwei Kernen manchmal nur genausoschnell ist wie ein einzelner G5! ;-)

Einfach mal Anandtech lesen, wahlweise auch die Macwelt, hehe...

lol:

Von: Kai (MacGuardians) | Datum: 03.02.2006 | #21
"die ersten G4 wurden von 400 auf 350 runtergetaktet, du schnarcher"

Meinst du mich? Und? Was willst du mir damit sagen?

Tip: Eine Radeon 9800 passt nicht in PCI! ;-)

@ Kai

Von: ElRhodeo | Datum: 03.02.2006 | #22
Nee, lol meint den zweiten Beitrag; naaamd hat sich da vertan. Könnte er aber auch anders sagen.

Positiv: keine Verdongelung

Von: Thyl (MacGuardians) | Datum: 03.02.2006 | #23
Mein Artikel ging ja nicht darum, dass jemand bereits den Austausch gemacht hat, sondern dass die selbstverständliche Sockelung so in den Medien rumging. Das Austauschexperiment ist insofern interessant, als es zeigt, dass Apple nicht mittels EFI den Prozessor an ein bestimmtes Mainboard gekoppelt hat, was ich zwischendurch auch mal überlegt hatte.

@Kai (MacGuardians)

Von: xy | Datum: 03.02.2006 | #24
Mit einem Dual G4 1.8 (7447) hast Du keinen Stich gegen einen Single G5 1.8! Höchstens in Programmen, die MP-fähig sind, wie Du richtig bemerkt hast. Der FSB eines G4 Mainboards ist max. 167 MHz (der Digital Audio 133), wenn ich mich nicht täusche. Jener eines G5 min. 4 x schneller. Des weiteren besitzt der 7447 Prozi magere 512kb L2 Cache, was bei einem kleinen FSB doppelt ins Gewicht fällt!
Ohne eine anständige Grafikkarte ist auch diese Upgrade nicht undeingt der Bringer. Die Geforce 2MX oder Radeon Mac Edition hat gerade mal 32MB VRAM. Da ist ein Mac mini luxuriäs ausgestattet.
Dennoch finde ich die G4-Upgrades u.U. lohnend.
Selber habe ich vor zwei Jahren auf ein OWC 1.26 MHZ aufgerüstet (von einem 533er Dual) und das habe ich nie bereut. Die Rechnung 533 x 2 ist nur ca. 200 weniger als 1260, doch das merkt man extrem! Im Finder hat der 533er Dual nicht einen Hauch einer Chance.
Auch ich musste die GK aufrüsten und somit hat mir der G4 6 Jahre gute Dienste verrichtet. Das ist heute eine Menge Holz.

@niemand

Von: flo (MacGuardians) | Datum: 03.02.2006 | #25
Ich glaube nicht, dass ein Merom, wenn er denn pinkompatibel wäre, am momentanen Chipsatz scheitern würde. Der unterstützt etwa auch einen anderen FSB (1066, 133*8), falls Merom das nutzt (wobei der vielleicht auch an 667 läuft). Natürlich könnte sich die CPU wer weiß wie anmelden und der Chipsatz sagt dann, nee, dich kenn ich nicht... War ja auch nur eine Anregung, dass ein Merom, wenn er passen würde, die Upgrade-Geschichte wesentlich interessanter machen würde, als wenn man "nur" Yonah reinschrauben kann. Denn der wird ja angeblich nicht weit hinter 2,16 GHz gehen, was von 1,8 GHz aus etwa 20% mehr Takt verspricht... Das ist was, aber auch nicht die Welt, wofür man jetzt viel Geld ausgeben würde. Kommt dann letztlich also auch darauf an, wie billig so ein Yonah je wird (oder wie lange es ihn überhaupt zu kaufen gibt).

Das Thema ist durchaus diskussionswürdig

Von: Hrusty | Datum: 03.02.2006 | #26
Denn viele Macianer kennen den PC Bereich nur ungenügend, und übertragen die G4 Systematik vielleicht irrtümlich auf den neuen Rechner, denn:

- Intel ist dafür bekannt: gute Chipsätze zu liefern und mit Einführung des P4 wurde jährlich der Sockel geändert. Insofern kann man Annehmen, dass die Nachfolger des Yonah (dieser ist bekanntermaßen eine eingeschobene Prozessorgeneration) in diesem Jahr noch erscheinen werden, sie werden 64 Bit fähig sein und Merom heißen. Es ist anzunehmen, dass diese einen neuen Sockel bekommen werden.

- dies bedeutet, man kann innheralb der Yonah Linie upgraden. Wenn man zB. einen 1,8er besitzt, wird man vielleicht den 2,1 er im Auge haben. Nur zum jetzigen Zeitpunkt ist es nicht sinnvoll 300 EUR in einen Prozessor zu investieren, der nur 360 Mhz mehr besitzt. Die heutige Prozessorgeneration steigert ihre Leistung nicht mehr in der Art durch den Takt wie frühere. Wer es dennoch für sinnvoll erachtet, kann warten bis zum Preisverfall, nur wird der Yonah 2,1 DC niemals 100 EUR kosten, was soll denn dann ein P4 oder Celeron noch wert sein (ok, wert sind sie nicht viel... ;-))

- im PC Bereich ist es so, dass Upgrades über Prozessorgenerationen hinweg erst spürbare Mehrleistung bringen. Die 180 EUR für den Yonah 2,16 in 15 Monaten würde ich eher als Teilbetrag in einen Neukauf investieren. Sofern die Yonah-Rechner dann noch etwas wert sein sollten, kann man dann einen imac Merom64 im Januar 2007 ordern und die 200 EUR dazulegen. Mein Rat.

- wenn man sich mit Intel für die Zukunft gewappnet sieht, und ein halbwegs lauffähiges Gerät besitzt, kann man derzeit dem Kauf nicht zuraten. Erstens würde ich auf jeden den Merom kaufen zweitens kann man nächstes Jahr Januar auch schon besser abschätzen welche Blüten DRM gezogen hat. Wenn dann User berichten, dass mit 10.5 ihre mp3 Sammlung gelöscht wurde weiß man zumindest worauf man sich einlässt und kann dann noch reagieren....

Ist das nicht eigentlich völlig egal,

Von: raller | Datum: 03.02.2006 | #27
wann welcher Computer was wieschnell rechnet und ob es noch etwas schneller geht?
Zum ersten Mal seit Jahren gibt es echte Auswahl beim Mac, und es scheint mir, viele können damit nicht umgehen. Wenn ein oller G4 mit viel Aufwand so läuft, das der Besitzer zufrieden ist --> prima. Wenn es Alternativen dazu gibt --> noch primaner. Und wenn es jetzt sogar völlig neue Wege und Chancen gibt --> Oberprimaner. Und jetzt in diesem Tread?
A ist doof, weil B ist toll. Nee, A ist volltoll und B volldoof, weil ich A habe..
Hallo, ihr dürft wählen. Und bei der Lebenszeit von Computern ist das auch keine Entscheidung auf Leben und Tod, sondern nur für jetzt. Ich verstehe die Proleme von Leuten, die tausende € in Software investiert haben und sich jetzt fragen, welcher Weg besser ist. Aber für die allermeisten hier ist es fast komplett egal...
Raller

unverkrüppeltes iDVD5?

Von: katze007 | Datum: 03.02.2006 | #28
Was wurde denn bei iDVD6 verkrüppelt? Was habe ich verpasst? (ernsthafte Frage)

@katze007

Von: Henryk Richter | Datum: 03.02.2006 | #29
iDVD6 ist mit gcc4.0 anstelle des alten gcc3.3 übersezt. Es wird dem Update von verschiedenen Verschwörungstheoretikern nachgesagt, dass absichtlich die Performance im PPC-Betrieb verringert wurde, um den Intel-Prozessor besser darstehen zu lassen. Auf die Idee, dass es einfach Compiler-Probleme mit bestehendem Code (insb. bei Altivec) geben könnte, kommen die Herren dabei nicht.

alt vs. neu in Sachen iApps & Co.

Von: MetaVampire | Datum: 03.02.2006 | #30
Betrifft dies ausschließlich iDVD 06 oder die gesamte iLife 06 & iWork 06 Suite?

Ist bereits eine Quelle bekannt, die Zeit und Mühen nicht gescheut hat, um eine detaillierte Gegenüberstellung von Apples eigener Consumer Software 05 vs. 06 auf G5-Prozessorbasis anzufertigen?

°MV

Unterschied Core Duo Notebook Apple <-> Windows

Von: AMD_rockt | Datum: 03.02.2006 | #31
[Link]

@AMD_rockt

Von: Thyl (MacGuardians) | Datum: 03.02.2006 | #32
Wieso Unterschied? Das Macbook Pro ist noch nicht draußen, un das letzte, was man so mitbekam, war Geheimniskrämerei um die Laufzeit und Genuschel von Beta-Test, nicht optimiert, etc. Wer weiß, ob nicht Apple auf dasselbe Problem gestoßen ist?

@Hrusty

Von: Thyl (MacGuardians) | Datum: 03.02.2006 | #33
Genau!

Wobei noch zu beachten wäre, dass intel sicher den Merom als Schwerpunkt setzt und mit seinem Erscheinen den Yonah einschlafen lässt; womöglich ohne irgendein Speedbump.

In der c't

Von: P | Datum: 03.02.2006 | #34
stand in dieser oder letzter ausagbe, dass es schon im vorgängerchipsatz probleme mit der anbindung des grafikchips über das neue pci-e gab, was den stromsparmodus betrifft. hängt aber wohl auch am jeweiligen hersteller, ob die alles richtig machen. muss nachher noch mal nachlesen

wegen Anandtech...

Von: namepower | Datum: 03.02.2006 | #35
das Fazit von Anandtech war aber eher POSITIV...

"...As far as performance of the new Intel based Macs go, at least in Universal applications, it's quite good. While the G5 was clearly no slouch, in many cases offering performance better than a Core Solo processor, it does lose the performance per watt battle. It's also worth noting that a pair of G5s could never make it into an iMac of this form factor, meaning that the Core Duo's dual core performance advantages are reasonable to flaunt...."

"....More than anything, I am interested to see how long it takes to bring Intel's compiler technology to the OS X platform. As Johan pointed out in his series on the G5, gcc 4.0 doesn't exactly produce the best code for AMD/Intel architectures, especially when compared to Intel's own C compilers. At last year's Fall IDF, Intel had a session on their compilers and OS X, so I tend to believe that things will get faster for Intel based Macs over time. Not only when Rosetta is no longer needed, but also as applications are better optimized for their architecture (e.g. Quicktime).

I'll close, as always, on a note about the future. We've seen that today, Intel already has the performance per watt crown with the Core Duo, and they also have the power advantage, consuming a third less power than a similarly clocked G5...."

Der iMac ist erst die erste Generation, das scheinen alle zu vergessen. Dafür ist sie ein verdammt gutes Gerät. Mit der Zeit wird es nur besser....

Zu Lieferschwierigkeiten, es wurde doch oft genug erwähnt dass Apple ihre Termine um einen halben Jahr vorzog... k.a. warum dieser Bullshit mit den Lieferschwierigkeiten immer wieder erwähnt wird. Intel hat DIE größte Produktionkapazität aller CPU Produzenten...

32 Bit CPU

Von: m@rkus | Datum: 03.02.2006 | #36
Was bedeutet dieses 32 Bit versus 64 Bit für den Enduser? Spricht dies gegen das MacBook Pro, weil Yonah eben nur 32 Bit kann. Kann dies ein Grund sein, mit dem Kauf eines MacBook Pro zu warten, bis dieser eine 64 Bit CPU erhält? Oder ist das eher was in der Art eines "Spoilers" ... sieht vielleicht cool aus, aber bringt nur in den seltensten Fällen wirklich etwas.

Die IntelHurraSeite die da schon wieder über den gesockelten Prozessor berichtet.

Von: Bosskopp | Datum: 03.02.2006 | #37
Hat jemand eigentlich schon mal auf den Link von Thyl geklickt und sich die Seite genauer angesehen, die da "schon wieder" über den gesockelten Yonah berichten?
Ist das jetzt so eine Seite die von Intel nicht einen blassen haben?

Oder ist das Selbstironie?

Von: Bosskopp | Datum: 03.02.2006 | #38
Ich bin jetzt etwas verwirrt....

thyl...

Von: Anunnaki | Datum: 03.02.2006 | #39
...ich weiss nicht was du hast ?

Erstens wird das Upgrade weder von Apple noch sonstwem als solches explizit verkauft, zweitens wundere ich mich warum Du in Deinem Intel-Unmut noch nicht einmal mehr "geek" zu erkennen vermagst. Und da die New Architecture erst mit Merom beginnt wie Du sagst, wird ein neuer Sockel kommen. Nicht zuletzt wegen FSB und ET64

Wenn ich den Prozessor schon in einem Sockel hingestellt bekomme, ist es doch naheliegend, dass ich da sofort das schnellste reinstecke, was ich mir kaufen kann ? Was ist daran jetzt auszusetzen ? Das haben wir schon bei den MacII gemacht, wenns da auch weitaus teurer war, schnellere 68030 zu kriegen ;-)

Und jedes eigenmächtige Übertakten in jüngster Zeit brachte oft auch nur 10-20% effektive gesteigerte Leistung, man hat es ja auch nicht unbedingt _deswegen_ gemacht, sondern weils Spass macht und vorallem: "because I can".

Think Different !

(PS: Performance: Klar ist die gut, wenn man beide Cores sowie native Software nutzt. Das dauert halt noch ein wenig. Der Stromhunger des Dual Core ist übrigens die Hälfte von meinem 1.6Ghz 970FX)

@m@rkus

Von: Henryk Richter | Datum: 03.02.2006 | #40
IMHO hat Apple die Richtung bereits fest vorgegeben. Sie haben mit dem Zweck, möglichst schnell auf den Intel-Zug aufzuspringen auf die altbekannte ia32-Architektur gesetzt. Alle Universal-Binaries, die derzeit auf den Markt kommen sind 32 Bit.

Was bedeutet dies nun (vorurteilsfrei) für den User? Was bringen die 64 Bit eigentlich für den User?

Ein paar Fakten: Klassische RISC-Architekturen (Alpha, PA-RISC, UltraSPARC) und ähnliche (somit auch der PPC970 aka G5) sind vom Design her auf 64 Bit ausgelegt, d.h. die Fähigkeiten dieser Prozessoren sind im 64 Bit-Modus die gleichen wie im 32 Bit-Modus, ausgenommen von der Möglichkeit, dass in 64 Bit mehr als 4 GB Speicher pro laufendem Programm angesprochen werden kann und Festkommavariablen (Integer) einen größeren Wertebereich besitzen. Der Nachteil vom 64 Bit-Modus ist allerdings, dass die doppelt so großen Variablen (insbesondere Zeiger auf Speicherstellen) durch Betriebssystemkern und alle Programme durchzuschleifen sind. Ergebnis: Programme, welche die Vorteile der 64 Bit nicht nutzen, laufen langsamer. (Daher sind z.B. alle "normalen" Solaris-Utilities in 32 Bit Binaries verpackt, obwohl die Kisten seit Urzeiten 64 Bit können).

Hmm, 64 Bit bringt also nur etwas für Datenbanken und ähnliche Speicherfresser ? Auf RISC-Rechnern ist dies augenscheinlich zu bejahen.

Auf der Seite der Intel-kompatiblen Rechner sieht es etwas anders aus. Die Erfahrungen mit den RISC-Maschinen sind nicht 1:1 übertragbar (auch, wenn es in diversen Foren, selbst auch in c't Artikeln gern gemacht wird).

Zunächst jedoch einige Worte zu "mehr als 4 GB Speicher". Die Pentiums und AMD's besitzen schon seit einer Weile die Fähigkeit, (man korrigiere mich) bis zu 64 GB Speicher anzusprechen, indem die entsprechenden Adressleitungen nach aussen geführt werden. Man kann durchaus Systeme mit dieser Menge Speicher aufsetzen. Im Unterschied zu echten 64 Bit-Maschinen können einzelne Prozesse (lies: Programme) jedoch je nach Betriebssystem nur 2-4 GB davon nutzen. Ähnlich verhielt es sich im Übrigen mit den G5-Rechnern: mehr als 4 GB in der Kiste "JA", Applikationen mit Benutzeroberfläche und 64 Bit-Unterstützung "NEIN" (salopp formuliert, bei Erstellung getrennter 64 Bit-Dienste und dazu gehöriger 32 Bit Oberfläche ist Abhilfe möglich).

Was ist nun die Besonderheit der AMD 64 Bitter (und deren Clones in Form von Intel EM64T, verfügbar in P4 und ab Merom auch stromsparend)? Warum wird häufig behauptet, die AMD64 seien gar keine "echten" 64 Bit-Rechner ?

Ich fange mal mit letzterem an. Die Intel-kompatiblen haben sich die "heilige Leitkuh der Kompatibilität" (TM) fest auf die Fahnen geschrieben. Selbst die AMD64-Prozessoren können noch das 16 Bit DOS ausführen. Wenn man jetzt einmal das Argument "AMD64 ist NUR eine Erweiterung der 32 Bitter und damit kein ECHTER 64 Bit-Prozessor" vor Augen führt, könnte man im gleichen Atemzug behaupten, alle Intel-Prozessoren seien nur verkappte 16 Bitter. IMHO wenig sinnfällig. Ein weiteres oft genanntes Argument ist "AMD's Opteron hat nur 48 Adressleitungen". Nun ja, eine erhebliche Einschränkung, mit 32 Bit kann man ja gerade 4 GB ansprechen, somit bei 48=32+16 Bit überschlagen 4*65536 GB. Ich fühle mich damit schon eingeschränkt :-)

Fakt ist: AMD64 kann für Applikationen transparent zwischen 32 und 64 Bit-Modus umschalten. Alte Applikationen laufen ohne jeglichen Geschwindigkeitsverlust auf Systemen mit 64 Bit Kern.

Nun zur Frage, was die Besonderheit von AMD64 gegenüber den klassischen RISC-Maschinen ausmacht. AMD hat (Gott sei Dank) erkannt, dass die mageren 8 Register (i.e. Variablen, in denen man bei Maschinenprogrammierung Daten vorhalten kann bzw. muss) für Integer bzw. SSE bei komplexen Aufgaben und Rechenwerken hoher Latenz nicht so ganz zeitgemäß sind. Daher wurde für den 64 Bit Modus die Anzahl dieser Register auf jeweils 16 verdoppelt. Ergebnis dieser Verdoppelung ist, dass trotz der bei den RISC-Rechnern besprochenen und auch hier präsenten Nachteile des 64 Bit-Computings eine potenzielle Leistungssteigerung möglich ist. Im Netz kursieren Angaben von 15-20% Leistungsvorteil auf der gleichen Maschine (Voraussetzung gleiche Compilerversion), die sich auch mit meinen eigenen Erfahrungen decken. Mal zum Vergleich: ein AMD3000+ mit 2 GHz kostet ab 150 EUR, der AMD3800+ mit 20% mehr Takt um 250 EUR.

Zur Frage "Sollte man auf 64 Bit warten ?". Ich für mein Teil werde dies tun, da ich für eigene Projekte den Vorteil nutzen kann (wenn auch derzeit nicht unter OSX).

<schwarzmalerei> Anwender, die sich auf Applikationen von großen Herstellern stützen (mithin wahrscheinlich der Großteil aller Nutzer) können angesichts der jüngsten Gerüchte um Adobe hoffen, dass sie überhaupt innerhalb eines erträglichen Zeitrahmens native-Versionen ihrer Programme erhalten. </schwarzmalerei>

Ob Apple den Schritt wagt, aus den derzeitigen Dual-Binaries unter Einbeziehung von AMD64 Triple-Binaries zu machen, steht in den Sternen. Man darf dabei nicht vergessen, dass extrem sorgfältige Programmierung notwendig ist, damit der Code auf allen Architekturen läuft. In Anbetracht dessen, dass die Entwickler ohnehin schon murren, will ich mich da nicht aus dem Fenster lehnen.

my 0.02€

@m@rkus bzgl 32bit CPU

Von: Rüdiger Goetz | Datum: 03.02.2006 | #41
Hallo,

Bzgl 32bit vs 64bit CPU sind drei Dinge zu beachten.

1. 64bit an sich bringt im Allg. keine zusätzliche Performance, sondern "nur" einen vergrößerten Addresseraum und damit die Möglichkeit mehr Speicher anzusprechen (bei 32bit CPUs liegt die Grenze ohne dirty tricks bei 2 bis 4 GB je nach OS). Der Unterschied zwischen PPC32 und PPC64 beschränkt sich im Wesentlichen darauf.

2. Apple hat wohl bei OSX Probelme mit 64bit Archtekturen. Diese liegen darin begründet, dass auf 64bit-CPUs insbesondere Pointer doppelt so gross sind (ben 64bit statt 32bit) udn somit mehr Platz in den Caches brauchen. Da Apple wohl massiv Pointer einsetzt um Performance auf 32bit CPUs zu gewinnen, sprengen die 64bit-Pointer den Cache und es werden zusätzliche RAM-Zugriffe nötig. Dies Problem ist um so eklatanter je kleiner die Caches sind. Die galt wohl vor allem für den PPC970/FX mit seinen 512kB L2-Cache. Der Merom (und auch der PPC970MP) könnten da besser da stehen, da sie mehr Cache (1MB+) pro Core haben.

3. 64bit CPUs haben oft auch sonst das modernere Design und sind so schneller. Dies gilt schon im Vergleich G4 G% (wobei der Gewinn im Wesentlichen im FPU-Bereich liegt), vor allem aber beim Übergang x86-32 zu x86-64. Ich hab hier aus eigener Erfahrung nur Wert für einen Athlon64. Dieser legt aber (unter Linux) im 64bit-Modus um gut 30 % zu, im Vergleich zum 32bit-Modus (sonst selber Rechner selbes OS).

Die Diskussion 32bit vs 64bit CPU wird gerne auf den Punkt 1 verkürzt. Das stimmt auch für die meisten CPU-Archtekturen, die diesen Schritt schon früher gemacht haben (Sparc, Power/PPC, MIPS). Beim x86er wird aber gleichzeitig die CPU-Archtektur als ganze überarbeitet. Und daraus beziehen 64bit-x86er den Großteil ihres Performancevorsprunges. Dieser fehlt dem Yonah und wird in Interl-macs erst mit dem Merom/Conroe Einzug halten.

Bis dann

R"udiger

Frage zu 64Bit

Von: ElRhodeo | Datum: 03.02.2006 | #42
Muß ich das dann so verstehen, daß alle Software für 64Bit-CPUs nochmal neukompiliert werden muß, also wieder kostenpflichtige Updates anstehen?

Hab eigentlich keine Lust mehr, noch auf den Merom zu warten... dieser Tage wollte ich mir gerne das MacBook bestellen. Es geht doch eh immer so weiter; wenn Merom raus ist, weiß schon einer was über den Nachfolger, der ist dann nochmal viel besser... Das ist echt die Krux mit den Gerüchteseiten: Je mehr man liest, desto schwerer fällt einem eine Kaufentscheidung.

Okay, alles schon viel klarer ...

Von: m@rkus | Datum: 03.02.2006 | #43
Danke für die ausführlichen Erklärungen. Ich ziehe also (für mich persönlich) den Schluss daraus, dass es sich durchaus lohnt, auf Merom/Conroe zu warten, sofern man den neuen Rechner nicht unbedingt sofort braucht ... vor allem auch, um vom moderneren CPU-Design zu profitieren und für die (64 Bit) Zukunft gerüstet zu sein. Für die mobilen Rechner wird das wohl kaum vor Winter/Frühjahr 2006/2007 sein ... Mmh, mal sehen, ob ich so lange warten mag.

@ElRhodeo

Von: Rüdiger Goetz | Datum: 03.02.2006 | #44
Hallo,

Im Prinzip ja, aber es kommt darauf an.

Zum einen, wann Apple auch AMD64/x86-64/EMT64 (oder wie man das Kind auch immer nennt) unterstützten
wird. Denkbar ist auch, dass die nicht sofort mit der Einführung von Merom/Conroe-Geräten passiert.

Zum anderen laufen (zumnindest unter Linux) 32bit-Apps auch unter einem 64bit-Linux. Sonstb hätte ich die Tests mit dem 30% Vorsprung gar nicht machen können. Im Prinzip können Athlons (und wohl auch P4s mit EMT64) transparent zwischen den Modi hin unter her schalten.

Ab dem Zeitpunkt, an dem Apple AMD64 unterstützt, werden dann aber alle Merom/Conroe und Nachfolger einen Vorteil haben.

Wobei ich noch eine Einschränkung betonen muss. Meine Erfahrungen beruhen auf der AMD Implementation von AMD64/EMT64. Ob Intels Implemenation auch soviel Performance gewinnt, kann ich aus eigener Erfahrung nicht sagen, nur als Analogie vermuten.

Allerdings muss Intel nachlegen, da ihnen sonst AMS mit den Atlons davon rennt. Momentan erscheint der Vorsprung noch gering, weil die Athlon im 32bit nur ein wenig schneller sind, als alles was Intel hat. Wenn Windows samt Apps erst flächendeckend AMD64 unterstützt dürfte der Unterschied auch in der Allgemeinen Wahrnehmung größer werden (sofern Intel nciht bsi dahin nachlegt bzw. mit EMT64 nachgelegt hat).

Bis dann

R"udiger

@ElRhodeo

Von: Henryk Richter | Datum: 03.02.2006 | #45
Jein.

32 Bit Software tut auf den aufgebohrten Intel-Rechnern weiterhin klaglos (ohne Softwareemulation a la Rosette) und üblich performant ihren Dienst.

64 Bit Software erfordert eine passende Compilierung. Ob und wie weit sich Softwarehäuser die Arbeit machen, kann ich natürlich nicht beurteilen. Auf jeden Fall ist beim Übergang auf AMD64 für sauber geschriebene Software ein wesentlich günstigeres Aufwand/Nutzen-Verhältnis vorhanden, als wenn man dies mal mit dem mühsamen Zusammenstöpseln von dediziertem Code auf Basis von Altivec oder SSE vergleicht.

Apple and AMD: A match not meant to be

Von: - | Datum: 03.02.2006 | #46
[Link]

64bit bringt ohne Software wenig

Von: fazzur | Datum: 03.02.2006 | #47
ich beziehe mich hier mal auf die WindowsXP 64bit Version und Suse 9.3 64bit.
Athlon XP und Athlon64.

Suse lief am Anfang so gut wie nicht. Es wurde ein 200 Mhz CPU gefunden, Cache, Nforcechipsatz, alles was im Emulationsmodus. 40 Minuten fürs Booten auf eine Textkonsole. Das Laden vom KDE habe ich nach 1 Stunde abgebrochen.
Gleiches Bild gab es bei der Beta vom 64bit Windows. Für nichts gab es 64bit Treiber. Soundkarte, Grafikkarte, CD-Brenner, nichts wurde erkannt.
Und als die ersten Treiber herauskamen, hatte ich bei Quake3 bei einem 3 Ghz CPU, 2 GB Ram und einer Gforce 6600 GT ganze 11 fps.

Die 32 bit Programme liefen auch - irgendwie - waren aber keine Freude. 32bit und einen zusätlichen 64bit Taskmanager, da die 64bit Version die 32bit Programme nicht gesehen hat. usw...

Mittlerweile läuft die 64bit langsam an, unter Linux kann man schon arbeiten, obwohl nach wie vor Treiber fehlen und noch nicht alles so läuft wie es laufen sollte.

Damit kann ich nicht verstehen, was der Lobgesang auf 64bit soll. Ein Alleheilmittel wird er auf jeden Fall nicht sein.
Da bringen meherere Cores mehr, alleine schon wegen der Möglichkeit die Tasks einfach auf mehrere Cores zu verteilen.

Klar hat Apple den Vorteil einer einheitlichen Umgebung, also wird es keine Treiberprobleme geben, aber schon da denke ich an die Hersteller die schon bisher so tolle Treiberunterstützung für TV-Karten, Scanner und Plotter für OSX zu Stande gebracht haben.

also ist 64Bit als Werbeargument für die breite Masse hinfällig?

Von: Hrusty | Datum: 03.02.2006 | #48
to the one who gave 2cents

genau, fehlt aber noch overclocking

Von: tiloprobst | Datum: 03.02.2006 | #49
"Wenn man wirklich CPUs bei Alternate für kleines Geld kaufen kann und die in seine Macs schrauben kann, dann wäre das das erste Positive, was ich dem Intel-Switch abgewinnen kann."

EXAKT das erhoffe ich mir auch! nun ja, wir werden sehen ..

für mich kommt noch das Thema Overclocking hinzu .. aber wer weiß schon wie es bei den Towern dann sein wird.

@fazzur

Von: Rüdiger Goetz | Datum: 03.02.2006 | #50
Hallo,

Ichn kann deine Erfahrungen bzgl Linux und 64bit so nicht bestätigen, bzw hab andere gemacht. Installation (SuSE 9.3 vor gut 10 Monaten und vorgestern SuSE 10.0) war genauso einfach wie immer. Treiberprobleme hab ich keine, allerdings ist die Kiste bei uns auch als "Rechner" eingesetzt. Treiber für IDE, Netzwerk, USB, Video, etc. machen keine Probleme (Nforce4-Chipsatz), anderes interessiert und hier nur am Rande.

Da wir primär mit eigener Software arbeiten, spielt es auch kaum eine Rolle ob die libs alle schon auf 64bit sind. Nur Probleme sind mir keine aufgefallen.

Wenn wir aber eingen Software laufen lassen, ist diese als für 64bit compiliert besagte 30 % schneller als für 32bit kompiliert.

Nachzulesen kannst du dies bei meine eigenen Benchmark (traue keine Benchmark das du nicht selbst gefälscht hast): RGBench

Bis dann

R"udiger

64 Bit Vor/Nachteile

Von: Henryk Richter | Datum: 03.02.2006 | #51
Ich bin kein Verkaufsmensch und werde (solange ich mich mit 2 gesunden Händen und ebensovielen Füßen wehren kann) auch nie einer. Daher bin ich nicht unbedingt derjenige, der nach Werbeargumenten zu fragen ist. Immerhin wurde auch schon der G5 als 64 Bit Prozessor (der er ja auch ist) beworben, mit nach heutigem Kenntnisstand Null Gewinn aus den 64 Bit-Fähigkeiten des Rechenkerns für die Anwender. Man möchte mich vom Gegenteil belehren, ich bitte aber in diesem Fall um sachliche Argumente.

Als Techniker kann ich mit reinem Gewissen behaupten, dass für jede General Purpose Applikation Potenzial in AMD64 besteht (zynisches Stichwort: also auch iCal).

Ob es genutzt wird ? Hmm. AFAIR Cinebench, UT2004 fallen mir spontan ein. Ich habe jedoch keine handfesten Daten im Kopf und auch keine Links zur Hand.

Die Erfahrungen von fazzur kann ich in Bezug auf Linux allerdings nicht 100%ig teilen. Bei mir läuft seit mehr als 2 Jahren eine Suse9.0/AMD64 auf der sich problemlos Applikationen wie VMWare, doom3-demo (hups) oder der 32-bittige Firefox nebst der üblichen Plugins tummeln. Probleme bereiten nur einige Komponenten von GNOME, wenn sowohl 32 Bit als auch 64 Bit Applikationen gemischt vorliegen (Pango Fontmanagement).

Was an 64 Bit Linux gelegentlich nervt ist, dass alle Bibliotheken doppelt ausgeführt sind. Es existieren für alle relevanten Systembibliotheken einzelne Binaries in verschiedenen Pfaden, an denen sich selbst zusammencompilierte Pakete öfter mal stoßen, so dass wie üblich Handarbeit gefragt ist. Implikation für Anwender: das System verbraucht deutlich mehr Festplattenplatz.

iPod Akku Gesockelt

Von: Jan | Datum: 03.02.2006 | #52
Den iPod Akku kann man auch nicht einfach tauschen. Warum soll das also bei den Mac CPUs anders sein?

Ich bin mir sicher das da ein ganz genialer Plan dahinter steckt, wir alle aber einfach zu unwürdig sind um ihn zu verstehen - Steves Wege sind eben unergründlich! iAmen

realitätsverlust?

Von: Thesi | Datum: 03.02.2006 | #53
"Und was soll ich denn da reinstecken? 2.16 GHz statt 1,8? Toller Sprung. "

das sind immerhin 360 mhz je core! sofort verfügbar!

versuch dich noch mal dran zu erinnern: zu ppc zeiten wurden wir von apple mit wesentlich kleineren speedbumps abgespeist und dann lagen da jeweils mehrere monaten (g5) bzw. jahre (g4) dazwischen...

also wenn man den imac später noch mal etwas "tunen" kann durch einfachen prozi-tausch wäre das doch super!

Blumpalumpa

Von: Kai (MacGuardians) | Datum: 03.02.2006 | #54
Henryk Richter:
"iDVD6 ist mit gcc4.0 anstelle des alten gcc3.3 übersezt. Es wird dem Update von verschiedenen Verschwörungstheoretikern nachgesagt, dass absichtlich die Performance im PPC-Betrieb verringert wurde, um den Intel-Prozessor besser darstehen zu lassen. Auf die Idee, dass es einfach Compiler-Probleme mit bestehendem Code (insb. bei Altivec) geben könnte, kommen die Herren dabei nicht."

Aha. Dann verhält sich der GCC4.0 bei Altivec-Intrinsics/Vektorcode also irgendwie anders? Inwiefern? War GCC nicht die Version, die auch zusätzlich noch Auto-Vektorisierung des übrigen Skalarcodes beherrscht, wodurch das Kompilat sogar noch schneller laufen sollte?

Dass die Performance verringert wurde kann man hier nachlesen. Oder bei Barefeats, wobei die leider nur mit nem Dual G5 verglichen haben...

MetaVampire:
"Betrifft dies ausschließlich iDVD 06 oder die gesamte iLife 06 & iWork 06 Suite?"

Nur iDVD und bei manchen Rechnern iMovie (scheinbar alles, was Dual ist - Dual G5 2GHz, Dual G4), alles andere ist schneller oder gleich schnell.

Namepower:
"das Fazit von Anandtech war aber eher POSITIV..."

Ihre Tests haben aber gezeigt, dass der Core Duo in Apples eigener Software pro Core gnadenlos gegen den G5 ablost. "the G5 clearly was no slouch". Also muss Performance per Watt herhalten, damit das Ding trotzdem noch als Verbesserung dasteht. Dass man in den iMac G5 keinen 970MP schrauben könnte ist ja bekanntlich nachweisbar falsch, deswegen hab ich ihn auch schon angemailt, aber leider keine Antwort bekommen.

"Der iMac ist erst die erste Generation, das scheinen alle zu vergessen. Dafür ist sie ein verdammt gutes Gerät. Mit der Zeit wird es nur besser...."

Ach so - so hört sich "never buy Rev A" heute also an? Ist ja interessant!... Im übrigen sind die Geräte nicht wirklich Rev A, mit den Formfaktoren hat Apple ja nun schon reichlich Erfahrung...

"Intel hat DIE größte Produktionkapazität aller CPU Produzenten..."

..und kann trotzdem nicht genügend liefern, danke für's Gespräch! Ich dachte, du hast Anandtech gelesen? Es häufen sich übrigens die Meldungen über ansteigende Lieferzeiten bei der iMac-Bestellung..
Intel hat momentan nur sehr wenig 65nm-Produktionsstätten. Aber hey, Apple brauchte halt unbedingt the latest and greatest statt dem bewährten, was in Massen verfügbar ist. Tja, blöd gelaufen!

Anunnaki:
"Der Stromhunger des Dual Core ist übrigens die Hälfte von meinem 1.6Ghz 970FX"

Stimmt nicht. Bei 2GHz würde das stimmen (60 Watt), bei 1.6 GHz braucht der 970FX genausoviel wie der Core Duo (29 Watt) -> [Link]

Noch eine Anmerkung zur 64bit-Diskussion:
64bit braucht neue Treiber. Immer. D.h. erst warten wir mal auf x86-32-Treiber für die ganze Hardware und dann dürfen wir den Treibern nochmal hinterherrennen, wenn Apple irgendwann mal beschließt auf 64bit-x86 zu gehen (so in 2-3 Jahren, wenn's keine Software mehr für 32bit gibt!). Toll! Und alles nur, weil der depperte Rollkragenpulli nicht wenigstens noch ein Jahr warten konnte...

Bei manchen Gedankenspielen hier ...

Von: johngo | Datum: 03.02.2006 | #55
- bezüglich der 64Bit-Performance -
muss ich schon den Kopf schütteln.

Wenn jemand sagt, das er einen neuen
Rechner wegen mehr Power braucht
aber dann lieber das ganze Jahr auf die
dann 64 Bit-Systeme wartet, der bekommt
keinen Powerschub, sondern handelt
sich über's Jahr gerechnet einen Verlust
ein, der mit 64 Bit wohl kaum noch
einholen kann.

Theoretisch ist vieles möglich, praktisch
rate ich demjenigen, der von viel
Power wirklich etwas hast (Zeitgewinn,
Umsatz etc.) zum sofortigen Kauf, denn dann
hat er im Herbst schon so viel mehr
Vorteile realisiert, das der nächste
Rechner quasi umsonst ist.

Gruss


johngo

gähn....

Von: neu | Datum: 03.02.2006 | #56
die übliche benchmarksoße hier.


macht doch mal was sinnvolles

[Link]

64bit

Von: nico | Datum: 03.02.2006 | #57
gute erfahrungen. winxp46bit mit lightwave3d (newtek). gibt es fuer registrierte benutzer kostenlos die 64bit version downloadbar.
beim rendern etwas fixer, vor allen dingen beim arbeiten aber ungewohnt flott. auf einmal fallen polygongrenzen weg, man kann jede menge modelle importieren (sofern man genuegend speicher hat) und gesamte navigation mit ein vielfachen bisheriger szenerien gestaltet sich extrem einfach, man merkt garnicht mit vieviel datenwust man eigentlich zu tun hat. das hat mich wirklich beeindruckt.
@ henrik richter:
da scheint mir eh der grosse unterschied zwischen winxp64bit und osx 64bit unterstuetzung zu liegen - waehrend in osx nur programme in der shell 64bittig sein duerfen und moeglicherweise dann eine "remote" 32bit grafische oberflaeche haben, so ist im 64bit windows eine generelle 64bit generierung von programmen moeglich. betrifft also selbstverstaendlich auch grafische elemente der systemoberflaeche. in der hinsicht duerfte also windows tatsaechlich moderner sein als apples system, oder?

@Kai

Von: namepower | Datum: 03.02.2006 | #58
der G5 MP verbrattet immer noch doppelt soviel wie ein Core Duo!!! Gemessen an Performance/Watt ist der Core Duo sowieso der King wie auch alle Anandtech Benchmarks beweisen... und mehr hat der rollkragenpulli auch net gesagt. Wo bleibt denn ein 65nm PPC? Gibts denn schon? Intel ist startet schon testweise mit 45nm Verfahren, hat IBM schon 65nm PPCs rausgebracht?

Performance/Watt = Für einen G5 MP könnte mann Dual Core Duo reinbauen, also wird der G5 Performance mäßig baden gehen!!!

Und wegen Compiler.. siehe was Anandtech wieder dazu schreibt...
"...More than anything, I am interested to see how long it takes to bring Intel's compiler technology to the OS X platform. As Johan pointed out in his series on the G5, gcc 4.0 doesn't exactly produce the best code for AMD/Intel architectures, especially when compared to Intel's own C compilers..."

Kai ..Im übrigen sind die Geräte nicht wirklich Rev A, mit den Formfaktoren hat Apple ja nun schon reichlich Erfahrung...

Na toll, das Gehäuse ist wohl das wichtigste an einem Switch oder? Kompletter Plattform tausch, komplett neuer CPU & Mainboard... na Rev A kanns net sein weil das Gehäuse ja gleich auschaut.. wow..danke fürs Gespräch!

Außerdem was soll so blöd sein an der geringen Lieferbarkeit, als wäre das was ganz neues!!!!!

@Kai

Von: Henryk Richter | Datum: 03.02.2006 | #59
Der Chefentwickler hat also mal wieder gesprochen. Vielleicht solltest Du Dich mit Tatsachen und real existierendem Verhalten von Recheneinheiten und deren Compilern auseinandersetzen, anstelle wild irgendwelche Sniplets von Webseiten zusammenzusuchen, die Dir und Deiner gerade vorherrschenden Meinung in den Kram passen. Ein wenig praktisch erworbenes Hintergrundwissen schadet nichts.

Vielleicht würde Dir dann auch auffallen, wie selten ein auf C/C++ ausgelegter Auto-Vectorizer (egal ob der von Intel oder der aus dem GCC) in Code heutiger Komplexität zuschlägt und wie gering die Vorteile gegenüber Handoptimierungen ausfallen.

Der gcc hat beim Sprung auf Version 4.0 (konform mit dem C-Standard) einige (an sich ganz praktische) Konstrukte zum Typcasting für illegal erklärt. Gerade integerbasierte Altivec-Routinen auf Basis der Instrinsics sind jedoch prädestiniert dafür, die Verarbeitungsbreiten der Befehle je nach aktuell benötigtem Dynamikbereich zu variieren. Der findige Theoretiker mag nun behaupten, man könne ja beliebig viele Variablen definieren, deren Typ dem angestrebten Ausgabewert entspricht. Dummerweise schlägt hier ein nettes Problem der RISC-Rechner zu, indem jedes verwendete Register in der Subroutine auch auf dem Stack zu sichern ist. Je mehr Register, desto höher wird der ohnehin bei RISC entstehende Overhead von Prolog und Epilog der Subroutine (da kommen in Anwendungen wie Video-Codecs und der Verarbeitung kleiner Blöcke gut und gern 20% zusammen). Auch, wenn Altivec 32 Register bereitstellt, ist der Entwickler gut beraten nur soviele zu verwenden wie unbedingt nötig (Hint: ab knapp über 20 Registern wird es hakelig).

Meine eigenen Erfahrungen mit dem bei Tigger mitgelieferten gcc4.0 haben in meinen Codecs gut und gern 30% Performanceverlust in Altivec-lastigen Codeteilen hervorgebracht. Meine Reaktion darauf war schlichtweg "CC=gcc-3.3", nur das kann sich nicht jeder erlauben.

Abgesehen davon war in den zwischenzeitigen Entwicklerversionen des gcc-4.0 die Verwendung der oben geschilderten Konstrukte mit einem Compiler-Error verbunden. Je nachdem wieviel Zeitdruck dem Entwickler entstanden ist, kann es auch gern passiert sein, dass betreffende Codeteile zur Deadline hin deaktiviert werden mussten.

Universal Binary: G5 <> Intel Core

Von: Matthias | Datum: 03.02.2006 | #60
Hat jemand schon harte Fakten auftreiben können, wie die Geschwindigkeit von UBs sich auf den verschidenen Prozessoren ist...?
Kann mir eigentlich nicht vorstellen, das Apple die G5 extra benachteiligt. Aber eben schon, daß Intel-Chips bevorzugt werden.
Wie mag sich das auswirken?

Henryk:

Von: Kai (MacGuardians) | Datum: 03.02.2006 | #61
"Der Chefentwickler hat also mal wieder gesprochen. Vielleicht solltest Du Dich mit Tatsachen und real existierendem Verhalten von Recheneinheiten und deren Compilern auseinandersetzen, anstelle wild irgendwelche Sniplets von Webseiten zusammenzusuchen, die Dir und Deiner gerade vorherrschenden Meinung in den Kram passen. Ein wenig praktisch erworbenes Hintergrundwissen schadet nichts. "

Reg dich mal wieder ab, du bist nicht das Maß aller Dinge. Genau genommen bist du sogar der erste, von dem ich von Problemen mit dem GCC 4.0 höre, deshalb verzeih mir meine Verwunderung. Alle anderen Meinungen waren sehr positiv, ein bekannter Altivec-Programmierer ist davon sehr angetan (und findet die Altivec-Autovektorisierung gar nicht schlecht) und ich erinnere daran, dass Maxon erst dem GCC 4 eine Codequalität attestierte, die endlich den Codewarrior schlagen kann. Klar, Maxon nutzt keinen Vektorcode, aber es ist halt eine positive Aussage mehr, der bis zu deiner exakt null Beschwerden entgegenstanden.

"Vielleicht würde Dir dann auch auffallen, wie selten ein auf C/C++ ausgelegter Auto-Vectorizer (egal ob der von Intel oder der aus dem GCC) in Code heutiger Komplexität zuschlägt und wie gering die Vorteile gegenüber Handoptimierungen ausfallen."

Das kommt wohl auf den Code an. Loops, die über Arrays gehen und da stumpf die Daten abackern sind ja nicht gerade selten. Im Gegenteil, das sind oft die rechenintensiven Teile in den Programmen.
Intels Autovektorisierung ist wohl ziemlich gut, ohne SSE2 würde der P4 ja fast nix stemmen bei der lahmen stack-based x87-FPU..
GCC soll im Schnitt über 15% mehr Leistung durch Autovektorisierung bringen, GCC 4.1 soll sogar noch eins drauflegen.

Natürlich ist echter Vektorcode besser, aber genau darum geht's ja: Apple hat für iDVD garantiert richtigen Vektorcode verwendet (anders würd's ja gar nicht gehen, weil iDVD aus einer Zeit stammt, in der Autovektorisierung mit GCC noch ein Wunschtraum war!), also versteh ich nicht, was jetzt das Problem sein soll.

"Meine eigenen Erfahrungen mit dem bei Tigger mitgelieferten gcc4.0 haben in meinen Codecs gut und gern 30% Performanceverlust in Altivec-lastigen Codeteilen hervorgebracht. Meine Reaktion darauf war schlichtweg "CC=gcc-3.3", nur das kann sich nicht jeder erlauben."

a) Warum könnte sich Apple das nicht erlauben?
b) Hab ich wie gesagt andere Erfahrungen gehört...

"Abgesehen davon war in den zwischenzeitigen Entwicklerversionen des gcc-4.0 die Verwendung der oben geschilderten Konstrukte mit einem Compiler-Error verbunden. Je nachdem wieviel Zeitdruck dem Entwickler entstanden ist, kann es auch gern passiert sein, dass betreffende Codeteile zur Deadline hin deaktiviert werden mussten."

Hmm, da gibt's aber eines zu beachten: Apple macht und pflegt ihren GCC selbst. Wenn das Ding also nicht funzt wäre das ziemlich blöd, denn sie haben die Leute, die dafür verantwortlich sind im Haus sitzen und können denen die Ohren langziehen...

@kai wg gcc4

Von: Rüdiger Goetz | Datum: 03.02.2006 | #62
Hallo,

Ich hab meine Bench auf einem Athlon 64 3700+ sowohl mit gcc 3.3.5 (SuSE9.3) als auch gcc 4.0.2 (SuSE 10.0) gefahren.

Ergebnis:
Bei AMD64 etwas mehr Intergerperformance und etwas weniger FPU, unterm Strich ca 1 % mehr.

Bei x86 -32 sieht es etwas besser aus.
17 % im Int-Bereich, 3 % im FPU.

Ergo: Zumindest unter AMD64 auf einem Athlon 64 ist der Gewinn gering. Das ganze kann aber beim PPC970 anders aussehen (werd es wohl demnächst ausprobieren können ;-) )
Und der gcc4 ist wiederum mäckliger bzgl des Codes geworden. U.U gehen einige dirty tricks nicht mehr. Das kann Performance kosten. Und ggfs. ist Apple nicht mehr gewillt, diese Performance durch neue Tricks wieder hereinzuholen, weil sie sich auf x86 konzentrieren, bzw. eine gemeinsame Codebasis haben wollen und manche Tricks, die auf dem ppc gut sind, Gift für den x86-32 sind.
Summasumarum, sind aber auch ohne Böswilligkeit Perfromanceeinbusen für ppc bei neuen Programversionen denkbar. Und Apple mag das gelegen kommen um die "Überlegenheit" der x86er darzustellen. Aber letztlich ist das alles Spekulation.

Zurück zum gcc4: Ich glaube ehrlich egsagt der große Sprung kommt erst mit 4.1 oder 4.2. War beim gcc3 auch nicht viel anders. Der gcc 4 kann jetzt Autovektoriserung, der Biem 4.1 oder 4.2 wird sie dann ordentlich ausoptimiert sein.

Bis dann

R"udiger

Freut mich, dass die Diskussion

Von: Thyl (MacGuardians) | Datum: 03.02.2006 | #63
hier endlich wieder auf hohem Niveau erfolgt. Ich hatte den Merom als interessanteren Chip erwähnt, und mehrere Diskutanden haben sich auf den 64 Bit Aspekt gestürzt. Das hatte ich allerdings gar nicht gemeint. Ich finde am Merom interessant:
•den niedrigeren Stromverbrauch (wenn er denn realisierbar ist), was vielleicht auch endlich etwas höhere Taktraten gestattet;
•die Fähigkeit, mehrere Befehle zu einem zu bündeln, sofern sinnvoll (dazu weiß ich sonst nichts)
•und möglicherweise eine verbesserte SIMD-Einheit namens SSE4

Ach, und habt Ihr das Gerücht gehört, dass Apple mit intel bei der Entwicklung der größeren Prozessoren zusammenarbeitet? Nur ein Gerücht, aber was könnte Apple denn intel an Know How anbieten? Eigentlich doch nur die Erfahrungen im SIMD-Bereich mit Altivec oder die Crossbar-Erfahrungen mit Hypertransport (auch ein Gebiet, wo intel ein Projekt gekippt hat). Von der Architektur verspreche ich mir einiges; der Yonah ist ja demgegenüber nur ein Doppel-Pentium M mit SSE3.

Namepower:

Von: Kai (MacGuardians) | Datum: 03.02.2006 | #64
"der G5 MP verbrattet immer noch doppelt soviel wie ein Core Duo!!! Gemessen an Performance/Watt ist der Core Duo sowieso der King wie auch alle Anandtech Benchmarks beweisen... und mehr hat der rollkragenpulli auch net gesagt."

Der Rollkragenpulli hat uns 4.66 mal soviel Leistung pro Watt versprochen. Selbst wenn ein Core Duo 2GHz so schnell wäre wie ein 970MP (was er nun mal einfach überhaupt nicht ist, zumindest nicht in Apples eigener Software!) wäre das immer noch nur etwas mehr als zweimal soviel (70 Watt für nen 2GHz 970MP). Und wenn's Vektor- oder FPU-lastig wird sieht der Core Duo schonmal gar kein Land mehr...

"Wo bleibt denn ein 65nm PPC? Gibts denn schon? Intel ist startet schon testweise mit 45nm Verfahren, hat IBM schon 65nm PPCs rausgebracht?"

Intel soll erstmal 65nm-Chips in größeren Stückzahlen produzieren bevor sie groß das Maul aufreissen, was sie momentan nicht tun. Warum ist der Core Solo wohl der Ausschuss aus der Core-Duo-Fertigung mit einer kaputten Core, hm, was glaubst du? Weil die Yields so super sind?
Ach ja: Ein simples SRAM ist übrigens was komplett anderes als eine CPU.

Ansonsten:
[Link]
[Link]

Die Karawane zieht weiter, auch ohne Apple. IBM zeigt wie gesagt schon erste Testsamples von 65nm-Chips auf diversen Power-Meetings rum.

"Performance/Watt = Für einen G5 MP könnte mann Dual Core Duo reinbauen, also wird der G5 Performance mäßig baden gehen!!!"

Und für einen Dual 970MP könnte man Dual Dual Dual Core Intel reinbauen, INTeL IS tEH R0xX!!! VI HÄV SE COREzZZ!! 8) Dummerweise interessiert Stromverbrauch auf Desktops fast niemanden, sonst hätte sich der P4 niemals verkaufen dürfen. Genügend kranke Hersteller haben den ja sogar in Notebooks gebaut, warum? Weil der Stromverbrauch ja so unglaublich wichtig ist?

"Und wegen Compiler.. siehe was Anandtech wieder dazu schreibt...
"...More than anything, I am interested to see how long it takes to bring Intel's compiler technology to the OS X platform. As Johan pointed out in his series on the G5, gcc 4.0 doesn't exactly produce the best code for AMD/Intel architectures, especially when compared to Intel's own C compilers...""

..die leider kein ObjC können oder können werden! Wie schade aber auch!
IBMs XLC konnte das übrigens...

"Na toll, das Gehäuse ist wohl das wichtigste an einem Switch oder? Kompletter Plattform tausch, komplett neuer CPU & Mainboard... na Rev A kanns net sein weil das Gehäuse ja gleich auschaut.. wow..danke fürs Gespräch!"

Worauf bezieht sich denn das "never buy Rev A"? Richtig: Fertigungs/Designfehler. TiBooks, bei denen die Displayhalterungen Sprünge kriegen (fix: Alu-PB). iMac G5s bei denen die HD über der CPU hängt und infolgedessen langsam gegrillt wird (fix: iMac G5 Rev C). Also _exakt_ die Kinderkrankheiten die der iMac Core Duo und das Intel Powerbook NICHT mehr durchmachen müssen, weil Apple die Lektionen schon gelernt hat!
Die "Rev A"-Bedenken beziehen sich NIEMALS auf Software, denn jeder weiss, dass man Software durch ein simples Update fixen kann..

"Außerdem was soll so blöd sein an der geringen Lieferbarkeit, als wäre das was ganz neues!!!!!"

Entschuldige mal, aber war "mit Intel gibt's wenigstens keine Lieferprobleme mehr, da kriegt Apple IMMER soviele CPUs wie sie wollen!" nicht eines DER Kernargumente von euch Intel-Hurra-Schreiern?

"'Multiple exclamation marks,' he went on, shaking his head, 'are a sure sign of a diseased mind.'"
-- Terry Pratchett

Thyl:

Von: Kai (MacGuardians) | Datum: 03.02.2006 | #65
"Ach, und habt Ihr das Gerücht gehört, dass Apple mit intel bei der Entwicklung der größeren Prozessoren zusammenarbeitet?"

Ja. Lange nicht mehr so gelacht! ;-)

"Nur ein Gerücht, aber was könnte Apple denn intel an Know How anbieten?"

Gar nix. Alles, was Apple an Prozessordesign kann ist "baut da mal Altivec rein" sagen. Was Intel nicht tun wird und nicht kann (Copyright). Apple HAT kein Knowhow im Prozessorbereich, sie haben kein CPU-Design-Team. Der G5 (und der G4) wurde von IBM (bzw. Moto) nach Apples Vorstellungen gebaut, aber das hat mit Prozessordesign selbst gor nix zu tun.

Das glaube ich stimmt so nicht

Von: Terrania | Datum: 03.02.2006 | #66
Altivec war eine Co-Entwicklung von Motorola, IBM UND Apple. Da könnten durchaus Rechte bestehen.

@Kai

Von: Henryk Richter | Datum: 03.02.2006 | #67
Point taken. Es war nicht meine Absicht, mich in den Vordergrund zu drängeln, geschweige denn die Leistungen der gcc-Entwickler in irgendeiner Weise schmälern zu wollen. Ich halte nebenbei gesagt den gcc für das Beste, was die GNU Bewegung bisher zustande gebracht hat.

Andererseite musst Du Dich nicht wundern, wenn andere Leute angesichts Deiner tendenziösen Meinungsäußerungen der letzten Wochen auf Dich reichlich allergisch reagieren.

Ich habe geschildert, welche Probleme sich im Kontext von Videodatenverarbeitung und deren Menge pro Arbeitsschritt (<=256 Bytes) aufzeigen (können). Weiterhin habe ich ausgeführt, warum Altivec-Routinen mit dieser Größe an Verarbeitungseinheiten aufgrund der je nach Compiler und Algorithmen entstehenden Overheads unter Umständen suboptimal arbeiten können. Das ganze Dilhemma läßt sich im Übrigen durch Coding in ".asm" umgehen, nur dann wären wir wieder bei der Steinzeitmethodik, völlig plattformabhängigen Code zu produzieren. (Instrinsics laufen wenigstens mit verschiedenen Compilern und verschiedenen Binärformaten)

Andere Problemstellungen und Algorithmen sind davon gänzlich unangetastet. Der von Dir in den Raum eingewechselte Kontext der uniformen Verarbeitung großer Arrays spielt in einer ganz anderen Liga. Dort (und genau dort) kann bei entsprechendem Layout der Daten eine automatische Vektorisierung ihre Stärken ausspielen. Genau aus diesem Grund ist im Sektor der numerischen Simulationsvorgänge immer noch FORTRAN an der Tagesordnung. Aber auch das ist OT.

Nun noch zu Deinem Argument, Apple pflege einen Fork des gcc. Richtig. Das tun sie. Daher ist das angesprochene Verbot der von mir genannten Konstrukte auch in der beim Tiger beiliegenden Final in Warnings umgebaut worden, während die offiziellen gcc-Pakete da strenger agieren.

Und noch eine redundante Meinung am Rande: Das Problem liegt immer im Detail oder anders ausgedrückt dort, wo man es nicht erwartet.

Ich wünsche allen ein ausgeglichenes Wochenende.

Thyl:

Von: Karl Schimanek | Datum: 03.02.2006 | #68
"Ach, und habt Ihr das Gerücht gehört, dass Apple mit intel bei der Entwicklung der größeren Prozessoren zusammenarbeitet? Nur ein Gerücht, aber was könnte Apple denn intel an Know How anbieten?"

Ich kann nur sagen, dass Keith Diefendorff wieder bei Apple arbeitet ...

PowerPC und Intel: In ewiger Freundschaft vereint.

Von: www.MacForce.de | Datum: 03.02.2006 | #69
@ naaamd, "lol" und kai:
Der G4 wurde anfangs aufgrund von Lieferengpässen bei Motorola durch die Bank um 50 Mhz nach unten getaktet, i.e. von 400 -> 350, 450 -> 400 und 500 -> 450. Hier schnarcht also gar niemand, sondern alle haben recht (ist doch super, dachte nie, dass es mal dazu kommt).

@ Ausgangspunkt der Diskussion:
Ein gesockelter Prozessor ist immer eine feine Sache, und dass Apple so etwas endlich wieder mal im iMac verbaut, ist darüber hinaus eine riesige Party wert, die ich am liebsten auf meine Kosten bei mir veranstalten würde, wenn ich nicht gestern ein erschreckendes Gespräch mit meinem Prof. bzgl. seiner Vorstellungen zu meiner Magisterarbeit gehabt hätte.

@ Kai:
Bin Deiner Meinung. Die Upgrades sind die letzte verbliebene Burg der heilen Welt. Ich hoffe, dass demnächst wieder mehr G4-Upgrades auf den Markt kommen, am besten mit 7448 (PL will ja unbedingt der erste sein, bin gespannt, wann [und ob] sie es schaffen). Dann kauf' ich mir wieder einen alten G4-PowerMac und bunker ihn voll bis zum Rand. Freu mich schon drauf :)

Ich finds hier zur Zeit echt spassig. Riesenstimmung und immer was los. Wenn ich mich ablenken will, bin ich immer wieder gerne bei MG. Weiter so ;)

Ich wünsche Kai endlich mal ein ausgeglichenes Wochenende ;-)

Von: Philipp | Datum: 03.02.2006 | #70

Blah bla bla

Von: NAME | Datum: 03.02.2006 | #71
Manchmal verbreitet ihr so was von blech!
Und kaum wird gebasht, da ist auch der Kai wieder aufm parket!
Ich unterstelle euch wirklich null-plan. Eure Prognosen gehen nicht auf, sie sind tatsächlich so schnell wie ihr befürchtet habt - egal wie sehr Kai versucht sie auf extrem subjektiv-objektive rein hypotetische art und weise alt aussehen zu lassen.

Kai und subjektiv ...

Von: Karl Schimanek | Datum: 03.02.2006 | #72
selten so gelacht. Die PowerPC Fraktion bringt wenigstens Fakten 8-)

genau

Von: Duda | Datum: 03.02.2006 | #73
"Die PowerPC Fraktion bringt wenigstens Fakten"

die teilweise aus dem Zusammenhang gerissen sind und nicht wirklich belegt sind! ;-)

Ich bin überrascht.

Von: Heulsuse | Datum: 03.02.2006 | #74
Ich verstehe das Gejaule nicht.

Apple hat eine CPU für den NOTEBOOK Anwendungsbereich (Yonah) in einen Desktop Rechner gepappt (iMac).

Und hier werden vergleiche zu (Dual) G5 angestellt. Das wird ein Höllenbad der Gefühle für die PPC Abhängigen, wenn die MacPros auf dem Markt sind ....

Frohes Schaffen!

Logic Pro 7.2 (Universal) Now Available

Von: Duda | Datum: 03.02.2006 | #75
[Link]

@Heulsuse

Von: MichaelK | Datum: 03.02.2006 | #76
Sollten die neuen Pros zum Ende des Jahres kommen, müßte doch eigentlich jeder enttäuscht sein, wären sie nicht schneller als der Quad. Immerhin erwartet man dies von neuen Rechnern. Doch sollten die Intels dies doch nicht so ohne weiteres schaffen, dann wir Apple bis dahin genug am OSX geschraubt haben, damit dieses einfach bedeutet langsamer auf einen PPC im Vergleich zu einem Intel-Mac läuft. Erste Hinweise gibt es sogar schon (von iDVD 06 abgesehen), das OSX mit dem Update 10.4.4. auf dem PPC langsamer geworden ist - und dies, obgleich noch im Dezember einige Optimierungen für den Quad angekündigt wurden! Ich denke, hier sollten wir in Zukunft genauer hinschauen und uns dies nicht gefallen lassen!

Ja Genau :-)

Von: l | Datum: 03.02.2006 | #77
Oder Apple schleust mit einem Update ein Programmchen ein das den G5 zum durchbrennen bringt.
Was wiederum dazu führt das man sich einen neuen Intel Mac kaufen muss.

Ich sag nur

Von: Karl Schimanek | Datum: 03.02.2006 | #78
10.4.3 vs. 10.4.4.

Ich sag nur ....

Von: l | Datum: 03.02.2006 | #79
ersetzt man vom Wort "Appel" das "A" durch ein "I", das "p" durch ein "n" und das zweite "p" durch ein "t"
Na, was kommt da raus?
Zufall?
WOHL KAUM!!!!!!

Ähämm

Von: dermattin | Datum: 04.02.2006 | #80
"Die PowerPC Fraktion bringt wenigstens Fakten"

Welche?

- PPC ist Besser
Falsch. Die Geschichte zeigt, dass die PCs die meiste Zeit gleichauf lagen oder bessere Technik boten. Mit dem PPC gab es nur wenige Moment, wo man "Vorne" war.

- Apple hat keine Innovationsmöglichkeiten mehr
Wurde anhand der ersten Mintels widerlegt. Es liegt immer noch an Apple, was sie innovativ sein wollen und wann nicht, nicht an den Hardwarepartnern.


- Apple will nicht für CPUs zahlen
Wäre ja noch schöner, wenn Apple bei dem einen für etwas bezahlen soll, was er beim anderem für Lau bekommt

- Apple muss mit billig Hardwareherstellern konkurrieren
Muss Apple mit dem PPC auch. Bzw, müssen sie nicht

- Der PPC wäre viel besser für Apple
Ist widerlegt, was das Performance per Watt angeht (darauf sind ja alle scharf). Wie toll so PPCs sind sieht man an der den Hitzetod sterbenden Xbox360;)

- Keine 64bit Strategie
Macht also nix, welche CPUs verbaut werden ;) Ansonsten ist 64Bit kein wirkliches Thema

- Windows wird die Macprogramme verdrängen
M$ sagt, sie werden kein Windows auf dem Mac lauffähig machen, auch sonst ziemlicher Blödsinn.

- OSX Kopien vermiesen Apple das Geschäft
Wie zu vermuten ist der Aufwand einfach zu gross um da Apple in irgendeiner Art zu ärgern


Wurde hier schonmal erwähnt, die Karavane zieht weiter.


Kai,

"Also _exakt_ die Kinderkrankheiten die der iMac Core Duo und das Intel Powerbook NICHT mehr durchmachen müssen, weil Apple die Lektionen schon gelernt hat!"

Warum lässt du das neue Board ausser Acht?


"Dummerweise interessiert Stromverbrauch auf Desktops fast niemanden, sonst hätte sich der P4 niemals verkaufen dürfen."

Dummerweise ist der iMac kein normaler Desktop. Mit einem Intelchip ist er leiser und mehr als doppelt so schnell.


"Genügend kranke Hersteller haben den ja sogar in Notebooks gebaut, warum? Weil der Stromverbrauch ja so unglaublich wichtig ist?"

Was genau ist eigentlich dein Argument? Wenn der PPC weniger verbraucht, ist Stromsparen sehr wichtig und wenn der Intel dort besser passt, ists eh nur albern, braucht ja eh keiner, kümmert ja eh keinen?


"Und wenn's Vektor- oder FPU-lastig wird sieht der Core Duo schonmal gar kein Land mehr..."

Die C4D Version für die Mintels sagt da aber etwas anders. 2x2 Ghz Intel Cores schaffen 60% der Leistung eines 4x2.5 Ghz G5 970MPs... 100% als mit nur 4x2ghz Intel Cores.

MichaelK

Von: dermattin | Datum: 04.02.2006 | #81
Also bis auf C4D ist mir bisher noch kein Programm untergekommen, das die CPUs meines Quads mehr als jeweils 25% beansprucht, expliziet weiss ich es von FC, OT Exportieren, Motion...

Hab aber nicht drauf geachtet, ob es vor 10.4.4. genau so war.

-e

Von: dermattin | Datum: 04.02.2006 | #82
Hiermit entschuldige ich mich auch für alle anderen Rechtschreibfehler :)

mattin:

Von: Kai (MacGuardians) | Datum: 04.02.2006 | #83
"- PPC ist Besser"

"Falsch. Die Geschichte zeigt, dass die PCs die meiste Zeit gleichauf lagen oder bessere Technik boten. Mit dem PPC gab es nur wenige Moment, wo man "Vorne" war."

Du verwechselst da gerade zwei Dinge: Das Potential einer CPU und die effektive Umsetzung dessen. Dein Problem ist -wie das der meisten Intel-Hurra-Schreier-, dass du einfach nicht kapieren willst, dass das, was (besonders in 3D-Grafik) am meisten Performance im Vergleich zu PCs kostet das simple Faktum ist, dass OS X nicht Windows ist. Sieht man gerade besonders toll an C4D OpenGL oder Doom3, das mit einer 8-pipeline Geforce 6600 deutlich schneller läuft auf nem DC 2.3 GHz als auf nem Core Duo. Und auf beiden deutlich langsamer als unter Windows mit derselben GPU und ähnlichen GPUs!
Das war übrigens unser Kernargument, nicht "PPC ist besser". Dass PPC besser ist steht ausser Frage (guck in die Top500 was so ein G5 leisten kann), der PPC kommt halt nur nicht so gut mit Scheisscode klar wie x86. Dummerweise gibt's leider extrem viel Scheisscode.. Aber der wird über kurz oder lang sowieso aussterben, weil auch auf Intel die Hersteller ihre Codebase modernisieren müssen mit Dual- und Quad-Core vor der Haustüre, ob sie wollen oder nicht! Mit GCC 4 und 4.1 legt die Performance bei Scheisscode bei PPC hingegen zu (Autovektorisierung). Diese Entwicklungen will Apple aber nicht abwarten, lieber feige dem Mainstream folgen...

Ach ja, momentan scheint wohl so ein "kurzer Moment" zu sein, wo wir vorne liegen:
[Link]

Man beachte den Abstand des Quads zur dicksten momentan erhältlichen Intel-Workstation in AfterFX in Test 3 und 5... Und nein, AfterFX nutzt nur sehr schwach die vier CPUs aus, wie man am Vergleich zum Dual 2GHz G5 sieht!

"- Apple hat keine Innovationsmöglichkeiten mehr
Wurde anhand der ersten Mintels widerlegt."

Aha. Womit? Weil der iMac jetzt auch DVI und Screenspanning kann? Weil das Macbook jetzt nen Magnetstecker hat? Ich bitte dich, mach dich doch nicht lächerlich!

"Es liegt immer noch an Apple, was sie innovativ sein wollen und wann nicht, nicht an den Hardwarepartnern."

Mit PPC konnte Apple bestimmen, welche Technik auf die Motherboards und sogar welche in die Chips kommt (z.B. Altivec in den G5). Das können sie sich bei Intel lecker stecken!


"Apple will nicht für CPUs zahlen"

Was für ein "Argument" soll das sein? Apple zahlt offensichtlich bei Intel mehr für die CPUs als bei Freescale/IBM, zumindest laut iSuppli, die beides zerlegt haben...

"- Apple muss mit billig Hardwareherstellern konkurrieren
Muss Apple mit dem PPC auch. Bzw, müssen sie nicht"

Es gibt Billighersteller mit PPC-Hardware?? Wo? Bitte sagt's mir, meine Rettung!

"- Der PPC wäre viel besser für Apple
Ist widerlegt, was das Performance per Watt angeht (darauf sind ja alle scharf)."

Wo ist das "widerlegt"? Weisst du, was eine SPU in der Cell braucht? 5 Watt bei 3.2 GHz. FÜNF WATT! Und damit kannst du 25.6 GFLOPS oder ebensoviele Giga-Ints-per-second rechnen - in 32bit, in 16bit wären's 51.2, in 8bit 102.4. Wenn man also Apple/Intels "wir suchen uns das raus, worin unser Compiler und unsere Chips besonders gut sind (SPEC, insbesondere SpecINT)"-Spielchen spielt dann kann man das auch mit der Cell machen. Fünf Watt für 25.6 GFLOPS oder GINTS. Spiegelt zwar die reale Anwendungs-Performance kaum wider, aber hey, wer hier verdient mit SPEC sein Geld? Bitte Hand hoch! ;-)

"Wie toll so PPCs sind sieht man an der den Hitzetod sterbenden Xbox360;)"

Weisst, Martin, ich find's schon unglaublich komisch, wie du das Fähnchen im Wind spielst. Kaum sagt Jobs "spring", macht der Mattin ne 180 Grad Drehung, und auf einmal wird PPC gebasht bis zum St.Nimmerleinstag und Intel über den grünen Klee gelobt. Kannst du dich eigentlich noch guten Gewissens im Spiegel betrachten?

"- Keine 64bit Strategie
Macht also nix, welche CPUs verbaut werden ;) Ansonsten ist 64Bit kein wirkliches Thema"

Nö, überhaupt nicht. Windows Vista Server wird's zwar ausschließlich in 64bit geben, aber hey, 64bit ist echt kein Thema! ;-) 64bit interessiert echt niemanden, wer braucht schon 10-30% mehr Leistung? Wir werden in 5 Jahren noch alles in 32bit haben!.. Also WIR Mac-User schon, die Windows- und Linux-Welt nutzt dann allerdings schon lange 64bit-Software und deren Vorteile!

"- Windows wird die Macprogramme verdrängen
M$ sagt, sie werden kein Windows auf dem Mac lauffähig machen, auch sonst ziemlicher Blödsinn."

Wo sagt M$ das? Und warum ist das "ziemlicher Blödsinn"? Frag doch mal die Linuxer, was die so als Antwort von den Herstellern kriegen wenn sie nach Linux-Versionen für ihre Rechner fragen! "Ja, installieren Sie sich halt Windows!" - Diesen Satz hörte man als Mac-User in der Vergangenheit selten, weil geht nicht. In Zukunft wird er zum Standard-Repertoire gehören....
Bin gespannt, ob überhaupt noch Games portiert werden wenn Windows läuft. Die Zocker haben wohl eher wenig Bock auf langsame OS X OpenGL-Performance wenn sie wissen, dass auf DERSELBEN MASCHINE das Game unter Windows drastisch schneller läuft! Sagt Ryan Gordon (Unreal-Programmierer für Linux/Mac) übrigens auch, er fragt sich, ob Mac-Games überhaupt noch Bestand haben mit Intel und Windows-Kompatibilität, oder ob der kommerzielle Mac-Spielemarkt in ein paar Jahren genauso scheitert wie der Linux-Spielemarkt.

Im übrigen hab ich hier schon ein Textfile mit 19 Schritten, wie man Windows XP (mithilfe einer bootfähigen Vista-Beta-CD für EFI) auf nem Intelmac installiert....

"- OSX Kopien vermiesen Apple das Geschäft
Wie zu vermuten ist der Aufwand einfach zu gross um da Apple in irgendeiner Art zu ärgern"

Den "Aufwand" wird wie immer nur einer haben: Der Cracker. Wenn der Käse mal gegessen ist ist die Luft raus, dann geht das gecrackte Image rum (genauso wie gecrackte Windows-Versionen ohne Registrierung) und jeder kann's sich auf seinen PC bügeln.

"Also _exakt_ die Kinderkrankheiten die der iMac Core Duo und das Intel Powerbook NICHT mehr durchmachen müssen, weil Apple die Lektionen schon gelernt hat!"

Warum lässt du das neue Board ausser Acht?"

Weil es sehr unwahrscheinlich ist, dass das Board nen Fehler hat. Jedenfalls in Relation zu Apples leider sehr häufig auftretenden Design-Fehlern.
Ausserdem kommt das Reference-Design für das Logicboard und die Chips darauf sowieso von Intel, und die könnten sich solche Fehler nicht leisten, weil davon noch ganz andere Abnehmer abhängen und ihre Referenzboards sowieso fehlerfrei sein MÜSSEN! ;-)
Selbst der von Tomshardware entdeckte ACPI-Bug, bei dem ein Core Duo-Laptop bei angeschlossenem USB-Gerät den Akku deutlich schneller leersaugt als andere Laptops tritt NUR in Kombination mit dem M$-ACPI-Treiber auf. THG schreibt selbst, dass das Intel-Powerbook davon höchstwahrscheinlich nicht betroffen sein wird...

"Dummerweise ist der iMac kein normaler Desktop. Mit einem Intelchip ist er leiser und mehr als doppelt so schnell."

Bullshit, "mehr als doppelt so schnell". In welcher Welt lebst du eigentlich? Wieviele Tests müssen dir noch sagen, dass Apples Behauptungen Schwachsinn sind? Was willst du? Macwelt? Macworld? MacUp? MacLife? MacAddict? Ars Technica? Barefeats? Anandtech? KEINER kam mit der vorliegenden nativen Intel-Software zu dem Fazit, dass "mehr als doppelt so schnell" auch nur ansatzweise der Realität entspricht!...
Und nein, die zigmal dickere GPU interessiert nicht: Da oben schreibst du definitiv "Intelchip"! >:-)

"Was genau ist eigentlich dein Argument? Wenn der PPC weniger verbraucht, ist Stromsparen sehr wichtig"

Der G5 war bis zur aktuellen Revision nie ein Stromsparer. Hat mich nie gestört. Jetzt würde er auch locker in Notebooks passen, aber Apple wollte ihn ja nicht haben. Und nur bei Notebooks interessiert Stromverbrauch, auf dem Desktop hat mich das NIE interessiert, solange die Dinger leise sind - und das waren die G5s dank ausgeklügeltem Belüftungssystem eigentlich immer, so nen Lärm wie bei nem MDD oder auch Quicksilver gab's bei den Dingern nie..


"Die C4D Version für die Mintels sagt da aber etwas anders. 2x2 Ghz Intel Cores schaffen 60% der Leistung eines 4x2.5 Ghz G5 970MPs... 100% als mit nur 4x2ghz Intel Cores."

Die C4D sagt mir auch, dass ein Core Duo 1.83 GHz mit X1600 so schnell ist in OpenGL wie ein Digital Audio von 2000 mit ner Radeon 9800 und 2 GHz G4. So, und jetzt? Vielleicht ist C4D ja doch nicht das Maß aller Dinge?...
Weisst du, was Maxon an "G5-Optimierung" gemacht hat? Loopcounters in Float statt in Integer definiert, um Float-to-Int-Konvertierung zu vermeiden. Ein Loopcounter für ne FMAC-fähige DP-FPU! Ja, das ist alles, und es ist echt arm, mit ner FPU nen Loop zu zählen... Und warum? Weil sie jahrelang von ihrem Codewarrior nicht lassen konnten! Intels ICC einsetzen, aber dann zu faul sein, den XLC für den G5 zu nehmen, der den Code gescheit für den G5 gescheduled hätte, weil man unbedingt bei Codewarrior bleiben will, echt super!...

Quad-Nutzung:

Von: Kai (MacGuardians) | Datum: 04.02.2006 | #84
"explizit weiss ich es von FC, OT Exportieren, Motion..."

..und DVD2one 2, und Compressor, und Photoshop (nicht alle Filter, aber einige), und Maya (mit und ohne Mentalray), und C4D, und Lightwave, und Modo, und Gaston, und Deep Shredder, und sogar AfterFX und Shake in gewissen Dingen! ;-)

Combustion, Cleaner und EIAS Universe höchstwahrscheinlich auch!...

Eins vergessen:

Von: Kai (MacGuardians) | Datum: 04.02.2006 | #85
Studio Artist 3, siehe hier:
[Link]

"As you can see, this particular PASeq doesn't benefit much from the faster and more numerous processors on the G5 Quad.

But with the second test, we started to see much more improvement, with a 1.5x speed bump for the quad-processor machine. This PASeq included four paint steps and two image operations: Gradient Lighting and Image Compressor.

But the third test was the most dramatic, with the Quad coming in at 29 percent the render time of the dual 2.0 GHz G5 (for a 3.5x speed bump!). This PASeq involved Smart Blur, Image Compressor and three automatic painting steps.

And the fourth test was also impressive for the Quad, with about a 2.5x speed bump over the dual 2.0 GHz system. This PASeq was designed to create an ink and wash effect on an image and included three image operations and two paint steps, plus some adjustments to the background."

Gibt also genügend Software, die das Ding nutzen kann! ;-) Sogar einiges Consumer-Zeug dabei, hehe... iDVD und Garageband nutzen immerhin mehr als zwei CPUs!

Beim QT-Export skaliert die Auslastung übrigens mit der Auflösung (160% bei 320x200 bis zu 320% bei 1920x1080 HD), ich vermute mal weil die CPUs dann mehr Zeit mit dem parallelisierbaren Encoding der einzelnen Bilder verbringen als mit dem schätzungsweise singlethreaded Zusammenrechnen der einzelnen Bilder (Bewegungs-Vektoren berechnen usw, sehr serieller Task!). Henryk kann hier sicher genaueres sagen! ;-)

c't

Von: Duda | Datum: 04.02.2006 | #86
In der neuen c't:

"Apples Intel-iMac
Äußerlich sind der alte und der neue iMac nahezu identisch. Doch unter der Haube hat sich viel getan: Stimmen Apples Werbesprüche, dass der Intel-iMac mindestens doppelt so schnell ist wie der PowerPC-Vorgänger? Laufen die Anwendungen wie gewohnt?"

Gibt es ab Montag!
Zeitschriftenhändler an Bahnhöfen haben die c't meist schon heute!

quad-nutzung - kai

Von: nico | Datum: 04.02.2006 | #87
arbeite mit lightwave und habe nen quad. letztens wieder einen job gehabt - die nacht durchgerendert. pro bild etwa 13min.
die prozi-anzeige war eigentlich zum heulen - wenn sie denn korrekt anzeigt. zwar taten alle kerne etwas, allerdings groesstenteils eher daeumchendrehen, so hatte ich den eindruck nach anzeige. die hoechsten ausschlaege gab es komischerweise immer beim sichern bzw beim einlesen...
jedenfalls war der quad etwa doppelt so schnell wie mein 2x 2ghz powermac g5, zweite revision. grundsaetzlich also ok, aber nicht berauschend...

Kai

Von: dermattin | Datum: 04.02.2006 | #88
Um einige Punkte zu konkretisieren bzw Missverständnisse auszuräumen:


"Was für ein "Argument" soll das sein? Apple zahlt offensichtlich bei Intel mehr für die CPUs als bei Freescale/IBM, zumindest laut iSuppli, die beides zerlegt haben..."

Ich bezog mich auf Neuentwicklungen, die Apple bezahlen sollte, wie den G5 mobil etc...



"Es gibt Billighersteller mit PPC-Hardware?? Wo? Bitte sagt's mir, meine Rettung!"

Ich rede vom PC Markt. Und das ist das Argument, dass Apple jetzt plötzlich in einem Markt mit geringen Margen überleben muss albern, denn das mussten sie schon immer und haben es prima hingekriegt.

...

Von: Karl Schimanek | Datum: 04.02.2006 | #89
"Ich bezog mich auf Neuentwicklungen, die Apple bezahlen sollte, wie den G5 mobil etc..."

Dafür musste Apple fast nix für die CPUs bezahlen ... 150$ für die damalige Top-CPU PPC970FX 2.5GHz ...

"Ich rede vom PC Markt. Und das ist das Argument, dass Apple jetzt plötzlich in einem Markt mit geringen Margen überleben muss albern, denn das mussten sie schon immer und haben es prima hingekriegt."

Mit dem Unterschied, dass jetzt die HW vergleichbar ist. War sie mit PPC eben nicht.

x86 Hardware gibt es überall und wenn erstmal X auf jeder DOSe läuft, dann kauft man sich doch lieber ein Acer "Ferrari" mit besserer Ausstattung und spart noch ein paar hundert Euro.

Vielleicht nicht die jetzigen Mac-User, noch nicht.

Und was ist mit den ganzen DOSen-Jüngern, die schon die x86-Hardware haben? Die kaufen sich doch nicht n Apple PC um X drauf laufen zu lassen, vorallem auch, wenn es ohne Apple PC geht.

Tja..

Von: dermattin | Datum: 04.02.2006 | #90
Es läuft nur kein Windows auf den Mintels. Und es läuft kein OSX auf PCs.

Auch zu Tiger Zeiten hiess es, es werde eine Welle von OSX Kopien geben. Was ist passiert? Nix. Dieses OSX-Image installieren ist heisse Luft. Apple wird Windows mit dem BIOS verhindern und M$ ebenfalls.

Apple muss sich nicht mehr als vorher dem PC Markt stellen. Oder glaubst du wirklich,d ass jetzt plötzlich alle Mac User aufwachen und erkennen, dass es noch weitere Computersysteme gibt auf dieser Welt? Rechne doch mal gegen, was teurer kommt, Milliarden für neue Chipentwicklungen oder Hunderte Millionen mehr Kosten für CPUs.

Damit wären zwei weitere Argumente (Argumente lieber Karl, nicht Fakten) gegen den Intel Switch vom Tisch. Sie reihen sich ein in meine obrige Liste bzw. standen dort schon, in der ich das "Mintels werden teuer als PPC Macs" vergessen hatte, das ebenfalls widerlegt wurde.

mattin:

Von: Kai (MacGuardians) | Datum: 04.02.2006 | #91
"Ich bezog mich auf Neuentwicklungen, die Apple bezahlen sollte, wie den G5 mobil etc..."

Das war ne Vermutung, die nicht gestimmt hat. IBM hat den Mobil-G5 auch so entwickelt - Nur wollte ihn Apple trotzdem nicht!

"Ich rede vom PC Markt. Und das ist das Argument, dass Apple jetzt plötzlich in einem Markt mit geringen Margen überleben muss albern, denn das mussten sie schon immer und haben es prima hingekriegt."

Äh - das mit iSuppli hast du gelesen, ja? Nochmal: Apple zahlt offensichtlich bei Intel mehr für die CPUs als bei Freescale/IBM, zumindest laut iSuppli, die beides zerlegt haben..."

Apples Margen sinken gerade dramatisch. "das mussten sie schon immer" stimmt nicht. Bin gespannt wie die Margen im SEC-Filing in einem Jahr aussehen im Vergleich zum letzten Quartal mit nur-PPC!

"Es läuft nur kein Windows auf den Mintels."

Nochmal: Ich hab hier ein nettes File, wie man in 19 Schritten Windows XP auf den Intel-Macs installiert...

"Und es läuft kein OSX auf PCs."

Komisch, dann war der Acer-Laptop mit OS X den ich letztens gesehen habe wohl eine Illusion. Immer mehr Leute berichten, dass in Hörsälen und anderswo PC-Laptops gesichtet werden, auf denen OS X läuft...

"Auch zu Tiger Zeiten hiess es, es werde eine Welle von OSX Kopien geben. Was ist passiert? Nix. Dieses OSX-Image installieren ist heisse Luft. Apple wird Windows mit dem BIOS verhindern und M$ ebenfalls."

a) Warum sollte M$ das verhindern? Was für nen Grund hätten sie? Woher hast du die Behauptung?
b) Apple hat unlängst erneut betont, dass sie nichtst tun werden, um Windows-Installation zu verhindern. Im Gegenteil: Apple erhofft sich davon zusätzliche Verkäufe an Kunden, bei denen Windows Voraussetzung ist. Der Yonah hat wohl noch kein Vanderpool, wart mal ab wenn das kommt, dann wirst du Windows und OS X mit einem Klick umschalten können, und Apple wird das Feature FETT bewerben!

"Apple muss sich nicht mehr als vorher dem PC Markt stellen."

Nein, nein, jetzt sind sie ja nur 100% vergleichbar geworden! ;-) Früher konnte man als Rechtfertigung für den höheren Preis noch sagen "Ja, Apple hat eigene Chips und das kostet halt mehr!", heute geht das nicht.

"Oder glaubst du wirklich,d ass jetzt plötzlich alle Mac User aufwachen und erkennen, dass es noch weitere Computersysteme gibt auf dieser Welt?"

Die kontinuierliche Abwanderung der Pro-User zu Windows und der sinkende Marktanteil der letzten Jahre ist gut dokumentiert, ganz besonders zu den Zeiten, bevor der G5 da war. Diese Abwanderung, die der G5 gestoppt hat so dass der Marktanteil nun (auch dank Mac Mini) wieder STEIGT, wird nun wieder beginnen. Denn wer der Leistung braucht will schon mehr zahlen für dieselbe Hardware? Nochmal: Bei Dell gibt's ein 17"-Laptop mit nem dramatisch besseren Grafikchip und ansonsten identischen Specs (minus beleuchtete Tastatur, iSight+Frontrow) für ein paarhundert Dollar weniger!

Pro-User sind da oft ambivalenter, als man denkt. Die haben auch ohne weiteres Clones damals gekauft, die auch nicht von Apple kamen, was dazu führte, dass Apple fast keine Rechner mehr verkauft hat. Warum sollte man auch mehr zahlen für das gleiche, nur weil Apple draufsteht? Hallo Dell-Laptop! ;-)
Die Rosetta-Umstiegskosten für Pro-User kommen noch hinzu. Wenn sie schlau sind haben sie auch von 64bit-x86 schon gehört und sehen den nächsten Switch schon kommen.. Gerade ist man erst auf OS X umgestiegen - bitte wer soll das mitmachen?

Mein Gott, ich kann mich noch erinnern, wie der Intel-Apologet #1 hier, Johngo (und andere), geschimpft haben wie die Rohrspatzen über die Softwarekosten, die auf sie zukommen wegen dem OS X Umstieg! ;-) Und diesmal findet er's total geil, diese Schizophrenie ist einfach nur lustig! ;-)

Vielleicht wird Apple in zwei Jahren ja wirklich mehr Marktanteil haben, fallen ja genug auf den Intel-Mist rein wie man sehen kann. Der Anteil bei Pro-Usern wird allerdings sinken, das ist schon fast sicher... Das ganze Crossplattform-Zeug wird auf Windows auf derselben Hardware eh schneller laufen und ob die paar Programme von Apple ausreichen um die Leute auf der Plattform zu halten darf mal bezweifelt werden. V.a. weil's auf Windows viel mehr DCC-Software gibt, die schon seit vielen vielen Jahren auf x86 optimiert wird und somit schneller läuft...

"Rechne doch mal gegen, was teurer kommt, Milliarden für neue Chipentwicklungen oder Hunderte Millionen mehr Kosten für CPUs."

Völlig lächerlich, die Zahl. "Milliarden" hat Intel für das komplette Design der Itanic ausgegeben. Selbst wenn Apple die Entwicklung bezahlen hätte müssen (was sie nicht mussten) wäre das nur eine Beteiligung gewesen, denn IBM hätte nicht von Grund auf ne neue CPU designed (wie die Itanic), sondern wie zuvor auch schon bestehende CPUs genommen und daraus was für Apple gestrickt.

Die "paar hundert Mio" mehr für CPUs bleiben dann allerdings! ;-)

"Damit wären zwei weitere Argumente (Argumente lieber Karl, nicht Fakten) gegen den Intel Switch vom Tisch."

Träum weiter. War ja eigentlich alles falsch, was du gesagt hast! ;-)

"Sie reihen sich ein in meine obrige Liste bzw. standen dort schon, in der ich das "Mintels werden teuer als PPC Macs" vergessen hatte, das ebenfalls widerlegt wurde."

Bitte? Ich dachte, die sollten eigentlich BILLIGER werden, weil man doch jetzt kein "teures" PPC mehr verbaut??

Aus einem völlig gescheiterten Haupt-Argument der Pro-Intel-Seite ("Hurra! Endlich werden Macs günstiger!") baust du einfach ein Pro-Argument ("Sie sind nicht teurer geworden, hurra!"). Das muss man sich echt mal auf der Zunge zergehen lassen!...

NB: *Ich* hab damals gesagt, dass Apple weniger zahlt für PPC als die meisten Leute glauben und sogar weniger als für Intel. Was offensichtlich stimmte (siehe iSuppli). Ich sagte damals, dass die Macs im Preis gleich bleiben werden (mit reduzierten Margen) oder vielleicht sogar teurer werden. Jetzt rate mal, welchen Fall wir nun haben! ;-)

Mensch, ist doch logo ... ;-)

Von: Karl Schimanek | Datum: 04.02.2006 | #92
"a) Warum sollte M$ das verhindern? Was für nen Grund hätten sie? Woher hast du die Behauptung?"

Ist doch klar, was meinst du warum M$ das verhindern muss. Wenn Windows auf nem Apple PC läuft, dann:

a) läuft Windows wahrscheinlich stabiler
b) können sie Office for Mac einstellen, weil nur noch das Windows Office gekauft wird
c) wird vielleicht weniger auf den Mac portiert

Drei Dinge, die sich Crimo$oft wirklich nicht leisten kann.

Kai

Von: Duda | Datum: 04.02.2006 | #93
"Das war ne Vermutung, die nicht gestimmt hat. IBM hat den Mobil-G5 auch so entwickelt - Nur wollte ihn Apple trotzdem nicht!"

Kam zu spät. Kein DualCore usw.


"Äh - das mit iSuppli hast du gelesen, ja? Nochmal: Apple zahlt offensichtlich bei Intel mehr für die CPUs als bei Freescale/IBM, zumindest laut iSuppli, die beides zerlegt haben...""

Apple kann sich aber sicher sein, dass die Entwicklung weitergeht. Das kann Apple bei IBM/Freescale nicht!


"Apples Margen sinken gerade dramatisch. "das mussten sie schon immer" stimmt nicht. Bin gespannt wie die Margen im SEC-Filing in einem Jahr aussehen im Vergleich zum letzten Quartal mit nur-PPC!"

Liegt am Sitch. Alles sind heiss auf Intel Macs die sich richtig gut verkaufen ;-)


"Nochmal: Ich hab hier ein nettes File, wie man in 19 Schritten Windows XP auf den Intel-Macs installiert..."

Ach diese eine Meldung. War ein rein theoretisches Gedankenexperiment, dass aber nicht geklappt hat. Siehe div. Meldungen ;)



"Komisch, dann war der Acer-Laptop mit OS X den ich letztens gesehen habe wohl eine Illusion. Immer mehr Leute berichten, dass in Hörsälen und anderswo PC-Laptops gesichtet werden, auf denen OS X läuft..."

Mag sein. Das sind aber alles Beta-Versionen, die irgendwo Macken haben. Die aktuelle Final von OS X läuft nur auf Mac!


"Der Yonah hat wohl noch kein Vanderpool, wart mal ab wenn das kommt, dann wirst du Windows und OS X mit einem Klick umschalten können, und Apple wird das Feature FETT bewerben!"

Der Yonah hat bereits Vanderpool. Es muss nur per Bios/EFI aktiviert werden.
Das heisst aber noch lange nicht, dass man nachher einfach umschalten kann. Da muss M$ auch mitspielen (siehe Xen)


"Nein, nein, jetzt sind sie ja nur 100% vergleichbar geworden! ;-) Früher konnte man als Rechtfertigung für den höheren Preis noch sagen "Ja, Apple hat eigene Chips und das kostet halt mehr!", heute geht das nicht."

Stimmt teilweise. Wobei Apple sich immer noch mit OS X, design usw. abheben kann.

Kai,..

Von: dermattin | Datum: 04.02.2006 | #94
"a) Warum sollte M$ das verhindern? Was für nen Grund hätten sie? Woher hast du die Behauptung?"

M$ sagt das. Vista wird NICHT auf Macs laufen. Und da spielen vereinzelte lauffähige Hackertests keine Rolle.


"Träum weiter. War ja eigentlich alles falsch, was du gesagt hast! ;-)"

Ich frag mich, wer hier träumt, die Realität hat dich grösstenteils widerlegt und du merkst es nichtmal :) Du hast dir eine totsichere Strategie zurecht gelegt, durch die du niemals fehl gehen wirst:

"Vielleicht wird Apple in zwei Jahren ja wirklich mehr Marktanteil haben, fallen ja genug auf den Intel-Mist rein wie man sehen kann."

Entweder ist Apple erfolglos oder alle sind blöde und unzurechnungsfähig. In jedem Fall kannst du dich zurücklehnen und dir selbst auf die Schulter klopfen.

Duda:

Von: Kai (MacGuardians) | Datum: 04.02.2006 | #95
"Kam zu spät. Kein DualCore usw."

Zum hundertsten mal: Der Mobile G5 ist nichts anderes als ein Singlecore 970MP. Welcher seit Oktober 2005 real in Macs erhältlich ist. Und welchen Apple nachweisbar seit frühestens März 2005 hätte (drei Monate vor Switch-Ankündigung), höchstwahrscheinlich sogar einige Monate zuvor.
Wenn es Macs mit 970MP zu kaufen gibt, warum hätte es keine Macs mit Mobile G5 zum selben Zeitpunkt geben können sollen?

"Apple kann sich aber sicher sein, dass die Entwicklung weitergeht. Das kann Apple bei IBM/Freescale nicht!"

Schwachsinn. Warum sollte IBM seine Chipentwicklung einstellen? Besonders, nachdem die Itanic gerade formidabel baden gegangen ist!
IBM hat schon immer Chips entwickelt, egal ob mit oder ohne Apple, und es deutet exakt NIX darauf hin, dass sich daran jemals was ändern wird. Power.org, M$, Sony und Nintendo werden sich kaum auf nen Chiphersteller verlassen, der vielleicht morgen die Chipentwicklung einstellt. Oder denkst du die PS3, die Xbox360 und das Revolution sind die letzten Konsolen überhaupt?

"Liegt am Sitch. Alles sind heiss auf Intel Macs die sich richtig gut verkaufen ;-)"

Weil Intel-Macs sich gut verkaufen sinken Apples Margen? Damn, welch Logik! Und da dachte ich das liegt daran, dass alleine der Chip schon $200 mehr kostet als der G4, der vorher in den PBs war, von iSight, Front Row, der GPU und dem VRAM wollen wir erstmal besser gar nicht anfangen! ;-)

"Ach diese eine Meldung. War ein rein theoretisches Gedankenexperiment, dass aber nicht geklappt hat. Siehe div. Meldungen ;)"

19. If everything has gone well, XP will boot!!

"Mag sein. Das sind aber alles Beta-Versionen, die irgendwo Macken haben."

Quatsch. Das OS X auf den Devkisten war ein vollwertiges OS X, da stand NIRGENDWO irgendwas von Beta (hat Steve ja auch gesagt auf der WWDC). Die Meldung mit Feature-Parity von 10.4.3 auf PPC/Intel damals hast du mitbekommen, ja?

"Die aktuelle Final von OS X läuft nur auf Mac!"

Es gibt eine "Final" von OS X? Echt? Was soll das sein?

"Der Yonah hat bereits Vanderpool. Es muss nur per Bios/EFI aktiviert werden."

Das kommt wohl drauf an, welche Version es ist und ob der abnehmende OEM VT wollte. Das letzte was ich hörte ist, dass keine definitive Info raus ist, ob die Intel-Macs VT können.

"Das heisst aber noch lange nicht, dass man nachher einfach umschalten kann. Da muss M$ auch mitspielen (siehe Xen)"

Und warum sollte M$ was dagegen haben, dass Windows auf Macs läuft? Schonmal auf die Virtual PC-Seite geguckt? Bundle-Angebot VPC mit Windows, direkt von M$ für deinen Mac?

Mattin:

Von: Kai (MacGuardians) | Datum: 04.02.2006 | #96
"M$ sagt das. Vista wird NICHT auf Macs laufen. Und da spielen vereinzelte lauffähige Hackertests keine Rolle."

Wo sagt M$ das?

"Ich frag mich, wer hier träumt, die Realität hat dich grösstenteils widerlegt und du merkst es nichtmal :)"

Und den Spruch ausgerechnet von dem Letzten, der immer noch schön brav Steves "mehr als doppelt so schnell" widerkäut, obwohl ihn ALLE Tests widerlegt haben...

19. If everything has gone well, XP will boot!!

Von: Duda | Datum: 04.02.2006 | #97
"19. If everything has gone well, XP will boot!!"

stand glaube ich sogar auf heise, dass dieser typ noch nichtmal einen mac hat, es ein reines gedankenexperiment war, dass nicht funktinoniert.

bin zu faul jetzt das alles wieder zu suchen und ich kann nicht ständig irgendwelche bookmarks setzten


zu der dev-version!

das war halt die dev-version die noch fehler hat im vergleich zu der aktuellen, die auf den intel macs ausgeliefert wird. und diese version kann man nicht auf pcs installieren.

sowiet ich weiss läuft ein grossteil der software auch nicht mehr auf der dev version

hehehe

Von: Duda | Datum: 04.02.2006 | #98
"Und den Spruch ausgerechnet von dem Letzten, der immer noch schön brav Steves "mehr als doppelt so schnell" widerkäut, obwohl ihn ALLE Tests widerlegt haben..."

tja, es gibt ja schon ein programm, dass sogar mehr als doppelt so schnell ist. ;-)

Cinema 4d

andere werden folgen!

UNd was man so zu den Pro-Audio Apps von Apple hört, ist auch nicht schlecht ;)

aber sicherlich wird das doppelt so schnell in den seltensten fällen erreicht werden. das sollte klar sein.

fakt ist:

DER CORE DUO IST SCHON JETZT SCHNELLER ALS DER G5!

wen interessiert es, dass er in schlecht optimierter software nur 20 bis 30 prozent schneller ist mit zwei cores, wenn er max 30 watt zieht ;) das ist mir viel wichtiger als so eine heizkiste zu haben. ich muss immer über die leute lachen, die sich früher über den presskopf lustig gemacht haben was den stromverbrauch betrifft und die damaligen power macs eigentlich fast noch schlimmer waren. prescott ist diesbezüglich auch besser geworden.
;-)

Windows auf Intel-Macs: noch nicht

Von: Duda | Datum: 04.02.2006 | #99
Eine auf den ersten Blick viel versprechende Anleitung entpuppt sich nach genauerem Hinsehen als genau das, was der Autor schon in ihren Titel geschrieben hat: ausschweifende Überlegungen ("Ramblings of a Computer Guru"). Schon der erste in den Überlegungen vorgeschlagene Schritt – das Starten von der Boot-CD des Acronis Disk Director – schlägt nämlich fehl:

[Link]



PS:

Core Duo ist laut Aussagen div. Leute, die sowohl Rev C, als auch den Intel iMac haben DEUTLICH LEISER -> kein Vergleich!!! Und Macwelt usw. schreibt Bullshit zu den Lautstärkeanaben, wie auch im Macuserforum festgestellt wurde.!

@ kai

Von: johngo | Datum: 04.02.2006 | #100
" ... Mein Gott, ich kann mich noch erinnern, wie der Intel-Apologet #1 hier, Johngo (und andere), geschimpft haben wie die Rohrspatzen über die Softwarekosten, die auf sie zukommen wegen dem OS X Umstieg! ;-) Und diesmal findet er's total geil, diese Schizophrenie ist einfach nur lustig! ;-) ..."

Wie auch schon anderswo geäussert, es
geht immer um die Optionen, die Apple
einem lässt und die sind diesmal vor-
handen sowie die branchenspezifische
Situation (die ich damals immer ansprach)
und die diesmal davon nicht betroffen
ist.

Es gibt wie gesagt: genug Möglichkeiten
nicht im Februar 2006 den total
unpassenden Rechner* zu kaufen und
diese Unvernunft Apple in die Schuhe
zu schieben. Wer einen ein paar Wochen
alten G5 iMac mit Nativsoftware mit
einem brandneuen nur unter Rosetta
gegenrechnet, der macht etwas, das
für 99% aller Mac-Käufer nicht relevant
ist.

Und dabei wird der Intel-Mac quasi die
nächsten 3 Jahre von alleine (mit dem
normalen Update) immer schneller und
der PPC-Mac nicht. ;)

Und noch einmal ganz klar! Wer die
nächsten zwei Jahre kein Geld für
Software-Updates ausgeben möchte,
der fährt mit einem aktuellen G5-Modell
besser, wenn er mit der gebotenen
Leistung und dem aktuellen Stand der
Technik voll zufrieden ist.

Das hat jetzt aber auch der letzte
Durchblicker verstanden. Apples Weg
widerrum geht jedoch woanders hin,
weil sie auf die Technik der Zukunft
bei Intel schauen ... und die sieht gar
nicht schlecht aus.

Wer die Seite Toms Hardware Guide
und andere Seiten zu dem Thema liesst,
der kann überall vernehmen, das Intel
wieder im kommen ist. AMD und der
G5 haben im letzten Jahr Boden gutge-
macht, weil Intel einen grossen
Schwenk im Portfolio eingeleitet hatte ...
der aber jetzt vollzogen ist.

Jetzt kommt die Ernte und Apple möchte
dabei sein.




Gruss

johngo


* es soll Leute geben, die schädigen
sich bewusst selber

Duda:

Von: Kai (MacGuardians) | Datum: 04.02.2006 | #101
"tja, es gibt ja schon ein programm, dass sogar mehr als doppelt so schnell ist. ;-)

Cinema 4d"

Echt? Komisch. Mein G4 von 2000 mit ner uralten Radeon 9800 ist genausoschnell. In OpenGL. Ooops, Cinebench OpenGL ist nicht aussagekräftig? Wie doof, vielleicht ist es der CPU-Wert ja auch nicht wirklich? ;-)

"fakt ist:
DER CORE DUO IST SCHON JETZT SCHNELLER ALS DER G5!"

VI HÄVEZ TEH COREZZ!!! ITNEL IS TEH R0Xx!!!11einsdrölf

Das wird auch kein "Fakt", und wenn du's hundertmal in Großbuchstaben schreibst. Der Core Duo hat teilweise ja schon Probleme, nen einzelnen G5 zu schlagen, siehe SÄMTLICHE Tests. JEDER kam zu dem Ergebnis, dass das Ding im Schnitt 20% bis maximal 30% schneller ist als der G5 - mit zwei Cores. Was das im Vergleich zum 970MP bedeutet kannst du dir vorstellen..

"Und Macwelt usw. schreibt Bullshit zu den Lautstärkeanaben, wie auch im Macuserforum festgestellt wurde.!"

Genau. Lärmmessungen in einer isolierten Schallschutzkammer mit sauteurem Equipment ist "Bullshit", und Aussagen von irgendwelchen Leuten in irgendwelchen Foren ist die Realität. Dieselben Leute, die behauptet haben, der Core Duo würde 3 1080HD H.264 Trailer flüssig abspielen...

Vielleicht sollte man sich erstmal die kompletten Testergebnisse durchlesen bevor man solche Behauptungen aufstellt. Da würde man z.B. sehen, dass der Core Duo unter CPU-Last unter dem iMac G5 liegt - wenn auch nicht viel...

genau...

Von: nico | Datum: 04.02.2006 | #102
und die preise fuer intel chips fallen eh immer, kannste ja woechentlich bei alternate und co beobachten. selbst wenn intels vorzeigechip derzeit teurer sein sollte als ein ppc, dann sieht's doch in einem halben jahr schon anders aus.
und man hat die option, die gesockelten chips auszutauschen. finde ich als apple benutzer bemerkenswert, um noch mal auf das thema zurueck zukommen.

Johngo:

Von: Kai (MacGuardians) | Datum: 04.02.2006 | #103
"weil sie auf die Technik der Zukunft
bei Intel schauen ... und die sieht gar
nicht schlecht aus."

Wenn du "Technik der Zukunft" sehen willst, dann hab ich das richtige für dich:
[Link]

Ein aufgebohrtes Chip-Design von 1995 mit einer ISA von 1978 und Design-Paradigmen aus den 80ern und frühen 90ern kann man wohl kaum "Technik der Zukunft" nennen. Eher sehr sehr alter Wein jetzt neu in mehreren Schläuchen (Multicore) und extra light (stromsparend)!

Aber hey, die Dinger wurden schliesslich für Scheisscode gebaut, der mindestens genausoalt ist! ;-) Wie dumm nur, dass der Scheisscode bald aussterben müssen wird, weil sonst auch auf Intel nix mit Multicore geht....

Hast du ne Ahnung, wie alt der Code der Programme ist, die du täglich einsetzt? Späte 80er bis frühe 90er (ja, sogar Maya - ist im Endeffekt Power Animator Code!). C4D kommt noch vom Amiga, ebenso wie Lightwave. Quark? Uaaaah! Hilfe! Und wie alt der AfterFX- und Photoshop-Code ist willst du gar nicht wissen! Hast du dich schonmal gefragt, warum ALLES mit "Plugins" gelöst wird bei Photoshop? Altivec, SSE, G5-Support usw? Vielleicht eventuell deswegen, weil Adobe an die uralte Kern-Codebase keinen Finger legen will?

Das einzige Programm, von dem ich weiss, das echt modernen Code hat, ist Softimage XSI. Die haben WIRKLICH den ganzen alten Scheisscode über Bord geworfen und ne echt moderne Software geschaffen! Schade, dass es das Programm nie auf den Mac geschafft hat...

Core Duo IST DEUTLICH LEISER

Von: Duda | Datum: 04.02.2006 | #104
"Das wird auch kein "Fakt", und wenn du's hundertmal in Großbuchstaben schreibst. Der Core Duo hat teilweise ja schon Probleme, nen einzelnen G5 zu schlagen, siehe SÄMTLICHE Tests. JEDER kam zu dem Ergebnis, dass das Ding im Schnitt 20% bis maximal 30% schneller ist als der G5 - mit zwei Cores. Was das im Vergleich zum 970MP bedeutet kannst du dir vorstellen..

"Und Macwelt usw. schreibt Bullshit zu den Lautstärkeanaben, wie auch im Macuserforum festgestellt wurde.!"

Genau. Lärmmessungen in einer isolierten Schallschutzkammer mit sauteurem Equipment ist "Bullshit", und Aussagen von irgendwelchen Leuten in irgendwelchen Foren ist die Realität. Dieselben Leute, die behauptet haben, der Core Duo würde 3 1080HD H.264 Trailer flüssig abspielen...

Vielleicht sollte man sich erstmal die kompletten Testergebnisse durchlesen bevor man solche Behauptungen aufstellt. Da würde man z.B. sehen, dass der Core Duo unter CPU-Last unter dem iMac G5 liegt - wenn auch nicht viel..."


Bleibt trotzdem Bullshit, denn ein Cuore Duo bleibt auch unter Last extrem leise.

Ok... schauen wir mal was User dazu sagen:

"Danach soll der iMac Rev C im Leerlauf genau so leise sein wie der Intel. Dem Ist 100% nicht so. Ich hatte beide kurz hier bevor der G5 weichen musste
was auch nicht passt. Apple gibt bei der Helligkeit des 20" iMacs einen um 30 cd/m2 höheren Wert an als beim 17" und trotzden ist der 17" Heller?

EDIT: Nach dem DB Wert soll der iMac G5 sogar leiser sein... Den Test kannst du getrost vergessen."

"Kannste knicken!
Der Intel ist weitaus Leiser wie die Rev.C
1000 PRO!"

"Ich hatte einen iMac Rev. C und kann das besser als die Macwelt beurteilen . Bei prozessorintensiven Aufgaben (teilweise schon iPhoto) drehen die Lüfter merklich hoch. Wenn das der neue iMac nicht macht, dann bin ich schon zufrieden. Klar, dass beim Rendern irgendwann Lüfter deutlich hörbar sind. Nur bei alltäglichen Aufgaben wie Dashboard, iPhoto, Surfen etc. möchte ich gefälligst, dass der Lüfter fast im Leerlauf verharrt. Das wäre super!

Edit: Diese überflüssigen Messungen können sie sich schenken. Damals hat auch fast jede Zeitschrift behauptet der iMac Rev. A wäre "flüsterleise" "

"Wie schon geschrieben die Testergebnisse der Macwelt sind vollkommen unrealistisch.
man möchte sogar sagen aus der Luft gegriffen.
Ich hatte als mein Intel ankam noch die Rev. C hier und konnte direkt Vergleichen...
Obwohl auch der G5 recht leise war, liegen zwischen G5 und Intel von der Lautstärke Welten. "

Das war allein aus diesem Thread:
[Link]


Noch mehr???

Ich bin mal auf Temps gespannt ;-)

Die iMac G5 werden nämlich keine lange Lebensdauer haben! Zumindest Rev. A.



"Das wird auch kein "Fakt", und wenn du's hundertmal in Großbuchstaben schreibst. Der Core Duo hat teilweise ja schon Probleme, nen einzelnen G5 zu schlagen, siehe SÄMTLICHE Tests. JEDER kam zu dem Ergebnis, dass das Ding im Schnitt 20% bis maximal 30% schneller ist als der G5 - mit zwei Cores. Was das im Vergleich zum 970MP bedeutet kannst du dir vorstellen.."

Der Cuore Duo ist viiiiiiiiiiiel schneller. Das wirst du schon noch sehen ;-)

Und selbst wenn es nicht so sein sollte (was es aber wird):

Er ist schon jetzt schneller, wenn auch nur 20 bis 30 Prozent im Schnitt! Bei deutlich (!!!) geringerem Stromverbrauch, Hitzeentwicklung und Lautstärke ;-)

wie alt ist

Von: nico | Datum: 04.02.2006 | #105
unix, bsd...

wie alt ueberhaupt ein computer?

hatte neulich einen schoenen vortrag von konrad zuses sohn zum thema gehoert/gesehen, war wirklich nett.

softimage xsi ist wirklich recht neu. hatte noch mit softimage 3|d 3.8 - 4.0 gearbeitet mit dem alten unix-interface, aber schon auf windows.
xsi ist uebrigens unter microsofts fuchtel entstanden. spaeter dann zu avid, die eigentlich eher an "ds" interessiert waren...

Schöner Artikel!...

Von: Kai (MacGuardians) | Datum: 04.02.2006 | #106
[Link]

"As we found more and more indications that the OS, not the CPU, was the one to blame, it became obvious that we should give more proof for our "Mac OS X has a weak spot" theory by testing both the Apple and x86 machines with Linux."

"Why do we bother, now that Apple has announced clearly that the next generation of the Apple machines will be based on Intel? Well, this makes our research even more interesting. As you will see further in the article, the G5 is not the reason why we saw terrible, slow performance. In fact, we found that the IBM PowerPC 970FX, a.k.a. "G5", has a few compelling advantages."

"Proudly, it was announced that the current Apple Intel dev systems - based on a 3.6 GHz Intel Pentium 4 with 2 MB L2 Cache - were faster than a dual G5 2 GHz Mac. That is very ironic for three reasons.

Firstly, Apple's own website contradicts this in every tone. Secondly, we found a 2.5 GHz G5 to perform more or less like a Pentium 4 3 - 3.2 GHz in integer tasks. So, a 2 GHz G5 is probably around the speed of a 2.6 GHz Pentium 4."

Duda:

Von: Kai (MacGuardians) | Datum: 04.02.2006 | #107
"Noch mehr??? "

Nö, kannst dir sparen. Irgendwelchen anonymen Leuten in irgendwelchen Foren werde ich nie mehr glauben als offiziellen Publikationen, die professionell mit professioneller Ausrüstung die Dinger im schalldichten Raum messen. Weisst du, was so ein Lautstärke-Messgerät kostet? Das hat seinen Grund!

Die meisten von denen haben ja nichtmal bemerkt, dass im Heft der idle-Wert angegeben wurde. Und da sagt flo (dem ich übrigens auch mehr glaube als irgendwelchen anonymen Leuten!) dasselbe: Im Leerlauf kein Unterschied, aber der iMac dreht halt schneller hoch und der Intelmac nicht!

Zum Thema: "Da kann ich mir ja auch gleich n PC-Notebook holen"

Von: ohNe22 | Datum: 04.02.2006 | #108
"x86 Hardware gibt es überall und wenn erstmal X auf jeder DOSe läuft, dann kauft man sich doch lieber ein Acer "Ferrari" mit besserer Ausstattung und spart noch ein paar hundert Euro."

Oh man - manche hier reden so schönen Schwachsinn. Das ist kaum zum Aushalten. Aber meine offensichtliche masochistische Neigung zwingt mich immer wieder zurück ;-)

Schon mal ein Acer-Laptop besessen oder benutzt? Beim ersten Hinsehen mag es ja ganz nett sein, aber wenn sich nach kurzer Zeit Benutzung die Tastaturbeschriftung ablöst (Acer Travelmate 8000 irgendwas anno 2003/4), dann mache ich mir schon so meine Gedanken.
Es gibt noch einige andere Beispiele bezüglich der mangelnden Qualität dieser Kisten.

Ich darf nach langer Benutzung meines Powerbooks guten Gewissens behaupten, dass nur wenige Hersteller eine ähnliche Qualität und Haltbarkeit liefern. IBM gehörte bis vor kurzem dazu - mit Lenovo lässt das schon ganz schön nach (der Deckel z.B.).
Ich gehe sogar noch eins weiter und behaupte mal, dass in Puncto Preis/Leistung/Qualität/Ausstattung/Gewicht/Akkulaufzeit Apple wieder ganz vorne mitspielt, wenn sie bei den Macbook Pros keine groben Fehler machen. Nur Samsung-, einige Asus-, Dell- und ausgesuchte Toshiba-Notebooks können meiner Meinung nach mithalten. Und bei Samsung und Toshiba sind die Preise schon gesalzen. Auch bei Dell sind die Profi-Geräte (zumindest ohne Rabatte) alles andere als günstig. Und wer schon mal ein Latitude 8xx in der Hand hatte, weiß was für ein Fliegengewicht ein 17 Zoll Powerbook ist.
Und fang mir bitte keiner mit diesen billigen Dell-Consumer-Laptops an. Die sind wirklich nicht der Bringer.

Acer und Konsorten können mit den den oben genannten Marken einfach nicht mithalten.

Macwelt-Benchmarks

Von: ohNe22 | Datum: 04.02.2006 | #109
Laut den Benchmarks bei Macwelt läuft der Core Duo tatsächlich mehr als doppelt so schnell beim Rendern unter Cinebench (2,1 GHz G5 verglichen mit 2 GHz Core Duo; 1,9 GHz G5 verglichen mit 1,83 GHz Core Duo). Das ist für die Nutzer dieses Programms am Mac, die sich innerhalb des nächsten Jahres oder so einen neuen Mac zulegen möchten eine sehr gute Nachricht. Zumal mit diesen Werten Rendering am Macbook Pro in endlicher Zeit möglich ist.
Die Geräuschentwicklung unter Last ist auch ein sehr erfreulicher Wert.
Alle anderen Werte hauen einen wirklich nicht vom Hocker oder sind sogar enttäuschend. Läuft die PDF-Generierung in Rosetta oder was ist da los?

Bei den Spieletests ist es aber schön blöd nur solche zu nehmen, die unter Rosetta laufen ;-)
Zu UT2k4 gibts ja schon ein UB und zu Doom 3 wirds ja bald eins geben ...

@Kai

Von: Henryk Richter | Datum: 04.02.2006 | #110
Ich beginne mal meine Ausführungen mit einem Zitat von Dir: "Reg dich mal wieder ab, du bist nicht das Maß aller Dinge."

Ich kann durchaus nachvollziehen, dass es Dir daran gelegen ist, immer das beste Spielzeug in die Hände zu bekommen. Was ich nicht nachvollziehen kann, ist Deine Argumentationskette.

Du monierst fast die gesamte Palette der verfügbaren Software, behauptest alles wäre Schrott und aus Alters- und Designgründen unbrauchbar und für Schrottarchitekturen gerade so tauglich. Wo liegt denn - diesen Gedanken weiterführend - der Vorteil einer alternativen Architektur, wenn sie mit bestehenden Aufgaben nicht zufriedenstellend klarkommt ? Warum muss sich der Programmierer der Maschine anpassen und nicht umgekehrt ?

Wir können ja auch einmal das Szenario umdrehen. Ich bin enthusiastisch, habe genügend Ressourcen zur Verfügung und bastele die performanceseitig ultimative Lösung für Spielzeug A, indem ich alle Register ziehe, z.B. Spaghetticode erzeuge wo mal wieder der Compiler bei strukturiertem Code ungewollten Overhead einbringt, alle Vektoreinheiten auslaste, meinetwegen den Code sicherheitshalber re-entrant gestalte um auch multithreaded vorgehen zu können. Nun kommt plötzlich Spielzeug B als vielversprechender Nachfolger. Dummerweise hat Spielzeug B meine schicke Vektoreinheit nur aus Kompatibilitätsgründen drin und arbeitet plötzlich langsamer (wenn überhaupt) damit als beim blanken ursprünglichen Skalarcode. Huch, was nun ? Naja egal, ich löse das Problem in wochenlanger Akribie und plötzlich steht ein Kunde auf der Matte, welcher meine Bemühungen toll findet und es in eine pragmatische Lösung auf Arbeitspferd C integrieren will. Was sage ich nur ?

Lange Rede, kurzer Sinn. Die Herangehensweise, z.B. Photoshop in Plugins zu zersägen ist sinnvoll. Ob das Programm an irgendwelchen Altlasten ersticken mag, kann ich nicht beurteilen. Was ich jedoch feststelle ist, dass sich Plugins super in neue Projekte integrieren lassen, die wiederum auf bestehende Algorithmen angewiesen sind.

Und wo führt das inzwischen langweilige Gedankenspiel hin ? Weiterverwendbarer Code.

Mir ist es (abgesehen vom Echtzeitbereich) völlig Bockwurst, wie schnell meine Sniplets auf Prozessor X laufen, wenn sie es nur tun. Jede Zeile Code, die ich universell und auch noch in 10 Jahren einsetzen kann, ist ein Gewinn. Wir stehen in einer Epoche, in der das Stichwort "Multi-Platform" angesichts überquellender Rechenkapazität mehr Gewicht bekommt als Insellösungen, die mit dem eventuellen Abgang einer Plattform dem Tod geweiht sind (OS9 anyone?). Nicht zuletzt das habe ich aus dem Ende von Commodore lernen müssen. (Nein, ich will mit diesem Beispiel nichts weiter als das geschriebene implizieren.)

Bitte Kai, tue mir in Zukunft den Gefallen und zerre nicht immer den CELL aus der Nische der Speziallösungen ins Rampenlicht der angeblichen Tauglichkeit für Personal Computer. Über die General Purpose Leistung hast Du selbst die initialen Berichte gelesen. Sicher, die Peak-Leistung der SPE's im CELL ist beeindruckend, nur wer vergräbt Mannjahre darin, für eine Spezialhardware Lösungen zu entwickeln (abseits von Spiele-Engines) ? Was bringen mir Killer-Benchmarks (die vergleichsweise fix umsetzbar sind), wenn mein gesamtes restliches System inclusive der täglich verwendeten Applikationen im Vergleich zu den geschmähten Rechnern mit Uralt-Designs vor sich hin kriecht ?

Der CELL ist auf PCIe-Einsteckkarte oder im kürzlich von IBM vorgestellten Blade-Würfel für Speziallösungen im Simulationsbereich ideale Gerät. Für einen normalen Anwender würde nur wieder das Henne-Ei-Problem fehlender optimierter Applikationen entstehen.

Kai hat jetzt elber gesagt, dass der G5 laut ist

Von: Duda | Datum: 04.02.2006 | #111
"Im Leerlauf kein Unterschied, aber der iMac dreht halt schneller hoch und der Intelmac nicht!"

Denn der Cuore Duo dreht sogut wie garnicht hoch! NADA. ;.)

Übrigens aktuelle c't kaufen.,

Steht u.a. drin, dass Quicktime und die OpenGl Treiber vermutlich alles andere als gut angepasst sind.

Steht auch drin, dass die c't zum ersten mal die Apple Benchmarks nachvollziehen kann (Spec). Früher hat ja Apple immer gemogelt, dass sich die Balken gebogen haben, damit PPC besser weg kommt!

...

Von: Karl Schimanek | Datum: 04.02.2006 | #112
"Schon mal ein Acer-Laptop besessen oder benutzt? Beim ersten Hinsehen mag es ja ganz nett sein, aber wenn sich nach kurzer Zeit Benutzung die Tastaturbeschriftung ablöst (Acer Travelmate 8000 irgendwas anno 2003/4), dann mache ich mir schon so meine Gedanken.
Es gibt noch einige andere Beispiele bezüglich der mangelnden Qualität dieser Kisten."


Wieviele Notebooks verkauft nochmals Acer?

Ich habe nicht gesagt, dass ich mir ein Acer Notebook kaufe. Ausserdem war es nur ein Beispiel. Wenn dann würde ich mir ne Whitebox mit Opteron kaufen ;-)

Apple und Qualität:
[Link]
[Link]

Boah, der Test ist ja der Hammer!

Von: Kai (MacGuardians) | Datum: 04.02.2006 | #113
"As Gabriel Svelto and other readers pointed out, the problem with gcc 3.3 generating code for PowerPC CPUs is that it outputs very poorly scheduled code for these CPUs. The result is that gcc 3.3 does not make good use of the FP units of the G5 core, which are capable of FMADD instructions. This kind of instruction performs a 64-bit, double-precision floating-point multiply of an operand in floating-point register (FPR) "FRA" by the 64-bit, double-precision floating-point operand in FPR "FRC"; then add the result of this operation to the 64-bit, double-precision floating-point operand in FPR "FRB". Thus if the code allows it, you can do a multiplication and an addition while executing only one instruction. gcc 4.0 is a lot better at using these capabilities as you can see. "

Unterschied im FP-Benchmark:
GCC 3.3: 998
GCC 4.0: 1568 (!!!)

"With our current benchmark data, we can conclude that the G5's FPU performance is as good as the best x86 FP chip, the AMD Athlon 64 / Opteron."

"While the G5 is not the best integer processing unit out there, it is not the one to blame for the poor performance that we experienced in our first tests. Running Yellow Dog Linux, the Dual G5 was capable of performing similar to a 3 GHz Xeon. Notice that more concurrent connections gives better performance from 1 to 20. At 5 concurrent simulated users, YDL simply wipes the floor with Mac OS X: 411 versus 113 queries per second."

"The problem clearly lies in Mac OS X, and is worth further investigation. "

Die Apache-Benchmarks sagen auch schon alles... 8.13 mal soviele Requests per Second mit Linux wie mit OS X auf derselben Maschine!

"Now that the open source community finally has a decent compiler for the Apple platform, Apple management decides to step over to another architecture. Ironically, right now, the Intel architecture needs a super-optimized compiler (Intel's own) to reach the FP performance that the G5 now reaches with a very popular but far less aggressive compiler (gcc)."

OS X ist lahm, nicht der Chip. Seht es einfach ein!

CINEMA 4D - CUORE DUO rockt den G5 weg

Von: Duda | Datum: 04.02.2006 | #114
"Echt? Komisch. Mein G4 von 2000 mit ner uralten Radeon 9800 ist genausoschnell. In OpenGL. Ooops, Cinebench OpenGL ist nicht aussagekräftig? Wie doof, vielleicht ist es der CPU-Wert ja auch nicht wirklich? ;-)"


c't mit einer VORABVERSION zu Cinebench

Cuore Duo: 609 Punkte
G5 2,1 GHz: 296 Punkte

Beim Shading, dass vorallem die Grafikhardware fordert, fiel der Cuore Duo hingegen gegen den G5 zurück, was auf noch schlechte Grafiktreiber zu führen ist!

Zitat: "Das ansonsten schlechte abschneiden der GPU ist nichts ungwöhnliches, da Apple erfahrungsgemäss immer einige Zeit braucht, um mit Chiplieferanten zusammen Grafiktreiber mit optimierter OpenGL-Unterstützung bereit zu stellen."


NOCH INTERESSANT

"Langsamer ist er bei QUICKTIME, das auf auf POWER PC SÄMTLICHE HARDWARE-FINESSEN AUSNUTZT, ABER AUF DER INTEL HARDWARE WOHL EINFACH NOCH NICHT RUND LÄUFT."

Desweiteren:

"Intel V9.1-Compiler für OS Xsind allerdings noch Beta - so dürfte wohl kaum eine damit kompilierte Applikation den Launch begleitet haben und in die div. Reviews eingeflossen sein."

USB 2.0 immer noch lahm

Von: Duda | Datum: 04.02.2006 | #115
... trotz Intel.... hmmmmmmm

"Warum allerdings USB 2.0 trotz Integration in den Chipsatz noch nicht über Transfervolumen von 12,5 MByte/s hinauskommt, bleibt Apples Geheimnis"
c't

Die 3,5 " Festplatte ist mit einem eigenem Lüfter ausgestattet -> kommt hoffentlich somit nicht mehr zu den Horror-Temps der alten iMacs

Mehr:

Von: Kai (MacGuardians) | Datum: 04.02.2006 | #116
"With the dual-core Power 970MP available and IBM's current outstanding track record when it comes to multi-core CPUs, big question marks can be placed on whether or not the switch to Intel CPUs will - from a technical point of view - be such a big step forward as Steve Jobs claims. There is more: each core has 1 MB cache instead of the current 512 KB, which will improve integer performance quite a bit as it lessens the impact of the biggest problem of the G5 - the high latency access to the memory system.

It is again ironic that the Power 970MP is far more advanced than the current Intel Dual-cores when it comes to power management. Each core can be placed independently in a power-saving state called doze, while the other core continues operation.

A low power Power 970FX is also available and consumes about 16 Watts at 1.6 GHz; so it seems that IBM, although slightly late, could have provided everything that Apple needs. The G5 with its 58 million transistors and 66 mm² die size is not really a hot CPU. The Xserve (2 x 2.3 GHz G5) was by far the quietest 1U air-cooled server that ever entered our lab in Kortrijk."

Hiernach nicht

Von: Duda | Datum: 04.02.2006 | #117
"OS X ist lahm, nicht der Chip. Seht es einfach ein!"

c't

"Interessanterweise laufen sogar zwei der Benchmarks, das Schachprogramm Crafty und das Quanten-Chromodynamics-Programm wupwise, auf dem iMac deutlich schneller als auf dem ThinkPad - ob das mit Mac OS X kontra Windows oder miir der neueren Compiler-Version zu tun hat, ist noch unklar"

@@ xy

Von: Stefab | Datum: 04.02.2006 | #118
Das stimmt so nicht, der G4 kann bei gleichem Takt ganz gut mit dem G5 mithalten, Ausnahme ist vielleicht 3D-Rendering (float) oder Spiele, wegen dem hohen Durchsatz, siehe barefeats.

Auch schade, dass man nie mehr sehen wird, wie sich der MPC 8641 (D) - neuer G4 so macht... in Sachen Watt, Performance durch 667 Mhz Bus, verbessertem Altivec, 1 MB Cache pro Core, etc.

Auch ist beim Artikel von Anandtech ein Fehler: 2 G5s könnte man nicht in den iMac packen, aber den Dual Core G5 schon. Dieser ist wesentlich stromsparender, und bietet auch mehr Möglichkeiten, im Idle Mode noch weniger zu verbrauchen, der verbunden mit einer optimierten Northbridge würde ein DualCore iMac G5 kein Problem sein, wenn nicht sogar ein Notebook möglich wäre...

[Link]

Und was ist...

Von: Kai (MacGuardians) | Datum: 04.02.2006 | #119
Crafty und wupwise? Kann man das essen? ;-)
Wen interessiert das?
Dass das am Compiler liegt ist ja mal sowas von klar...

Doom3 iMac Core Duo 2GHz/X1600: 38.3fps
Doom3 Acer Travelmate 8200 Core Duo 2GHz/X1600: 68.5fps

Auf Optimierungen warten kennen wir Mac-User ja schon! ;-) Wie viele Jahre warteten wir auf G5-Optimierungen, die niemals kamen?

Bitte immer Quellen angeben

Von: Duda | Datum: 04.02.2006 | #120
"Doom3 iMac Core Duo 2GHz/X1600: 38.3fps
Doom3 Acer Travelmate 8200 Core Duo 2GHz/X1600: 68.5fps"

- Woher /Quelle?
- Was für Einstellungen?
- Identlische Einstellungen?

Subjektiv / Objektiv

Von: Hrusty | Datum: 04.02.2006 | #121
Für mich ist klar: Apple will den Umstieg auf Intel möglichst schnell vollziehen.

Da ich Apple zutraue zum einen den G5 gegenüber Intel bei der Performance Optimierung zu benachteiligen, traue ich Apple noch vieles andere mehr zu....
Apple möchte die Intels Imagemäßig stark dastehen lassen um Käufer und positive Meldungen zu generieren.
Außerdem bitte ich nochmals zu bedenken: wir vergleichen einen 3 Jahre alten Prozessor, nicht Notebookoptimiert mit einem aktuellen 2006er Prozessor der deutlich auf Stromsparen optimiert wurde.
Ob IBM von Apple verlangt hat sich Geldmäßig an der Prozessorentwicklung zu beteiligen kann ich nicht 100%ig bestätigen. Die Gerüchte lassen es aber vermuten. Ich gehe davon aus, dass IBM für Apple den Lückenfüller spielen musste weil Apple nicht gleichzeitig von OS 9 auf X und von PPC auf Intel umsteigen wollte. Dann wäre Classic nicht möglich gewesen. Ob Apple nun sich mit 100 Mio an der CPU Entwicklung beteiligt und dafür die Prozessoren hinterhergeschmissen bekommt oder kaum Entwicklungskosten hat und dafür die Prozessoren richtig bezahlen muss ist für mich gleichbedeutend. Die Frage ist nur ob IBM durch das geforderte Engagement Apples Neigung zu PPC testen wollte. Da diese nicht mehr allzu groß war, ist es eben ein Argument von Apple gegen IBM gewesen.
Intel hat in den vergangenen jahren deutlich gezeigt: Professionelles Marketing, gute bis sehr gute Chipsätze und die Fertigung im Griff. Dazu immer die zweitschnellsten Prozessoren und wenn diese auch 400 $ mehr kosten als der schnellste vom Wettbewerber (EEdition). Seine Händler Dell, BlödMarkt, Saturn, Medion hat Intel gut im Griff. Fertigung mit 65 nm bringt gute Ausbeute, sofern 1 Core nicht funktioniert vermarktung als Single Core. Dennoch:
AMD hat durchgängig 64 Bit Prozessoren.
AMD fertigt mit SIO, 2 Jahre Vorsprung.
AMD besitzt einen Speichercontroller auf der CPU -12 Monate technologischer Vorsprung mindestens.
Die AMD Turion64 DualCore werden zeigen was AMD auf der Pfanne hat, der Stromspartechnik Cool & Quiet hat Intel kaum etwas entgegenzusetzen. Die Notebook-CPU an sich wird aber etwas Sparsamer sein. AMD hat im DC Desktop Segment eindeutig die Nase vorne, von den Opteron ganz zu schweigen. Die Pentium D waren Stromverbrauchsmäßig zumindest nicht sooo schlimm, soll heißen unter 300 Watt TDP...;-) Also alles eitel Sonnenschein
ist dies bei weitem nicht und auch wenn Intel immer den Anschein erweckt in ihrem Kosmos funktioniert alles reibungslos, so musste Intel Indien vor ein paar Monaten zugeben, dass sie die Entwicklung des Specihercontrollers auf der Yonah-Nachfolger CPU in den Sand gesetzt haben....
Insofern schlussfolgere ich, dass ein in die Jahre gekommener G5 Single Core noch recht gut mit einem Yonah DC mithaten kann. Wäre Apple mit IBM zusammen in die Weiterentwicklung eingestiegen wäre in diesem Jahr der G6 zu erwarten, mit vielen Möglichkeiten: Speichercontroller onboard, weiterentwickeltes Altivec, Optimierung für Notebooks,... Jobs wollte nicht!
Warum wollte er nicht?? Hat er etwas gegen IBM? Hat er keinen Bock mehr auf PPC? Oder war das Hauptargument nicht der Prozessor an sich?!?!? Vielleicht ging es ihm ja nur um das Mainboard bzw. den DRM Chip darauf. Apple macht fast die Hälfte des Umsatzes mit ipod, iTMS & Co. Es ist doch klar was Jobs vorhat, Einfluss bei Disney vergrößert, DRM endlich im Rechner und mit 10.5 platzt die Bombe ....
Apple wird es aber in einem Punkt wirklich schwerhaben, im Intel Haifischbecken ist e snicht mehr so einfach. Die Loyalität der Apple Freaks ist verbraucht. Jetzt werden viele Apple auf die Finger schauen. Und wenn Doom 4 auf dem imac 30 Frames unter OS X weniger macht as bei einem vergleichbaren WinPC werden es die Medien durchkauen. Ebenso wird offensichtlich, dass Apple grundsätzlich am Amrkt vorbeiproduziert und Produkt ekünstlich verkrüppelt: welcher Hersteller kann sich dies leisten? Welcher Hersteller kann es sich leisten keinen MidiTower für 800-1200 EUR anzieten in dem man 2 Optische und mindestens 3 Festplatten verbauen kann....
->Apple wird versuchen ins Wohnzimmer zu kommen, die paranoide Filmindustrie hat also endlich einen Partner gefunden, der nach deren Pfeife tanzt und deren Bedingungen umsetzt. Jobs interessiert nicht der Marktanteil bei Software und Verkaufszahlen. Er will seinen Einfluss in zukünftigen Schauplätzen sichern und steigern. MS der behäbige Riese, der immer nachhinkt ist jetzt schon dabei den Anschluss zu verieren. Vista erst 2007 und dann alle Features gecancelt, die echten Fortschritt bedeuteten. Stattdessen ein ausgefeiltes DRM.....
(Ist es da vernünftig über 20 % Mehrleistung zu reden)

...

Von: Karl Schimanek | Datum: 04.02.2006 | #122
[Link]

Wunschgerät -> OT

Von: Duda | Datum: 04.02.2006 | #123
"Welcher Hersteller kann es sich leisten keinen MidiTower für 800-1200 EUR anzieten in dem man 2 Optische und mindestens 3 Festplatten verbauen kann...."

Das ist mein Wunschgerät!

Ich warte schon ewig auf einen Mac, der um die 1000 Euro bietet, kein integriertes Display hat und gewisse Aufrüstmöglichkeiten bietet. Meinetwegen als Barebone-Mac bzw. Cube.
-> iMac ohne Display, wechselbare Grafikkarte, ein oder zwei extra PCIe Steckplätze, 5,25" optisches Lauferk

Aber damit würde man iMac und PowerMac wohl sehr viel Konkurrenz machen

Stefab:

Von: Karl Schimanek | Datum: 04.02.2006 | #124
"Auch ist beim Artikel von Anandtech ein Fehler: 2 G5s könnte man nicht in den iMac packen, aber den Dual Core G5 schon."

Zwei PPC970FX LV wären wohl wattmäßig auch gegangen, aber der PPC970MP ist schon deutlich besser vom Platzverbrauch ganz zu schweigen ;-)

Die 2.5er Version verbraucht worst case 52.5W per Core. Schon nicht schlecht!

Henryk:

Von: Kai (MacGuardians) | Datum: 04.02.2006 | #125
"Du monierst fast die gesamte Palette der verfügbaren Software, behauptest alles wäre Schrott und aus Alters- und Designgründen unbrauchbar und für Schrottarchitekturen gerade so tauglich. Wo liegt denn - diesen Gedanken weiterführend - der Vorteil einer alternativen Architektur, wenn sie mit bestehenden Aufgaben nicht zufriedenstellend klarkommt ? Warum muss sich der Programmierer der Maschine anpassen und nicht umgekehrt ?"

Weil es nun mal einfach unabwendbar ist. Quad-Core Intel: 2007, Octa-Core nach 2008!
Wie sage Gates so schön zu den Xbox360-Entwicklern? "Free lunch is over!"

Wenn du meine Gedanken dazu lesen willst, lies hier:
[Link]

Modernisierung des Codes ist einfach unabwendbar. Und wer modernen multithreaded oder sogar Vektor-Code hat und den mit modernen Compilern kompiliert (schau dir mal IBMs Octopiler-Projekt an!), der braucht keine CPU mit Wasserkopf mehr, die selbständig optimiert! Der Wasserkopf ist überflüssig!
"General Purpose" ist für mich immer ein Euphemismus für "uralten oder schlecht geschriebenen Scheisscode"! ;-) Und der WIRD auch auf x86 mit Quad-Core etc. aussterben müssen! Geht ja jetzt schon los: Sogar Consumer-Zeug wie DVD2one nutzt jetzt schon alle Cores, die überhaupt verfügbar sind! Das Ding fährt einen Quad G5 KOMPLETT aus mit 390%! Das schaffen Apples eigene Encoder nichtmal, bei DVD-Auflösung hat QT eine Effizienz von knapp über 200%! Und warum? Weil Apples QT-Code eben auch schon sehr alt ist!

"Wir stehen in einer Epoche, in der das Stichwort "Multi-Platform" angesichts überquellender Rechenkapazität mehr Gewicht bekommt als Insellösungen, die mit dem eventuellen Abgang einer Plattform dem Tod geweiht sind (OS9 anyone?)."

Wie kannst du das Wort "Multiplatform" überhaupt in den Mund nehmen, wenn gerade eben mit PPC die letzte Alternative zu x86 auf dem Desktop ausstirbt? In Zukunft heisst das nur noch "Multi-OS", denn ausser x86 wird's ja NIX mehr geben, was Otto N. kaufen kann! Wie man das gutheissen kann werd ich nie verstehen...

"Für einen normalen Anwender würde nur wieder das Henne-Ei-Problem fehlender optimierter Applikationen entstehen."

Dieses Problem hat der normale Anwender ja schon, wenn er sich statt seinem 3.8 GHz P4 (Wahlweise Athlon FX 2.4 GHz) einen Pentium D mit 3.4 GHz (oder Athlon FX X2 2.4 GHz) kauft und feststellen muss, dass NIX schneller läuft!
Anpassungen MÜSSEN also sowieso früher oder später passieren. Auch bei Apple. Die Zeit bis die Entwickler soweit sind hätten sie mit dem 7448 und dem PWRficient im Powerbook und mit dem 970MP in iMac bzw. dem von IBM offerierten Power6-lite (Power6 wird wohl die letzte CPU von IBM mit General Purpose Wasserkopf sein!) im Powermac locker überbrücken können - und als BTO-Option ein Cell-Board für den Powermac, mit dem die Entwickler schonmal probieren können bis man dann in ca. 3 Jahren, wenn die Cell schön billig ist (oder evtl. sogar schon DP-fähige SPUs hat!) auf Cell umsteigt.

DAS wäre fortschrittlich gewesen, das wäre das Apple gewesen, das ich schätzen gelernt hab! Nicht im Jahre 2006 auf Mainstream-Dinosaurier-CPUs umsteigen, deren Architektur sowas von antiquiert ist!...

Danke Karl, die Links von ppcnux.de sind wirklich

Von: Hrusty | Datum: 04.02.2006 | #126
Spitze und sehr aufschlussreich.
Ich muss ja sagen, dass Du diese Meinung schon im MW Forum vertreten hast und dort nicht gerade offene Ohren fandest (auch von mir)..... nun was sol man dazu sagen.
Wars dass mit Apple??

+

Von: Duda | Datum: 04.02.2006 | #127
ppcnux.de ist aber eine Seite die extrem Pro PPC ist (wie der Name schon sagt).

Kommt auch darauf an, wie man etwas zitiert oder wiedergibt. Da kann man schon leicht einer Sache einen viel negativeren Touch verpassen, als im Originalartikel.

PPCNUX ist NIX

Von: Duda | Datum: 04.02.2006 | #128
Da wird in einem ganzem Abschnitt über die Performance gelabert und Rosetta pratisch unter den Tisch fallen gelassen. Wer in der Materie sich nicht auskennt, meint so wie es in dem schlechtem Text geschrieben ist, dass der Core Duo langsam ist - steht ja nicht da, dass die Programme zum Grossteil in Rosetta laufen.

ABSICHT!

Steht auch nicht da, dass die Grafiktreiber noch nicht optimiert sind usw. was aber in der c't steht!

Das sollte ein ? sein und kein !

Von: Duda | Datum: 04.02.2006 | #129
Die Angaben zur Lautstärke sind auch falsch, wie schon oben erwähnt!

Das ganze Netz ist voll von Usern, die sowohl Rev. C als auch Intel iMac kennen! -> Intel iMac ist deutlich leiser!

und wieder

Von: Duda | Datum: 04.02.2006 | #130
"So wie der G5 im iMac seinen 64Bit Vorteil nicht ausspielen kann, ist die erstaunliche Sparsamkeit des Core Duo mit seinem Notebookchipset im Desktopeinsatz ebenfalls ziemlich irrelevant, da Apple die Hausaufgabe in Systemdesign gut gemeistert hat:"

Das bezieht sich auf die Lautstärke. Angaben stimmten ja bekanntlich nicht im Macwelt-Test, wie man überall an Erfahrungsberichten testen kann...

Aber selbst wenn es so wäre...

- seit wann ist Stromverbrauch egal
- seit wann zählt Hitzeentwicklung nicht mehr?

Gerade in einem so engem Gehäuse wie beim iMac ist eine Stromsparende CPU wichtig. Nicht nur wegen der Lautstärke, sondern damit auch die Komponenten nicht zu heiss werden. Auch wenn Rev. C diesbezüglich deutlich
besser sein sollte als die horror Rev. A (was ich in Temp-Angaben aber noch nirgendwo gelesen habe), ist das nicht unwichtig.

...

Von: Karl Schimanek | Datum: 05.02.2006 | #131
[Link]

CELL WS:

Von: Karl Schimanek | Datum: 05.02.2006 | #132
Power Applications Workshop : Cell Broadband Engine™
On March 6th & 7th, The IBM Palisades Executive Briefing Center will host a Power Applications workshop focusing on the Cell Broadband Engine.?
Location
 
About The Cell Power Applications Workshop
IBM Palisades 334
Route 9W
Palisades, NY 10964 USA
[Link]
 
The agenda will highlight the Cell Broadband Engine Architecture from a hardware and software perspective.  It will also feature a Cell programming workshop.

...

...

Von: Karl Schimanek | Datum: 05.02.2006 | #133
"Open Server Workstation: Upcoming product based around dual IBM PowerPC 970MP processors (four processor cores). This developer program is being planned"

[Link]

Duda

Von: Hrusty | Datum: 05.02.2006 | #134
Aber, die Frage sollte schon erlaubt sein:
Fadenscheinige Gründe für den Umstieg auf einen trägen Monopolisten--- ich denke bei vielen Apple Kenenrn und Freunden hat es klack gemacht. Bei mir auch.
Ich betrachte Apple fortan aus anderer Sicht. Meine Loyalität zu Apple ist vielleicht noch geringer als die zu AMD.

noch was!

Von: Hrusty | Datum: 05.02.2006 | #135
"- seit wann ist Stromverbrauch egal
- seit wann zählt Hitzeentwicklung nicht mehr?"

Beim P4 hat sich Intel einen Dreck darum geschert, obwohl bis heute Strom Geld kostet.
Jetzt wo Intel Stromvebrauchsoptimierte/-designte CPU´s anbieten kann, während man beim G5 einen 3 Jahre alten Prozessor vorliegen hat, der mit Bordmitteln nur 10-20 Watt mehr braucht setzt sich Intel aufs hohe Ross und Steve Jobs gleich mit dazu.
Als es darum ging den G5 weiter- zuentwickeln wurde von Seiten Jobs gemauert. Lalalala ich lass mich nicht verarschen......tralala... ;-)

Hrusty

Von: Duda | Datum: 05.02.2006 | #136
" ich denke bei vielen Apple Kenenrn und Freunden hat es klack gemacht. Bei mir auch."

Endlich! Bravo!

Dabei ist Apple viel ehrlicher als früher. Denn die veröffentlichten Benchmarks konnte die c't zum ersten mal praktisch identisch bis auf den Punkt nachstellen!

Früher hatte Apple doch viel mehr geschummelt, damit der Power PC nicht untergeht.


"Beim P4 hat sich Intel einen Dreck darum geschert, obwohl bis heute Strom Geld kostet."
Der Stromverbrauch ist erst mit dem Prescott richtig schlimm geworden. Mit aktuellen Steppings geht es aber wieder halbwegs.
Ein Kumpel von mir hatte auf einem Gigabyte-Brett den P4 schün undervoltet. Da hatte er deutlich weniger Storm gezogen! ;)



"Jetzt wo Intel Stromvebrauchsoptimierte/-designte CPU´s anbieten kann, während man beim G5 einen 3 Jahre alten Prozessor vorliegen hat, der mit Bordmitteln nur 10-20 Watt mehr braucht setzt sich Intel aufs hohe Ross und Steve Jobs gleich mit dazu."

Mir persönlich war geringer Stromverbrauch und Wärmeentwicklung schon immer wichtig und nicht erst jetzt, seitdem Intel auf den Zug gesprungen ist!

Hrusty

Von: dermattin | Datum: 05.02.2006 | #137
Hrusty, zu einem geht es um zukünftige Prozessoren, nicht aktuelle oder welche in 2-3 Jahren, zum anderen hat Apple nicht gemauert, was den G5 angeht, sie wollten ihn nur nicht (wahrscheinlich von Anfang an nicht).

Immer vorausgesetzt, Intels Roadmap hält in etwa was sie verspricht (jaa ist schwer ;)), kommen da ganz andere Kaliber auf uns zu als bei IBM.

Als vor dem G5 der PPC Leistungs- und Featuremässig verkackte, habt ihr ihm alle die Stange gehalten, habt gesagt, dass es auf das Mac OS ankäme, jetzt wo Intel im Highperformancebereich (der Bereich wo sich nur ein Bruchteil von uns bewegt) nicht mehr die erste Wahl ist, macht Jobs plötzlich etwas falsch.

IBM gibt sein Desktop Geschäft auf und Apple tut genau das Richtige. Dass es bei dir klack gemacht hat, beweisst nur, dass du vorher wirklich geglaubt hast, was Apple dir da servierte, dass der PPC besser sei und schneller usw.

Intel ist kein lahmer Gaul, fernab von jeder Technikgeilheit gibt es nämlich auch noch die Realität des Arbeitsalltages und da sind Intels die meist eingesetzten Prozessoren. Warum, weil es wichtigeres gibt als Top5s von Renderclustern oder Setisucherei.

Möchte Duda zustimmen, die Tests der c´t bestätigen anscheinend genau das, was Apple von seinen Mintels behauptet.

@Kai

Von: Henryk Richter | Datum: 05.02.2006 | #138
Meine Aussage zum Thema der Optimierung auf bestimmte Maschinen/Architekturen bezog sich in erster Linie auf Spezialitäten einzelner Recheneinheiten bzw. deren Verhalten bei Codekonstrukten einer einzelnen Instanz.

Multicore (sowohl im klassischen Sinn als auch SMT) zu beherrschen erfordert nicht unbedingt das Festnageln des Codes auf bestimmte Architekturen/Systeme. Die überschaubare Zahl an Funktionen für Threading und IPC lässt sich mit wenig Aufwand kapseln, so dass universell verwendbarer Code nach wie vor bestehen bleibt.

Threading bzw. Multitasking wiederum (abgesehen davon, wenn man Debuggen will) ist ein Highlevel-Werkzeug, welches als Basisoperation des Betriebssystems sowohl in altem prozeduralen Code als auch mit highlevel objektorientierten Ansätzen kombinierbar ist. Ich sehe an dieser Stelle nicht unbedingt Widersprüche.

<sic>Wie kannst du das Wort "Multiplatform" überhaupt in den Mund nehmen, wenn gerade eben mit PPC die letzte Alternative zu x86 auf dem Desktop ausstirbt?</sic>

Weil ich in erster Linie pragmatisch vorgehe. Mir sind schon so einige Steckenpferde toller Ansätze der IT-Welt vor der Nase weggestorben, da wird man mit der Zeit schlichtweg ruhiger.

Abgesehen davon sind meiner Meinung nach die aktuell verfügbaren Desktop-Plattformen ohnehin eher langweilig und mit wenig Spielzeug-Faktor beladen.

Für den Desktop macht es überhaupt keinen Unterschied, welche Prozessorarchitektur in der Mühle werkelt. Den Anwender interessiert selten, ob hier oder da mal 20% Netto-Unterschied herauskommt oder ob bei handgepflückten Filtern in Photoshop der eine oder andere Prozessor flotter ist.

Ist Dir mal aufgefallen, welcher Ausspruch von Anwendern der Intel-Macs am häufigsten kam? Selbst in der neuen c't stand drin "fühlt sich flott an". Und das ist es, was den ersten Eindruck ausmacht. Neue Kiste, wirkt flott, alles klar. Ob nun die neue Hütte alles hält, was sie verspricht, ob sie den Anforderungen des Käufers gerecht wird, liegt einzig und allein in dessen Erwartungshaltung. Es wird den Leuten eine schnelle Kiste versprochen, sie fühlt sich schnell genug an und das ist alles, was sie erwarten.

War der Switch nun richtig, weil technisch notwendig? Aus der Sicht der Leistung und Weiterentwicklung des PPC970 sicher nicht. Gerade der 970MP ist ein schönes Stück Silizium mit der netten Eigenschaft, kompatibel zu Stromspargeräten wie Notebooks Takt und Spannung auf gewünschte Dimensionen zu regeln. Ich bin auch der Ansicht, dass es technisch feasable gewesen wäre, im Batteriebetrieb den Prozessortakt zu limitieren. Nun habe ich allerdings eine Menge Informationen zum Prozessor, jedoch keine Vorstellung, was die Northbridge beim PPC970 und dessen Businterface an Strom zieht. Auch der 8641 von Freescale stünde in diesem Jahr auf dem Plan. Ein G4 mit hervorragender Leistung im Integer- und Altivecbereich ohne den abgeschnürten Zugang zum Hauptspeicher. Den 8641 halte ich nach den bisher veröffentlichten Daten für einen ebenbürtigen Gegner zum Pentium M (bzw. Core irgendwas).
Die Durststrecke des letzten Jahres hätte Apple gut und gern in der alten G4-Taktik der 50 MHz-Upgrades durchstehen können.

Mein persönliches Fazit: Der Switch war gegenüber den Aussagen vom Rollkragen nicht unabwendbar. Der PPC970 ist konkurrenzfähig (bei Betrachtung der bestehenden Softwarebasis erst recht) und eine akzeptable Notebooklösung wäre innerhalb von c.a. 9 Monaten nach der grossen Switch-Ankündigung auch da gewesen.

Trotz dessen sind die neuen Mühlen dadurch nicht zwangsläufig schlecht. Die als Allerweltsgurke geschmähte iA32-Architektur läuft augenscheinlich ebenbürtig zum PPC (Frage: hat eigentlich schon mal jemand einen Mittelwert über die in beide Seiten pendelnden Benchmarks gebildet ?) . Innerhalb absehbarer Zeit wird sich auch das Problem der nativen Software lösen. Es steht somit rein praktisch gesehen für die Anwender ein gangbarer Weg zur Verfügung ohne den Weltuntergang prophezeien zu müssen.

Was Apple in meinen Augen ungünstig angestellt hat, ist die Wahl des Zeitpunktes. Hätten sie IBM außen vor gelassen und gleich vom G4 auf x86 gewechselt, wäre der Schritt wesentlich nachvollziehbarer gewesen (OK, ist lange her). Genauso wurde auch hier schon mehrfach darauf hingewiesen, dass x86-32 am ausklingen ist. Warum Apple nicht schon im letzten Sommer auf x86-64 gesetzt hat, entzieht sich meiner Kenntnis.

Trotz dessen, macht das die verfügbaren Mühlen zu schlechten Rechnern ? Nö, sie laufen gleichwertig zum 970. Verbaut sich Apple den weg zur massiven Parallelverarbeitung durch Multicore mit n-fach SMT und <wasweissichwas> ? Nö.

Ich sehe die positive Seite des Switches darin, dass ich meine Eisenschweine konsolidieren kann. Ein Mac, der dank x86-Architektur auf absehbare Zeit alles an Software laufen lassen kann, die so auf dem Markt herumschwirrt, ist ein gewaltiger Gewinn. Ich muss nur einen Rechner kaufen, auf dem in Kürze in der einen oder anderen Form Linux, OSX und Windows läuft und das macht den Mac wahrlich preiswert.

So sehe ich das auch...

Von: Duda | Datum: 05.02.2006 | #139
"Ich sehe die positive Seite des Switches darin, dass ich meine Eisenschweine konsolidieren kann. Ein Mac, der dank x86-Architektur auf absehbare Zeit alles an Software laufen lassen kann, die so auf dem Markt herumschwirrt, ist ein gewaltiger Gewinn. Ich muss nur einen Rechner kaufen, auf dem in Kürze in der einen oder anderen Form Linux, OSX und Windows läuft und das macht den Mac wahrlich preiswert."


Genau das ist das, was ich persönlich am Switch richtig gut finde! Es gibt halt immer wieder das ein oder andere an Software, dass es nicht für OS X gibt. Desweiteren will und kann ich mich nicht ganz aus der Windowswelt verabschieden. Mit einem Intel-Mac benötigt man nur einen Computer. Virtualisierungslösungen interessieren mich dabei mehr als natives Booten von Windows.

Rollkragen

Von: dermattin | Datum: 05.02.2006 | #140
"Der Rollkragenpulli hat uns 4.66 mal soviel Leistung pro Watt versprochen."

Der Rollkragenpulli sprach von "in the Future", er hat kein Wort über den Core Duo in dem Zusammenhang verloren. Er wird sicherlich die CPUs ab Merom gemeint haben, die wirklich derartige Vorteile bieten sollen.

Wie hier schonmal angesprochen wurde, ist Apple so ehrlich wie kaum zuvor: Dass Rosetta nicht für professionelles Arbeiten taugt hat Apple, sogar Steve persönlich, oft genug gesagt, dass es aber für normale Computerbenutzer reicht und man als solcher gut damit leben kann, auch. Exakt das sagt auch Mac-TV.de in ihrem Rosetta Test, sagen Berichte hier im MG Forum, sagen dutzende Anwenderberichte aus.

Und ich kann bis auf Pages keine iApp in den Apple Benchmarks sehen, also auch nicht, wo Apple da lügen sollte. Apple sagt exakt das, was der Realität entspricht. Wer hingegen SPEC Werte als Realitätsbezogen ansieht hat die Materie nicht verstanden, wer meint, Geschwindigkeitssteigerungen sind immer und überall machbar, auch.

Und hinzu kommt noch, dass Appe grad mal eben auf eine komplett andere Architektur umsteigt, für diesen Umstand sind die Mintel Geschwindigkeiten geradezu bemerkenswert.

Eine kurze Zusammenfassung des c´t Tests

Von: Thesi | Datum: 05.02.2006 | #141
gibt es schon bei den mac-essentials.de:

[Link]

kai

Von: nico | Datum: 05.02.2006 | #142
"Auf Optimierungen warten kennen wir Mac-User ja schon! ;-) Wie viele Jahre warteten wir auf G5-Optimierungen, die niemals kamen?"

dann lass doch endlich mal los... ;-)

mattin:

Von: Kai (MacGuardians) | Datum: 05.02.2006 | #143
""Der Rollkragenpulli hat uns 4.66 mal soviel Leistung pro Watt versprochen."

Der Rollkragenpulli sprach von "in the Future", er hat kein Wort über den Core Duo in dem Zusammenhang verloren. Er wird sicherlich die CPUs ab Merom gemeint haben, die wirklich derartige Vorteile bieten sollen."

[Link]

Achte auf die Zahl "4.5" bei SPEC_int.
"The future PowerPC-Roadmap" bezieht sich offensichtlich auf ne uralte Freescale-CPU von 2002!...

"Wie hier schonmal angesprochen wurde, ist Apple so ehrlich wie kaum zuvor"

Wenn ich sowas lese könnte ich kotzen. "We tried everything to shoehorn a G5 into the Powerbook", "we now have two chips in the Powerbook, and every chip is faster than a G5" "4-5x faster" und "2-3x faster" - Soviele Lügen hat Jobs noch nie vom Stapel gelassen!

Natürlich sagt er, dass Rosetta nicht der Hit ist, denn Rosetta ist ein schlechter Witz! 1GHz G4-Performance, ich bitte dich! Trotz G4-Rosetta-Emulation und zwei voll genutzten Cores ist Final Cut Pro DREIMAL SO LAHM wie auf nem einzelnen G5! Wer soll denn damit arbeiten?

"Und ich kann bis auf Pages keine iApp in den Apple Benchmarks sehen, also auch nicht, wo Apple da lügen sollte."

Schau dir mal den fetten "2x faster" button darüber an!... Wahlweise auch das fette Quicktime darüber! Oder Apples Pressemeldungen!

"Apple sagt exakt das, was der Realität entspricht."

Bullshit. Wie viele Tests müssen noch kommen, die als Fazit "Apple 2x-schneller"-Behauptung ist bullshit" haben? Soll ich zitieren? Was hättest du denn gerne? Macworld, Macwelt, Ars Technica oder Anandtech?

"Wer hingegen SPEC Werte als Realitätsbezogen ansieht hat die Materie nicht verstanden"

Soso. Damit meinst du dann ja wohl Apple, die mit "70:15 mehr als PPC in Integer-Performance" und mit "2-3x faster" und "4-5x faster" sich ganz offensichtlich auf SPEC-Tests beziehen, insbesondere auf SpecINT...

"Und hinzu kommt noch, dass Appe grad mal eben auf eine komplett andere Architektur umsteigt, für diesen Umstand sind die Mintel Geschwindigkeiten geradezu bemerkenswert."

Genau. Der Performancezugewinn ist zwar nicht so wie versprochen, aber hey, immerhin sind sie schneller geworden - mit zwei Cores!

...

Von: Karl Schimanek | Datum: 05.02.2006 | #144
"Dass es bei dir klack gemacht hat, beweisst nur, dass du vorher wirklich geglaubt hast, was Apple dir da servierte, dass der PPC besser sei und schneller usw."

Ahso und was hast du? Schade, dass Heico sich nicht mehr zu Wort meldet ...

"Der Rollkragenpulli sprach von "in the Future", er hat kein Wort über den Core Duo in dem Zusammenhang verloren. Er wird sicherlich die CPUs ab Merom gemeint haben, die wirklich derartige Vorteile bieten sollen."

Keynote gesehen? Nein? Dann ansehen!

Na endlich Kai...

Von: dermattin | Datum: 05.02.2006 | #145
"Soso. Damit meinst du dann ja wohl Apple, die mit "70:15 mehr als PPC in Integer-Performance" und mit "2-3x faster" und "4-5x faster" sich ganz offensichtlich auf SPEC-Tests beziehen, insbesondere auf SpecINT..."

Na endlich Kai, du kapierst es langsam... ;)

Duda:

Von: Kai (MacGuardians) | Datum: 05.02.2006 | #146
"Dabei ist Apple viel ehrlicher als früher. Denn die veröffentlichten Benchmarks konnte die c't zum ersten mal praktisch identisch bis auf den Punkt nachstellen!"

Das ist echt ein ganz schlechter Witz. Apple lügt wie niemals zuvor, die größte "Was interessiert mich mein Geschwätz von gestern"-Aktion, eine 180-Grad-Kehrtwende von "Intel ist scheisse" zu "Intel ist viel geiler" und ihr sagt, dass "Apple viel ehrlicher als früher ist"? Auf die Idee, dass ihr JETZT GERADE massiv belogen werdet ("Future PowerPC-Roadmap" sucks, "we tried everything to shoehorn the G5 into a Powerbook" - haha, wat hamwa jelacht!) kommt ihr gar nicht.
Dadurch, dass mit dem Powerbook ganz plötzlich tolle Displays, iSight-Kameras, Frontrow und gescheite GPUs und mit dem iMac ganz plötzlich DVI-out und Screenspanning gehen sagt Apple "okay, wir haben euch jahrelang verarscht und abgezockt" - Und das heisst ihr noch gut und jubelt? Wie war das mit den Kälbern, die sich ihre Schlachter selber suchen?

Wenn ein Politiker gestern sagt "Atomkraftwerke müssen abgeschaltet werden!" und heute "wir müssen mehr Atomkraftwerke bauen!" dann hat der bei mir und jedem anderen normal denkenden Menschen VERSCHISSEN! Warum? UNGLAUBWÜRDIG hoch zehn! Und ihr redet da von "Ehrlichkeit"?? Sag mal in welcher Welt lebt ihr eigentlich?

"Früher hatte Apple doch viel mehr geschummelt, damit der Power PC nicht untergeht."

Früher hat Apple seine Behauptungen wenigstens auf reale Software bezogen und nicht auf völlig praxis-irrelevante Bescheisser-SPEC-Tests! (Ausnahme war der G5, weil's für den damals noch keine Software gab! Jetzt gibt's iLife UB, aber das nimmt Apple komischerweise nicht her, hm, warum wohl?)

mattin:
"Immer vorausgesetzt, Intels Roadmap hält in etwa was sie verspricht (jaa ist schwer ;)), kommen da ganz andere Kaliber auf uns zu als bei IBM."

Ach ja? Was für "Kaliber" sind das denn? Erzähl mal, was kann der Merom denn so?
Ich kann mich noch gut an den Hype erinnern, als der P4 vor der Türe stand und was dann real draus geworden ist... Mit 1.5 GHz versägt von 1GHz P3s und Athlons, wie scheisse peinlich war das denn?

"Als vor dem G5 der PPC Leistungs- und Featuremässig verkackte, habt ihr ihm alle die Stange gehalten, habt gesagt, dass es auf das Mac OS ankäme,"

Ach, IHR habt das gemacht! Du warst da natürlich NIIIE dabei, gell, Mattin? ;-) Integrität, Fähnchen im Wind und so!...

"jetzt wo Intel im Highperformancebereich (der Bereich wo sich nur ein Bruchteil von uns bewegt) nicht mehr die erste Wahl ist, macht Jobs plötzlich etwas falsch."

Nochmal ganz langsam zum Mitschreiben: Der Grund, warum Macs lahmer sind als Windows/Linux-PCs ist UND BLEIBT das OS selbst, NICHT die CPU!
Mit dem Wechsel auf Intel hat Apple jedoch nun seine zwei größten Assets im High-Performance-Bereich verloren: Altivec und die FPUs des G5!

"IBM gibt sein Desktop Geschäft auf und Apple tut genau das Richtige."

So ein Quatsch. Du verwechselst da Ursache und Wirkung! Apple will nicht mehr, also sagt IBM "okay, dann eben nicht" und konzentriert sich auf andere Dinge!

"Dass es bei dir klack gemacht hat, beweisst nur, dass du vorher wirklich geglaubt hast, was Apple dir da servierte, dass der PPC besser sei und schneller usw."

Mei, ist der blöd, gell, Mattin? GOTTSEIDANK gilt das ja nicht für dich! ;-) Wie kann man nur so ein Fähnchen im Wind sein?

"Intel ist kein lahmer Gaul, fernab von jeder Technikgeilheit gibt es nämlich auch noch die Realität des Arbeitsalltages und da sind Intels die meist eingesetzten Prozessoren. Warum, weil es wichtigeres gibt als Top5s von Renderclustern oder Setisucherei."

Dass Intel so weit verbreitet ist hat exakt gar nix mit Leistung zu tun. AMD ist billiger, schneller, hat bei Dualcore und 64bit sowas von extrem die Nase vorn dass es kein Spass mehr ist UND zieht dabei sogar noch weniger Strom! Ich sag nur Palim-palim, Intel inside...


..und hier noch was zum Thema Cell:
[Link]

"The "Cell" processor that will power the next version of the PlayStation game console will also be adaptable for advanced scientific research, but you won't have to be a rocket scientist to program it.

That is the pledge of one of the chief architects of the Cell, jointly developed by IBM, Sony and Toshiba, who on Friday sought to allay fears that the chip would create huge programming challenges for game developers just starting to learn their way around the complex circuitry that powers the current PlayStation 2.

"We're very much aware of the need to balance between innovation in architecture and the ability to leverage that innovation," H. Peter Hofstee, a researcher in IBM's Systems and Technology division, said during a break at an IBM press event here. "The learning curve for this platform should be significantly better than previous ones.""

OSX Problem haben bald andere OS auch

Von: Duda | Datum: 05.02.2006 | #147
"Nochmal ganz langsam zum Mitschreiben: Der Grund, warum Macs lahmer sind als Windows/Linux-PCs ist UND BLEIBT das OS selbst, NICHT die CPU!"


Windows Vista wird auch eine 3dbeschleunigte Gui haben. Linux bald auch mit XGL!

kai

Von: nico | Datum: 05.02.2006 | #148
"Natürlich sagt er, dass Rosetta nicht der Hit ist, denn Rosetta ist ein schlechter Witz! 1GHz G4-Performance, ich bitte dich! Trotz G4-Rosetta-Emulation und zwei voll genutzten Cores ist Final Cut Pro DREIMAL SO LAHM wie auf nem einzelnen G5! Wer soll denn damit arbeiten?"

niemand - ist garnicht freigegeben die pro-apps.
echt mal, du konstruierst dir was zusammen ;-)
fcp5 gibt's ab maerz fuer 49euretten umtausch als universalbinary fuer diejenigen, die gern schon mit intel arbeiten wollen. dann kannste gern vergleichen. und die richtig sinnvollen rechner fur fcp (nachfolger powermac g5) gibt's eh noch nicht. immer das rumgehacke auf rosette geht mir auf den keks.

Rosetta

Von: Henryk Richter | Datum: 05.02.2006 | #149
Dass der PPC-Emulator nicht die Welt leistet und auf einem niegelnagelneuen MacIntel wieder G4-Niveau ins Haus bringt scheint so einige Leute abzuschrecken.

Ich möchte dazu einmal einen anderen Gedanken ins Rennen werfen: Hat irgendjemand von Euch (abgesehen von der Hardwareunterstützung beim Transmeta Crusoe/Efficieon) je einen schnelleren Emulator für einen kompletten Prozessor inclusive dessen Vektoreinheit zu Gesicht bekommen als den von Transitive (Apple: Rosetta) ? Wenn ja, bitte Finger hoch.

Für mich ist Rosetta das eindrucksvollste Stück Software, was mit den neuen Macs ins Haus flattert, eine absolute Glanzleistung. Zwischen QEMU, welches mit ähnlichem Ziel entwickelt wurde und dem Tool von Transitive liegen Welten, zumal der Weg von PPC-Code zu x86-32 ein sehr sehr steiniger ist.

Henryk:

Von: Kai (MacGuardians) | Datum: 05.02.2006 | #150
"irgendjemand von Euch (abgesehen von der Hardwareunterstützung beim Transmeta Crusoe/Efficieon) je einen schnelleren Emulator für einen kompletten Prozessor inclusive dessen Vektoreinheit zu Gesicht bekommen als den von Transitive (Apple: Rosetta) ? Wenn ja, bitte Finger hoch."

\o

Virtual PC

ich glaube

Von: nico | Datum: 05.02.2006 | #151
kai ist betrunken...

an alle ppc verfechter....

Von: namepower | Datum: 05.02.2006 | #152
good bye guys ;-) der zug ist abgefahren also finde ich dieses gejammere und geheule ganz lustig! nur weiter so.... wenn ihr soviel energie zum verschwenden habt.... es gibt kein zurück, also alle intel verfechter, warum eure energie verschwenden und sich mit einer abgelaufenen plattform beschäftigen? warum millionen links aussuchen und argumentieren, spielt eh keine rolle. schauen wir nach vorne und alle die nach hinten schauen wollt bitte sehr.... macht weiter mit euren G4 & G5 kisten. und supa ppc experten können ja in einem jahr oder d. cpu von Ps3 ausbauen und ins gehäuse stecken.... damit sind sie endlich am ziel ihrer träume angelangt...

zum mythischen cell prozessor...

Von: namepower | Datum: 05.02.2006 | #153
von Anandtech [Link]

"...Once again, what’s most intriguing is the similarity, at a high level, of Intel’s far future multi-core designs to Cell today. The main difference is that while Intel’s Cell-like designs will be built on 32nm or smaller processes, Cell is being introduced at 90nm - meaning that Intel is envisioning many more complex cores on a single die than Cell. Intel can make that kind of migration to a Cell-like design because their microprocessors already have a very large user base. IBM, Sony and Toshiba can’t however - Cell must achieve a very large user base initially in order to be competitive down the road. Unfortunately, seeing a future for Cell far outside of Playstation 3 and Sony/Toshiba CE devices is difficult at best...."

also dream on ppc verfechter.... your a part of the past ;-)

namepower hat recht

Von: Duda | Datum: 05.02.2006 | #154
die ganzen diskussionen sind eigentlich eh alle für den popo, da apple die weichen in richtung intel bereits gestellt hat.

dann bringt das hätte, wenn, aber, könnte sein nichts!


anstatt rumzunörgeln und womöglich noch für ein schlechtes image von osx / apple zu sorgen, sollte man lieber nach vorne schauen.

letztendlich ist doch osx das was einen mac ausmacht sowie die abgestimmten kompontenen. das ist ja mit intel alles gleich geblieben.

mir kann keiner erzählen, dass er sich nur wegen ppc einen mac gekauft hat...

Hmm - lustig

Von: Duda | Datum: 05.02.2006 | #155
Kay = dKay (heise), MacRonalds (macwelt)?

Wie hat die Trollerei bei Heise angefangen ?

"Bekannte Trolle waren *jackson*, Jaia, der selbst bei KiPo-News mit Todesstrafen-Postings trollte und sich später in Analüst umbenannte,

*** DeeKay, der ausser Mac nichts Computer nennt, ****


Maze Mietner, ..."

[Link]

...

Von: Karl Schimanek | Datum: 05.02.2006 | #156
"letztendlich ist doch osx das was einen mac ausmacht sowie die abgestimmten kompontenen. das ist ja mit intel alles gleich geblieben"

Genau, warum dann einen Apple PC kaufen, der eh langsamer als eine Whitebox mit Opteron ist? ;-)

"Kay = dKay (heise), MacRonalds (macwelt)?"

LOL
Wenn man keine Ahnung hat ...

:-))

Von: Duda | Datum: 05.02.2006 | #157
"Genau, warum dann einen Apple PC kaufen, der eh langsamer als eine Whitebox mit Opteron ist? ;-)"

Der Opteron hat kein OS X oder? ;)

Nein

Von: Kai (MacGuardians) | Datum: 05.02.2006 | #158
"mir kann keiner erzählen, dass er sich nur wegen ppc einen mac gekauft hat..."

Wegen PPC nicht. Aber weisst du, warum ich mir nen Mac gekauft habe? Weil ich im Gegensatz zu M$ den Eindruck hatte, dass hier ein Hersteller ausnahmsweise an seine User denkt. Weil ich den Eindruck hatte, das hier elegante, zukunftsweisende Technolgien gepflegt und favorisiert werden, nicht nur öde ewig abwärtskompatible Mainstream-Technik mit ständigen Altlasten. Apples Ansatz war irgendwann mal "forward ever, backward never", und wenn Apple glaubte, das kann man besser machen dann machten sie's einfach und schissen auf den Mainstream - egal ob's dann letztendlich erfolgreich war oder nicht! Manchmal war es das (z.B. Firewire, Airport etc), manchmal nicht (ADC, NuBus). Für diesen Mut zur Innovation und das "think different" wirklich zu leben schätzte ich Apple immer.

All dies gilt nun nicht mehr: Mit PPC-Bashing und verkrüppeltem iDVD hab ich alles andere als den Eindruck, dass Apple an seine User (z.Zt. 99,9% PPC-User, und daran wird sich bei ca. 30-40 Mio aktiv genutzten Rechnern so schnell nix ändern!) denkt.
x86 ist keine zukunftsweisende Technik, und x86-32 schonmal überhaupt gar nicht. x86 ist der Benzinmotor der Computerwelt: Überall eingebaut und damit ein selbst-tragender Quasi-Standard, aber trotz ständiger Erweiterungen und Verbesserungen (Einspritzer etc) einfach schon uralt und technisch überholt.
Mit Intel heisst die Devise nun "backward ever, forward never": Wir stellen von einer modernen orthogonalen ISA mit richtig gutem SIMD auf ein rückständiges Chipdesign um, das sogar der Erfinder Intel selbst schon in zwei milliardenschweren Anläufen versucht hat endlich los zu werden (vor der Itanic kam der i960, nicht vergessen!).
"Think different" ist Vergangenheit. Die heutige Devise lautet "think alike, but put it in a pretty box". Das ist armselig und traurig, aber die Apple-Gemeinde jubelt dem nackten König zu mit ihren RDF-Scheuklappen und weigert sich einfach zu sehen, was Apple da für Scheisse baut...

... anders gefragt

Von: Duda | Datum: 05.02.2006 | #159
Und was willst du machen? Ist nunmal so...

Ich wäre auch für "think different" wenn mir das auch wirklich vorteile bringt. Hat es in der Vergangenheit aber eher nicht. Man beachte die Leistung der PowerBooks und was Apple dafür verlangt!

Duda:

Von: Kai (MacGuardians) | Datum: 05.02.2006 | #160
"Und was willst du machen? Ist nunmal so..."

Also ich weiss nur, was ich ganz sicher nicht machen werde: Jubeln und die Entscheidung begrüßen....

"Ich wäre auch für "think different" wenn mir das auch wirklich vorteile bringt. Hat es in der Vergangenheit aber eher nicht.

Soso. Warum kann ich dann an meinen Mac oder mein Powerbook von 1999 nen 16x-Brenner per Firewire hängen? Was mach ich denn bei nem PC-Laptop aus der Zeit? Warum kann ich selbst uralte Maggie-Thatcher-iBooks mit WLAN aufrüsten?

"Man beachte die Leistung der PowerBooks und was Apple dafür verlangt!"

Die Tatsache, dass Apple die Powerbooks über die letzten zwei Jahre quasi "verhungern" hat lassen ist ein ganz anderes Thema...

@ kai

Von: johngo | Datum: 05.02.2006 | #161
" ... Dadurch, dass mit dem Powerbook ganz
plötzlich tolle Displays, iSight-Kameras,
Frontrow und gescheite GPUs und mit dem
iMac ganz plötzlich DVI-out und Screen-
spanning gehen sagt Apple "okay, wir haben
euch jahrelang verarscht und abgezockt" ..."

Du vergewaltigst aber auch jedes kleine
Detailchen für Deine Theorie der Steve-Jobs-
Switch-Lüge und der bewusst gebremsten PPC-
Entwicklung.

Nehmen wir einmal das Screen-Spanning und
die bessere Grundausstattung der Pro MacBooks.
Als Apple den iMac, das iBook und die
Powerbooks einführte, war Scrennspanning
am PC-Markt noch ein nennenswertes Feature
und deshalb bei Apple der Pro-Linie vorbehalten.
Nun aber ist Screenspanning in den meisten
PCs allgegenwärtig und selbst Aldi bietet
diese Woche ein 17er Laptop an! Also muss
Apple seine Rechner aufwerten. Ergo wird
Scrennspanning zum Standard (zumindest
erst einmal in der Mittelklasse) und die
Pro-Schiene (die schon lange zwei Monitore
ansteuern kann) braucht neue Features und
mehr Ausstatung. Und das hat sie bekommen.


So einfach und so logisch lässt sich etwas
erklären, das mit Deiner Deutung nur unzu-
reichend beschrieben ist.


Gruss


johngo

@Kai

Von: namepower | Datum: 05.02.2006 | #162
"Think different" ist Vergangenheit. Die heutige Devise lautet "think alike, but put it in a pretty box". Das ist armselig und traurig, aber die Apple-Gemeinde jubelt dem nackten König zu mit ihren RDF-Scheuklappen und weigert sich einfach zu sehen, was Apple da für Scheisse baut..."

Schöne arrogante Aussage... vielleicht sehe ich in Apple keinen "Engel" oder "Mutter Theresa" oder "Vater Ersatz" oder eine "Religion" o.ä. Für mich Apple ist ein ganz normales IT Unternehmen der Produkte macht die mir gefallen und auf die Arbeiten Spaß macht. Also jubele ich nicht Apple zu sondern akzeptiere die Produkte die sie rausbringen. Ich habe ja die freie Wahl für od. gegen Apple zu entscheiden. Niemand wird gezwungen oder?

Kontraproduktiv

Von: Duda | Datum: 05.02.2006 | #163
Also die Attacken der PPC-Fraktion könnten noch dazu beitragen, dass der ein oder andere potentielle Switcher es doch lässt und am Ende bei Windows bleibt.

Jemand der das alles liest, switchen will ist doch nachher total verunsichert...

Wenn OS X den Bach runter geht hat weder die Intel- noch die PPC-Fraktion etwas davon...


Für mich ist am Mac nach wievor das Betriebsystem OS X das besondere/entscheidende. Die Mehrzahl sieht das doch auch so. Ein Grossteil der Macuser ist doch garnicht technikinteressiert. denen ist es schnuppe, was da drin werkelt. hauptsache es geht alles.

Komisch...

Von: Duda | Datum: 05.02.2006 | #164
das man solche Kommentare recht häufig liest:

"Bin sehr begeistert und bereue den Tausch gegen meinen iMac G5 rev.C nicht EINENE MILLIMETER!
Würde es immer wieder machen!!"

[Link]

er nu wieder

Von: Thesi | Datum: 05.02.2006 | #165
von: Kai:
"... weisst du, warum ich mir nen Mac gekauft habe? Weil ich im Gegensatz zu M$ den Eindruck hatte, dass hier ein Hersteller ausnahmsweise an seine User denkt. "

lol. deshalb hast du nen mac? höhö, da haste wohl aufs falsche pferd gesetzt, wa?

denn hat apple schon jemals das gebaut, was wir user haben wollten? nach jeder produktvorstellung gabs doch jede menge zu meckern... ich kam jedenfalls oft von apple bevormundet vor - ich sach nur screen spanning - (auch wenn sich einige entscheidung -z.B. firewire statt scsi und usb statt adb- im nachhinein als gut durchdacht erwiesen)

ms hingegen...
nun ja, die wintel-user gingen auf die barrikaden, weil sie mit ihrem ms office auch mal pdfs erstellen wollen... und was macht ms? ms bauts ein! (zumindest haben sie vor es in die nächste version einzubauen) - das nenn ich mal dienst am kunden ;-)

altlasten rausschmeissen/abwärtskompatibilität aufgeben

Von: Thesi | Datum: 05.02.2006 | #166
kai: "Weil ich den Eindruck hatte, das hier elegante, zukunftsweisende Technolgien gepflegt und favorisiert werden, nicht nur öde ewig abwärtskompatible Mainstream-Technik mit ständigen Altlasten."

s geht doch weiter: apple trennt sich doch grad von den ppc-geeks und classic-freaks ;-)

und dann machten sie's einfach ...

Von: Thesi | Datum: 05.02.2006 | #167
kai: "Apples Ansatz war irgendwann mal "forward ever, backward never", und wenn Apple glaubte, das kann man besser machen dann machten sie's einfach ..."

eben! drum scheut sich apple auch nicht noch ma zu switchen, weil sie glauben, dass "es" mit einem ehemaligen erzfeind (noch) besser wird...

apple ist mutig

Von: Thesi | Datum: 05.02.2006 | #168
kai: "Für diesen Mut zur Innovation und das "think different" wirklich zu leben schätzte ich Apple immer. "

deine wertschätzung für apple, kann ich momentan ehrlich gesagt nicht so erkennen...

*löl*

Von: Duda | Datum: 05.02.2006 | #169
ast rein thesi! ;-))

Also es gab irgendwo mal die Meldung, dass der Steve eigentlich schon viel früher zu Intel wechseln wollte aber dann doch den g5 genommen hat. weiss nicht mehr wo das stand und was an der behauptung dran ist...

jedenfalls wäre das damals wohl nicht gegangen, da so ein doppelswitch (betriebsystem und cpu) zuviel gewesen wäre.


aber es gab doch mal so ein projekt vor x jahren. es hiess glaube ich startrek. damals ist schon in den laboren ein mac os auf intel gelaufen.

also da könnte etwas dran sein.

Hmm

Von: dermattin | Datum: 05.02.2006 | #170
Die UBs scheinen sogar die PPCs zu beschleunigen, was will man mehr? [Link] ;)

ne medallie hat immer zwo seiten

Von: Thesi | Datum: 05.02.2006 | #171
" ... Dadurch, dass mit dem Powerbook ganz
plötzlich tolle Displays, iSight-Kameras,
Frontrow und gescheite GPUs und mit dem
iMac ganz plötzlich DVI-out und Screen-
spanning gehen sagt Apple "okay, wir haben
euch jahrelang verarscht und abgezockt" ..."

vielleicht waren die ppcs + entwicklung von mobos etc. auch nur so teuer, dass apple nichts besseres einbauen konnte?

vielleicht hielt der akku auch nur so lange durch, da die displays nicht die hellsten bzw. die grafikkarten nicht die dicksten waren?

vielleicht zwingt der noch einfachere vergleich zur wintel fraktion apple auch einfach nur dazu mehr reinzupacken?

wer weiss, wer weiss...

btw. ich hatte nie das gefühl, dass ich für meinen g4 (sawtooth) und mein ibookg4 zu viel bezahlt habe.

Also was nun?

Von: ohNe22 | Datum: 05.02.2006 | #172
Wenn hier jemand wirklich "think different" wiederbeleben möchte, dann bitte selbst machen!

Nein, das ist kein Scherz.

Apple hat die typische Entwicklung hinter sich: Vom innovativen kleinen Unternehmen zum erfolgreichen Großkonzern (mit Höhen und Tiefen). Im Gegensatz zu MS sind sie zwar sehr beweglich geblieben, aber auf Dauer werden sie dem Mainstream anheim fallen, wenn nicht noch irgendwas passiert.
Anfänglich hätte man bei dieser Entwicklung noch sagen können, dass Mainstream immer noch besser als das endgültige Aus ist, aber wenn die negativen Zukunftsaussichten eintreffen, dann sehe ich viele Nachteile für den User.
Diese Beobachtung bezieht sich nur sekundär auf den Intel-Switch, der prinzipiell nichts schlechtes ist. Die Abwendung von einer bestimmten Prozessorarchitektur hin zu einer anderen ist für sich genommen keine Einbahnstraße in die Hölle. Jeder, der etwas anderes behauptet ist ein Fanatiker/Fanboy.
Ich finde nur gewisse Aussagen wie z.B. "Wir werden es nicht verhindern, dass man Windows auf einem Mac installiert" o.ä. sehr merkwürdig.
Der Verdachtsmoment, dass IBM sehr wohl in Zukunft mindestens ebenso gute Chips liefern könnte wie Intel ist auch nicht ausgeräumt. Wobei ich mit hier sehr wohl Steves gekränkte Eitelkeit bei Verhandlungen mit IBM wie auch die Nichtlieferbarkeit eines 3 GHz G5 als Motiv vorstellen könnte.

Wie auch immer: Wenn man etwas verändern möchte, dann muss man es selbst machen. Also: wo sind die Kreativen der Welt, die den benutzerfreundlichen Computer von Morgen entwickeln?
Linux ist ein schönes Beispiel für einen Traum eines "anderen" Ansatzes, der nach und nach zu einem gewissen Erfolg wurde. Leider enthält Linux zu wenig Standards und hat gewisse Nachteile als das es im Moment eine echte Alternative auf dem Desktop sein kann.

Zeigt, dass ihr es besser machen könnt!

Bezüglich der "Probleme" in OS X:
Wer sich heute hinstellt und sagt: Unter Windows ist immer alles schneller, der begeht zwei Denkfehler.
Zunächst einmal ist Windows aufgrund seiner Struktur aus Prinzip unsicherer als Unix/Linux/BSD. Und das wird sich mit Vista nicht unbedingt ändern ...
Zweitens wird MS mit Vista weitere Treiber aus dem Kernel auslagern und eine Reihe von Abstraktionsschichten einführen, die das System langsamer machen werden. Es gibt natürlich auch einige Vorteile daran wie z.B. dass man nach einer Treiber- oder Anwendungsinstallation nicht unbedingt den Rechner neu starten muss und das man in Vista Oberflächen wahrscheinlich einfacher erstellen kann.

Das größte "Manko" bei OS X ist der Micro-Kernel, der sich aber gewiss noch weiter beschleunigen ließe. Apple könnte eben so gut auf eine ähnliche Kernel-Struktur wie andere Unix-Varianten oder Linux umsteigen, die deutlich besser mit einer Vielzahl von Threads umgehen können oder eine Eigenentwicklung, bei der man nicht mehr jeden Thread umständlich in den Kernel laden muss, bevor man ihn tatsächlich ausführt.
Apple hätte dank der Abstraktionsschicht um den Kernel die Möglichkeiten solche tiefgreifenden Veränderungen durchzuführen. Ich bezweifle nur, dass sie bei ihrem derzeitigen Kurs dazu bereit sind - leider.

OSX auf Basis von Linux - das Gedankenspiel gab es schon

Von: Duda | Datum: 05.02.2006 | #173
"Das größte "Manko" bei OS X ist der Micro-Kernel, der sich aber gewiss noch weiter beschleunigen ließe. Apple könnte eben so gut auf eine ähnliche Kernel-Struktur wie andere Unix-Varianten oder Linux umsteigen, die deutlich besser mit einer Vielzahl von Threads umgehen können oder eine Eigenentwicklung, bei der man nicht mehr jeden Thread umständlich in den Kernel laden muss, bevor man ihn tatsächlich ausführt."

siehe: [Link]





btw:
ja von wegen ppc wird ausgebremmst:
[Link]

"All tests performed on a Powermac G5 dual 1.8 GHz with 1.25 GB Ram running 10.4.4
The files used are from 9.5's "features" folder. I opened the files and rendered them straight to picture viewer. I also re-rendered several times to confirm results. No other apps were running in the bacground.

Here are the results.

Ambient Occlusion\Ambient Occlusion.c4d
C4d 8.5 - N/A
C4d 9.52 - :57
C4d 9.52 Universal Binary - :51

HDRI\hdri.c4d
C4d 8.5 - 1:44
C4d 9.52 - 1:20
C4d 9.52 Universal Binary - 1:05

Radiosity\petals.c4d
C4d 8.5 - 1:10
C4d 9.52 - 1:06
C4d 9.52 Universal Binary - 1:00

Sub Surface Scattering\Moose.c4d
C4d 8.5 - :20
C4d 9.52 - :11
C4d 9.52 Universal Binary - :10

Sub Poly Displacement\Andreas Keller\Island\Island.c4d
C4d 8.5 - N\A
C4d 9.52 - 2:12
C4d 9.52 Universal Binary - 1:54

My own file. It's a cheesy render of some shiny reflective rockets on a moon surface.
C4d 8.5 - 6:04
C4d 9.52 - 4:18
C4d 9.52 Universal Binary - 3:51

Not a huge increase I know, but it should make quite a difference when rendering animation sequences.

It would be interesting to see what results an Intel iMac produces using the same files, excluding my cheesy rocket file of course. Would never share that.."

Ich sagte nicht, ...

Von: ohNe22 | Datum: 05.02.2006 | #174
... dass Apple ein Linux-Kernel nutzen soll/wird.

Duda

Von: dermattin | Datum: 05.02.2006 | #175
"ja von wegen ppc wird ausgebremmst:"

Das Argument ging auch eher in die Richtung Absicht. Zudem ging der Vorwurf an Apple und nicht an Maxon.

Duda hast keine Ahnung. McR auf MW ist nicht Kai!

Von: Hrusty | Datum: 06.02.2006 | #176
Wer Intel für einen führenden Prozessorhersteller hält und dieses auch noch kundtut .... naja.
Außerdem ist es doch gut wenn mal ein paar ans nachdenken kommen oder.
Apple zerschlägt zur Zeit viel Porzelan in der ehimischen Stube. Es wird niemehr so sein wie vorher. Und Apple wird auch nie mehr so eine Phase überleben wie Anfang der 90er. Aber wenn diese auch nicht mehr kommt ist es egal.
Ich werde auch Switchen, auf AMD64. Wenn Apple so kundenah ist und es ermöglicht OS X darauf auszuführen- schön, dann haben sie einen Kunden behalten. Aber wenn sie mich schon zum Display Kauf drängen und dann noch zum Intel, zuviel ist einfach zuviel.
Was glaubt wie weit ein DurchschnittsUser von Apple entfernt ist, das sind trotz ipod Meilen. In Deutschland sind die Rechner jenseits von gut und böse, preislich gesehen sowieso. Wenn man für 1000 EUR einen Tower bekommt, mit 1 GB, TV Karte, 2x250 GB,.... warum sollte jemand einen imac kaufen. Damit er sein Display auf den Müll schmeißen kann. Oder damit man erstmal noch RAM aufrüsten muss. Kenne keinen PC im vierstelligen Kaufpreisbereich wo man direkt nach dem Kauf noch 100 EUR in RAM investieren musste. Na gut, bis vor einem halben Jahr musste noch einen Maus mit einkalkuliert werden. Apple wird es schwer haben, bei mir auch. Sie sind auf dem Boden der Tatsachen angelangt. Ein imac DC Yonah mit 2 Ghz ist das eine, ein Rechenpowermäßig vergleichbarer PC mit 20" Wide-TFT das andere. Glaube nicht dass ich mein TFT auf den Müll schmeiße und Apple 1650 EUR hinten rein drücke um einen PC zu erhalten....... und weg!

Hrusty -> lach

Von: Duda | Datum: 06.02.2006 | #177
was du da schreibst, war mit ppc genauso wie mit intel. mit ppc war es sogar noch schlimmer, das die geräte bewusst feature mässig eingeschränkt waren... sieht momentan so aus, als wenn das apple bei den intel macs nicht mehr macht (zumindest so krass).

einen mac kauft man für os x (und evtl. noch für die gute abstimmung auf das system). alles andere ist doch... ^^


ich bin übrigens einer der grössten imac kritiker. denn ich wollte nie so ein all-in-one gerät. power-mac zu teuer, mac mini zu schwach und schlechte austattung. dazwischen fehlt eine alternative zum imac... aber das hat nichts mit dem intel switch zu tun ;-)

wo?

Von: Duda | Datum: 06.02.2006 | #178
"Wer Intel für einen führenden Prozessorhersteller hält und dieses auch noch kundtut .... naja."

das habe ich nicht behauptet ausser im mobilen sektor, wo intel neue rekorde mit leist / watt aufstellt.

anyway:
intel hat mit dem P1264 den fortschrittlichsten Herstellungsprozess!
NIEMAND ausser intel kann zur zeit mit ähnlich geringer verlustleistung einen vergleichbaren chip fertigen!

@Hrusty

Von: Thesi | Datum: 06.02.2006 | #179
"Apple zerschlägt zur Zeit viel Porzelan in der ehimischen Stube."
Ja? erst seit kurzem? erzähl ma... und ich dachte apple erobert seit geraumer zeit nach und nach den muggeligen part der behausungen (durch iPod, airport express, front row, mac mini,... angeschlossen an tv und/oder hifi-anlage)

"Ich werde auch Switchen, auf AMD64."
+ windows oder + linux ?

"Aber wenn sie mich schon zum Display Kauf drängen..."
das war selten anders oder ansonsten mit apothe- äh, ich meine natürlich profipreisen verbunden

ich gebe dir allerdings recht, dass ein mac modell ohne monitor mit großer, schneller festplatte für unter 1000 schleifen fehlt (der mac mini bietet mir mit laptop-festplatte und g4 nicht genug bang-for-the-buck! da kann er noch so schnuggelig und leise sein...), aber mal sehen, wer oder was demnächst den eMac ablöst. ich persönlich wünsche mir so was wie ne neuauflage der "pizzaschachtel" mit "intel core duo", fernbedienung und "front row"... also, come on apple!

kai

Von: nico | Datum: 06.02.2006 | #180
"Wegen PPC nicht. Aber weisst du, warum ich mir nen Mac gekauft habe? Weil ich im Gegensatz zu M$ den Eindruck hatte, dass hier ein Hersteller ausnahmsweise an seine User denkt. Weil ich den Eindruck hatte, das hier elegante, zukunftsweisende Technolgien gepflegt und favorisiert werden, nicht nur öde ewig abwärtskompatible Mainstream-Technik mit ständigen Altlasten. Apples Ansatz war irgendwann mal "forward ever, backward never", und wenn Apple glaubte, das kann man besser machen dann machten sie's einfach und schissen auf den Mainstream - egal ob's dann letztendlich erfolgreich war oder nicht! Manchmal war es das (z.B. Firewire, Airport etc), manchmal nicht (ADC, NuBus). Für diesen Mut zur Innovation und das "think different" wirklich zu leben schätzte ich Apple immer. "

ich schaetze meinen mac, weil ich damit arbeiten kann und meine broetchen mit verdiene. nun haben wir einen quad, und noch einen alten g5 2x2ghz. naechstes jahr dann einen intelbasierten. ich freu mich drauf.

ich weiss nicht was du hast, kai. wenn ich dich so lese, dann denke ich immer, dein ppc liegt in einem schrein. wir arbeiten jedenfalls damit und es tut gut zu wissen, dass es weiter geht. erste vorstellungen sehen vielversprechend aus und rosette wird bald unnoetig sein...

Hmm anz OT

Von: dermattin | Datum: 06.02.2006 | #181
Mal ganz OT, ich muss meinem vorherigen Beitrag widersprechen, irgendwie hab ich auf dem Quad jetzt 4x100% Auslastung beim FC, Motion usw... und rennen tun sie auch irgendwie schneller...weiss wer warum?

User sind mit Intel zufrieden...

Von: Duda | Datum: 06.02.2006 | #182
Also wenn man durch die Foren geht, sind die Userberichte zum Intel iMac absolut positiv - trotz geringer Auswahl an nativer Software. Ich habe bisher noch kein einziges Post gelesen, wo jemand mit seinem Intel iMac unzufrieden ist.

Stattdessen gibt es mehrere die ihren Rev C iMac (PPC) gegen einen Intel iMac eingetauscht haben und diesen Schritt nicht bereuen, da

- das ganze System sich flotter anfühlen soll
- leiser

Bsp:
"Ich habe bislang quasi NUR Pluspunkte feststellen können!
- Es ist WESENTLICH leiser wie rev.C
- Was die Programme angehet: PS ist ein wenig langsamer,kann aber damit leben.
- iLife ist Rasend schnell!!!
- Safari ist schneller!
- Das ganze System ist schneller und flüssiger!

Ich freue mich schon auf die Universal Proggis!
War aber IMHO ein Tausch alle mal wert!"

"habe aber auch Rev. C gegen den Intel getausch
Programme die unter Rosetta laufen, laufen zwar. Stellen aber nur eine Notlösung dar... Das ist noch recht nett ausgedrückt

Das OS an sich lässt sich jedoch von der Geschwindigkeit kaum vergleichen. Ich hatte beim iMac Rev. C 1,5GB RAM. Beim Intel noch 512MB und trotzdem Fühlt sich das OS wesentlich schneller an als noch beim G5.

Zur Lautstärke wurde hier zwar schon oft geschrieben aber bitte
Der Intel ist zur Rev. C nochmals wirklich Deutlich!!! leiser geworden. Zwar ist auch der G5 angenehm aber der Intel ist in dieser Hinsicht wirklich ein Hammer. Vor dem iMac Rev. C hatte ich einen Mini. Der Intel ist leiser..."

"Ich habe auch meinen Rev. C gegen einen Intel getauscht. Naja. Sagen wir ich warte noch auf den Intel . Aber wenn der noch einmal leiser sein sollte, dann hat sich das Ganze schon gelohnt."

[Link]




"Also meinen ultrakompakten supergünstigen headless iMac haben sie mir gebaut.. Welcher übrigens halb so teuer ist wie die Kopien mit Intels Dothan (siehe Aopen!). Soviel zum "PPC ist teuer"-Mythos!"

Also mir hat Apple mein Wunschgerät nicht gebaut.

Mac Mini ist lahm, bietet keine Erweiterungsmöglichkeiten, hat eine Notebookfestplatte und ein notebook-optisches Laufwerk, kein line in, kein multi-monitor betrieb, ist mir einfach zu wenig (leistung und ausstattung).

Da muss schon noch etwas grösseres her - eine wirkliche alternative zum iMAc!!! von mir aus muss der mini nicht mini sein!



"Doch, ich. Und zwar zu x86. Wenn ich OS X will sogar zu Intel, eine Firma, deren Geschäftspraktiken ich zutiefst ablehne und die ich -genau wie M$- garantiert nie wieder unterstützen werde."

- dann frage ich mich was du in einigen jahren machen möchtest?

- aha - kann man umgekehrt sagen: beim mac ist man zu ppc gezwungen worden.



"Die Abwendung bedeutet weniger Entscheidungsfreiheit für den Kunden. Und weniger Wahlmöglichkeiten sind IMMER schlecht für den Markt! Ich KANN als normaler Desktopuser nun keine Computer mehr ohne x86 kaufen."

den normalen kunden juckt es nicht, was für eine cpu da drin werkelt. man soll gerade bei macuser nicht von ausgehen, dass die so technikverliebt sind. die wenigen die in den foren posten entsprechen nicht dem macuser, den ich sonst im real life kenne!

apple hat jedenfalls die möglichkeit jetzt problemlos zu amd zu wechseln... und braucht keine angst zu haben, dass ppc eine sackgasse ist/wird (aus welchen gründen auch immer).

Also wenn der Mintel deutlich leiser ist...

Von: dermattin | Datum: 06.02.2006 | #183
...dann müsste er praktisch lautlos sein, ich finde die Rev. C, die ich habe, verdammt leise (sie steht aber auch frei im Raum).

"Unreal Tournament 2004 goes Intel-native"

Von: Philipp | Datum: 06.02.2006 | #184
Zitat aus dem Text: "... time demo comparisons show that Unreal Tournament 2004 runs twice as fast on Intel-based iMacs as it did on iMacs equipped with G5 processors."

[Link]

PS: Und das leiser und mit weniger Stromverbrauch!

u.a. Duda

Von: Hrusty | Datum: 06.02.2006 | #185
"was du da schreibst, war mit ppc genauso wie mit intel. mit ppc war es sogar noch schlimmer, das die geräte bewusst feature mässig eingeschränkt waren... sieht momentan so aus, als wenn das apple bei den intel macs nicht mehr macht"
-> das habe ich und andere doch schon geschrieben, di eEInschränkung lag an Apple bzw. an der Verfügbarkeit eines Mobilprozessors. Apple wollte den G5 nur als Übergangslösung. Dies ist mittlerweile durchgesickert. Hat aber von IBM verlangt den G5 weiterzuentwickeln. Da IBM natürlich dieser Einstellung gewahr wurde, haben sie von Apple Geld verlangt um ihre Investitionen zu sichern und auch ein Bekenntnis von Apple zum PPC zu bekommen. (Die PPC´s sind von IBM sehr günstig an Apple verkauft worden, da sind die Yonahs zum Teil um 60-80 % teurer) Dies haben sie nicht erhalten! Und so nahm die Misere seinen Lauf. Freescale und IBM sahen keinen Grund mehr noch Geld in die PPC Desktopentwicklung zu stecken, zumahl Apple fast der einzige externe Großkunde ist.
Durch die fehlende Weiterentwicklung fehlte Apple somit ein Leistungsspektrum innerhalb der Prozessorlinie. Somit waren sie gezwungen ihre Produkte im unteren-mid Bereich künstlich zu verkrüppeln. -hausgemachtes Problem. Oder?
Mit dieser hausgemachten Geschichte wurde der Switch unter anderem begründet. Oder?

------------------------------------------
"vielleicht hielt der akku auch nur so lange durch, da die displays nicht die hellsten bzw. die grafikkarten nicht die dicksten waren?"

Ähem, Du weißt schon dass Du damit dem G4 unterstellst zuviel Strom zu verbrauchen. Oder wollte Apple mit einem schwächeren Akku Kosten sparen ;-). Ich denke letzteres, denn die Displays werden auch die billigsten gewesen sein. ich hatte mal ein PB 550 (mattes, dunkles Bild) und ein ibook 900 12" (zu dunkel) und kann diese Aussage nur bestätigen.

Apple wollte den G5 nur als Übergangslösung.

Von: Duda | Datum: 06.02.2006 | #186
???

für Intel (wie schon von mir vermutet???? oder was?

Thesi

Von: Hrusty | Datum: 06.02.2006 | #187
"Apple zerschlägt zur Zeit viel Porzelan in der heimischen Stube."
Ja? erst seit kurzem? erzähl ma... und ich dachte apple erobert seit geraumer zeit nach und nach den muggeligen part der behausungen (durch iPod, airport express, front row, mac mini,... angeschlossen an tv und/oder hifi-anlage)

-Na Eroberung würde ich das nicht nennen, wenn 15 mio ipods verkauft werden und der MA für Rechnerverkäufe um ein halbes % steigt......

"Ich werde auch Switchen, auf AMD64."
+ windows oder + linux ?
- nicht oder, und!

"Aber wenn sie mich schon zum Display Kauf drängen..."
das war selten anders oder ansonsten mit apothe- äh, ich meine natürlich profipreisen verbunden
ich gebe dir allerdings recht, dass ein mac modell ohne monitor mit großer, schneller festplatte für unter 1000 schleifen fehlt (der mac mini bietet mir mit laptop-festplatte und g4 nicht genug bang-for-the-buck! da kann er noch so schnuggelig und leise sein...), aber mal sehen, wer oder was demnächst den eMac ablöst. ich persönlich wünsche mir so was wie ne neuauflage der "pizzaschachtel" mit "intel core duo", fernbedienung und "front row"... also, come on apple!

-jo, meinst Du sie bringen das Gerät raus was alle wollen und verlangen dann 1099 EUR? Und wa sist mit den "Profipreisen" für die PowerMacs? Jeder der Erweiterungskarten oder interne Fetsplatten nachrüsten wollte musste bisher 2000 EUR latzen, wer das nicht wollte bekam ein Zwangsdisplay oder eine Surfmaschine, die dann zum wirklichen benutzen eine weitere Anschaffung nach sich zog....
Es wird ein Mininachfolger kommen, klar mit Yonah Single, ne Desktop HD wäre angeraten... wieviel soll der kosten? Kennst Du die Preise für das mini pendant / Nachbau von Aopen mit Pentium-M Prozessor, Post Mahlzeit!

Duda

Von: Hrusty | Datum: 06.02.2006 | #188
Deine Vermutung war richtig.
Im Netz kursieren Medlungen, dass Jobs mit dem OS X Switch auch einen Prozessorswitch auf x86 im Auge hatte. Aber er schätzte es so ein, dass die fehlende Classic-Umgebung Apple den Kragen kosten kann.... bzw. die USer den Doppel-Switch nicht mitmachen würden, OS X war zu diesem Zeitpunkt einfach noch zu sehr Beta.

.

Von: Duda | Datum: 06.02.2006 | #189
"-jo, meinst Du sie bringen das Gerät raus was alle wollen und verlangen dann 1099 EUR? Und wa sist mit den "Profipreisen" für die PowerMacs? Jeder der Erweiterungskarten oder interne Fetsplatten nachrüsten wollte musste bisher 2000 EUR latzen, wer das nicht wollte bekam ein Zwangsdisplay oder eine Surfmaschine, die dann zum wirklichen benutzen eine weitere Anschaffung nach sich zog...."


das ist das problem. zum anderem macht man dem imac dann noch konkurrenz.

aber wenn apple so ein ding in form eines barbones rausbringen würde, dann könnte man sich gegenüber dem power mac noch abgrenzen. einen barebone kann man zwar erweitern aber bei weitem nicht so wie einen ausgewachsenen pc!


"Deine Vermutung war richtig.
Im Netz kursieren Medlungen, dass Jobs mit dem OS X Switch auch einen Prozessorswitch auf x86 im Auge hatte. Aber er schätzte es so ein, dass die fehlende Classic-Umgebung Apple den Kragen kosten kann.... bzw. die USer den Doppel-Switch nicht mitmachen würden, OS X war zu diesem Zeitpunkt einfach noch zu sehr Beta."

hinzu kommt wohl noch, dass es noch schwerer geworden wäre, die software von os0 auf os x(intel) zu portieren als von os9 auf aus x (ppc)

und:

hätte damals apple schon die möglichkeiten gehabt, OS X so gut vor hacks zu schützen wie jetzt? hätte man dann ein bios in den macs gehabt *schauder*


naja egal...

bin mal gespannt was so demnöchst noch von apfel vorgestellt wird

Display / Kai

Von: ohNe22 | Datum: 06.02.2006 | #190
"Glaube nicht dass ich mein TFT auf den Müll schmeiße und Apple 1650 EUR hinten rein drücke um einen PC zu erhalten....... und weg!"

Zunächst einmal sei gesagt, dass der iMac eine All-in-one-Lösung ist und bleibt.
Davon abgesehen hält dich aber niemand davon ab dein Display zu behalten und an einen iMac anzuschließen - seite der neuesten Revision sogar ohne irgendwelche Patches. So what?

Kai:

""Anfänglich hätte man bei dieser Entwicklung noch sagen können, dass Mainstream immer noch besser als das endgültige Aus ist, aber wenn die negativen Zukunftsaussichten eintreffen, dann sehe ich viele Nachteile für den User."

Welche "negativen Zukunftsaussichten" gab es denn vor der Switch-Ankündigung für Apple? Marktanteil wuchs endlich wieder, iPod lief hervorragend, Apple war wieder in aller Munde. Und jetzt? Tolle Zukunftsaussichten: Die ewige zweite Performancegeige hinter Windows auf derselben Hardwareplattform spielen. Mehr Geld für weniger Leistung auf derselben Hardware verlangen. Auf nen bald verlassenen Bahnhof (x86-32) umziehen ohne Zugticket für den 64bit-Zug.
Früher bekamen wir für die zusätzliche Kohle, die wir für nen Mac auf den Tisch geblättert haben wenigstens noch eigene Technik. Heute nur noch Mainstream-Technik, aber dafür im schmucken Gewand - toll!"

Kai - du merkst nicht mal, wenn man dir Recht gibt!
Die negativen Aussichten bezogen sich eben auf dieses Schreckensszenario, dass Apple nur noch Mainstream produziert, der hübsch anzuschauen ist und nicht mehr auf die Bedürfnisse der Anwender eingeht. Oder noch viel schlimmer: sein eigenes OS komplett aufgibt und nur noch Windows Apps schreibt - argh!


""Die Abwendung von einer bestimmten Prozessorarchitektur hin zu einer anderen ist für sich genommen keine Einbahnstraße in die Hölle. Jeder, der etwas anderes behauptet ist ein Fanatiker/Fanboy."

Die Abwendung bedeutet weniger Entscheidungsfreiheit für den Kunden. Und weniger Wahlmöglichkeiten sind IMMER schlecht für den Markt! Ich KANN als normaler Desktopuser nun keine Computer mehr ohne x86 kaufen.
Jetzt gibt's nur noch zwei Hersteller, wobei der eine auf wackeligen Beinen steht. PPC als dritte Alternative ist WEG VOM FENSTER! Inwiefern ist das gut, mangelnde Konkurrenz und die daraus resultierende Stagnation? Und was hat DAS bitte mit "Fanatiker/Fanboy" zu tun? Folgend deiner verqueren Argumentation könnte Apple auch nächstes Jahr sagen "okay, wir switchen jetzt auf Windows. Das mit OS X hat keinen Zweck, die Welt benutzt Windows also machen wir das auch!". Hey, ist ja keine Einbahnstraße in die Hölle, die Abwendung von einem System hin zum anderen, gell? Hat Apple ja schon früher gemacht mit OS9 -> OS X! Einfach die iApps, Safari und FC Studio, Logic und Shake auf Windows rüberziehen, fertig! iTunes läuft ja schon! Super! Apple, der Windows-OEM mit dem extra Softwarebundle! Denn hey, es ging schließlich nie um das OS, richtig? Niemand macht den ganzen Tag Finder-Fenster auf, es geht um die SOFTWARE, die darauf läuft!"

*Lach* Du hast mich SCHON WIEDER falsch verstanden.
Es ging mir darum, dass die Entscheidung einen anderen Lieferanten zu wählen _an sich_ nichts schlimmes ist! Es ist die freie Entscheidung jedes Unternehmens das zu machen.
Auf den Switch PPC -> Intel bezogen mag das etwas anderes sein, aber in meinem Zitat sehe ich weder das Wort "PPC" noch die Worte "Intel" oder "X86".
Es ist klar, dass du wieder nur das hineingelesen hast, was du wolltest.

Conroe

Von: Duda | Datum: 06.02.2006 | #191
CHIP GIANT Intel has told its server customers of a range of processors in Q3 with 4MB of cache and 1066 system buses, as we've predicted earlier.
It will introduce the E6700, a 2.67GHz dual core processor, the E6600, a 2.40GHz CPU which also has 4MB of cache, but has some 2MB cache processors in that family too.
These are the E6400 and the E6300, clocking at 2.13GHz and 1.86GHz - each having 2MB of cache.
Prices are likely to be around $529, $315, $240 and $210 respectively but Intel will precipitate a price crash on other processors on the 23rd of April.
Naturally, these CPUs will be produced using a 65 nanometre process with these Conroes infiltrating two separate lines.
According to recent roadmaps seen in the Porcupine, Intel will introduce a 3.6GHz 800MHz 2x2MB cache 960 at the end of April, following the large price falls in the previous week. µ

[Link]

Duda

Von: Hrusty | Datum: 06.02.2006 | #192
Scho recht:

Die RiesenCaches (ein großer Performancesteigerer) sind durch den 65 nm Herstellungsprozess überhaupt erst bezahlbar. Ich habe gelesen, dass Die des Yonah wäre fast 3x so groß wie das des G5 DC.

bedenke:
AUf 65 nm umstellen wird jeder relevante Hersteller in 2006 bewerkstelligt bekommen. Einen MörderCache anzubauen kann auch AMD, wobei ich mal in der c´t gelesen habe, dass bei Athlons aufgrund des Designs eher der L1 Cache performancesprünge möglich macht. Darum ist auch der Sempron nicht so grottenlahm wie der Celeron.
Aber die Feinheiten und die Musik spielt bei AMD: SOI, 64 Bit bald in allen Prozessoren und begonnen vor 2 jahren, Speichercontroller auf dem Prozessor,...
(letzteres hat Intel Indien, wie schon mitgeteilt gerade auf absehbare Zeit versiebt) -
genau wie die Feinheiten und die Musik immer bei OS X spielt(e) und nicht bei Windows....

Der Switch ist gemacht.
Roadmaps kann jeder vorlegen, Papiertiger hat die IT-Welt auch shcon genug erlebt.
Insofern sollte man sich darauf einigen:
Ob der Intel Switch richtig war, kann man in 1-2 Jahren erst wirklich abschätzen, wenn abzusehen ist, was Intel realisiert hat und was nicht. Ebenso die Wettbewerber.
Natürlich ist der Yonah bzw. der Merom ein guter PRozessor und gut optimiert auf Genügsamkeit. Dies will ich nciht absprechen, aber man muss die gebotene Leistung von Intel rückwirkend beurteilen, um wirklich sagen zu können, ob es begründbar war.
Wenn der Switch wirklich in 2003 gemacht worden wäre, hätte man Zumindest die letzten 2-3 Jahre beurteilen können. Und da bleibt fetszuuhalten, dass scih Apple mit Intel blamiert hätte. Es fing an mit dem gutbeworbenem (intels Markenzeichen) Pentium 4. Der mit 1,5 Ghz vom 1 Ghz Pentium 3 gezeigt bekam wo Barthel den Msot holt. Dann wollte Intel mit Rambus den Speichermarkt Monopolisieren. Die Speicherhersteller boykottierten das schnellere Rambus-RAM. Intel musste hektisch auf DDR-RAM umsatteln. Während AMD in der zwischenzeit von den Zulieferern immer solidere Chipsätze geliefert bekam (nforce2-4) und es elegant schaffte eine 64 Bit Einheit zu implementieren trudelte Intel vor sich hin. GEscheitert an der beliebigen Ghz Steigerung des P4 und (wie alle anderen) an der Umstellung auf 90 nm. Der Prescott sollte endlich Intels Wendepunkt markieren, außer HT hatte er kaum vernünftiges zu bieten und brauchte Strom ohne Ende (Vollast ~120 Watt), nebenbei wurde bei Performancetests immer deutlicher, dass sich immer mehrere Athlon64´s vor dem P4 positionieren konnten. Intel begann mit der EEdition den gangbaren Weg einen MosnterCache anzubauen, so dass zumindest nicht die gesamte top10 Intel frei blieb......Es muss aber nicht erwähnt werden, dass diese EEditions um die 1000 EUR kosten, während die davor plazierten Athlon64 ein paar hunderter weniger...... Bei den Servern war die Entwicklung noch krasser, hier lief bei Intel alles aus dem Ruder, so dass AMD mit dem Opteron seit geraumer Zeit die PErformancekrone trägt......
Zumindets im Rückblick wäre der Switch in die Hose gegangen......

chipsatz

Von: - | Datum: 06.02.2006 | #193
"solidere Chipsätze geliefert bekam (nforce2-4)"

das soll wohl ein schlechter witz sein. nforce sind mit die schlechtesten chipsätze auf dem markt (bugs ohne ende). nur werden die gehypt was das zeug hält!

ein glück das der nforce nicht in einem mac ist sondern ein solider intel-chipsatz

nForce

Von: Hrusty | Datum: 06.02.2006 | #194
Kann ich nicht nachvollziehen.
Habe 2 Freunde die nForce im EInsatz haben einer 2 und einer den 4. Beide Hochzufrieden.
Ich selbst habe einen 2600+ mit Asus Mainboard nfroce2. Der Rechner ist bisher (seit 3 Jahren) noch nie abgestürzt. WInXP. Ehrlich! Allerdings habe ich die BS/Softwareseite auch ziemlich im Griff, will sagen: keine krummen Treiber installationen, .....

naja

Von: - | Datum: 06.02.2006 | #195
ich zitiere mal folgendes:

"klar kann man auch mit dem nforce zurechtkommen, nämlich dann, wenn man so wenig wie features des chipsatzes nutzt wie irgendwie möglich. vor allem möglichst keine oder zumindest keine problematischen pci-karten.

ich hab mit vielen nforce2 board genügend erlegen dürfen, von acpi problemen, apic problemen, miesem pci-durchsatz und quasi nicht vorhandener arbitrierung, datenkorruption mit pci-controllern. knacksender oder gar verzerrter sound bei hoher pci-last, usb-problemen, streikenden lan-ports, miesen treibern und hoher systemauslastung (laggy ohne ende).

und einige probleme schleppt nvidia auch beim nforce4 noch mit sich rum, pci-performance & lastverhalten bleiben arg bescheiden, dann haben wir eine schlechte ncq-implmentierung und bei diversen mobo-herstellern probleme mit datenkorruption bei verwendung von ncq. wenn man sich mal bei den linuxern umschaut, dann scheinen die acpi-probleme auch nicht besser geworden zu sein. gelegentlich werden sata-platten (maxtor, wer auch immer schuld daran tragen mag) nur sporadisch erkannt etc. - die treiber sind auch nicht besser geworden.

unterm strich ist nforce gleichbedeutend mit "kunde darf sich als betatester" verausgaben."

[Link]

desweiteren macht die xifi sundkarte voll die probleme auf dem rotz. div. digitale-sat karten gehen nicht.
dann wird dieser schrott noch super warm, weswegen es einen lästigen, schrottigen quirl bedarf. passiv-lösungen sind mit vorsicht zu geniessen.

klar, wenn man nur 08/15 karten einbaut und die features möglichst wenig benutzt, läuft alles....











und dann wird dieser schrott noch super warm, weswegen da so ein schrottiger lauter quirl drauf muss. diese passiv-lösungen sind mit vorsicht zu geniessen

nF

Von: Hrusty | Datum: 06.02.2006 | #196
Kann nur nochmals schreiben, dass ich ein Asus Mainboard mit AGP GraKa im Einsatz habe..... keine Probleme.
Habe zusätzlich noch WLAN (gehabt), PCI Modem (gehabt) und aktuell eine DVB-S PCI Karte und eine PCI Karte mit einer weiteren Netzwerkschnittstelle verbaut.

Es mag sein, dass ATI bzw VIA reifere Chipsätze baut, ich habe keinen direkten Vergleich.... nur meine guten Erfahrungen.

200 ter Beitrag möglich

Von: Hrusty | Datum: 06.02.2006 | #197
Aber um bei der Verhältnismäßigkeit zu bleiben.
Ich warte mindestens 2006 ab und verweise auf wichtigeres:

[Link]

weil du gute erfahrungen hast...

Von: - | Datum: 06.02.2006 | #198
heisst das noch lange nicht, dass der chipsatz gut ist. wenn du nach nforce mal richtig suchst, findest du problem ohne ende. ich könnte jetzt weitermachen aber das ist OT!

leider nehmen sich magazine und online-seiten den problemen des nforce nicht an. die c't hatte jedenfalls mal gewisse andeutungen gemacht ;-)

nforce wird jedenfalls zu unrecht dermassen gehyped...

auf aktuellen intel-chipsätzen kann ich im gegenzug keine probleme finden ausser evtl. kleinigkeiten.
klar hat intel auch mal mist gebaut (aber recht seltend).

wenn aber mal bei intel fehler auftreten, die man wirklich intel anlasten kann, dann hat intel dafür auch immer gerade gestanden

Bsp: ich6/-r bug, mth-bug
-> es gab stets rückrufaktionen. beim mth-bug wurden kunden sogar mit rambus-speicher entschädigt. und dort waren von dem bug eigentlich nur sehr wenige tatsächlich betroffen.

sowas hab ich bei via und vorallem nvidia bisher nicht erlebt - und dort (insbesondere bei nvidia gibt es deutlich mehr probleme mit den chipsätzen)!

dort sitzt man die probleme einfach aus, in der hoffnung, daß man da irgendwann mal die produkte gesund gepatched bekommt.


bei der amd-plattform krankt es an wirklich guten chipsätzen. wenn es mal was gutes gibt (z.b. von uli), wird es nicht verbaut oder landet auf murks-brettern.

ich hoffe das ändert sich demnächst. von via kommt auch was neues....

das ist übrigens auch einer der gründe warum ein mir bekanntes systemhaus amd den rücken gekehrt hat (gut war vor einigen jahren als die situation noch schlimmer war).

mir ist jedenfalls ein technologisch etwas schlechtere cpu lieber, wenn ich dafür einen problemlosen, funktionierenden cjipsatz erhalte.

aber das ist alles ot. in dev. foren gibt es genaug dazu

schon wieder so ein spinner

Von: neu | Datum: 06.02.2006 | #199
@ hrusty du kenne unterschiht fonn die beweglicherechensilikoneinheit (mobilchip) gen die über von dih voll krass hohen grauturmwarmwiesaurechenknecht (desktopprozessor)?

du verstehen? mobilbereich da sein amd voll abkacken, nicht von auf die reihe bekommen.....


du merken? amd nix vernünftiger wettbewerber fonn die mitnehmrechenwerk!!

neu

Von: Hrusty | Datum: 06.02.2006 | #200
Klar tomshardware hat den Turion64 gegen PentiumM antreten lassen: Ergebnis:
Intel brauchte etwas weniger Strom. Turion hat bessere Stromspartechnik. Wenn man mit dem NB nicht rendert dh. permanente Vollast fordert ist der Turion64 in der Praxis in etwa gleichwertig. ist nur preiswerter und hat 64 Bit. Manche wissen das zu schätzen.

Der AMD 3500+ verbraucht mit Venice Kern ca 32 Watt. Dies ist ein unoptimierter Desktop Prozessor ......

Der Yonah ist der Beginn einer ganz neuen Prozessorgeneration 2006. Intel wird den Weg von AMD gehen und das Grunddesign eines Prozessors gehen und daraus Mobile und Desktop Prozessoren jeweils ableiten bzw. optimieren.

AMD hat bisher noch wenig verlauten lassen, ich vermute, die lassen den Wirbel den der Yonah verursacht hat, sich erstmal legen. Und werden dann, wenn ihnen volle Aufmerksamkeit sicher ist die weiteren Pläne veröffentlichen.

Ich nehme zu Deiner Entschuldigung mal an, dass Du sehr begeistert bist....

wie?

Von: nico | Datum: 06.02.2006 | #201
wat?

tja

Von: neu | Datum: 06.02.2006 | #202
und der pentium m ist der alte prozessor

der neu bekanntlich der core duo.

und der core duo ist lieferbar.

alles andere ist vaporware.

Ach echt?

Von: Kai (MacGuardians) | Datum: 06.02.2006 | #203
[Link]

"With the Core Duo, Intel not only introduced a reasonably sized change in microarchitecture, they also made the shift to 65nm on this semi-new architecture. The end result seems to be that availability of Core Duo processors and chipsets just isn't all that great. In fact, unless you are a Tier 1 OEM or ODM, we're hearing that you aren't getting Core Duo chips until sometime next quarter! That's getting dangerously close to the launch of Conroe and Merom, making Core Duo seem very much like a temporary solution.

With limited supplies, all of Intel's partners were limited in what they could bring to market based on Core Duo, and when. That's why one of Intel's strongest partners, Dell, made their first Core Duo product a higher priced 17" model that would sell in lower quantities than a lower priced mainstream solution. And it's also a big reason why Apple's first Intel based products are what they are, and why we are also not finding the Core Duo in a revamped $400 Mac mini today."

@kai

Von: l | Datum: 06.02.2006 | #204
Sag mal Kai wieso schickst du Apple keine Mail mit deinen Anfragen (Anliegen)?

Wäre doch naheliegend.

Verklagen werden´s dich schon nicht :-)

Ist doch bekannt.

Von: nico | Datum: 06.02.2006 | #205
Fakt ist, die Preise sind immer gefallen, deutlich.
Kannste bei diversen Haendlern (Alternate und Co) monatlich sehen.
Es bleibt dabei, der Switch kommt, die Intels sind schneller und verbrauchen weniger. Alles andere ist Geschichte.

Huch, ich beachte Gross/Kleinschreibung... ;-)

Dank Kai habe ich mittlerweile auch das ganze ...

Von: johngo | Datum: 06.02.2006 | #206
.. Prinzip von Apple verstanden. So
wurde mein Dual G4 MDD ja auch extra
lahm - und vor allem extra laut -
produziert, damit der damals neue
G5 zeigen konnte, wo der Mostricht
hängt.

Und wenn ich mir das richtig überlege,
dann trifft das auf meine bisherigen
Autos auch irgendwie zu ... und mein
Motorrad ... und meine Heizung und
meine ...

hmm ... ich muss darüber noch ein
bisschen nachdenken!

Gruss


johngo

Lieferprobleme Core Duo???

Von: namepower | Datum: 06.02.2006 | #207
guckst du hier (Mactechnews.de) -> Apple scheint mit dem iMac Core Duo, welcher den selben Prozessor wie das MacBook Pro einsetzt, bislang keine Lieferschwierigkeiten zu haben. Die Geräte sind im deutschen und amerikanischen Apple Store in 24 Stunden versandfertig.

namepower

Von: nico | Datum: 06.02.2006 | #208
die vergleichsweise kleine menge ist wohl auch laengst fertig gebaut...

@kai

Von: namepower | Datum: 07.02.2006 | #209
das ist ja das schöne an spekulieren usw... man kann die fakten sich so hinbiegen, drehen und interpretieren bis die zur eigenen theorie passen.... immer schon weiter machen, immerhin hast du deine theorie vor zwei wochen einen update verpasst :-))

mayer weiss also nicht becheid weil er ja ab 2004 bei freescale war... schön... und du kai - master of the universe - bist ibm mitarbeiter od. vielleicht apple mitarbeiter... oder beides ;-) intel kann es ja nicht sein. warte wahrscheinlich bist du keines vom beiden... oops also was für ein bullshit verzapfst du dann hier dauernd????

woh, wenn es eine powerpoint (oder lotus???) folie von ibm gibt...

Von: namepower | Datum: 07.02.2006 | #210
dann kann nur die wahrheit und nichts als die wahrheit sein.... harte fakten muss ich sagen. du hast mich überzeugt junge, aber wirklich. ich verneige mich.

weitere infos die belegen dass kai ein mist verzapft mit seinen verschwörungstheorien!!!!

Von: namepower | Datum: 07.02.2006 | #211
[Link]

Kleiner Ausschnitt ausm Interview mit Michel Mayer, chief executive of Freescale Semiconductor

"...Weren't you there during the discussions when IBM convinced Apple to adopt the G5?
Mayer: In my previous job, I ran IBM's semiconductor business. So I've seen both sides of the Apple story, because I sold the G5 to Steve (Jobs) the first time he wanted to move to Intel.

Five years ago?
Mayer: Yeah, that's about right. So I sold the G5. First I told IBM that we needed to do it, and then I sold it to Apple that the G5 was good and it was going to be the follow-on of the PowerPC road map for the desktop. It worked pretty well. And then IBM decided not to take the G5 into the laptop and decided to really focus its chip business on the game consoles...."

Wow!

Von: Kai (MacGuardians) | Datum: 07.02.2006 | #212
Namepower hat das Michael Mayer Interview entdeckt, von dem wir schon seit zwei Wochen reden! ;-)

Junge, das ist mal sowas von stinkend alt und wurde schon zigmal durchgekaut...

Wenn du nicht auf dem laufenden bist, verschone uns doch bitte mit deinen "überraschenden Funden", ja?

gute taktik

Von: nico | Datum: 07.02.2006 | #213
so kann man alles abbuegeln ;-)

@kai - ob alt oder neu, was spielt das für eine rolle?

Von: namepower | Datum: 07.02.2006 | #214
da fallen dir wohl keine haare sträubende theorien dazu ein oder? vielleicht wird ja mayer von apple bezahlt für die aussage... aber danke, deine leere aussage ist auch eine aussage ;-) !!!

@kai - außerdem wenn einer uns verschonen sollte dann du ;-)

Von: namepower | Datum: 07.02.2006 | #215
mit den ganzen mist den du von dir gibts stinkt schon macguardians selber... think about it.

spinner gibt es überall

Von: Duda | Datum: 07.02.2006 | #216
LOL - jetzt gibt es einen artikel bei MTN, was es alles für probleme mit dem macbook pro geben könnte

[Link]

totaler schwachsinn was da einige für spekulationen im vorfeld über ungelegte eier machen

g6...

Von: Duda | Datum: 07.02.2006 | #217
mich wundert, dass kai sich nicht an diesem thema [Link] jetzt festhakt und neue theorien entwickelt :-))

Macslash..

Von: Kai (MacGuardians) | Datum: 07.02.2006 | #218
Oh mein Gott! Das muss der MIT ABSTAND SCHLECHTESTE Artikel zum Thema Switch sein, den ich jemals gelesen habe!

Oben labert er noch was von "the REAL reasons" und unten gibt er 1:1 Jobs Lügen wider... Unglaublich, und der Typ hält sich auch noch für sachkundig, obwohl seine Ausführungen vor faktischen und argumentativen Fehlern nur so strotzen!

namepower:

Von: Kai (MacGuardians) | Datum: 07.02.2006 | #219
Falls du's noch nicht kapierst hast: Seit zwei Wochen argumentiere ich, dass nicht IBM verkackt hat sondern dass Apple IBM und den G5 missbraucht hat, weil Jobs schon immer auf Intel switchen wollte, was aber mit OS9 und Codewarrior nicht ging! Wie glaubst du, bin ich zu der Einschätzung gekommen? Evtl. unter anderem durch ein gewisses Interview mit einem gewissen Herrn Mayer?

Und zum Thema "IBM decided to focus on the console business" - Ja NATÜRLICH haben sie das getan! Apple WOLLTE JA NICHT MEHR! Und irgendwo muss man die Chips schließlich verkaufen!...

"IBM decided not to take the G5 into the laptop" ist übrigens nachweisbar falsch:
[Link]

Mayer weiss vielleicht darüber Bescheid, was zu seiner Zeit bei IBM abging. Aber er ist seit Mitte 2004 bei Freescale, insofern ist alles was danach kam ne Vermutung von ihm, die nicht stichhaltiger ist, als bei jedem anderen Aussenseiter auch...

Theorie zum Apple Wechsel auf INTEL....

Von: namepower | Datum: 07.02.2006 | #220
klingt immerhin plausibler als die verschwörungstheorien einiger sogenannten experten hier!!!! die spekulieren ja auch nur mit heißer luft...

[Link]

Peinlich, peinlich

Von: Karl Schimanek | Datum: 07.02.2006 | #221
Das Interview ist wirklich alt.

Einfach mal in den Kommentaren der entsprechenden Artikel suchen.

Und der wahre Grund des Switches wird bald für jeden ersichtlich sein ;-)

namepower:

Von: Kai (MacGuardians) | Datum: 08.02.2006 | #222
"mayer weiss also nicht becheid weil er ja ab 2004 bei freescale war... schön... und du kai - master of the universe - bist ibm mitarbeiter od. vielleicht apple mitarbeiter... oder beides ;-)"

Wozu müsste ich das sein? Ich brauch nur IBMs öffentliche Präsentationen verfolgen:

[Link]

Was gibt's daran bitte zu diskutieren? Mayer hat in Bezug auf Mobile G5 ganz offensichtlich SCHEISSE GELABERT!