ARCHIV 1999-2006

ARCHIV :: # 4205

Wird das AMDs Gegenschlag?

Wir sind wie Blätter im Wind

Autor: thyl - Datum: 13.04.2006

Die mir zuvor eher unbekannte Website x86-secret hat einen kurzen Bericht veröffentlicht, in dem darüber spekuliert wird, dass AMD seiner nächsten Prozessor-Architektur als Reaktion auf intels "Core"-Architektur (Abschiedsgruß unter Prozessorbauern: mögen Dir niemals die Codenamen ausgehen) sogenanntes Hardware-Threading verpassen könnte, eine Strategie, bei der mehrere Kerne logisch so zusammengefasst werden können, dass sie sich gegenüber Programmen als ein Kern ausgeben. Die Hardware sorgt in diesem Fall dafür, dass der Programmcode auf die verschiedenen Kerne verteilt und dort parallel abgearbeitet wird, ohne dass das Programm explizit mehr-Thread-fähig sein müsste, d.h. auch alte oder einfache Singel-Thread Programme könnten von Multi-Core Prozessoren profitieren. Das stelle ich mir ziemlich schwierig vor, aber wenn es klappt, könnte es die Software-Entwickler etwas entlasten.

Und weiter geht's mit den Technologien. Da kann man sich ja bald gar nicht mehr entscheiden, wo man fanatisch für und gegen sein muss. Cell, Core, Hardware-Threading, Multicore, 65 nm, 45 nm, tsts. Das Gute ist, dass Apple jetzt ja bedarfsweise machen kann, was sie wollen, Ports stehen zur Verfügung.

Kommentare

oh yes, da sag ich mal nichts ;-)

Von: vollted | Datum: 13.04.2006 | #1

Entlastung der Entwickler

Von: Grumpf | Datum: 13.04.2006 | #2
Schöner Ansatz von AMD, da ich mir denken kann, daß nicht allzuviel Software wirklich Thread-optimiert sein werden. Man erinnere sich nur an die Jammereien der Entwickler über die Spiele-Programmierung für die X-Box oder ganz besonders für den Cell (PS3).

Wenn eine CPU dahingehend Arbeit abnehmen kann, wird es mit Sicherheit von den Entwicklern dankend angenommen werden, da dann ja alles beim "Alten" bleiben kann.

Meine Hoffnung ging nur eher in die Richtung, endlich eine Chance für optimierte Software zu sehen. Aber wenn so eine CPU das alles wieder obsolet erscheinen läßt, dann kann ja der Zirkus mit hemdsärmelig zusammengeschusterter Software ewig weitergehen.

Was für Aussichten!

Faulpelze und arme Schweine

Von: Liquid | Datum: 13.04.2006 | #3
Na, wenn das denn wahr ist, dann wäre das ein Vorwurf AMDs gegen die Programmierer: „Ihr seid faul, wir machen das jetzt.” Aber ich muss mal eine Lanze für die Programmierer brechen - obwohl ich keiner bin. Ein Ingenieur hat 5 Jahre Zeit ein Auto zu bauen, zu testen, zu probieren. Dabei ändern sich die Naurgesetzte in der Zeit nicht. Ein Programmierer hingegen muss sich permanent an neue Architekturen, Chipsätze usw. anpassen. Dazu kommt, dass man sich das wissen dazu selber in seine Freizeit erarbeiten muss. Dabei sei noch erwähnt das ein Programmierer mathematische Paradigmen besser im Gefühl haben muss als ein Mathematiker, um schnelle Algorithmen konstruieren zu können. Besonders bei großen Projekten Codezeilen umzuschreiben (UB) ist eine gewaltige Aufgabe, weil man alles neu entwicklen muss. Kein wunder, dass man dann gerne möglichst lang alten Code behalten will. Code = Arbeit. Da ist nix mit einfach mal n paar Zeilen coden, kompilieren und gucken ob's läuft.

Niedlich

Von: goldaccess | Datum: 13.04.2006 | #4
"Singel-Thread"

;-)

AMD

Von: Hrusty | Datum: 13.04.2006 | #5
sehr schön AMD.

Man merkt doch, dass bei dieser Firma mittlerweile sehr viel Substanz dahinter steckt.
Da werden nicht irgendwelche abgfahrenen Benchmarks getürkt um vone zu sein, nein.
AMD lässt testen und benchen und alle Seiten bescheinigen AMD gute bis Top-Leistung und das zu annehmbaren Preisen.
Ich denke mein nächster Rechner wird wieder ein AMD. Wenn Apple OS X nicht für x86 verkauft haben sie halt pech gehabt....

@Hrusty

Von: Teo | Datum: 14.04.2006 | #6
Alter, schreib doch nicht so einen Schwachsinn!
Oder willst du uns zum Narren halten?

Aber wenn du ernsthaft erwegst nur weil Apple zu Intel und nicht zu AMD gewechselt ist, dir jetzt aus Trotz eine AMD-XP Schüssel kaufen zu müssen; Nur zu! Und viel Spaß damit du Scherzkeks!

Teo

Von: Hrusty | Datum: 14.04.2006 | #7
Athlon XP, wo wohnst Du?

Schaumal was AMD in der Pipeline hat:

[Link]

[Link]

Und wenn Du, wie ich u.a. Intel aus Pentium I/II Zeiten noch kennst als der Pentium 200 1300 DM gekostet hat, und das ein eganz lange Zeit, weil Intel sich nicht befleißigt gefühlt hat die Taktfrequenzen zu erhöhen. -Warum auch, gab ja keine Alternative.....

Ich denke der Hauptgrund ist einfach, dass ich von Apple nicht mehr angelogen werden möchte.

Die Frage ist...

Von: flo (MacGuardians) | Datum: 14.04.2006 | #8
...wie Apples Verträge mit Intel aussehen. Ich könnte mir gut vorstellen, dass da was zu AMD drin steht, nicht direkt, so doch über eine "Exklusivitätsklausel", die Apple und Intel aneinander bindet -- und sei es nur für eine bestimmte Anzahl an Jahren. Denn irgendwie kann ich mir nicht vorstellen, dass Intel mit Apple einen Vertrag macht, in dem Intel die Gefahr sieht, dass Apple bei einem Zucken der AMD-Konkurrenz (teilweise, mit einigen Modellen) abwandert. Andererseits wäre ja auch Apple schön blöd, wenn sie sich auf immer und ewig _nur_ Intel verschreiben. Eine exklusive Bindung auf Zeit könnte so ein Kompromiss sein. So oder so ist es aber wahrscheinlich (auf direktem Wege) für uns Appleanwender erst einmal egal, was AMD alles aus dem Hut zaubert in naher Zukunft...

Bindung per EFI ?

Von: Hrusty | Datum: 14.04.2006 | #9
nt.

Damit mal was zum Lachen bereit steht....

Von: Andi | Datum: 14.04.2006 | #10
[Link]

@Hrusty

Von: Teo | Datum: 14.04.2006 | #11
Also wenn du nur wegen ein bischen mehr Leistung auf OSx verzichten kannst bist du wahrscheinlich bei Apple wirklich nicht gut aufgehoben und wirst dich wohler fühlen in der PC-Bastler-Ecke.(Wie schon gesagt:Dann viel Spaß!)

Du fühlst dich von Apple belogen!?
Ha!Dass ich nicht lache!

Ich sag dir jetzt mal was der Unterschied ist zwischen den PPC Zeiten und jetzt in Sachen Belügen!

Nämlich gar KEINER! Ausser dass wir uns früher GERNE BELÜGEN haben lassen, als Apple die ach so große Überlegen vom PPC angepriesen hat.
(Ich hatte Flash und Co schon immer parallel auf einen PC laufen und daher hat sich für mich manche PPC Werbung schnell als solche entpuppt und relativiert)

Wäre doch schön

Von: MichaelK | Datum: 14.04.2006 | #12
wenn irgend wer mal einen Layer programmiert, der das auf softwarebasis kann, denn dann könnte Poser etc. endlich von der Kraft der vier Herzen profitieren. Ansonsten ein sehr guter Ansatz von AMD.

@Hrusty

Von: Floh | Datum: 14.04.2006 | #13
Ich sehe das ähnlich wie Teo.
Leute die neben ihrem Mac auch einen Pc in Betrieb hatten wußten schon immer das der Leistungsunterschied nicht sooo groß war wie uns die PPC Applebenchmarks vorgaukelten.
Die jenigen aber die den direkten Vergleich nicht hatten nahmen die Werbung eher für bare Münze und können jetzt mit dem Intelwechsel nicht umgehen und fühlen sich belogen.

Ich denke aber dass sich das mit der Zeit legen wird, den nicht die Werbestrategen von Apple werden uns von den Intel Macs überzeugen sondern das Produkt selbst in der realen Praxis.
Und davon bin ich fest überzeugt!

Übrigens..

Von: Floh | Datum: 14.04.2006 | #14
..ein weiteres Produkt das sich erst in der Praxis bewähren muss :-)
[Link]

Teo

Von: Hrusty | Datum: 14.04.2006 | #15
wenn Du die Lüge mit den Benchmarks meinst, das ist für mich Marketing Gewäsch.
Ob ein Yonah DC jetzt 2 x schneller als ein G5 Single Core oder 1,5 fach oder 1,3 fach ist für mich nur von marginalem Interesse.
Du hats Recht, Jobs hat uns alle Jahre wieder mal den schnellsten Rechner der Wet dahingestellt, *lach*
Nee, bei den Lügen geht es um ganz andere Kaliber.

Was redet Ihr denn da alle?

Von: Thyl (MacGuardians) | Datum: 15.04.2006 | #16
Apple hat uns belogen, häh? Könnt Ihr keine Benchmarks interpretieren? PPC war über die Jahre meist konkurrenzfähig, und zu bestimmten Zeitpunkten auch mal schneller, zu anderen langsamer, wie das halt so ist im Geschäft. Und jetzt hat Apple eine neue Generation von Rechnern vorgestellt und die ist, oh Wunder, wieder schneller als de vorherige? Was ist da jetzt so überraschend? Die neue Rechnergeneration wäre auch mit PPC schneller geworden, zZ aber nachhaltig nicht schneller als die intel-Konkurrenz. Im Vorgriff auf diese derzeitige Unterlegenheit von PPC gegenüber intel hat Apple sich für intel entschieden. Da Apple der wichtigste Motor für die PPC Entwicklung war, kann man ab jetzt sowieso nur noch spekulieren, da zumindest der G4 nicht mehr sonderlich weiterentwickelt wird. 12 Monate sind in der CPU-Entwicklung eine lange Zeit; da muss man keine Lügen bemühen.

Preise für CPU

Von: Hrusty | Datum: 15.04.2006 | #17
ich sehe es eher unter dem finanziellen Aspekt:
Apple hat für die PPC CPU´s sehr wenig bezahlt: G4 unter 50$ und G5 unter 150 $.
Zum Einen hat Apple uns die Systeme für eine solche Kostenstruktur sehr teuer dargeboten, zum Anderen ist es füür mich völlig klar, dass man mit solchen Preisen keine Mrd übrigält, die man in die Weiterentwicklung stecken kann.
Intels Preise sind schon gesalzen, und der User hat es auch direkt gemerkt an der Preisgestaltung der neuen Produkte: Ramsch GPU Rechner, dafür aber mit DC für 840 EUR, Hallo?!?! Entweder waren die G4 minis vorher das reinste Abkassieren und/oder man wollte sich das Preisgefüge nicht versauen um die teuren Intel CPU´s nicht mit einem Preisanstieg der Apple Rechner am ANfang zu "verbrennen".
Das IBM ein Bekenntnis von Apple verlangt und Apple an der Entwicklung der CPU beteiligen will, ist bei solchen CPU Preisen verständlich.
Ich denke, dass es andere Gründe für den Wechsel gab und man hat bestimmte "Argumente" vorgeschoben.

@Thyl

Von: Thesi | Datum: 15.04.2006 | #18
" Apple hat uns belogen, häh? Könnt Ihr keine Benchmarks interpretieren? "

na ja, apple hat benchmarks schon immer sehr zu seinen gunsten ausgewählt und interpretiert - damals mit ppc wie heute mit intel. würd ich auch so machen, als firma man möchte ja schliesslich was verkaufen...

aber: die ppc-macs waren den intel-pcs nicht so deutlich überlegen wie apple es darstellte
und heute sind die intel-macs sind den ppc-macs nicht so deutlich überlegen wie steve es uns glauben lassen will. vor allem beschränkt sich eine überlegenheit meist nur auf einzelne bereiche, da jeder prozzi seine stärken und schwächen hat.

btw: ich dachte eigentlich immer, dass die ppcs den intels in sachen audio/video deutlich überlegen sind, aber die ersten testergebnisse der intel-macs mit finalcutpro, logic und garageband sprechen da eine andere sprache...

@Hrusty

Von: Thesi | Datum: 15.04.2006 | #19
" Apple hat für die PPC CPU´s sehr wenig bezahlt: G4 unter 50$ und G5 unter 150 $. "

reine spekulation!

Hatten Sie Hatten Sie schonmal ein Deja vu Deja Vu?

Von: ElRhodeo | Datum: 15.04.2006 | #20
Es ist echt krass: Macguardians ist zu einer 1-Thema-Seite geworden. Da können die Autoren schreiben, was sie wollen, nach spätestens 10 Kommentaren geht es wieder um das gleiche: Den großen Verrat. The Geklöppel continues...
Komisch, alle anderen Fanseiten sind seit Monaten irgendwie drüber weggekommen... da sehnt man sich fast nach Tests irgendwelcher Digitalmonitorkalibrierungstools und Druckvorstufen-RGB-auf-YMCA-Umsetzer, die mich sonst sooo gelangweilt haben ;)

Thesi

Von: Hrusty | Datum: 15.04.2006 | #21
frag mal Karl.

@Hrusty

Von: Thesi | Datum: 15.04.2006 | #22
ach, karl hat also jeweils die rechnungen von moto, freescale, ibm und intel an apple gesehen? das ist ja mal interessant...

@karl
wärs du bitte mal so gut und lässt mich einen blick drauf werfen?

Leider X86

Von: wb | Datum: 15.04.2006 | #23
"Und weiter geht's mit den Technologien. Da kann man sich ja bald gar nicht mehr entscheiden, wo man fanatisch für und gegen sein muss. (…) Das Gute ist, dass Apple jetzt ja bedarfsweise machen kann, was sie wollen, Ports stehen zur Verfügung."

Nur leider fokussieren alle Hersteller mittlerweile auf die X86-Derivate. Den fand ich damals (TM) schon als nicht mehr zeitgemäß (zu 286er-Zeiten). Jegliche echte Innovation ist im PC-Bereich nicht angekommen oder wurde begraben. Als ich das erste Mal von der Intel/Apple zusammenarbeit hörte, dachte ich noch, dass der innovative Halbleiterhersteller Intel (isser ja wirklich) nun endlich einen PC- ähh Mac-Hersteller gefunden hat, der nun auch die Innovationen (z.B. Itanium) mitträgt und verbaut. Tja, da hatte ich mich wohl getäuscht. Auch leider nur wieder der X86.

Intel vs. PPC

Von: MichaelK | Datum: 15.04.2006 | #24
Natürlich würde es schon eine sehr merkwürdige Produktpolitik sein, wenn die Rechner nicht mit jeder Generation an Geschwindigkeit zunehmen. Daher sollte es nicht verwundern, daß die MacBook Pros schneller sind als die alten Powerbooks, zumal hier mehr als eine Generation dazwischen liegt. Trotzdem sollten wir nicht vergessen, daß dies auch zum Teil der Software-Optimierung zu verdanken ist. Ich denke, fast jeder hier weiß, daß es nur sehr wenig Software gab/gibt, die wirklich für den PPC optimiert wurde. Wenn nun FinalCut etc. teilweise recht passable Ergebnisse auf den Intels erzielen, so liegt dies auch daran, daß diese wesentluch besser auf die Stärken und Schwächen der Core-Duos abgestimmt sind. Diese Optimierungen wird es – trotz versprochenen fünfjährigen Support – für den PPC nicht geben. Und dies ist ein Fakt und kein Apple- oder Intel-Bashing.

MichaelK

Von: Thesi | Datum: 16.04.2006 | #25
" Daher sollte es nicht verwundern, daß die MacBook Pros schneller sind als die alten Powerbooks, ... Trotzdem sollten wir nicht vergessen, daß dies auch zum Teil der Software-Optimierung zu verdanken ist. "

klar, aber bei den Powerbooks hatte man schon jahre zeit zu optimieren und bei den MacBook Pros erst ein paar wochen/monate. von dem her müsste softwaretechnisch bei den powerbooks doch schon wesentlich mehr herausgekitzel worden sein...

" Ich denke, fast jeder hier weiß, daß es nur sehr wenig Software gab/gibt, die wirklich für den PPC optimiert wurde. Wenn nun FinalCut "

kurzer einschub: apple hat mit sicherheit seine software am meisten/besten für ihre plattform optimiert

"etc. teilweise recht passable Ergebnisse auf den Intels erzielen, so liegt dies auch daran, daß diese wesentluch besser auf die Stärken und Schwächen der Core-Duos abgestimmt sind."

ich wiederhole: bei den Powerbooks hatte man schon jahre zeit zu optimieren und bei den MacBook Pros erst ein paar wochen/monate. von dem her müsste softwaretechnisch bei den powerbooks doch schon wesentlich mehr herausgekitzel worden sein...

Prozessorkosten

Von: Patrick | Datum: 16.04.2006 | #26
Die hier immer wieder kolpotierten Prozessorpreise von G4 und G5 gehen auf einen schon länger zurückliegenden Bericht einer Firma (Name entfallen, Kai hat ihn mir vor kurzem noch um die Ohren gehauen). Die Berechnung war mehr oder minder haarsträubend. Ausgehend von einem fiktiven Einstandspreis wurden die bekannten Komponenten runtergerechnet, bei den weniger bekannten Schätzwerte angesetzt sowie noch weitere fiktive Gemeinkosten abgezogen. Unterm Strich blieben dann für den G4 noch 50$ übrig. Seither ist dieser Preis scheinbar Fakt. Auf die Idee, daß gerade Apple unter Umständen ganz andere Preise/Verträge hat und unter Umständen auch völlig anders kalkuliert als der Rest des Marktes, ist natürlich keiner gekommen. Milchmädchenrechnung par excellance...

Der Wille muss da sein

Von: Hrusty | Datum: 16.04.2006 | #27
"klar, aber bei den Powerbooks hatte man schon jahre zeit zu optimieren und bei den MacBook Pros erst ein paar wochen/monate. von dem her müsste softwaretechnisch bei den powerbooks doch schon wesentlich mehr herausgekitzel worden sein..."

Apple muss die neue Generation gut dastehen lassen. Drum ist es gewollt und es wird mit massivem Einsatz an Optimierungen gearbeitet.
Als beim G4 irgedwann der Hänger auftrat, sah man Apples schwenk auf DualSysteme und zunehmende Anpassung und Optimierung mit Altivec (iTunes, iMovie), welche die Lücke sehr klein werden ließ.
Als der G5 herauskam, gab es Benchmarks auf Barefeats.com, die den G5 vergleichen mit dem G4. Und es war so, dass der G5 bei gleicher Taktfrequenz ähnlich performte.
Man meinte dann daraufhin einhellig, wenn es erstmal Optimierungen seitens Apple auf G5 gäbe, würde diese überlegene Prozessorarchitetur auch davonrennen.
Nur von diesen Optimierungen, war weit und breit nichts zu sehen.
Heute wissen wir auch warum!

@hrusty

Von: Thesi | Datum: 16.04.2006 | #28
" Apple muss die neue Generation gut dastehen lassen. "

klar, sonst kann man ja seine alten möhren einfach weiternutzen - schlecht für apple, da kein umsatz.

" Drum ist es gewollt und es wird mit massivem Einsatz an Optimierungen gearbeitet. "

das geht doch viel einfacher: man sucht sich einfach ein paar benchmarks raus, die die stärken des core duo aufzeigen. remember: jeder prozessor hat stärken und schwächen

"Als beim G4 irgedwann der Hänger auftrat, sah man Apples schwenk auf DualSysteme"
dual g4s gabs schon sehr früh (dual 500mhz), weil die wintel welt damals je prozzessor wesentlich mehr mhz zu bieten hatte.

" und zunehmende Anpassung und Optimierung mit Altivec (iTunes, iMovie), welche die Lücke sehr klein werden ließ.
Als der G5 herauskam, gab es Benchmarks auf Barefeats.com, die den G5 vergleichen mit dem G4. Und es war so, dass der G5 bei gleicher Taktfrequenz ähnlich performte. "

in manchen, aber nicht in allen disziplinen!

" Man meinte dann daraufhin einhellig, wenn es erstmal Optimierungen seitens Apple auf G5 gäbe, würde diese überlegene Prozessorarchitetur auch davonrennen."

genau das selbe spiel wie beim wechsel von g3 auf g4!

"Nur von diesen Optimierungen, war weit und breit nichts zu sehen. "

na ja, es gibt schon optimierte software (meist von mac-only entwicklern), aber optimierung bedeutet meist "handarbeit" und das bedeutet wiederum hohe kosten... und die muss man als unternehmen natürlich auch wieder reinbekommen

"Heute wissen wir auch warum!"

ach ja? warum?

Pssst! Falscher Thread!

Von: Grumpf | Datum: 16.04.2006 | #29
Wenn ihr über Softwareoptimierungen diskutieren wollt, solltet ihr vielleicht doch besser mal in den Thread von Kai gehen:
"Maxon verbessert ihre Cinema OpenGL-Leistung in OS X"

Dort sind schon ein paar Beiträge darauf eingegangen.

Ich denke hier geht es doch eher um CPU-Hardware-Designs und deren Denkansätze und mögliche Auswirkungen auf die Softwareprogrammierung. Nur in diesem speziellen Fall wird es uns Mac-User kaum betreffen, da Apple wohl kaum in nächster Zeit auf AMD wechseln wird.

@ alle

Von: MichaelK | Datum: 16.04.2006 | #30
@ Grumpf: Du hast sicherlich recht, daß dies nicht unbedingt der richtige Thread ist, doch kann ich die Behauptungen von Thesi auch nicht unkommentiert stehen lassen.

@ hrusty: Das sehe ich leider auch so. Und ich betone das leider, weil ich nach wie vor Apple mag und ich mir auch keinen anderen Rechner hinstellen werde.

@ Thesi: Vergiß bitte nicht, daß das Intel-Projekt schon lange von Steve vorbereitet wurde. Ein OSX für Intel gab es schon seit der Einführung des selbigen. Und wir können nur spekulieren, welche andere Software – gerade eben aus dem Hause Apple – ebenfalls schon auf Intel umgesetzt wurde. Deine paar Monate greifen hier also nur bedingt. Zumal ist es nunmal eine Tatsache (und aus Sicht von Apple jetzt auch eine Notwendigkeit), daß Steve den Wechsel so optimal wie nur möglich darstellen will. Daher ist es zwingend logisch, daß er die Software so gut wie möglich für den Intel optimieren läßt und eine so große Kooperation, wie es sie jetzt zwischen Apple und Intel gibt, gab es vorher mit IBM nicht! Und warum, so frage ich Dich, sollte Steve noch einen Cent mehr als grad notwendig für eine Optimierung der PPC-Versionen ausgeben? Wie sehr ihm z.B. der Quad am A. vorbeigeht, hat er zu dessen Präsentation bewiesen. Also, erzähl mir bitte nicht, der PPC hatte seine Chance.

Ich will Dir das mal gerne an einem anderen Bild verdeutlichen. Nehmen wir an, Du hast neben Deiner offiziellen Freundin noch eine heimliche Geliebte. Diese verspricht Dir, wenn Du die andere, mit der Du sowieso immer öfter Streit hast (schon alleine, weil Dich die Heimliche eher reizt und Du Dir deshalb auch kaum noch Mühe gibst), endlich fallen läßt und sie zu Deiner richtigen Freundin machst, ja sie sogar heiratest, dann wird sie Dich mit allem verwöhnen, was Du bisher nur Stückweise erhalten hast. Was glaubst Du wohl, wieviel Energie investierst Du noch in Deine alte Freundin? Wenn Du sie nicht mehr liebst?

Und nun übertrag dieses Bild zurück auf unser Problem und Du weißt, wie sehr Apple sich angestrengt hat, PPC-optimierten Code zu produzieren!

Schöne Ostern!

MichaelK

Von: ut | Datum: 16.04.2006 | #31
Und nicht zu vergessen: Hinterher in der Öffentlichkeit behaupten, Du hättest die alte Freundin verlassen, weil *sie* ja keinen Sex mehr wollte.

@ut:

Von: Karl Schimanek | Datum: 16.04.2006 | #32
LOL

Sehr gut! :-)

@ut

Von: MichaelK | Datum: 16.04.2006 | #33
ganz genau, das kommt noch hinzu!

Thesi

Von: Hrusty | Datum: 17.04.2006 | #34
""Als beim G4 irgedwann der Hänger auftrat, sah man Apples schwenk auf DualSysteme"
dual g4s gabs schon sehr früh (dual 500mhz), weil die wintel welt damals je prozzessor wesentlich mehr mhz zu bieten hatte.
"

Nur um genau zu sein, genau das war der erste hänger bei den G4´s.
Der G4 war geplant mit 450 und 550 Mhz zu verbauen, doch die 550 Mhz Variante lief nicht stabil.

Thesi die 2te

Von: Hrusty | Datum: 17.04.2006 | #35
""Heute wissen wir auch warum!"

ach ja? warum?"

Wenn Jobs den G5 von Beginn an nur als Übergangslösung haben wollte, wie mittlerweile bekannt ist (erwollte nicht auf OS X switchen und gleichzeitig auf x86, denn dann wäre Classic weggefallen und somit OS X auch vermutlich arg zögerlich angenommen), braucht Apple nicht teure Optimierungen an den G5 vorzunehmen, weil sie in ein paar Jahren erstens nicht mehr wichtig sind und zweitens eher hinderlich, da sie die Nachfolger weniger gut aussehen lassen.

Sockenschuß!!

Von: neu | Datum: 18.04.2006 | #36
hrusty, dir ist wirklich nicht zu helfen!

erst ankündigen, eine dose mit (vapor-amd) zu kaufen und dann wieder dein übliches wirres zeug über irgendwelche "übergangs g5" zu faseln!

ihr kloppies merkt echt nichts mehr! "übergangsprozessor", man immer wenn man denkt, noch dämlicher geht es nicht mehr, da kommt dann umgehend einer von der ppc-prozessorgarde und läßt ein noch hirnloseres statement ab!

klar so ein "übergangsprozessor" aus der seit 1994 eingesetzten ppc-familie ist schon etwas arrrrrrrrrg böses :-). der böse jobs hat ja in seinem masterplan 1997 (also vor 9! jahren) schon gewußt, daß er 2006 auf den coreduo von intel umsteigen wird!

ich weiß nicht, was für drogen ihr nehmt aber hört bloß damit auf!



wie wäre es denn mal wieder mit einem beitrag von den ppc-guardians, der sich mal mit einem sinnvollen thema beschäftigt?



was ist denn nun endlich mit einem tab für die ppc-zombies?


da sieht man vier tage nicht bei ppc-guardians rein und denkt, na vielleicht ist ja wenigstens mal EIN beitrag dabei, der sich NICHT mit der üblichen benchmarkkacke beschäftigt................. und was liest man?: die übliche kay-lederzimmer-benchmark(passendhingeschustert)-leier, lustig-hrustig-rdf-amd-unsinn, "apple-hat-uns-betrogen-quatsch" usw. usf.

neu

Von: Hrusty | Datum: 18.04.2006 | #37
Mit Verlaub, ohne mich auf Dein Niveau begeben zu wollen: Vapor-AMD??? K8L?
Bekommst Du auch etwas von außen mit in deiner Reality Distortion Intel Welt?

Dass der G5 ein Übergang zu Intel war ist nicht nur gerüchteweise bekannt, es ist sogar fakt, dass Jobs schon vor 5 Jahren zu Intel switchen wollte. Aber das fehlende Classic hätte dem ohnehin zähen OS X Start nicht gut getan.
Aber Du hast da sicher Deine eigenen Gedanken, gelle.

lusti-hrusty witzbold

Von: neu | Datum: 18.04.2006 | #38
"......in dem darüber spekuliert wird, dass AMD seiner nächsten Prozessor-Architektur als Reaktion auf intels "Core"-Architektur (Abschiedsgruß unter Prozessorbauern: mögen Dir niemals die Codenamen ausgehen) sogenanntes Hardware-Threading verpassen könnte"


vaporware!
dann nenn uns doch mal einen händler, bei dem ich mir diese vaporware kaufen kann (wenn amd schon nicht liefern kann).

du bist einfach nur lachhaft mit deinen spinnereien!

spekulation: apple wäre schon viel früher auf intel geswitcht, wenn damals die ppcs unterlegen gewesen wären.
1997 waren die damaligen ppcs (603(e)/604(e) 1998 G3) den dosenchips (pentiumII/ amd noch mit lachnummerproz.) überlegen!

mitlerweile hat sich die situation aber geändert! die konzeptionell besseren ppcs sind bei den mobilprozessoren aufgrund vorsätzlich unterlassener weiterentwicklung den konzeptionell schlechteren prozessoren aus dem hause intel hoffnungslos unterlegen!
auch die ominöse fa. amd hat derzeit im mobilbereich gegen die coreduos keine leistungsfähigen chips im angebot!

du bist einfach nur eine witzfigur, die permanent unsinn schreibt!

kauf dir doch ´nen amd, du "fachmann".
bau doch einen opteron in ein laptop ein!

solche amd-spinner wie du einer bist gibt es ja massenweise!

[Link]

DEN K8L-Kern gibt es noch nicht!!!
LERN ZEITFORMEN: FUTUR <> PRÄSENS!

LERN LESEN, besonders den ersten absatz des verlinkten Beitrages!
da steht: "des kommenden K8 kerns...."


UND: seit wann ist ein amd64 ein mobilprozessor?!


du bist wirklich absolut lernresistent, genau wie kay-klapper!

amd hat derzeit nur turions, aber das checkst du einfach nicht!


es ist hier langsam soooo ätzend mit euch witzfiguren, das ist nicht mehr feierlich!

man seid ihr dämlich!

Eigentlich wollte ich auf so etwas nicht antworten

Von: Hrusty | Datum: 18.04.2006 | #39
aber dann könnte man meinen, ich Du hättest Recht.
Wenn ein AMD64 3500+ bei Vollast 33 Watt verbrät ist das dann ein Mobilprozessor oder erst wenn ein M draufgedruckt wurde.
Hast es scheinbar auch immer am liebsten gehabt, wenn Du früher alles von der Tafel abschreiben konntest. Nur an der Uni wurde es dann unangenehm.... aber da gabs ja dann die Nachbarn die man nerven konnte, oder?
Auf alles weitere geschriebene ist es müßig zu antworten.
Da Du mir den gefallen nicht tun wirst, auf meine Äußerungen mit Deinem unnachahmlichen Stil nicht mehr zu posten, werde ich dies ab sofort bei Dir tun.

LERN ENDLICH LESEN!!!!!!

Von: neu | Datum: 18.04.2006 | #40
WELCHER AMD64?!

[Link]


Turion/Sempron/Athlon??? :-)

mit 3500+ werden die athlons bezeichnet (desktopprozessoren)
mindestens 67 watt!!!!!!!!!!!!!

von den 33 watt hast du vielleicht mal was geträumt! bekanntlich verbraucht ein athlon ca. 31 watt im ruhezustand

hör bitte endlich auf, dich zu blamieren!!

@neu

Von: name | Datum: 18.04.2006 | #41
Du weisst aber, dass mehr als 3 Ausrufezeichen hintereinander auf eine labile Gemütsverfassung schliessen lassen? Ist das Äquivalent zu Leuten die mit hochrotem Kopf herumschreien um besser verstanden zu werden.

tja

Von: neu | Datum: 18.04.2006 | #42
es nervt eben einfach, ständig so einen unsinn zu lesen!

"mit dem internet ist es möglich, mit tausenden von menschen in kontakt zu treten, die man im normalen leben noch nicht einmal mit dem ars..h ansehen würde" :-)

es ist doch einfach absurd, daß einige leute offensichtlichen schwachsinn posten obwohl ihnen innerhalb von minuten die blödsinnigkeit ihrer behauptung nachgewiesen werden kann :-)



(und jetzt aber: !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!)

scnr

wie heisst es so schön:

Von: name | Datum: 18.04.2006 | #43
"Can't speak louder than words." (the sound)


:-)

TDP, schonmal gehört?

Von: Hrusty | Datum: 18.04.2006 | #44
auch schon gehört, dass man diese unterschiedlich definieren kann:
Intel: Durchschnittswert, nach best. Regeln ermittelt.
AMD: absoluter max Wert

[Link]

Junge, Dein halbwissen reicht nicht aus.

*lach, hrusty.....

Von: neu | Datum: 18.04.2006 | #45
mensch, reiß dich doch nicht noch weiter rein, du armer tr.. äh mensch!

67watt für den amd, da beißt die maus keinen pfaden ab, da kannst du ja fast zusehen wie der monitor abdimmt!
irgendwie checkst du es nicht.
ich halte mich lieber bei solchen messungen an onkel heinz :-).

das ist genauso wenig ein mobilprozessor wie die damaligen heizöfen ala pentium 4 in den gericoms :-)

dich kann man nun wirklich nicht ernst nehmen! da ist ein heruntergeidleter g5 ja noch sparsamer :-)

ehrlich, du machst dich lächerlich!

amd hat derzeit nur den turion, nichts vergleichbares zum coreduo.


aber sicher wirst du gleich mit der nächsten albernheit aufwarten


*lach


p.s.
ich kann doch nichts dafür, daß amd und ibm derzeit nichts vergleichbares zum core duo herstellen :-P

asfd

Von: niddu | Datum: 18.04.2006 | #46
Und ist euch eigentlich bewusst das das Frontend eines Prozzis nicht mehr so eine grosse Rolle spielt?
Die ganzen Asemblerbefehle werden intern sowiso in einen oder mehrere "Microops" (oder wie die Dinger genannt werden) übersetzt. Das heisst das der Befehlssatze keinen grossen Einfluss auf die Rechenleistung des Prozessors hat. (Abgesehen von Erweiterungen wie Altivec/MMX/SSEx)
Also es ist eingentlich scheissegal ob das Design des Befehlssatztes schön oder hässlich ist. (und evtl. ist ja die hässliche Variante "besser". Braucht vieleicht weniger Platz => dadurch wird der Cache besser ausgenutzt) etc und so weiter.
Intel und AMD haben auch einen riesigen Druck ihrer Prozessoren schneller zumachen. Im gegensatzt zu IBM oder Freescale.
Und irgendwelche Optiemierungen der Software auf einen Prozessor ist extrem Zeitaufwändig (=>teuer) und sind sehr schlecht zu warten. => Wird allso nur gemacht wenn es wichtig ist.

@neu

Von: Thesi | Datum: 19.04.2006 | #47
"mitlerweile hat sich die situation aber geändert! die konzeptionell besseren ppcs sind bei den mobilprozessoren aufgrund vorsätzlich unterlassener weiterentwicklung den konzeptionell schlechteren prozessoren aus dem hause intel hoffnungslos unterlegen!"

"vorsätzlich" => denk ich nicht. der markt (sprich: apple als einziger echter abnehmer im computer bereich) ist einfach zu klein

"hoffnungslos" => noch nicht, aber in zukunft: ja!

neu

Von: Hrusty | Datum: 19.04.2006 | #48
Ja stimmt IBM und AMD stellen wirklich nichts vergleichbares her.
Die haben schon seit ewigen Zeiten SOI und 64 Bit in den jew. aktuell veröffentlichten Prozessoren integriert.
Ich denke Du haust nur so auf di eKacke, weil AMD performancemäßig Intel seit 3 Jahren zeigt wo Barthel den Most holt.
Und das als Firma, die damals soviel Umsatz tätigte wie Intel Gewinn, und das ist aller Ehren wert.
Nun hat Intel sich berappelt und wird im Herbst mehr als aufschließen können. Und was machen sie vorher? Veröffentlichen Benchmarks mit jew AMD und Intel Systemen in denen der Intel dem AMD davonrennt und alle wissen: wenn der Conroe wirklich so gut ist, warum macht sich Intel derart lächerlich? Die Benches waren doch das Papier nicht wert? AMD hat dann ein Shootout angeboten, jeder sein System gegeneinander. Intel hat abgelehnt. Wenn man im Spätsommer Prozessoren herausbringen will, hat man doch als Hersteller schon ein halbes Jahr vorher gute Samples vorliegen, oder? Für die eigenen Benchmarktests gabs ja auch welche, also woran lags? Wollte man am Ende nicht den GAU erleben und nur 5 % oder gar nicht in Führung liegen, und das mit einer zukünftigen Prozessorgeneration gegen eine aktuell am Markt erhältliche? Oder hatte man die Hosen voll vor AMD´s Samples?
Aber da der technologische Aufschluss Intels zu AMD ja Dein Selbstvertrauen wieder hergestellt hat, kannst Du Dich nun wieder anderen Aufgaben, zB dem Heise-Forum widmen.

LERN ENDLICH LESEN! hrusty

Von: neu | Datum: 19.04.2006 | #49
coreduo und (bald) merom sind mobilprozessoren!
ibm und amd haben keine vergleicbaren konkurrenzprodukte im angebot!


du bist einfach nur zu dämlich, zwischen mobil- und desktopprozessoren zu unterscheiden!

nooooooooochmaaaaaaaal gaaaaaaaaaanz laaaaaaaaaaangsaaaaaam für dich: coreduo und merom siiiiiiiind moooooooobiiiiiilproooozeeeessoooooooren, duuuuuu versteeeeehhhhhhn?

nix desktopprozessoren, da ist amd mit dem athlon noch schneller!


du bist einfach nur lächerlich!

Du raffst es nicht!

Von: Hrusty | Datum: 19.04.2006 | #50
Unglaublich, wie zugenudelt muss Du sein, dass Du es nicht peilst.
ich schreibe Dir, dass eine Hadwareseite Tests gemacht hat und dort verbraucht ein unoptimierter AMD64 3500+, und das ist derzeit wahrlich nicht die Aktualität in CPU-Form sondern schon ein paar Jährchen alt gut 30 Watt. Und das in 90nm.
AMD derzeit bei DualCore führend bereitet derzeit den Turion64 X2 vor, also das Pendant zum Merom, der auch bald kommen wird. Von beiden existieren kaum Werte bzw. hat noch keiner diese CPU´s verbaut.
Dann habe ich die TDP aufgeführt. geschrieben, dass AMD und Intel diese unterschiedlich definieren. Und Du blökst hier rum, ohne auch nur im geringsten zu peilen, dass die TDP des Merom von irgendwas 35 Watt und die TDP des turion64 X2 von vermutlich etwas über 40 Watt gleichbedeutend sind. Nur dass AMD das bei 90 nm schafft, da noch potential für 65 bleibt. Und wer weiß, vielleicht stellt AMD mit IBM direkt in 2007 auf 45nm um.

Ich sach mal so, Intel wird mit 64bit mal endlcih uptodate sein. Von Specihercontroller onboard und SOI sind die noch weiter entfernt, als Du vom Stein der Weisen.
Drum leg Dich wieder aufs Sofa und lass Dir von Mutti weiter den Sack kraulen, das laugt nicht so aus.

man bist du doof! hrusty

Von: neu | Datum: 19.04.2006 | #51
geh mir mit deinen penetranten spinnereien nicht aufs schwein, du möchtegernfachmann!

nenn gefälligst endlich modell des rechners, preis und den händler!

ach gibt es nicht?

na dann frei nach nuhr einfach mal fresse halten.


du nixchecker, apple reduziert die taktfrequenz der ati grafikkarte und solche spezis wie du bauen einen desktopprozessor mal eben in ein (virtuelles) laptop ein :-).

"klar doch" jahrelang wird versucht, die laufzeit der mobilen rechner zu verlängern und dann kommt ein verhrustierter idiot und will mal eben so einen monsterdesktopchip wie den athlon, der 67watt tdp hat, verbauen!

so etwas dämliches kann man ja noch nicht einmal ppc-forever-kay zutrauen!


du gehst mir mit deinem geistigen durchfall einfach nur aufs schwein!

wenn es sinnvoll wäre, dann hätte garantiert schon irgend ein schrauber eben diesen ominösen achtlohn 3500+ (sog. verarschungsmhz) verbaut. macht aber keiner da jeder mit etwas grundintelligenz ausgestattete mensch weiß, daß das schwachsinn ist (außer Dir).

Die Drogen, die Du nimmst, wirft sonst keiner ein, kann das sein?

Von: Hrusty | Datum: 20.04.2006 | #52
ich würde da mal n Blick zur Seite riskieren und es sein lassen. Auch wenn sie billig sind.
Habe ich gesagt, ich würde den Addi3,5 verbauen wollen? Nur weil ich ihm mit gut 30 Watt verbrauch unter Last mobil qualitäten bescheinigt habe. Er hat über 60 Watt TDP, die schreibt AMD doch nicht umsonst dahin.
Du bist nicht in der Lage, geschriebenes zu verstehen. Dass AMD mit 90nm CPU´s in der Lage ist in etwa die Verbrauchswerte des Yonah anzupeilen ist Dir somit auch entgangen. In Deiner Verbohrtheit bekommst Du doch schon gar nix mehr mit.
Hoffentlich sind die Osterferien bald rum, dann kann sich wieder jemand anders mit Dir rumärgern.

@ neu

Von: Dr.Evil | Datum: 21.04.2006 | #53
Du scheinst in der Tat mangels Argumente sehr beleidigend zu werden. Diese Fäkalsprache zeugt leider eher bei dir von, ich zitiere, fehlender Grundintelligenz.

[Link]
--> Schau dich da mal um, was die Menschen so in ihre leisen und möglichst kühlen Systeme bauen. Let's guess ...

Zum Thema Athlons/Opterons in Notebooks, solltest du mal bei Alienware vorbeischauen.
Das nur zum Thema, welche Idioten so Athlons ins Notebooks bauen.

Natürlich ist der CoreDuo ein sehr guter Mobilprozessor. Jedoch stellt sich hier nicht das Bild da, was du zeichnest. Er ist für AMD zum derzeitigen Zeitpunkt eine gute Wahl. Jedoch ist AMD nach wie vor sehr konkurrenzfähig.


"von den 33 watt hast du vielleicht mal was geträumt! bekanntlich verbraucht ein athlon ca. 31 watt im ruhezustand"

Gut, diese Aussage zeugt von absolutem Unwissen. Mit CnQ sind hier bis >9W erreicht. Insofern solltest du dich informieren, bevor du unhaltbare Aussagen triffst.

"coreduo und (bald) merom sind mobilprozessoren!
ibm und amd haben keine vergleicbaren konkurrenzprodukte im angebot!"

Du redest vom Memron. Auch Zukunftsmusik. Also, wenn wir schon dabei sind. Ein Athlon X2 3800+, der vor dem 6. Juni rauskommt verbraucht 35W under load. Soviel zum Thema Intels Vorsprung. Hierbei ist AMD noch bei 90nm und hat den IMC.
Imagine: 65nm bei AMD ... (2nd half of 2006 ... wie Memron)


Und noch ein allgemeiner Hinweis für dich, damit du auch in deinen Osterferien mal was lernst:

"das (A64) ist genauso wenig ein mobilprozessor wie die damaligen heizöfen ala pentium 4 in den gericoms :-)"

"du bist einfach nur zu dämlich, zwischen mobil- und desktopprozessoren zu unterscheiden!"


Falsch. Letztere Aussage trifft auf dich zu. Helfen wir dir mal:
Bei Intel kann man derzeit stark zwischen dektop- und Mobilprozessoren unterscheiden. Da hier verschiedene Architekturen am Werk sind. (Netburst - Core).
Bei AMD existiert dieser Unterschied nicht. Sever / Desktop / Mobil basieren auf einem Prozessordesign mit Anpassungen.

Insofern ist ein A64 wesentlich mehr Mobilprozi als die P4's in den Gericoms. Da er dem Turion sehr sehr ähnlich ist (oder andersrum, wie du willst)

Überdenke also deine Aussagen, bevor du wieder so unqualifiziert jemanden anpöbelst.


Btw: Intel möchte mit der Core-Architektur (nicht zu verwechseln mit dem Core-Prozessor) genau zu dem Zustand den AMD bereits hat.
Server / Desktop und Mobilprozessoren aus einem Design.


Also "neu". Das nächste mal, bevor du hier was postest, solltest du dich einen Tag hinsetzen und lesen. Wenigstens dieses eine mal ...

noch so eine "Fachkraft"

Von: neu | Datum: 21.04.2006 | #54
ja klar, auf in die nächste virtuelle runde!

nach den virtuellen Cell/G5/freescale-Mobilen kommen jetzt die spinner mit den virtuellen amd-mobilgurken!

*lach und rotfl alienware :-) ja die kennen wirklich keine grenzen :-)!
wurden die nicht gerade von dull aufgekauft?

du weißt, für wen alienware rechner herstellt?! ausschließlich für die spielenden lanpartykellerkinder!

*lach und kaum wieder einkrieg, die verbauen ja sogar opterons.... wie krank ist das denn?! naja 30 minuten laufzeit bei über 4kg gewicht sind ja wirklich identisch mit den "fetten" applekisten, die passen garantiert ohne änderungen rein, die passen ja in jedes damenhandtäschchen......

ihr seid echt lustig, kauft euch doch die opel mantas nee, nee nee was für witzbolde



*lach ihr beide seid deutschland, bestimmt !

zu schade ...

Von: Dr. Evil | Datum: 22.04.2006 | #55
... das du nicht in der Lage bist dich zu Fakten zu äußern. Lies dir das Posting vielleicht nocheinmal durch. Du wirst ebenso kein bashing gegen Intel meinerseits finden. Nur fakten, die du scheinbar nicht verstehen, geschweige denn widerlegen kannst. Zu Schade.

Im übrigen. Ich bin England. Wenn überhaupt.