ARCHIV 1999-2006

ARCHIV :: # 4225

Unnötige Hitzeentwicklung beim Powerbook Intel

Wärmeleitpaste = Je mehr umso besser?

Autor: kai - Datum: 02.05.2006

Es scheint als hätte Apple seit ihrem Umstieg auf Intel sogar die grundlegendsten Regeln des Hardwarebasteln verlernt. Wie man hier sehen kann schmiert Apple ATI-GPU, Core Duo und den Intel-Chipsatz so mit Wärmeleitpaste zu, dass diese schon fast seitlich aus dem Powerbook quillt. Vor Lachen unter dem Tisch verfrachten dürfte ambitionierte Computer-Selbstbastler und 0v3rclock3r die Seite aus Apples Service Manual, in der Apple die Servicetechniker ernsthaft instruiert, eine ganze Tube Wärmeleitpaste (0.3 Kubikzentimeter!) auf jeden Chip zu schmieren!
Hierzu muss man wissen dass es sich mit Wärmeleitpaste wie mit Kleber oder mit Makeup verhält: Es gilt keinesfalls die Regel "je mehr, umso besser der Effekt", am besten ist (wie bei Makeup und Kleber) eine hauchdünne, fast durchsichtige Schicht, dickeres Auftragen hat sogar eher einen isolierenden Effekt (wie bei Makeup) und bewirkt eine höhere Wärmeentwicklung als beim völligen Verzicht auf Leitpaste.
Da das kiloweise Auftragen von Wärmeleitpaste offizieller Teil des Apple Servicemanuals ist muss der ambitionierte Bastler leider selbst Hand anlegen um diesen Fauxpas zu beheben, was dann allerdings die Temperatur mal eben um schicke 14 Grad senkt. Stell dir nur mal vor, Apple, du müsstest sogar den Grafikchip nicht mehr sinnlos runtertakten!

Wie jemandem der schon seit ca. 15 Jahren Computer mit Kühlkörpern baut ein solch eklatanter Fehler unterlaufen kann ist mir ehrlich gesagt ein Rätsel, denn hierbei handelt es sich um absolut elementarstes Grundwissen beim Hardwarebau. Soviel zum Urteil der C't, dass Apples erste x86-Geräte schon die PC-Konkurrenz deklassieren würden. Ein solcher Fehler unterläuft Toshiba, Sony und Dell jedenfalls nicht....

Kommentare

Tja, niemand ist perfekt.

Von: manamana | Datum: 02.05.2006 | #1
(Ausser gewisse Mac-Beschützer natürlich)

Man kann Apple nur wünschen, dass sie schnellstmöglich einen wie den Kai von den MacGuardians einstellen, damit solche Glanzleistungen in Zukunft ausbleiben.

Sowohl bei Apples Hardwareschraubern als auch in der Mac-Community. :)

Ist auch im Apple-Support-Forum diskutiert worden

Von: blabla | Datum: 02.05.2006 | #2
Hier die Diskussion im Apple-Support-Forum:
[Link]

Das Thema hat jedenfalls nichts mit PowerPC vs. Intel zu tun, also erspart uns einen weiteren Flame War!

@2xbla

Von: manamana | Datum: 02.05.2006 | #3
Doch, doch! Ein Flamewar muss her :)
Natürlich scheint der übermässsige Gebrauch von Wärmeleitpaste auf den ersten Blick nicht besonders sinnvoll zu sein.
Aber wenn man genauer hinsieht, z.B. auf den Preis, ist plötzlich offensichtlich, warum Macs teurer sind als Medions oder Dells, obwohl es gerade einen Prozessor-Downgrade gegeben hat und das OSX nur 7.99 € wert ist. Es ist die teure Wärmeleitpaste :)

Dann schaut mal diese Fotos an

Von: Roman | Datum: 02.05.2006 | #4
Es geht noch dicker:
[Link]

Ne echt, ich glaube ein (ev. chinesischer)Fabrikant von Apple wird da viel Aerger bekommen..

ja ja.....

Von: namepower | Datum: 02.05.2006 | #5
weil die anderen rechner alle so perfekt sind gell? weil die macs vorher waren ja sonst auch alle supa geräte oder? denke nur an G5 PowerMac mit 1.6 Ghz.... oder die schlechten bildschirme im ibook und in der ersten Powerbook Alu Generation usw & usf. also ist es nicht viel anders... business as usual.

Genua Kai: Intel ist Super, Apple ist Shice

Von: KnoblauchTraubeNuss | Datum: 02.05.2006 | #6
Das ist es also, was du uns die ganze Zeit sagen möchtest.

Wir haben verstanden!

:-P

Warum hat das so lange gedauert, Kai?

Von: Terrania | Datum: 02.05.2006 | #7
Mit dem Beitrag hatte ich schon vor 4 Tagen gerechnet ...

der wahre grund ist

Von: NAME | Datum: 02.05.2006 | #8
leude, der grund warum apple das macht steht doch im verlinkten forum. nach richtigem auftragen der leitpaste geht der lüfter an.
was das wieder an batterielaufzeit kostet...

also apple macht das absichtlich um ihre intelbooks besser dastehen zu lassen!!!! am ende müsste man zugegeben dass der lüfter ständig laufen muss, und die laufzeit auch im keller ist. neee das wäre ja echt ein reinfall beim kunden gewesen. man hätte zugeben müssen das das mit dem performance per watt ne echt scheiß riesen LÜGE ist.

checkts endlich. bei apple gibts keine zufälle. das ist alles absicht und dient dazu den intel durchzusetzen und den ppc auf teufel komm raus zu dissen.

Aber...

Von: Badibadibi | Datum: 02.05.2006 | #9
der junge Mann mit der geringeren Menge Wärmeleitpaste schreibt doch, daß seit der Modifikation die Lüfter hochdrehen - also wird doch irgendwas wärmer als vorher.
Dadurch springen die Lüfter früher an und kühlen das Gerät mit Hilfe der Raumluft runter. Finde ich irgendwie sehr seltsam, DARAUS eine Temperatursenkung des Systems herzuleiten.

Badibadibi

Von: Thyl (MacGuardians) | Datum: 02.05.2006 | #10
Die Lüfter sind wahrscheinlich "am anderen Ende" der Heatpipes. Dass sie jetzt hochdrehen, zeigt, dass die Heatpipes Wärme abführen. Vorher konnte die Heatpipe nicht richtig arbeiten, weshalb die Wärme sich über das gesamte Gerät verteilte und zu den hohen Gehäusetemperaturen führte.

Wenn das so stimmt, stellt sich aber schon die Frage nach dem Hintergrund. Eine Inkompetenz von Apples Entwicklern zu vermuten, halte ich für zu kurz gegriffen. Da glaube ich eher schon an einen Quick Fix, als sich in der Testphase herausstellte, dass durch das ständige Lüfterlaufen die Batterie zu schnell leer war für die Apple-Anwender (es gab ja zuallererstmal eine Diskussion über die Laufzeit, erinnert Ihr Euch, und Apple sagte gar nix dazu, wohl auf dem falschen Fuß erwischt), aber nicht mehr groß umkonstruiert werden konnte. Also schnell die Effizienz der Wärmeleitung vermindert und die Lüfter ruhig gestellt.

Die paar User mit gekochten Eiern (obendrauf auf der Tastatur, meine ich natürlich!) stören da nicht groß.

Ach, und noch die GPU runtertakten per SW, damit der Hitzestau die Kiste nicht zum Platzen bringt.

Paste vs. Pad

Von: ut | Datum: 02.05.2006 | #11
Bei den PowerPCs hat Apple immer Wäremeleit-Pads verwendet.
Vielleicht haben die einfach keine Erfahrung mit der Paste;-)

mir reichts jetzt

Von: memabachi | Datum: 02.05.2006 | #12
ich kauf kein apple mehr.

mir reicht's jetzt auch

Von: shoRm | Datum: 02.05.2006 | #13
ich kauf kein kai mehr.

Pads vs. Paste

Von: tommy_de | Datum: 02.05.2006 | #14
Ist es nicht eigentlich üblich, bei der der Erstmontage Wärmeleitpads zu nutzen und auf Paste zu verzichten?
Nicht nur aus »ästhetischen« Gründen, oder?

kauf nie....

Von: namepower | Datum: 02.05.2006 | #15
die erste serie.... eine sehr alte weisheit ;-) ist wahrscheinlich auch d. nervenkitzel für die "early adopters", hat es jetzt ein defekt oder hat es kein defekt :-D

So verführerisch die neuen Books auch sind...

Von: Marcel_75@home | Datum: 02.05.2006 | #16
...nun bin ich doch noch zufrieden mit meinem 25 Monate alten PB G4 1.33

Von einer ersten Generation (bzw. Revision A) sollte man also immer noch die Finger lassen wie es aussieht...

1. Hochfrequente Pfeifgeräusche im Stromsparmodus.

2. Die Geschichte mit der Wärmeleitpaste / sehr heißen Gehäusen.

3. ... wer weiß was da noch kommt ...

Dazu dann die Problematik mit der Sofftware-Umstellung (Adobe CS 3 erst Anfang 2007, etliche PlugIns für alle möglichen Programme auch erst im Laufe des Jahres), kein Classic mehr (ok, brauche ich nur alle paar Monate), Boot Camp noch Beta usw.

Und wer will schon einen Yonah, wenn Merom und Conroe in ein paar Monaten kommen?

Ich werde mich wohl bis 2007 gedulden, wenn auch der Wiederverkaufspreis meines derzeitigen PB dann "so richtig im Keller" sein mag... ;)

Einen Rechner kauft man dann, wenn man ihn braucht

Von: KnoblauchTraubeNuss | Datum: 02.05.2006 | #17
Davon abgesehen, Apple versaut dritte Serien genau so gerne wie erste. Wer es nicht glaubt, sollte sich mal etwas intensiver mit den Historien der iBooks, PBs und PMs beschäftigen.

Hochfrequente Pfeifgeräusche z.B. scheinen ein stetiger Begleiter in Apples "PRO"-Serien zu sein. Ebenso wie defekte Logicboards oder TFTs.

Vermutlich werden sie in das MB auch den ein oder anderen Brüller einbauen. Leider sind andere Hersteller auch wenig besser.

G4 MDD

Von: Hrusty | Datum: 02.05.2006 | #18
mit den vorletzten MDD Rechner hat Apple für mich bewiesen, dass man noch lange nicht die Speerspitze der Entwicklung ist.
Entweder gab es keine saubere ENdkontrolle, oder die fähigen Leute waren schon mit den G5 beschäftigt oder die Putzfrau und der Praktikant durften auch mal Hand anlegen.
Auch gehen mir Apple´s Dogmen so langsam aufn Zeiger: keine aktiven CPU Lüfter, keine 1 TastenMaus (gut inzwischen erledigt), ....
Man hält so an altabgehangenem fest, wobei alle wissen wi ebeschissen es ist, aber die alte Eitelkeit von vor 20 Jahren kitzelt doch noch, gell Jobs?

NAME /Yonah

Von: Hrusty | Datum: 02.05.2006 | #19
und zu diesem Wärmeleitpasten Konstrukt sind die Yonahs auch gut geeignet: Lüfter laufen nur wenig, Gehäuse wird richtig schön heiß und irgendwann throttled dann die CPU runter und man spart wieder Akkukapazität ein.
Dann wird aus 2x bzw 4x, schnell mal 1,2 fach, aber man freut sich ja soo, weil man jetzt DC hat....
Ihr habt Recht, Apple´s Intel-Wahnsinn hat Methode!

Apple ein Fall für Daualarm?

Von: Vorname | Datum: 02.05.2006 | #20
[Link]

@thyl

Von: kaos | Datum: 02.05.2006 | #21
dank dir.

du beantwortest da genau die frage, die ich hatte. falls du recht hast (ist das logisch hergeleitet oder gibts zu der these ne quelle / versteh mich nicht falsch, ich halte sie für durchaus plausibel) würde das leider bedeuten, dass es keinen quick fix für den quick fix gäbe.

hat jemand eine ahnung, ob das einen einfluss auf die lebensdauer der komponenten hat?

kaos

Verschwörungstheorien

Von: blabla | Datum: 02.05.2006 | #22
Also ich glaube ja nicht an diese Verschwörungstheorien. Es ist doch ziemlich einfach. Ohne Pads und/oder mit falsch aufgetragener Wärmeleitpaste wird die Prozessorwärme nicht korrekt, nämlich über das Kühlsystem abgeleitet. Daher wird das Gehäuse heiß. Es handelt sich also um einen Montagefehler, der i.ü. auch nur bei einigen MacBooks auftritt und nicht etwa bei allen. Es gibt überhaupt keinen Vorteil bei einer falsch aufgetragenen Paster, außer vielleicht, daß der Lüfter etwas später angeht. Absicht halte ich daher für ausgeschlossen.

erlichgesagt...

Von: supercollider | Datum: 02.05.2006 | #23
...ist mir das warme mbp lieber als dauernd laufende lüfter. quickfix hin oder her.
irgendwie habe ich den eindruck die dinge werden unnötig hochgekocht (man beachte das wortspiel in diesem zusmmenhang). man hat das gefühl dass einfach ein erstserienmodell zwanghaft nicht gut sein darf (self-fullfilling- prophecy). mag sein das mit dem nächsten modell einiges noch besser wird. und mit dem übernächsten erst! und das über-über-nachste wir der hammer...
schließe mich da einem vorredner an: kaufen wenn man eins braucht. fertig.

einen monat mbp auf meinem schreibtisch und keine sekunde bereut. vor allem wenn ich bei kollegen das letzte g4 kriechen sehe.

Steht da eigentlich absichtlich "PowerBook"?

Von: Martin | Datum: 02.05.2006 | #24
Ich dachte, das Ding heisst jetzt MacBook Pro? ;-)

Genau wie beim iMac G5

Von: klapauzius | Datum: 02.05.2006 | #25
Da hat man die Lüfter auch exakt da hingebaut, wo nie und nimmer Wärme entstehen konnte.

In den Mac-Foren wurde der "flüsterleise" iMac G5 bejubelt, die c't mass damals 40 Grad Celsius am TFT, das bis maximal 34 ausgelegt war.

Was bei Apple zählt, ist das was man aussen sieht. Welcher maccie käme auch im Ernst auf den Gedanken, einen Computer aufzuschrauben !

Nix neues

Von: H. Richter | Datum: 02.05.2006 | #26
Die Produktqualität der Powerbooks (jetzt macbooks) war noch nie über alle Zweifel erhaben.

Wer beim Zuklappen seiner Titanmühle den Deckel fallen liess, durfte aufgrund der "genial daneben"-Konstruktion ein brechendes Scharnier sein Eigen nennen. (Grund: Scharnier im geschlossenen Zustand stark unter Spannung, um den Deckel beim Öffnen leicht aufspringen zu lassen). Wegen der horrenden Reparaturpreise habe ich damals das defekte Scharnier umkonstruiert und mit Industriekleber wieder befestigt.

Anderes Beispiel: In meinem G4 "Lapzilla" ist eine Schraube auf Wanderung gegangen. Dank Alu hat sie sich irgendwann zwischen Mainboard und Deckel verklemmt und einen herrlichen Kurzschluss hervorgerufen. Toll. Ein einziger Klecks Farbe auf der Schraube (immerhin eine Maßnahme aus den 50er Jahren des letzten Jahrtausends) hätte diese Katastrophe verhindert.

Die Liste der Beispiele kann auch beliebig fortgeführt werden (reihenweise Ausfälle beim iBook G3).

Nothing new to see here, move along.

--Henryk

Martin:

Von: Kai (MacGuardians) | Datum: 02.05.2006 | #27
"Ich dachte, das Ding heisst jetzt MacBook Pro? ;-)"

Ich eigentlich auch, aber in der Mac mini Vorstellung sagte Jobs zweimal ausdrücklich "Powerbook" dazu! ;-D

Ich hätte da noch nen Tip für die "das ist Absicht damit der Lüfter nicht anspringt"-Fraktion: Lüfter am besten einfach gleich ausbauen! Dann ist das Ding vollkommen lautlos! Warum ist Apple nicht gleich darauf gekommen, ich bin genial!

Terrania:

Von: Kai (MacGuardians) | Datum: 02.05.2006 | #28
"Mit dem Beitrag hatte ich schon vor 4 Tagen gerechnet ..."

Tut mir gar schröcklich leid, aber vor vier Tagen veröffentlichen wäre ein bisschen kompliziert gewesen, wenn der erste Test mit konkreten Temperatur-Messungen (somethingawful-Forum) erst am Sonntag online ging! ;-)
Jaja, ist schon schwer mit dem Datum lesen, gell?...

Ich will Apple überhaupt nicht runtermachen

Von: Roman | Datum: 02.05.2006 | #29
Z.B. habe ich auch den neuen Mac Mini gekauft und sonst noch zwei PPC-Macs. Ob Intel oder PPC ist mir egal, hauptsache es ist ein Mac.

Aber soviel aufgetragene Wärmeleitspachtel ist nun mal ein Skandal und darf kein "QuickFix" sein, da die Wärmeleitspachtel wegender Metallanteile elektrisch leitet und Kurzschlüsse verursachen kann. Da genügt auch schon viel weniger Spachtel, siehe dazu:
[Link]

@Kai: Kannst du auch noch was anderes?

Von: miniMe | Datum: 02.05.2006 | #30
Außer immer feste auf Apple einkloppen seit dem Umstieg?

Klar, bei den MacBooks haben sie was verbockt. Doch hatte Apple früher keine fehlerhaften Geräte? Gibt es einen Hersteller bei dem die Produktion pannenfrei verläuft? Mit innovativen Produkten aus dem Bereich "High-Tech"? (Ich gehe ganz bewusst nicht auf die Tatsache ein, dass du dem Leser dieser Seite gezielt Informationen zum Thema vorenthältst um Apple als Bastler hinstellen zu können)

Wo waren deine ganzen Artikel zu den verbockten G5 Powermacs (um nur ein fehlerhaftes Produkt als Beispiel anzuführen) ?
War der PowerMac deshalb ein schlechtes Gerät?


Und nun kann's dir nicht mal die neue Kampagne recht machen, obwohls auch nichts anderes ist als die Schneckenplakate früher.


Kommen wir zum eigentlichen Punkt: Wenn Apple nun nur noch schlecht ist wie du so verlautest (Siehe deine Artikel zu intel, Boot Camp & co.), warum bleibst du dann Mac-User und Redakteur einer Mac-Seite? Wirst du dir einen schlechten, überteuerten Intel-Mac holen?

Und denkst du eigentlich wirklich es wäre angebracht bzw. gar richtig sich so zu verhalten?

Antwort wird erbeten,
mfG
miniMe

.

Von: NoName | Datum: 02.05.2006 | #31
Hallo Kai,

wenn man deinem Namen bei einem Artikel sieht kann man eigentlich schon weiter gehen. Die Fakten sind zwar interessant aber dein Stil ist unter aller Kanone. Ein wenig mehr neutralität würde der ganzen Sache schon sehr gut tun.

Hmmm

Von: Vorname | Datum: 02.05.2006 | #32
Also hier gebe ich Kai aber Recht. Das ist ein Witz, was sich Apple da leistet. Genauso, wie die Rev. A der iMacs (von Klapauzius schon angesprochen).

dürftige Argumentation

Von: H. Richter | Datum: 02.05.2006 | #33
Die extra-Wärmeleitpaste als möglichen Grund dafür herhalten zu lassen, dass die Lüfter aufgrund dieser Maßnahme seltener anlaufen sollen, halte ich für humbug. (Auch wenn der Effekt im aktuellen Macbook der gleiche ist)

Begründung: Eine gewollte Herbeiführung verschlechterter Kühlungseigenschaften des gesamten Systems ist ein No-Brainer, zumal die Lüftersteuerung SO GUT WIE ALLER auf dem Markt befindlicher Computersysteme inzwischen per Software beeinflusst werden kann.

Anstelle des "Unfalls" von zuviel Paste auf den Chips hätte auch mit geringstem Aufwand die softwareseitige Lüftersteuerung auf erhöhte Minimaltemperaturen vor Anschalten der Luftrührwerke modifiziert werden können.

Fazit: Die Macbooks weisen Produktionsfehler auf, ebenso wie die Service-Anleitung diesbezüglich falsche Vorschriften enthält. [Link]

@H. Richter

Von: klapauzius | Datum: 02.05.2006 | #34
Das ist kein Unfall.

Wie ich oben schon schrieb, kein maccie kommt i.d.R. auf die Idee, seinen Rechner aufzuschrauben.

Apple weiss das sehr genau.

Deshalb die "Hardware"-Lösung, bei Software weiss man ja doch nicht, ob da doch noch einer guckt. Siehe die Reaktionen der Jünger hier im Thread. So mancher würde doch mal nachschauen, wenn's eine Klicki-Bunti-Lösung dafür geben würde.

Also, kein Unfall, Absicht.

@klapauzius

Von: H. Richter | Datum: 02.05.2006 | #35
Welcher von Dir angesprochene "maccie" kommt auf die Idee, Binärfolgen in irgendeiner kext auseinanderzurupfen ? Abgesehen davon ist die Lüftersteuerung Teil des EFI und da Apple AFAIK keine Shell dafür mitliefert, würde der Aufwand um überhaupt an das EFI heranzukommen einen von Dir angesprochenen User arg überfordern.

Ich bleibe bei meiner Meinung.

@ KAI

Von: evolution | Datum: 02.05.2006 | #36
aha

@H. Richter

Von: klapauzius | Datum: 02.05.2006 | #37
EFI-Shells gibt's bereits zum Download. Mac-Like hübsch bunt.

[Link]

Und hinzu kommt: Bei Auseinanderschrauben ist ggf. die Garantie weg (und Apple ist aus dem Schneider), bei Lüftersteuerung nicht.

@H. Richter, P.S.:

Von: klapauzius | Datum: 02.05.2006 | #38
Wie du schreibst ist Lüftersteuerung Teil des EFI, also einer Intel-Stangenware-Komponente. Ob Apple da überhaupt die Möglichkeit hat, rumzupfuschen bzw. ein Hersteller für Apple da eine Extrawurst brät würde ich bezweifeln.

@klapauzius

Von: H. Richter | Datum: 02.05.2006 | #39
*seufz*

EFI-Shell: Zwischen meiner getätigten Aussage "nicht mitgeliefert" und der Behauptung "gäbe es nicht" liegen doch so einige Nuancen. Na klar sind Implementierungen verfügbar, ReFit basiert im übrigen auf einer der Sample-Implementierungen (Tianocore) zum Thema EFI Shell.

Doch dies ist gar nicht der Punkt. Spielereien mit der Firmware sind im höchsten Maße gefährlich. Eine zerschossene Systeminstallation kann man selbst wiederherstellen, eine zerschossene Firmware sieht da etwas anders aus (leider ist nak's blog inzwischen down, die dort geposteten Erfahrungen mit den Vista-Experimenten führten zu einigen abgeschossenen iMacs).

Wer macht sich die Arbeit, die Firmware auseinanderzunehmen, nur um Grenzwerte für die Lüftersteuerung in Erfahrung zu bringen ? Woher erfährt ein Besitzer einer Maschine ob die eingetragenen Werte sinnvoll oder übertrieben sind ? Hat derjenige, der sich die Settings (wenn er das denn schafft) ausliest die "Thermal Design"-Unterlagen der Maschine, um die Plausibilität der getroffenen Einstellungen zu hinterfragen ?

Noch drei Gedanken zur Entkräftung der Verschwörungstheorie "Kaugummi":

Eine absichtliche Ignoranz gegenüber den thermalen Eigenschaften der verbauten Hardware führt unweigerlich zu deren drastisch verkürzter Lebenszeit. Rückläufer innerhalb der Garantiezeit sind teuer. Liegt das im interesse einer betriebswirtschaftlich agierenden Firma?

Wie weiter oben im Thread ausgeführt, sind auch die leitenden Eigenschaften der Silberpaste ein Problem, wenn nicht nur der Chip/Heatspreader damit versetzt wird, sondern auch die Bauteile drumherum. Wiederum eine Zeitbombe in Richtung Garantiefall.

Kein normaler User muss seine Maschine selbst auseinandernehmen. Zerlegte Maschinen aus dem Fundus der Verkaufsversionen gibt es regelmäßig bei [Link] und [Link] zu sehen. Irregularitäten der Hardware werden dort gern aufgezeigt.

Noch ein paar Infos zum Thema Firmware:
Selbst das wahrlich veraltete BIOS ist modular aufgebaut. Die Tools, um sich in sein BIOS-Image zusätzliche Treiber (z.B. Ethernet Boot) hineinzuflashen oder Ballast rauszukanten, sind frei verfügbar. Das gleiche gilt für EFI (Extensible (!) Firmware Interface).
Jeder Mainboard-Hersteller bastelt sich aus den zugekauften (Software-)Komponenten eine für das Brett passende Firmware zusammen und kann ALLE Parameter nach eigenem Gusto variieren. Gerade das angepasste Thermal Management ist an dieser Stelle aus leicht denkbaren Gründen besonders wichtig.
Bei Grafikkarten ist das übrigens nicht anders.

Ja

Von: Vorname | Datum: 02.05.2006 | #40
... es haben ja soviele PCs ein Efi ;)

IMHO ist deine Theorie einfach nur Quatsch. Auch wenn ich deine Meinung u.a. zum iMac Rev A teile...

Das schlimme ist, bei so einem Murks (egal ob die Wärmeleitpastegeschichte, Rev. A iMac oder sonstwas) leidet früher oder später die Hardware drunter... und der User ist der, der den Ärger und Kosten haben wird!

Yo klasse

Von: Yoman | Datum: 02.05.2006 | #41
Toll, ist das beim 12" Powerbook vielleicht auch so? Hat das mal jemand aufgehabt, bis zur Wärmeleitpaste?

Yoman

Von: Vorname | Datum: 02.05.2006 | #42
AFAIK hatte vorher Apple immer Pads verwendet. Wärmeleitpaste ist eigentlich besser, _wenn_ man sie richtig anwendet!

wie bitte?

Von: tante.may | Datum: 02.05.2006 | #43
--- Apple da überhaupt die Möglichkeit hat, rumzupfuschen bzw. ein Hersteller für Apple da eine Extrawurst brät würde ich bezweifeln.---

warum nicht, hat apple doch auch die firmware um ein BIOS erweitert, damit XP läuft ;-)und

ob ein macuser sein mac nicht auseinanderschraubt ist fraglich. da gibs doch die japaniche seite. ;-)

Wo war die noch

Von: Yoman | Datum: 02.05.2006 | #44
Wo war die noch, die japanische Seite?

@Vorname

Von: H. Richter | Datum: 02.05.2006 | #45
Mag sein, dass ich mit meiner Einschätzung möglicher Gründe für zuviel Silberpaste auf den Chips des MBP falsch liege und die Apple-Ingenieure wirklich absichtlich den dämlichsten Weg zur Lüfterbremsung gewählt haben.

Was ich jedoch noch feststellen möchte ist, dass ich neben möglichen Szenarien zur praktischen Kontrolle der Lüfter zumindestens Begründungen geliefert habe.

Ohne Dir jetzt zu nahe treten zu wollen:
Quatsch ist es, Wortbrocken ohne jegliche Untermauerung in eine Diskussion einzuwerfen.

Absicht wegen zukünftigen MacBook Pros?

Von: ichbindas | Datum: 02.05.2006 | #46
Oder wenn es absicht war, dass sie bei der nächsten Generation damit werben können, wie kühl und dann auch leise diese Books sind?

Grüessli, ;)
Martin

Kai der Antityp N/T

Von: NoName | Datum: 02.05.2006 | #47

@ H.Richter

Von: Thyl (MacGuardians) | Datum: 03.05.2006 | #48
Deine Argumente sind logische Gegenargumente zu meinen. Ich stimme Dir zu; es könnte also wirklich ein Versehen sein. Außer, es war für Apple einfacher (schneller), unter Zeitdruck Paste zu schmieren als das EFI umzukonfigurieren. Mmmh, der Fall bleibt rätselhaft.

Jetzt mal im Ernst

Von: klapauzius | Datum: 03.05.2006 | #49
Ein Versehen ?

Wie das denn ?

Fällt gar nicht auf in der Produktion, wenn pro MacBook Pro plötzlich Unmengen an Wärmeleitpaste verballert werden, oder wie ? Oder hat da einfach einer den Hahn zu sehr aufgedreht ? Und die Herren/Damen am Band oder in der Endkontrolle haben da zufällig gerade Nickerchen gemacht, oder wie ?

Ich weiss ja nicht, ob Ihr schon mal industrielle Fertigung live und in Farbe gesehen habt, aber ein "Versehen" ist da absolut ausgeschlossen.

Da sieht man doch...

Von: DerDietäh | Datum: 03.05.2006 | #50
anhand der Anzahl der Kommentare, was die wirklich wichtigen Themen für die MG-User sind, nicht? Oder geht's manchen eben doch nur darum, Kai ans Bein zu pinkeln? Könnnte man ja den Perserhäuptling mit seinem Sager vom 'am Zorn ersticken' zitieren - wollte man echt böse sein.

Ich schliesse mich klapauzius letztem Post absolut an - in einer industriellen Fertigung gibt's das NIE als versehen, höchstens als Einstellungsfehler bei einer Maschinensteuerung und das würde auffallen. Ich hoffe nur, dass die verwendete Paste nicht leitfähig ist wie das Arctic-Zeugs, sonst könnte es mittelfristige interessante pyrotechnische Effekte geben (wie bei manchen Upgrades der alten Zeit, wo die User auch geglaubt haben, sie tun was gutes)

Dass Apple Kontrolle darüber hat glaube ich nicht. Apple wird den Taiwanesischen, Koreanischen und Rotchinesischen Schraubern zwar Specs vorgeben, vielleicht sogar ob Heta Transfer Pad oder eine bestimmmte Paste, aber mehr auch schon nicht.

PS:Früher habe ich in meinem Email-Client als Signature 'Get a life, get a Mac!' stehen gehabt. Hat die Windoze-Fans regelmässig zu ausgiebigen, seitenlangen Flamings veranlasst und ihren Blutdruck offensichtlich um einige Punkte nach oben geschoben - sehr, sehr amüsant. Lese ich manche Kommentare hier denk ich mir, da lag ich mit der Signatur doch ganz daneben...

Versehen?

Von: Strangers Night | Datum: 03.05.2006 | #51
man haut Paste drauf als gäbe es kein morgen. Und weist auch Techniker an dies in Unmengen zu tun.
Die Gründe sind doch klar:
"Es ist so, dass durch die Masse an WLPaste weniger Wärme über die vorgesehene Kühlungssysteme abgeführt wird. Dh. es gelangt weniger wärme über die abführenden Heatpipes zu den Lüftern, die diese ja nach draußen pusten. Ergo drehen die Lüfter kaum, dadurch ist das MBP sehr leise. Nun ist die Wärme aber vorhanden und sucht sich ihren Weg durch das Aluminium des Gehäuses. Das bedeutet, das Gehäuse wird sehr warm und die Lebensdauer der Bauteile sinkt.
Für Apple hat es den Vorteil, man kann günstige Akkus mit geringer Kapazaität verbauen, da die nicht laufenden Lüfter eine Menge Strom sparen. Desweiteren haben die Intel-CPU´s die Eigenschaft einen thermischen Sensor zu besitzen. Stellt die CPU fest, dass sie zu warm ist, senkt die CPU selbstständig die Tatfrequenz. Solange bis die Temp wieder im grünen Bereich ist. Es kann also passieren, dass der Yonah nach 1 Stunde auf halbe Taktfrequenz umschaltet.
Dabei verbraucht die CPU dann nochmal weniger Strom, was dem Akku zugute kommt. Nun ist es aber nicht Sinn der Sache ein MBP zu kaufen, welches dann nach einer bestimmten Zeit auf erhöhtem G4 Leistungsniveau arbeitet."

@Strangers Night

Von: H. Richter | Datum: 03.05.2006 | #52
Nicht laufende Lüfter sparen eine Menge Strom ? Sicher sparen sie eine Menge Strom, fragt sich nur welche Menge. AFAIR liegt der Grundverbrauch eines Macbook/Powerbook bei (sagen wir mal) rund 20-30W (je nach Gerät, Messmethode, Displayhelligkeit, Systemlast usw.).

Nun schauen wir mal auf die Listen gängiger Lüfter wie z.B.
[Link]

[Link]

oder

[Link]

die schon aufgrund ihrer schieren Größe (und damit verbundenen erforderlichen Leistungsaufnahme) für Notebooks völlig indiskutabel sind und stellen Leistungsaufnahmen dieser fix herausgesuchten Gehäuselüfter zwischen 0.9 und 2 Watt fest.

Hmm. Die Behauptung, Lüfter würden einen signifikanten, alles überschattenden Anteil an der Leistungsaufnahme von Notebooks ausmachen, sieht nicht sonderlich haltbar aus (s.o. pi mal Daumen 5%).

Nochwas: Prozessoren im mobilen Sektor (Notebooks, PDA, inzwischen aber auch Desktop-Prozessoren) können zur Laufzeit Takt UND Versorgungsspannung reduzieren und wenn der User diese Einrichtung nicht abschaltet, ist die Reduktion von Takt und Spannung bei nicht belastetem System standardmäßig aktiv. Nebenbei ist die Reduktion der Versorgungsspannung wesentlich gewinnbringender als die reine Taktreduktion, da V_DD quadratisch in die Berechnung der dynamischen Stromaufnahme eingeht. (siehe auch [Link]

Physik Grundkurs:

Von: Kai (MacGuardians) | Datum: 03.05.2006 | #53
Hier mal ein Grundgesetz der Physik, das sämtliche abstrusen Theorien von wegen "Apple will damit die Akkulaufzeit steigern" zunichte macht:

Höhere Temperatur -> Höherer Widerstand -> MEHR STROMVERBRAUCH!

Ja, was glaubt ihr denn bitte, warum höherer Takt bei CPUs mehr Stromverbrauch bedeutet?
Nur kann man eben nicht nur durch höheren Takt die Temperatur steigern sondern auch z.B. indem man die Wärmeleitpaste kiloweise aufträgt! Die Folge: Dieselbe CPU braucht bei gleichem Takt DEUTLICH mehr Strom! Zigmal mehr Strom als so ein lächerlicher Lüfter...

P.S: Ja, liebe Physiker, ich weiss: Energieerhaltungsgesetz, es gibt gar keinen "Stromverbrauch". Man sehe es mir im Sinne der einfacheren Lesbarkeit nach! ;-)

@H. Richter und Kai

Von: klapauzius | Datum: 03.05.2006 | #54
@H. Richter: Laut Intel hat der Yonah alleine eine "TDP" von 30 Watt. Wer Intel kennt, weiss, im wahrer Wirklichkeit redet man da von 40 Watt im Schnitt, falls nicht runtergetaktet (s.u.). Super Notebook-Chip.

@Kai: Der Yonah taktet dynamisch runter wenn's zu heiss wird. Also nix mit mehr Stromverbrauch. Und die Wärme wird ja über den Alu-Kühlkörper Gehäuse grossflächig "abgeführt".

Fazit: In der wahren Wirklichkeit landet man mit dem MacBook irgendwo auf G4-Niveau, mit Rosetta natürlich noch deutlich drunter.

Apple halt.

oh kai

Von: Hrusty | Datum: 03.05.2006 | #55
du bist auf dem falschen Dampfer.

Nochmal zum Mitschreiben

Von: klapauzius | Datum: 03.05.2006 | #56
Apple erzeugt per Wärmeleitpaste eine irrsinns Hitze in den MBP. Dadurch taktet Yonah runter und läuft mir angezogener Handbremse, was zu akzeptablen Akku-Laufzeiten führt. Die Lüfter-Theorie halte ich ebenfalls für nicht plausibel.

Physik für Fortgeschrittene

Von: DerDietäh | Datum: 03.05.2006 | #57
Kapitel 1 - physikalische Eigenschaften elektrischer Bauteile

Ja, viele, viele Materialien haben einen positiven temperaturkoeffizienten beim Wiederstand, das heisst (arg vereinfacht) höhere Temperatur = höherer Widerstand. Stimmt aber so nicht für alle, ausserdem ist dieser Parameter (ggerade auch für Halbleiter) keineswegs linear.

Kapitel 2: Vereinfachtes Ohm'sches Gesetz:
Nach dem vereinfachten Ohmschen Gesetz entspricht der linearisierte Gleichstromwiderstand R annähernd u/i, wobei U die Spannung ist und I der Strom. Gehen wir nun davon aus, dass die Spannung gleich bleibt - die ist ja vorgegeben - so errechnet sich sodann der Strom direkt nach Adam Riese zu I = U/R. Steigt der Widerstand R also mit der Temperatur fliesst WENIGER Strom. Da wir hier einfachheitshalber nur die Wirkleistung annehmen und die hohen Frequenzen vernachlässigen SINKT somit der Leistungsverbaruch, der sich ja aus UxI, also UxU/R ergibt.

Kapitel 3: Grundlagen der Hochfrequenzelektronik
Der Leistungsverbrauch bei hohen Frequenzen hat GAR NIX mit den vorab erwuahnten Phänomenen zu tun sonderen einerseits mit dem über die Frequenzen unterschiedlichen Wirkwiderstand und andereseits mit den Systembedingten Impedanzen, das sind die Anteile im Widerstannd, die es nicht bei Gleichstrom gibt und die durch kapazitive Effekte (z.B. zwischen zwei Leiterbahnen oder durch Halleiterschichten entstehen) sowie induktive effektes (Streeung, Einstreuung, Wirbelströme, etc) bedingt werden. Diese verlaufen unabhängig der Materialeigenschaften in Abhängigkeit von der Frequenz.

Kapitel 4: Thermodynamik für Fortgeschrittene
Prinzipiell behindert zu viel Past zwar die Wärme(ab)leitung, allerdings wird die Paste, wenn man den Kühlkörper oder Lüfteraufbau aufsetzt und festpresst/klammert seitlich zum grössten Teil rausgedrückt. Nur ein dünner Film bleibt im Übergang zwischen Bauteilgehäuse und Kühlkörper, füllt allerdings (angenehmerweise) auch Unebenheiten auf.

ZUsammenfassung: Klugscheissen für Fortgeschrittene
Die Folge: Die Paste, die rausquillt kann andere Komponenten beschädigen, z.B. durch thermische Isolierung (die werden heiss), korrosion oder Kurzschlüsse, je nach Zusammensetzung.

Der Bauteil, der heiss wird, insbesondere CPUs, hat heute ja docch oft einen Thermosensor, der Takt zurückschaltet oder ganz runterfährt, wenn's zu heiss wird. Die alten Pentium Pro hatten das teilweise nicht, da konnte man viel Spass haben, wenn ein Lüfter ausfiel.

Damit die Lebensdauer moderner Komponenten leidet, brauchen die übrigens überraschend viel Hitze, viele G4s von Motorola (auch 7447 wenn ich mich richtig erinnere) etwa laufen Problemlos über die gesamte Lebenserwartung bei 90C und mehr. Was relativ rasch eingeht ist die HD, da muss man etwa bei den alten G5 iMacs schon ssehr aufpassen - Backups machen wir ja ohnehin alle regelmässig, gelle?

Damit sei streng, aber liebevoll anngemerkt: Lieber Kai, bleib bei Dingen von denen Du echt was verstehst, etwa Prozessorarchitektur. Die Physik ist nicht das Deine scheints (oder Du hast bewusst so stark vereinfacht, weil Du die User hier an den Postings einiger weniger Fanatiker misst)

Runtertakten

Von: Kai (MacGuardians) | Datum: 03.05.2006 | #58
Erklärt mir folgendes: Wenn das Ding runtertaktet, warum wird's dann immer noch so heiss?

Und: Müsste man selbst wenn das Runtertakten im OS selbst nicht erkennbar ist (was es zumindest in Windows mit den dort verfügbaren CPU-Tools definitiv wäre!) nicht zumindest eine extreme Varianz bei den Benchmarks im kalten/heissen Zustand feststellen?

Dieter:
Danke, dass du in 50 Zeilen im Endeffekt nochmal das gesagt hast, was ich ursprünglich sagte. Natürlich wollte ich das nicht stark vereinfachen, denn hey: Wer liest schon nicht gerne seitenlanges Copypaste aus dem Physik-Lehrbuch, v.a. noch ohne das essentielle Fazit! ;-)

@Kai

Von: klapauzius | Datum: 03.05.2006 | #59
Heiss werden die Dinger MIT Paste. Ohne werden sie kühler, da dann ja die Heatpipes/Lüfter funktionieren. Dafür aber lauter (da die Lüfter praktisch ständig laufen) und mit weniger Akku-Laufzeit (weil Maximal-Takt).

Und hier sieht man wieder, wie super toll Benchmarks sind: Die meisten dürften innerhalb der Zeit liegen, wo das Gehäuse noch nicht so heiss ist und der Yonah noch rennt.......

Was für ein...

Von: wonko_the_not_so_sane | Datum: 03.05.2006 | #60
..Zirkus! Wie soll man denn daraus schlau werden?

"die meisten Benchmarks dürften" --> haltlose Vermutung. Bei Heise gibt's dafür schon mal nen "plonk".

"in der wahren Wirklichkeit" --> dito.

Überhautp, lauter halbgares Halbwissen/Wunschdenken/Flamen.

Das nervt.

Danke an die konstruktiven Beiträge derjenigen, die augenscheinlich Ahnung haben, was sie da schreiben.

Zusammengefasst sagt ihr bis jetzt:

a) Zufall, weil Montagefehler (schlechte Endkontrolle o.ä.)

Uhm, wieso dann die Serviceanweisung?

b) Absicht, um den Wärmefluss zu verschlechtern, damit die CPU zum Herunterfahren treiben, um so schlussendlich die Akkulaufzeit zu erhöhen

Warum nicht einfach mit einem Firmware-Upgrade? Halte ich für wenig plausible, zumal so ein Pfusch ja offensichtlich schnell ans Licht kommt.


c) Absicht, da Designfehler, und sonst nicht ohne weitere Einbußen kompensierbar.

Also bis jetzt, das einzige, was mir einleuchten könnte.


d) noch ein Grund?


Bitte mal einigen, und den wahren Grund benennen. Danke ;-)

Einzig plausible Erklärung:

Von: Kai (MacGuardians) | Datum: 03.05.2006 | #61
Ich versuche mich jetzt einfach mal an der ersten Erklärung, die irgendwie einleuchtet:

Wenn es wahr ist, dass Apple zuvor nur Wärmeleitpads verwendet hat (JEDER Mac den ich zerlegt habe (und das waren doch einige!) hatte die jedenfalls!) kann es durchaus sein, dass sie schlicht und ergreifend mit Wärmeleitpaste (noch) nicht umgehen können und wohl glauben, dass sie genausoviel Paste draufschmieren müssen wie die Wärmeleitpads dick waren!

@klapauzius

Von: H. Richter | Datum: 03.05.2006 | #62
Nochmal zum Mitschreiben: TDP heisst "Thermal Design Point" und umfasst die Spezifikation, für welche maximale Wärmeabfuhr ein Gerät konzipiert werden soll, damit die Chips in den Toleranzgrenzen laufen.

TDP hat nichts, rein gar nichts mit der typischen Leistungsaufnahme im unbelasteten/wenig belasteten Fall zu tun (lies: Safari ohne Flash, Word ohne Rechtschreibkontrolle, MPlayer statt VLC <- letzteres war böse und höchstwahrscheinlich falsch).

Die 30W hatte ich wage noch im Hinterkopf als Messwert der letzten c't (Kai, hassu PDF Vergleich Powerbook<->Macbook ?).

Leichtverständlicher Nachtrag zum Thema Physik (Wiederholung für Merkbefreite): Halbleiter haben den Nachteil, dass die Elektronenbeweglichkeit bei höheren Temperaturen sinkt, somit Widerstand (Verlust elektrischer Energie) und damit Stromverbrauch steigen und überdies die Schaltgeschwindigkeit der Transistoren sinkt. Je höher die Temperatur, desto geringer die erreichbare Taktrate. Man belese sich z.B. bei "extremetech", was mit Stickstoff-Kühlung so für Taktraten erreicht werden können.

Nochmal zum Nachplappern: Das Heruntertakten der CPU im unbelasteten Zustand ist ein FEATURE, ist ein FEATURE, ist ein FEATURE.

*grummel*

NB: Langsam glaube ich auch, dass der exzessive Verbrauch von Wärmeleitpaste tatsächlich auf menschliches Versagen im Design-Prozess zurückzuführen ist.

Na endlich... ;-)

Von: Kai (MacGuardians) | Datum: 03.05.2006 | #63
[Link]

Geht mal lieber Mineralien sammeln!

Von: Rudolph Möshammer | Datum: 03.05.2006 | #64
Leute, wenn ihr bei jeder Kleinigkeit dermassen austickt, und unobjektives Kai-Bashing betreibt, mein Tipp:

Geht mal lieber Mineralien sammeln!

@kai: Nochmals zum mitdenken

Von: DerDietäh | Datum: 03.05.2006 | #65
Also dass die Apple-Zulieferer (die ja doch schon die längste Zeit die Boards bestücken und wohl auch die Kühlsysteme auf die Chips drömmeln, bisher vor allem (oder vielleicht sogar ausschliesslich) Pads verwendet haben mag durchaus sein - ich habe bisher Paste auch nur bei Upgrade boards oder Dosen gesehen. Ist ja auch nicht schlecht, weil leicht zu handhaben und nicht SOOO viel schlechter beim Wärmeübergang. Jedenfalls bleibe ich dabei, dass Apple das wohl kaum so im Detail spezifiziert hat, oder? Die Boards, Chips und Designs sind ja jetzt Allerwelts-Teile. Könnte allerdings auch eine Intel Empfehlung sein.

Pad oder Paste machte bei den kühlen G4 keinen Unterschied, aber bei den G5 mit Flüssigkühlung hätte das schon ins Gewicht fallen können. Inwieweit sie bei den CoreDuo einen Unterschied machen weiss ich nicht - hier sind die Fronten ja noch aktiv <G>

Nur, ich sag's nochmals, egal wer den Kühlkörper draufdrömmelt quetscht dabei den grössten Teil der dick aufgetragenen Paste seitlich raus.

Wer/s nich glaubt probiert's am besten mit Mayo - eine Tube dick auf die Handfläche der linken Hand schmieren und dann die rechte fest dagegendrücken oder - um der Humoristen willen - viellleicht besser noch Beifall klatschen.

Übrigens, alle einigermassen modernen CPU takten runter und/oder schalten ab wenn's ihnen zu heiss wird. Das ist eine einfache Schutzmassnahme, die etwa beim Ausfall eines Lüfters dafür sorgt, dass der CPU nicht abbrennt <DENK>Wann macht er das eigentlich in meinem alten Cube oder im iBoook G3 </DENK>

Abstoßend...

Von: Äppele | Datum: 03.05.2006 | #66
...sind diese Bilder vom Inneren des MBP.
Ein Grund weshalb ich Macs mag, ist, das selbst das Innerste gut designt ist. Ich schau in einen Dell und mich schauderts.
Wie aufgeräumt ist dagegen ein PowerMac.
Aber das ist Ekel erregend.
Das ist weder durchdacht, noch kann ein klar denkender Mac-Fan das gut finden. Ist es ja auch nicht. Ich hab auch einen selbst getunten PC und auch ein Sonie-NB als Übergangslösung (schäm :). Aber ich fürchte das wird wohl noch länger halten müssen. Von denen sieht keiner auch nur annähernd so zu gekleistert und gekleckert aus wie das MBP :(.
Ich kauf doch kein Applecare wenn ich das dann selbst neu machen muß. Und ohne Garantieverlängerung kauf ich mir auch kein NB.
*ARGH*... das stinkt mir gewaltig.

Danke übrigens für den Artikel, Kai.
Zum Kai-Geflame kann ich nur sagen: Kai hat meistens Recht.
@Kai: Leider trägst du ein wenig zu dick und viel zu einseitig auf. Und das wiederum stößt vielen Applefanatics sauer auf.
Apples hatten schon immer Licht und Schatten, im Gegensatz zu Windosen, die sich immer in einem hellgrauen Einerlei bewegen. Deshalb sah und seh ich Apples Politik immer mit gemischten Gefühlen.
Ich versteh die Firma, aber ich seh auch das es noch wesentlich besser gehen würde.

Jene die mir jetzt vorhalten, das Macs mit OS immer noch besser sind, als Dosen, denen muß ich ganz klar sagen:
Ich informiere mich über andere, ABER ich orientiere mich NUR dann an Anderen wenn ich es für sinnvoll halte.Eine Folgerung daraus ist: Wenn du besser bist als die Anderen, dann mußt du dich an dir selbst orientieren, kritisieren und weiter arbeiten.
Wenn ich anderen einen Schritt voraus bin, warum nicht zwei oder drei, oder...?
Und das tut Apple leider nicht in ausreichendem Maße (wie ich finde).

.:UPDATE:.

Von: core icke | Datum: 03.05.2006 | #67
UPDATE from Genius Bar on page 4
And and update on internal temps:
For those of you who wanted internal measurements, it looks like someone has figured out a way to get data from the internal monitors.
Here's the thread on Apple's boards.
Here's the program on Cryptonome. It's actually a kernel extension.
Aftering running the extension, I have 48C idle, 64C at 100% on both cores while encoding a DVD.
Others are reporting temperatures as high as 85C without the thermal paste reapplication.

so jetzt wuesste ich trotzdem gerne, ob das mac book pro mit der sparsam aufgetragenen paste nicht solange laeuft oder doch ...

@core icke

Von: H. Richter | Datum: 03.05.2006 | #68
Wenn man die hier zusammengetragenen (ernsthaften) Beiträge quer liest, dann läßt sich folgende Schlussfolgerung ziehen:

Die Batterielaufzeit mit _RICHTIG_ angewandter Wärmeleitpaste wird sich kaum ändern.

Falls eine Verbesserung der Laufzeit (im einstelligen Prozentbereich) nicht eintritt, verbleibt jedoch die Gewissheit einer deutlich verlängerten Lebenserwartung der Maschine.

*kopfschüttel*

Von: Hrusty | Datum: 04.05.2006 | #69
ich kann nur nochmal meine Verständnislosigkeit wiederholen.
Ihr glaubt allen Ernstes in einem Multimilliarden Dollar Konzern bzw. dessen Multimilliarden Zulieferer hat niemand Ahnung wieviel Wärmeleitpaste aufgetragen wird.......
Während Oma Erna´s Enkel Heini dies schon bei seinem 2ten Selbstbau PC beherrscht.

Noch etwas spricht für die Hardwarelösung des Akkuschonens:
per EFI/Firmware heruntergetaktete CPU´s wären von den Hackern recht schnell entlarft worden, und hier hätte man nicht die Ausrede gehabt, dass es ein Produktionsfehler war, sondern dass Apple vorsätzlich die Lebensdauer der MBP Komponenten verringert. Das wäre ein Schlag ins Kontor gewesen!

H.Richter

Von: Hrusty | Datum: 04.05.2006 | #70
so? wird die CPU nicht schneller heruntertakten wegen Überhitzung?
Ein paar Watt gehen dennoch flöten durch die Lüfter UND
in der c´t ist das MBP das mit Abstand leiseste CoreDuo Notebook gewesen, da die Lüfter fast nie liefen.
Dies ist doch aus Marketing Gründen gegeben, damit auch WIndows user die 2000 EUR Schwarte kaufen und nicht das Acer für 1300 oder das Amilo für 1350 EUR. Die dann zwar DualLayer Brennen können aber nicht das ein oder andere Austattungsmerkmal des MBP haben.
Außerdem bietet Apple mit das flachste CoreDuo Notebook an, die eher genügsamen G4 kamen in den Flundern noch zurecht, aber der CoreDuo würde vermutlich die Lüfter permanent beschäftigen.

Hrusty,

Von: H. Richter | Datum: 04.05.2006 | #71
sicher taktet die CPU herunter, wenn sie sich überhitzt. Nur liegt diese Temperatur noch über den bisher im Netz gehandelten praktischen Messwerten im Extremfall (Hardmac: ~85°C).

Dazu ein paar Beispiele: Eine Hardwareseite (AFAIR Tomshardware) hat vor einer Weile mal einen PentiumIV ohne Kühlkörper betrieben. Der Chip lief dank seiner Schutzmechanismen (die er auch *wirklich* braucht :-) mit einem Takt unter 100 MHz, wenn ich mich recht entsinne.

Bei uns hier ist kürzlich in einem der Server auf beiden P-III's der Lüfter stehen geblieben. Die Kiste lief noch, jedoch mit gefühlten 100-200 MHz.

Mein Punkt: Wenn der Prozessor im Macbook derart in den Grenzbereich gejagt werden kann wie meine beiden Beispiele seiner Urahnen, dann ist das ein Reklamationsgrund.

Auch wenn diese Argumente hier schon bis zum Erbrechen durchgekaut wurden:

Wo liegt der Unterschied?

Negative Publicity durch EFI-Settings, deren Plausibilitätsüberprüfung außerhalb der fundamentalen Kenntnisse investigativ begeisterter Tecchies liegt... (s. weiter oben)

ODER

Negative Publicity durch offensichtlich eklatante Fehler im Umgang mit Material, welches NUR die Unebenheiten aufeinander treffender Metallflächen ausgleichen soll.

oh man...

Von: namepower | Datum: 04.05.2006 | #72
wenn ich solchen blödsinn wie "...apple verwendet mehr wämeleitpaste damit der lüfter seltener anspringt und der rechner leiser ist..." kommt mir alles hoch. was für leute geistern hier eigentlich durch die foren?

so, ein multimilliarden dollar unternehmen macht also keine fehler? muss jetzt irgend einer eine liste aller fehler die apple bei powerbooks hatte auflisten um dies zu widersprechen?

apple baut keine notebooks, apple läßt sie bauen. für d. oben genannten fall ist der produktions partner (wie asus oder quantas) verantwortlich und nicht apple (außer es sind designfehler).

einige hier haben zu viel zeit und fantasie und wenig ahnung. bin schon auf die nächsten dummen theorien gespannt.....

@Hrusty und alle anderen

Von: klapauzius | Datum: 04.05.2006 | #73
Ach, bei Apple ist das doch immer so: Wenn mal was vernünftiges kommt, dann sind's die besten Ingenieure der Welt, wenn nicht dann war es ein "Versehen" oder ein "Unfall".

Jeder der schon mal industrielle Fertigung erlebt hat weiss, was davon zu halten ist. Spätestens bei der nächsten Materialverfügbarkeitsprüfung würde das mit der Paste glaube ich schon auffallen
:-)

Ich halte es mit Sherlock Holmes: Die einfachste Erklärung ist i.d.R. die Richtige. Und nachdem bereits bekannt ist, dass die GPU in dem MBP runtergetaktet ist liegt es doch nahe, den Hauptfresser auch zu bremsen.

Herr Richter, die 100 Grad beim YOnah sind die MAXIMALE Temperatur, d.h. darüber fliesst das gute STück wahrscheinlich dahin :-)

Siehe

[Link]

Da steht dann auch so ein schöner Satz wie

The Thermal Design Power (TDP) specification should be used to design the processor thermal solution. The TDP is not the maximum theoretical power the processor can dissipate

So viel zum Thema TDP und Intel.

Also wird der Chip schon sehr viel früher throttlen und das ist ja Zweck der Übung.

einfachste erklärung????

Von: namepower | Datum: 04.05.2006 | #74
die einfachste erklärung mein lieber klapauzius ist ein fehler bei der produktion und nicht diese an den haaren herbeigezogene theorie

"...Apple erzeugt per Wärmeleitpaste eine irrsinns Hitze in den MBP. Dadurch taktet Yonah runter und läuft mir angezogener Handbremse, was zu akzeptablen Akku-Laufzeiten führt. Die Lüfter-Theorie halte ich ebenfalls für nicht plausibel...."

sherlock holmes zitieren ist zwar net aber folgen sollte man den zitat auch. wärmeleitpaste in der richtigen menge dienst dazu die hitze abzuführen, also warum überhaupt paste verwenden wenn diese missbraucht werden soll um die akku zeit zu verängern? gescheiter wäre doch gleich sie weg lassen statt zuviel aufzutragen, damit erreicht man ja das gleiche oder?

und natürlich werden millionen autos, computer und andere elektronische güter zurück zur reparatur verordnet ausschließlich weil die design fehler hatten und niemals weil in der produktion was schief ging, klaro ;-)

TDP

Von: Vorname | Datum: 04.05.2006 | #75
TDP wird bei jedem Hersteller unterschiedlich definiert.

Weiter oben hatte ich es ja schon befürchtet, Zitat:

Von: Marcel_75 | Datum: 04.05.2006 | #76
"1. Hochfrequente Pfeifgeräusche im Stromsparmodus.

2. Die Geschichte mit der Wärmeleitpaste / sehr heißen Gehäusen.

3. ... wer weiß was da noch kommt ..."

Und nun werden still und heimlich die Akkus der ersten MBPs umgetauscht.

[Link]


Also eine vernünftige Qualitätskontrolle täte Apple mal wieder gut, oder?

schon seit einiger zeit....

Von: namepower | Datum: 04.05.2006 | #77
würde ich sagen täte apple eine gescheite qs gut.

Fehler

Von: Hrusty | Datum: 04.05.2006 | #78
meinst Du die Fehler der PB / ibooks die sich ergeben haben, weil Apple billigen Ramsch verbaut hat. Ich erinnere da an die Akkus von LG, ehemals Goldstar!

wieso waren sie ramsch?

Von: namepower | Datum: 04.05.2006 | #79
nur weil sie von lg kamen? vielleicht gab es auch dort ein produktionsfehler? kann ja passieren oder? wird endlich zeit samsungs und lgs als billig zu bezeichnen. sind besser als manche angeblich guten deutschen firmen...

fehler

Von: namepower | Datum: 04.05.2006 | #80
wird endlich zeit samsungs und lgs *NICHT* als billig zu bezeichnen

Intels Marketingphilosophie trägt

Von: Hrusty | Datum: 04.05.2006 | #81
auch ihren Anteil an solchen Auswüchsen:

Intel spezifiziert eine TDP von sagen wir mal 34 Watt beim Yonah.
Während der Turion64 ML irgendwas eine TDP von 45 Watt besitzt.

Dies heißt im grunde: der Yonah verbraucht typisch 34 Watt, unter
Vollast 40-50 Watt.
Der Turion64 verbraucht maximimal unter Vollast 45 Watt.

Nun ergibt sich folgende Problematik:

Der Notebookhersteller designt die Hardware angepasst an Intels TDP,
so muss das Notebook maximal 34 Watt Wärmeleistung abführen.
Was wenn nun das Notebook stark beansprucht wird?
Der Yonah verbrät deutlich mehr als die angegebenen 34 Watt und auch
mehr als die, sagen wir mal 37 Watt, die das Kühlungssystem abführen
kann. Dies führt dazu, dass sich der Yonah heruntertaktet. Das
bedeutet, gerade wenn ich die Leistung benötige bekomme ich sie
nicht.
Und das alles dadurch, dass Intel nicht in der Lage ist reelle Zahlen
anzugeben, die nicht vom Marketing frisiert worden sind....

Wer hier....

Von: NoName | Datum: 04.05.2006 | #82
...ohne Fehler ist, der sollte......

gjhgjgkgj

Von: Kai (MacGuardians) | Datum: 04.05.2006 | #83
Hrusty:
"ich kann nur nochmal meine Verständnislosigkeit wiederholen.
Ihr glaubt allen Ernstes in einem Multimilliarden Dollar Konzern bzw. dessen Multimilliarden Zulieferer hat niemand Ahnung wieviel Wärmeleitpaste aufgetragen wird.......
Während Oma Erna´s Enkel Heini dies schon bei seinem 2ten Selbstbau PC beherrscht."

Heini weiss wohl auch, dass man in nem stark konvektionsgekühlten Rechner nicht die HD direkt in den Abwärmestrom der CPU hängt (iMac G5 Rev A)...

namepower:
"apple baut keine notebooks, apple läßt sie bauen. für d. oben genannten fall ist der produktions partner (wie asus oder quantas) verantwortlich und nicht apple (außer es sind designfehler)."

Taiwan hat damit nix zu tun. Siehe Apple-Servicemanual!

Klap:
"The Thermal Design Power (TDP) specification should be used to design the processor thermal solution. The TDP is not the maximum theoretical power the processor can dissipate"

Schöner Fund! ;-) Das sollte mit den angeblichen maximalen 31W die das Ding braucht endgültig aufräumen, hehe!...

@Hrusty

Von: H. Richter | Datum: 04.05.2006 | #84
Du solltest Dich dringend etwas belesen. Ich empfehle dafür z.B. als Basics [Link]
und den dort verlinkten Artikel [Link]

Zum Thema Stromaufnahme des Yonah im belasteten/unbelasteten Zustand siehe auch [Link]

Zum Schluss noch eine Denksportaufgabe: Mit einer Batterie von 60 Wh und einer behaupteten Grundlast _nur_ des unbelasteten Prozessors von 34 W kommen wir auf wieviele Stunden Laufzeit des Gesamtsystems ?

-> Auflösung siehe hier [Link]

Kai ?

Von: namenamnamnam | Datum: 04.05.2006 | #85
Dass TDP nicht hacke-spitze-tisch-und-stuhl-einbrennerleistung ist, wusstest Du doch nicht erst seit heute ?

Intel UND AMD geben ihre Design-Empfehlungen sowieso nicht pro CPU, sondern pro CPU-Reihe jeweils bestimmter Einsatzzwecke an.

Soo schlecht steht der Yonah gegenüber dem G4 auch nicht da, Exzerpt aus [Link]

In an all-out power drain test, in which we turned off all power-saving options and played a DVD on both the MacBook Pro and the PowerBook G4, the MacBook Pro died four minutes earlier than the PowerBook—a test that suggests the two models’ battery life will be similar.

4 Minuten Unterschied, was für ein Schrott kommt da nur von Intel :-)

@H. Richter

Von: klapauzius | Datum: 04.05.2006 | #86
Eines sollte ja mittlerweile klar sein:

Sämtliche Aussagen bzgl. Batterie-Laufzeit der MBP bitte immer mit der Anmerkung: "Paste druff" oder "Paste wegjeschrubbt" (re der arstechnica-Link).

Das ist ja der Punkt: Sämtliche tollen Tests, Benchmarks und Jubelgesänge auf die MBP kann man nach diesem Debakel schlicht in die Tonne treten. Ausser natürlich ein 50 Grad Alugehäuse und leitende Wärmeleitpaste an allen möglichen und unmöglichen STellen innerhalb des Teils lassen einen kalt.

Es wird natürlich keiner auf die Idee kommen, besagte Tests und Benchmarks mit einem "geputzten" MBP zu wiederholen, womit sich dann die Jubelgesänge nämlich erledigt hätten.

Insofern kommt Apple mal wieder mit der gewohnten Chuzpe durch und es wird weitergejubelt.

@klabauzius

Von: H. Richter | Datum: 04.05.2006 | #87
Ich wusste gar nicht, dass das Macbook von sowas [Link]
, sowas [Link] oder gar sowas [Link]
gekühlt wird.

Anders kann man Dein lautes Geschrei zum Thema Batterielaufzeit rational nicht erklären, zumal Du Dich mit beachtlicher Beharrlichkeit gegen jedwede Art gut gemeinter Argumente sträubst.

*grummel*

Mal ein paar "Fakten" für H. Richter

Von: klapauzius | Datum: 04.05.2006 | #88
Aus dem macnn-Forum:

Someone who has done the mod is reporting 48C at idle, 64C under full load. Someone who hasn't is getting 71C at idle, 95C at full load. 95!!! Which, is apparently 5 degrees less than the max Intel recommends WITHOUT A COOLING SYSTEM. So, it would seem that the heatpipe isn't doing very much.

Personally, I am getting 56C at idle, 64 C at typical (browsing, email) and 82C under full load. And, my fans have NOT come on. Since the fans are wired to activate via temp sensors on the heatpipe, it would seem that even after 10 minutes under full load the heatpipe isn't getting hot enough to trip the fans.

That doesn't seem good. I mean, I like a quiet laptop as much as the next guy, but how long is this thing gonna last if its essentially constantly running at nearly its maximum recommended operating temps? This is like running an engine at its redline constantly.

---

Edit: There's another guy getting 95C under load.
Edit Again: Another guy getting 97C under load (the new leader!). Also, interestingly, some who have done the mod are reporting low idle temps (40's) but high idle temps (85-90C).

Wohl gemerkt, 95 Grad und Intel sagt bei 100 verlassen Sie mit dem Yonah die uns bekannte Welt und sind auf sich alleine gestellt.

Würde ich keine 2.000 Oschis für bezahlen.

P.S.

Von: klapauzius | Datum: 04.05.2006 | #89
Mit welchem "Takt" der Yonah dann überhaupt noch läuft weiss ich nicht. Ich denke aber dass Performance dann nicht unbedingt an ein G4-Powerbook heranreicht, um das mal freundlich auszudrücken.

Warum die Dinger bei solchen Temperaturen überhaupt noch laufen ist mir ein Rätsel. Normalerweise würde sich der Yonah da IMHO vernünftigerweise aus reinem Selbstschutz abschalten. Aber wer weiss, vielleicht hat man in Cupertino da ja auch dran gedreht.

Und ?

Von: H. Richter | Datum: 04.05.2006 | #90
Der Umstand, dass die Kühlung im MBPro aufgrund fehlerhafter Anwendung (Paracelsus: die Dosis macht das Gift) nicht funktioniert, steht aufgrund offensichtlicher Tatsachen doch überhaupt nicht zur Debatte.

Ich bin nebst anderen Postern, die hier im Laufe dieses Threads ihre Physikkenntnisse beigetragen haben, lediglich der These nachgegangen, was bei korrekter Kühlung mit Stromverbrauch und Batterielaufzeit passiert (und wie man zu laute Lüfter auf anderen Wegen vermeiden kann).

Mehr nicht.

Meine einschlägigen (eigenen, nicht repräsentativen) Erfahrungen mit der Produktqualität von Apple-Laptops kannst Du weiter oben entnehmen.

Ich verwahre mich zudem gegen den Vorwurf, ich würde hier Hurra schreien. (ebenfalls: s.o.)

Seit Intel sind halt alle durchgeknallt

Von: klapauzius | Datum: 04.05.2006 | #91
[Link]

"Temperatur des Core Duo messen.

Beim bislang am schnellsten getakteten MacBook Pro erreicht der Core Duo 2,16 GHz ohne Last 50 Grad, bei höchster Auslastung 90 Grad. Das ist noch deutlich unter den maximal möglichen Werten. Erst bei 125 Grad wird der Chip aus Sicherheitsgründen abgeschaltet."

Na, dann ist ja alles gut.

Oh Apple, was ist nur aus dir geworden.

P.S., mein persönliches Fazit daraus

Von: klapauzius | Datum: 04.05.2006 | #92
Auch die ehemals renomierte Fachzeitschrift c't kann man offensichtlich wenn's um Apple geht komplett in der Pfeife rauchen.

Leisestes core-duo-Notebook, Stromspar-Prozessor, da lachen ja die Hühner. Ich sage nur 90 Grad.

Erstaunlich. Bei Apple setzt wohl komplett das Denken aus.

Naja. Sei's drum.

Frage zu den Temperaturen

Von: wonko_the_not_so_sane | Datum: 04.05.2006 | #93
Ich hatte immer folgendens gedacht:

Eine CPU wird für eien bestimmten Temperaturbereich spezifiziert, sagen wir, bis zu 100 Grad. Bis zu dieser Temperatur sollte ich doch gefahrlos (zumindest was den Prozzi angeht, nicht unbedingt, was meinen schoß betrifft...) gefahrlos und dauerhaft ohne Einbußen der Lebenserwartung arbeiten dürfen, oder? Auch wenn einen "typische" Erwärmung deutlich darunter liegt.

Sobald der Grenzwert erreicht wird, senkt die CPU die Leistungsaufnahme u. a. durch Taktreduzierung soweit, bis sie sich wieder im grünen Bereich von <= 100 Grad befindet.

Soweit richtig?

Oder was?

verbauch

Von: _ | Datum: 04.05.2006 | #94
in der c't vom 18.4.06 steht, daß ein Core Duo-Notebooks mit 2 GHz, 2 GB Ram, einer Mobility Radeon X1600 und dem Display zusammen bei 3DMark01 38,7W (an der Steckdose, nicht aus dem AKKU) braucht!
3dMark ist schon ziemliche max- Belastung -> von wegen Core Duo verbraucht unter Last 40W und mehr...

@klapauzius

Von: namepower | Datum: 04.05.2006 | #95
was ist dein problem? yonah läuft max bis 90 Grad (bei falscher Anwendung von Wärmeleitpaste), spezifiziert ist es für 125 Grad wo es sich automatisch abschaltet. Also was genau ist jetzt dein Problem mitm Nb?

Meine Meinung nach "Viel Lärm um Nichts".

Verarbeitungsfehler

Von: Roman | Datum: 04.05.2006 | #96
Ich denke je länger je mehr dass es sich um einen KnowHow- oder Verarbeitungsfehler des (vermutlich chinesischen oder was auch immer) Herstellers im Auftrag Apples handelt, und hoffe dieser ist gut versichert.. Soviel Wärmeleitpaste ist kaum mit Absicht aufgetragen, KnowHow-Mangel ist eher wahrscheinlich.
Kommt davon wenn man outsourced und meint "billig" herstellen zu können mit ehemals chinesischen Bauern welche ein Schnellschulung abbekommen haben (er hats ja nur gut gemeint mit soviel Paste) ;), mit der Outsourcing-Kritik ist allerdings nicht nur Apple gemeint. Billiger ist halt manchmal nicht günstiger..

Echt gespannt bin ich da mal auf ein Statement von Apple. Das wäre langsam bitter nötig, und dann sehen wir klarer. Am besten wäre eine allgemeine Rückrufaktion, es muss ja nicht das ganze Macbook ersetzt werden, nur das mit der Paste muss korrigiert werden.

Wie auch immer, wäre ich Besitzer eines solchen MacBooks würde ich schleunigst entweder von Apple selber ein Entfernen der überschüssigen Paste verlangen oder halt das selber in Auftrag geben, mit dem Lüftergeräusch kann man leben, es geht halt manchmal nicht alles (leise und schnell und zugleich kühl). Dafür lebt das Macbook wesentlich länger, und zwar um Faktoren.

Wer ein solches MacBook erwerben will sollte besser auf Rev.2 warten. Und ein 17"er würde ich erst kaufen wenn die ersten aufgemacht und für gut geheissen wurden.

Aber es geht ja auch anders.
Ich nehme an dass die Mac Mini Core Duo woanders hergestellt werden; bei der Maschine ist bisher noch kein Bug entdeckt worden, sie ist leise, schnell und verbraucht relativ wenig Energie, der Prozessor ist mittels Wärmeleitpad mit der Kühlung verbunden und der Rechner macht auch sonst einen aufgeräumten Eindruck, siehe:
[Link]

und:
[Link]

Habe selber ein solches gekauft und bin voll zufrieden (läuft an einem Apple-23"-Display, das nenne ich Komfort).

H.Richter

Von: Hrusty | Datum: 04.05.2006 | #97
liest Du Deine angegeben Links eigentlich durch:

"My resident EE tells me that the dual-core Core Duo processors in the MacBook Pro use about 25 to 47 watts of power consumption versus about 30 or so on the Aluminum, PowerPC 74xx PowerBook G4s."

Mehrere Quellen haben für den mini 30 Watt unter Last für das ganze Gerät angegeben.... nix mit 30W "or so" für den G4!

H. Richter 2te

Von: Hrusty | Datum: 04.05.2006 | #98
"Zum Thema Stromaufnahme des Yonah im belasteten/unbelasteten Zustand siehe auch [Link]"

"So gelingt es Intel, Yonahs maximale Leistungsaufnahme auf 31 Watt zu beschränken, nur 4 Watt mehr als Dothan."

Es kann nur so sein, dass ein nicht durchblickender Redakteur so etwas geschrieben hat, der keine Ahnung hat was TDP, max Wärmeentwicklung, Verbrauch bei Vollast bedeutet. Und der nicht weiß, wie Intel den Wert der TDP ermittelt.

"Der Takt beider Kerne lässt sich unabhängig voneinander einstellen und per SpeedStep bis auf 1 GHz senken"

"Mit einem belasteten Kern zog das Notebook 20 Watt mehr als im Ruhemodus, mit beiden Kernen 29 Watt"

welche Last?
Leistungsaufnahme im Ruhemodus?

Du und andere habt übrigens dahingehend recht, dass viel über Annahmen und Herleitungen geschrieben wird und weniger über Fakten. Aber selbst die c´t hält einer objektiven Betrachtungsweise nicht stand.

Mühsam!

Von: DerDietäh | Datum: 04.05.2006 | #99
Das seid Ihr Leute, strei9tet endlos um des Kaisers Bart. Was ist jetzt der Endeffekt Eurer endlosen Diskurse? Fährt Apple auf Intel ab? Ist MacOS das beste auf Gottes Erdboden (von mir aus auch -X)? Ist der Papst katholisch? Ist der Papst deutsch?

Yow! So ist's Leute, und daran wird auch Kai und sein Gefolge nix ändern! Und was soll's mit der Paste, das Zeug läuft.

UND - Budda, bitte aufmerken - ES Läuft genau VIER MAL so schnell wie der kacke-G5. Danke STevie aka iStiff <tm Budda>. Das ist doch unednlich befriedigender als der seinerzeitige Shit bei der PPC Umstelllugn wo der Vorteil nur in Spezialanwendungen zu finden war.

Na, was dazu zu sagen, Kai oder immer noch am Physik büffeln? Die Leistung der Intels ist jjaq doch mittlerweile auch im Web nicht mehr zu ignorieren...

Apropos: Namenamnam - netter neuer Name, aber immer das gleiche irrelevante Gesülze.

@DerDietäh

Von: wts | Datum: 04.05.2006 | #100
Kacke ist hier nur eines: Kommentare wie Deine.

uziuz

Von: Kai (MacGuardians) | Datum: 05.05.2006 | #101
namenamaananamusw:

"4 Minuten Unterschied, was für ein Schrott kommt da nur von Intel :-)"

Tja, leider übersiehst du geflisstentlich, dass das Macbook nen 60Wh-Akku hat und das G4-Powerbook nur nen 50 Wh-Akku! ;-)

__:

3Dmark interessiert der zweite Core sowas von überhaupt nicht, dass der mal lecker schlafen gehen kann...

"Max. Belastung" ist reiner superoptimierter CPU-Basher-Code, der soweit möglich ALLE Execution Units in der CPU voll ausfährt, nicht 3Dmark. Wir reden hier z.B. von sowas wie Gotos Hi-Performance-BLAS, handoptimiertes Assembler.. Oder BadAndy's G5-Testcode, der _gleichzeitig_ 10 GigaFLOPS auf den FPUs, 20 GigaFLOPS per Altivec und 10 Gigapermutes sustained macht...

Roman:
"Ich denke je länger je mehr dass es sich um einen KnowHow- oder Verarbeitungsfehler des (vermutlich chinesischen oder was auch immer) Herstellers im Auftrag Apples handelt, und hoffe dieser ist gut versichert.."

Ich denke langsam sollte auch der letzte endlich gecheckt haben dass das IN APPLES SERVICEMANUAL SO DRINSTEHT! Jesus!...
Sorry dass ich so aufbrausend bin, aber die Taiwanesen KÖNNEN echt Computer bauen, ohne Scheiss jetzt!

@Hrusty

Von: H. Richter | Datum: 05.05.2006 | #102
Lustig oder ? Selbst renommierte Hardwareseiten wie Arstechnica oder der Heise-Verlag haben offensichtlich keine definitiven Informationen zum minimalen/normalen Stromverbrauch der CPUs über das TDP hinaus.

Isolierte Messungen sind außerhalb der Labors der Hersteller auch nicht ganz simpel. Heutige Mainboards sind gespickt mit Spannungsreglern (wir reden immerhin im Desktop-Bereich von Stromstärken um 50 Ampere(!) ), isolierte Messungen an der CPU würden z.B. erfordern, alle Spannungsregler auszulöten(*1) und Messgeräte zwischen den Ausgang des jeweiligen Spannungsreglers und die CPU zu hängen.

Somit ist angesichts der abweichenden Informationspolitik der verschiedenen Hersteller eine hitzige Diskussion um den tatsächlichen Stromverbrauch von CPUs höchst fragwürdig.

Intel hat damals beim ersten Pentium-M noch gross mit der Ruheleistungsaufnahme geprahlt. Beim Übergang auf 90nm-Strukturen und dem unerwarteten drastischen Anstieg der Leckströme war dann plötzlich von offizieller Seite Funkstille (*2).
Die maximale Stromaufnahme des P-M blieb für die 90nm-Serien im notebooktauglichen Bereich, der Minimalverbrauch stieg jedoch.

Meine Meinung zum Thema: Was nützt die alleingestellte Betrachtung einer stromsparenden CPU (siehe Transmeta), wenn der Rest des Systems (RAM, Graka, IO-Controller, Display etc.) nicht ebenso hochoptimiert ist (*3) ?

Ich werfe mal die These in den Raum, dass es unter dem Strich in der Praxis nur zählt, was das Gesamtsystem aus Steckdose oder Akku lutscht und wieviel Wärme somit insgesamt abzuführen ist.


(*1) dass die Regler nach Integration der Messleitungen wieder entstprechend angelötet werden müssten, versteht sich von selbst
(*2) IBM hatte für die Reduktion von Leckströmen ein Patent (Stichwort SOI), das sie zwar AMD, nicht aber Intel zur Nutzung überließen.
(*3) siehe auch WinXP-Bug bei aktuellen Intel-Chipsätzen, wo der USB den Akku leersaugt.

Ich stelle fest:

Von: klapauzius | Datum: 05.05.2006 | #103
Es gibt Leute die haben ein Notebook mit einem dauerhaft (unter Last) 90 Grad heissen Prozessor (können auch schon mal 97 sein) und freuen sich dass der Lüfter nicht anspringt.

Und dann kommt so ein Satz wie "was ist dein problem?"

Ich habe kein Problem, ich habe ja kein MBP.

Jetzt ratet mal, bei welcher Firma die kaufen.

@H.Richter: Gelutsche

Von: wonko_the_not_so_sane | Datum: 05.05.2006 | #104
"Ich werfe mal die These in den Raum, dass es unter dem Strich in der Praxis nur zählt, was das Gesamtsystem aus Steckdose oder Akku lutscht und wieviel Wärme somit insgesamt abzuführen ist. "

Sehe ich genauso.

Aber gibt es denn hierzu keine Erfahrungswerte?

90 Grad

Von: wonko_the_not_so_sane | Datum: 05.05.2006 | #105
Wie schon einmal gefragt: Wenn das Ding bis 95 spezifiziert ist, und erst bei 125 ausschaltet, sollten doch 90 _gar kein_ Problem sein. Dann suche ich es mit eben aus, ob ich's lieber wärmer und leiser oder kühler und lauter habe. Nach meinem Verständnis hat das weder auf Taktraten noch auf Lebensdauer Auswirkungen (zumindest nicht was die typische Lebenswartung eines Laptops angeht). Oder sehe ich da was falsch?

wonko:

Von: H. Richter | Datum: 05.05.2006 | #106
Zuviel Hitze ist für Elektronik in jedem Fall tödlich, egal ob schleichend oder durch Sofort-Exekution.

Das Stichwort hierzu lautet "Elektro-Migration", kurzgesagt: Abwandern von Atomen aus den Leiterbahnen, so dass irgendwann der Chip die Hufe hochreisst.

Weiterhin kommt in Notebooks der Lithium-Ionen-Akku dazu, der sowieso eine auf typisch 3 Jahre begrenzte Halbwertszeit hat und dem zuviel Wärme überhaupt nicht schmeckt.

Klapauzius hat schon recht, wenn er sich über die Hitze in den Macbooks beschwert.

Übrigens ist der Grenzwert 125°C erstaunlich hoch. AMD gibt je nach Baureihe AFAIR Junction-Temperaturen zwischen 80 und 90°C an, wobei ich mich für eine Vergleichbarkeit dieser Beispiele nicht verbürgen möchte.

OT: Ich habe in letzter Zeit gehäuft Grafikkartenausfälle beobachten dürfen, bei denen der Lüfter sich festlief und wo sich zwar der Core durch Abschalten schützte, vorher aber genüsslich die am gleichen Kühlkörper hängenden Speichermodule geröstet hat. Nach Ersatz des Lüfters gab es dann wunderschöne Falschfarbenbilder.

H.Richter

Von: Hrusty | Datum: 05.05.2006 | #107
[Link]

"Viel interessanter, weil schwerwiegender ist aber eine andere Entdeckung, die wir im Rahmen der Auswertung der 24-Stunden-Statistik gemacht haben. Werfen wir zunächst einen Blick auf den Kurvenverlauf der Temperatur des CPU-Cores im Intel-System (obere rote Linie). Wie daraus ersichtlich ist, fällt die Temperatur mit schöner Regelmäßigkeit von einem relativ hohen Wert von über 90°C auf einen sehr niedrigen Wert mit weniger als 55°C ab. Nach einer Verschnaufpause von ungefähr fünf Minuten nimmt die Core-Temperatur wieder zu. Wir haben uns natürlich nach der Ursache für dieses "seltsame" Verhalten gefragt. Spontan vermuteten wir, dass die CPU zu heiß wird und deshalb den Takt drosselt (Throttling). Unsere Vermutung hat sich bestätigt wie wir Ihnen gleich zeigen werden. Mit anderen Worten: Wird die Pentium M 770-CPU im Dell-System sehr stark beansprucht, schaltet der CPU-Takt herunter, um einer Überhitzung vorzubeugen. Dagegen ist zwar prinzipiell nicht einzuwenden, denn besser eine CPU schützt sich selber, als das Sie thermisch irreparabel zerstört wird. "

So lustig finde ich Intels Praktiken nicht.
Man will unbedingt gegenüber dem Turion glänzen, damit die Leute auf die Yonahs anspringen. Bietet jedoch nicht die Werte die selbst ein Notebook Bauer benötigt. Nämlich die typische eistungsaufnahme und die maximale Wärmeerzeugung.
Aber so ist Intel- Marketing Rules.
ob dann das Notebook vor sich hin throtted spielt ja nach dem Kauf keine Rolle mehr. Hauptsache man hat mit gutem Gefühl einer Firma die sowieso mit ihren Machenschaften sehr gut verdient (>60% BruttoMarge) Geld in den Rachen geschmissen.

Nettoleistung

Von: wonko_the_not_so_sane | Datum: 05.05.2006 | #108
Danke für die Erklärung zum Thema Temperatur.

Das heißt also, dass ich 2,wasweißich GHz einkaufe und in der Praxis im Mittel vielleicht mit nur 75% dessen arbeite.
Sehr fein. Beschiss ist da wohl noch milde ausgedrückt.

Ist das nur Intel-spezifisch oder machen das die anderen genauso?

OT: Wenn ich das so Revue passieren lasse, wünsche ichmir fast die unkomplizierten Zeiten der 100, 200 MHz zurück - das wusste man noch, was man für sein Geld bekam - oder ist das auch nur verträumte Nostalgie?...

Demnach...

Von: wonko_the_not_so_sane | Datum: 05.05.2006 | #109
...gilt gegenüber dem unmodifizierten Urzustand des MBP:

a) zusätzlich RICHTIG (=dünn) aufgetragene Paste --> bessere Wärmeabfuhr --> 1. höhere Lärmbelastung durch Lüfter, 2. kaum veränderte Akkulaufzeit (benötigen im Verhältnis wenig Saft) und 3. höhere Lebenserwartung der Bauteile

b) bewusst* FALSCH (=dick) aufgetragene Paste wie von Apple vorgegeben: Wärmeabfuhr verstärkt über das Gehäuse --> 1. leiserer Rechner (weniger Lüfterlärm), 2. höhere Akkulaufzeit (CPU throtteld herunter) und 3. geringere Lebenserwartung durch thermische Belastung der Bauteile.

*bewusst: Ich glaube ja noch an einen Zufall, aber zwei: Fehler in Produktion _und_ Serviceanweisung?!

Fazit: Toll. Jetzt kann Apple mal wieder behaupten, trotz "Stangenware" nicht nur das flacheste und schönste Laptop, sondern auf magische Weise auch das leiseste und das mit der längsten Akkulaufzeit zu bauen. Rechtfertigt natürlich sofort einen Mehrpreis, nebenher.

Erinnert mich stark an das, was mir sowieso seit längerem auffällt (je nach Rev. iMac, andere Laptop-Reihen, G5): Design nicht mehr im Einklang mit der Technik, sondern nur noch "Function follows Form" auf Teufel komm 'raus. :-(

die anderen

Von: Hrusty | Datum: 05.05.2006 | #110
AMD, sowie Freescale und IBM geben als TDP die absolut maximale Verlustleistung an.
Kleinere Unterschiede ergeben sich durch die Definition von heranzunehmenden Benchmarks.

Intel allein ist durch die Möglichkeit der Funktion des selbstsändigen Heruntertaktens (bei AMD schaltet sich der rechner nach Angabe von Wartönen aus, ich denke bei den anderen wird es ähnlich sein) bei Überhitzung auf den Trichter gekommen, dies dazu zu verwenden, um die Zahlen zu schönen.
Es macht sich einfach zu gut, wenn der Yonah 34 Watt TDP angegeben hat und der Turion64 45 Watt. In der Praxis liegen sie dann 2-3 Watt auseinander.
Und der Witz an der Sache ist, dass AMD noch nichtmal in 65nm produzieren muss um das zu erreichen. SOI und andere Spezialtechniken von IBM tragen ihren Teil dazu bei....

So langsam klärt sich..

Von: wonko_the_not_so_sane | Datum: 05.05.2006 | #111
...warum hier einige allein aus technischer Sicht mit dem intel-Prozessor nicht so glücklich sind.

Das das throtteln ein Alleinstellungsmerkmal von intel ist, wusste ich gar nicht.

Mich wundert allerdings, dass die intels in Praxistests nicht abstinken. Oder tun sie es, nur überliest man das gern, weil die meisten Benchmarks mit "kalten" Prozzis (damit 100% CPU-Speed) erstellt werden?

Hrusty

Von: H. Richter | Datum: 05.05.2006 | #112
Danke für den Link, in voller Gänze habe ich das Shootout bisher auch noch nicht gelesen. Aus meiner persönlichen Sympathie für AMD heraus freut mich das Ergebnis des Turion, der sonst leider hauptsächlich in billigen Klapperkisten sein Dasein fristen muss.

Was mir dazu spontan durch den Kopf schiesst ist die Frage, wer da nun wirklich regelt. Wenn das Throttling von der CPU käme, dann müsste sich das Macbook als logische Konsequenz ähnlich verhalten. Denkbar ist auf der anderen Seite auch, dass diese Steuerung aus dem BIOS kommt und die dort einprogrammierte Strategie diese 5-Minuten-Throttling-Intervalle hervorruft.
Leider fand ich die Antwort bei Tom nicht.

Noch ein paar Anmerkungen zu den guten alten Zeiten (s. wonko): Die aktuellen Notebook- und Desktop-Prozessoren laufen hinsichtlich der Leistung und auch der Fertigungsprozesse allesamt am Anschlag des jeweils technisch beherrschbaren. Die Reifezeit, die früher den Prozessoren zugestanden wurde, ist aufgrund des knallharten Konkurrenzkampfes zwischen hauptsächlich Intel und AMD auf der Strecke geblieben, ebenso wie das Gros der RISC-Prozessoren. Vor 10 Jahren noch waren Begriffe wie "Alpha", "SPARC" oder "MIPS" noch Schlagworte, die ein ehrfürchtiges Raunen hervorriefen. *seufz* So ein stückweit kann ich Kais Ärger nachvollziehen, dass Apple auch noch "quasi" den letzten Mohikaner der RISC-Prozessoren aus dem Desktop/Workstation-Markt gerissen hat (*1).

Ehe hier wieder ein Flamewar aufkommt, stoppe ich mal mit meinem Nostalgiegelaber.

(*1) Disclaimer: reine subjektive Beobachtung ohne eine Wertung implizieren zu wollen

@wonko

Von: klapauzius | Datum: 05.05.2006 | #113
"Mich wundert allerdings, dass die intels in Praxistests nicht abstinken"

Auch hier kann man nur wieder auf den Test der c't Mac Mini Core Solo - Mac Mini G4 hinweisen.

Apple hat reagiert

Von: klapauzius | Datum: 05.05.2006 | #114
Von daringfireball:

"After a Something Awful denizen took apart his MacBook Pro and discovered that Apple had slathered on far too much thermal grease, he found that using a more modest amount dropped his MacBook Pro’s temperatures by several degrees. Now the forum has recieved a threatening letter from Apple’s legal staff, requesting a link to this image [pictured above] be removed because “The Service Source manual for the MacBook Pro is Apple’s intellectual property and is protected by U.S. copyright law"

Na wenigstens das funktioniert noch bei Apple.

Muss man nix mehr zu sagen.

Auch hier

Von: Vorname | Datum: 05.05.2006 | #115
"Auch hier kann man nur wieder auf den Test der c't Mac Mini Core Solo - Mac Mini G4 hinweisen."

Auch hier kann ich nur sagen, dass das mal wieder das typischen PPC-FanBoy gelabere ist. Noch nie an einem Intel-Mac gesessen aber schön rumerzählen. c't hat nur wenig getestet und kommt Zeit, kommt Intel-Optimierung. So ist das ;-)

anderes thema....

Von: namepower | Datum: 05.05.2006 | #116
da von kai wahrscheinlich dazu kein tolles artikel kommen wird...

und für alle intel basher, mal was anderes -> [Link]

Cell yields 'horrible', sources claim

Stimmt...

Von: Vorame | Datum: 05.05.2006 | #117
die Meldung sollte man nicht unter den Tisch kehren ;-) Wäre es irgendeine negative Intel-Schlagzeile, würde vermutlich schon längst ein Artikel auf MG stehen und die Kommentare wären bei mind. 100 angelangt.

bekannt

Von: Hrusty | Datum: 06.05.2006 | #118
die Meldung ist bekannt, auch wenn es für EUch eine Freude ist, ist MG in erster Linie dafür bekannt, Meldungen auch mit Hintergründen zu unterbauen. Für einfache News kann man auf mtn gehen (die Kommentare dann besser nicht lesen!), für die ist bei Intel jetzt alles interessant (2-4 Intel Meldungen pro tag), möchte mal wissen was das alles mit mac zu tun hat. Aber die haben jetzt steten Zulauf gehabt, und so wird dann der Mob bei der Stange gehalten.
zurück zu den MG, die Frage ist doch wo liegen die Gründe für den geringen Yield.
Zum einen ist der Cell ein neuer prozessor, dh man besitzt Null Erfahrung mit Vorgängern, zum anderen ist auch nicht kundgetan welchem Prozess gefertigt wird: 90 / 65 / 43 ??
Vielleicht klappt ja 65nm und SOI noch nicht richtig?

hey hrusty...

Von: namepower | Datum: 06.05.2006 | #119
willst du hier redakteur hier werden oder warum sehe ich so eine lange schleimspur? hauptsache intel bashing ist ok und bei erst bester gelegenheit wird der cell als die alternative von unseren experten hier gebracht.

Von: Hrusty | Datum: 06.05.2006 | #120
redakteur will ich nicht werden, aber ich wollte der sein der Deinem polemischen IBM-Dissing etwas erwidert.
Der Cell war und ist keine Aternative, würde sich aber als Co-Prozessor gut anstellen.

@Hrusty

Von: H. Richter | Datum: 06.05.2006 | #121
Nana, Du weisst doch sicher noch, was für ein Reizthema alles, was auch nur im entferntesten an den PPC angelehnt ist, im hiesigen Kommentarfluss ist. :-)

Spass beiseite, schon damals beim G5 wurden IBM massive Fertigungsprobleme nachgesagt, deren Gehalt meines Wissens nach nie nachgewiesen wurde (Stichhaltige Gegenaussagen nehme ich gern an).

Nur so ein Einwurf: Der Tricore-Prozessor ("3xPPC970 light") für die XBox360 kommt auch von IBM und liegt von der Komplexität her in ähnlichen Gefilden, wenngleich auch mit weniger Taktrate als es Sony gern hätte. Hitzeprobleme werden latürnich auch der XBox nachgesagt, das möchte ich gar nicht in Abrede stellen.

Cell als Coprozessor: Hmm, ja wieso eigentlich nicht? Hinreissend für den Nerd ist so ein Teil auf jeden Fall *habenwill*. Nur kann der Nerd sich genauso eine Playstation (wenn sie denn raus ist) mit Linux-Kit ziehen.

Spinnen wir den Gedanken mal weiter: OK, der CELL ist mit seinen SPEs primär als Coprozessoren für Datenstreaming im A/V- und Physiksimulationsbereich entworfen worden. So weit, so gut.

Nun erwächst diesem CELL allerdings aus anderen Gefilden stetig Konkurrenz. Wenn man sich einmal betrachtet, wohin der Kampf zwischen ATI und NVidia geführt hat, dann stehen heute Grafikkarten in den Startlöchern, die massiv parallele, vollständig (lies: mit vielen Befehlen, Schleifenoperationen usw.) programmierbare Rechenwerke anbieten.

Noch mag der CELL die Nase mehr oder minder deutlich vorn haben (sonst wäre die Investition von Sony auch sinnlos) aber wie lange noch ?

H.Richter

Von: Hrusty | Datum: 06.05.2006 | #122
muss gestehen, dass ich nur recht geringe Kenntnisse über Einsatzgebiete vom Cell weiß.
Die Frage ist: ist der Cell Sonys Prozessor für die nächsten 5 jahre? Oder wird er stetig weiterentwickelt und löst in 2-3 Jahren den jetzigen ab.
Ich vermute mal ersteres.
Das bedeutet natürlich, dass die GPU´s dem Cell in einigen Jahren den Rang ablaufen können.
Deutlich ist, dass mit PowerPC sehr viel möglich ist, vermutlich mehr als mit x86. Der Knackpunkt ist der fehende Einsatz in Desktops in zukunft und dadurch ein Mangel an Renomee.
IBM entwickelt nicht ins Blaue irgendwelche CPU´s für Phantasieabnehmer. Darum ist IBM darauf bedacht, dass sich der Zukünftige Abnehmer an der Entwicklung beteiligt. Vermutlich ist dann der Stückpreis geringer.
Jetzt bei Intel sind die Preise sehr hoch, aber die User zahlen es ja. Sogar die Mörderpreise für G4 Rechner in 2005 (mini, ibook u Powerbook) wurden bezahlt.....

Hrusty

Von: H. Richter | Datum: 06.05.2006 | #123
Ob der PPC im CELL im Gesamtkonzept eine soooo große Rolle spielt, lasse ich einmal dahingestellt.

IBM hat alle Rechte am Prozessor, das nötige Know-How um aus bestehenden Designs passende Spielarten abzuleiten und die Verwendung des PPC als "zentralem Verteiler" ist die logische Konsequenz. Entwickler für Spielekonsolen bringen häufig das nötige Wissen mit, um die Maschine notfalls auch mit Lowlevel-Code an das Limit der Peak-Leistung zu fahren.

Nun zum Thema, was den CELL ausmacht, die voneinander unabhängig programmierbaren Vektorrecheneinheiten. Diese sind VMX (Altivec) nicht unähnlich, jedoch breiter ausgelegt und für die autonome Verarbeitung mit Schleifen- und Verzweigungsfunktionen ausgestattet. (Mehr Details dazu gibt es bei Arstechnica, wie immer sehr lesenswert)

Was unterscheidet nun die Herangehensweise an den CELL von der bekannten Programmierung? (und warum sind einige Programmierer auch gefrustet) "Normal, üblicherweise" kann man Vektorcode recht simpel in Programmschleifen mit einbinden. Bestehender Code wird schlichtweg ergänzt oder ersetzt und schon geht je nach Problemstellung die Post ab. Nochmal ein Hinweis: Vektorcode ist -egal ob mit Intrinsics oder nicht ausgedrückt- ASM und ASM ist aufwändig, macht Ärger wenn sich im Nachhinein Datenstrukturen ändern usw. Laut nach viel Altivec (oder jetzt mit Intel SSE) zu verlangen, kostet viel Enthusiasmus oder für Firmen viel Geld.

Was hat das mit CELL zu tun? Ja doch, ich beeile mich ja schon. Beim CELL sind diese Vektoreinheiten wie gesagt autonom, d.h. man muss nicht nur Code überarbeiten wie im obigen Beispiel, sondern um die Anbindung der externen Einheiten herum Konzepte entwerfen. Die Aufgabe besteht darin, nicht nur das passende Programm für die SPE zu entwerfen (kleinster Teil der Arbeit), sondern den Datenfluss in seiner Applikation komplett überdenken. Die SPEs werden praktisch per DMA mit Eingangsdaten gefüttert und liefern das Ergebnis auf gleichem Weg zurück. Der Schlüssel zu Performance steht in der Balance zwischen Größe der Arbeitseinheit und transferiertem Speichervolumen. Dies ist dem Cluster-Computing gar nicht unähnlich. Wenn die Arbeitseinheit gegenüber der über den Draht gepumpten Datenmenge zu klein wird, macht der Overhead den Gewinn kaputt.

Die SPEs im CELL sind demnach kein magischer Garant für stellare Performance, sondern auf bestimmte Probleme zugeschnitten. Numbercrunching? Super! Hochqualitative Signalfilterung? Perfekt! Beschleunigung von Bildverarbeitung/Transformation in MPEG/WMV/H.264? Logisch! Raytracing? Gestern Fertig! H.264 Bitstromparsing? No Way :-(

So! Vor lauter Geschwafel ist mir nun die Kristallkugel runtergefallen. Zum zweiten Teil Deiner Frage kann ich nun nichts mehr beitragen. IBM hat eine langfristige Strategie mit dem CELL bekundet und ich habe vorerst keinen Grund, daran zu zweifeln.

Ich könnte mir z.B. vorstellen, den CELL auf 65nm zu shrinken, auf 500MHz zu untertakten, auf 2 oder auch 4 SPE zu begrenzen und als energieeffizienten Killerprozessor für Heimkinoanwendungen zu verkaufen. (reine Spekulation ins Blaue, versteht sich)

Das Neue an CELL ist viel mehr

Von: klapauzius | Datum: 08.05.2006 | #124
IBM hat erkannt (und statistisch nachgewiesen), dass die irrsinnig komplexe Logik, die hinter solchen Buzzwords wie Branch predicition oder spekulative AUsführung steckt letzten Endes nix bringt. Das heisst man hat irgendwelche suuper Sachen auf dem Prozessor, die berechnen was der Chip jetzt machen könnte, wenn irgendwas wäre und das dann auch tun aber letzten Endes wird das meiste davon dann wieder weggeworfen, weil's halt doch nicht so war.

Und da ist der CELL ein neuer, durchaus revolutionärer Ansatz: Man verzichtet auf diesen ganzen Klump (den Intel übrigens noch mit rumschleppt) und hat anstatt dessen einen relativ einfachen Core und die SPU's. Das heisst der Entwickler muss wieder mehr denken und enwickeln (wobei es für die meisten Sachen schon jetzt fertige Bibliotheken gibt), dafür werden die vorhandenen Resourcen dann aber auch wirklich genutzt.

Und noch ein Lünk nur für Euch Schnuckels

Von: klapauzius | Datum: 08.05.2006 | #125
[Link]

Richtig, aber "revolutionär" ?

Von: H. Richter | Datum: 08.05.2006 | #126
Ich sperre mich immer ein wenig gegen solche Buzzwords. Im Grunde machen verschiedene DSPs (bzw. ASIPs) sowas heute auch schon.

Der CELL schwimmt als alternativer Ansatz auf der Welle des innerhalb einer Maschine verteilten Rechnens mit. Dessen spannende Vorteile sind ja nun schon aufgezählt worden.

Der Nachteil im CELL besteht in meinen Augen darin, dass die SPUs nicht für jedes Problem eine effiziente Lösung bieten. Man kann natürlich gegenargumentieren, dass bisherige Prozessoren dies auch nicht tun.

Zur kleinlauten Ehrenrettung der von Dir wenig geschätzten Maßnahmen aktueller CPUs möchte ich nur hinzufügen, dass der Markt diese (wenn vielleicht auch kleinen) Fortschritte im durchschnittlichen IPC schlichtweg verlangt hat.

Ich halte Ansätze wie [Link] für mindestens genauso vielversprechend wie den CELL.

Warum? Adaptive Algorithmen in SIMD-Logik erfordern, alle möglichen Rechenpfade durchzurechnen, da prinzipiell für jedes Element im Vektorregister eine andere Rechenvorschrift resultiert. Viele kleine General Purpose-Rechenkerne anstelle massiv paralleler Gleichschaltung haben in solch einem Szenario bei sonst gleichen Randbedingungen pi mal Daumen die Nase vorn.

Was ich damit zum Ausdruck bringen möchte ist schlichtweg: Das richtige Werkzeug für den jeweiligen Anwendungsfall.

Nein

Von: klapauzius | Datum: 08.05.2006 | #127
Der Flaschenhals heute ist nicht das "Rechnen", sondern der Speicherzugriff.

Sollte bei Taktraten von über 3 GHz auch einleuchtend sein.

Darum geht's beim CELL.

Cell...

Von: Kai (MacGuardians) | Datum: 08.05.2006 | #128
Auch ich halte Cell -wunder was- für den besseren Ansatz. Statt Transistoren auf den Eigenintelligenz-Wasserkopf (oder Cache, wie Intel) zu verschwenden werden sie in Ressourcen verwendet, die auch wirklich MEHR RECHNEN können!
All das (Cache, Speculative Execution, Branch Prediction, OOOE) wird NUR gemacht um den Speicherzugriff, den großen Flaschenhals, zu kompensieren.
Cell geht nen anderen Weg, der Speicherzugriff ist hier natürlich auch ein Problem, aber IBM geht das anders an: Durch EXTREM dicke Speicherbusse mit sehr sehr niedriger Latenz und ein DMA, das das PPE managt, gesteuert (und das ist der wichtige Teil) vom COMPILER!
Die ursprüngliche RISC-Idee, die Intelligenz von der Hardware in den Compiler zu legen (neu inszeniert von Intel mit der Itanic!) war schon nicht schlecht. Wenn man sich das objektiv betrachtet ist es VOLLKOMMEN bescheuert, was General-Purpose-CPUs heute machen: SUPERKOMPLEXE Compiler mit massiver Eigenintelligenz erzeugen Code, der so optimiert ist, damit die CPU, die selber glaubt, dass sie schlauer ist als der Code den sie ausführt, nicht über ihre eigenen Beine, ihre eigene "Intelligenz" stolpert! Weil sie eben doch nicht WIRKLICH schlau ist!
Das ist doch bescheuert! Die CPU glaubt, dass sie schlauer ist als der Code und der Compiler glaubt wiederum, dass er schlauer ist als die CPU - vom selben Hersteller!
Das ist doch echter Schwachsinn wenn man sich's mal vor Augen führt!
Die Compiler SIND heute so gut und schlau, wie sie eigentlich zur Blütezeit von RISC hätten sein sollen!
Itanic HÄTTE funktionieren können, wenn Intel dem Ding von Anfang an einen integrierten Speichercontroller und ne superdicke Speicheranbindung gegeben hätte. Denn wenn auf Daten gewartet wird macht die Itanic GAR nix, weil sie keine Speculative Execution und kein OOOE kann!
Intel erschlägt das Problem mit Cache, aber durch Cache kann man nur Flaschenhälse kaschieren und die Architektur nicht wirklich verbessern, man kann nur VERLORENGEGANGENE Effizienz teilweise zurückbekommen!
Jetzt soll die Itanic mit IMC 2007 kommen mit Tukwila. Dass das die Itanic noch retten kann glaubt noch nichtmal Intel selbst!

Der Compiler erzeugt zu 100% den Code SPEZIELL FÜR eine CPU. Der Macher der CPU ist derselbe, der den Compiler baut. Bitte WARUM sollte da die CPU noch Eigenintelligenz brauchen? Das braucht es NUR, wirklich NUR bei x86, wo zig unterschiedliche Compiler und Chips in Verwendung sind!

Cell bietet wirklich potentielle Rechenpower ohne Ende, es geht wirklich nur darum, ob und wie man diese auch nutzen kann. Wenn -grosses Wenn- IBM die Compiler und Tools hat um die Cell auszufahren wird das Ding rocken. Und ich denke mal die Tools haben sie oder sind zumindest zuversichtlich, dass sie das hinbekommen, sonst würden sie nicht quasi die ganze Chip-Zukunft von IBM auf Cell und VMX verwetten! ;-)

Cell & Compiler:

Von: Kai (MacGuardians) | Datum: 08.05.2006 | #129
Den Link wollt ich noch einbauen, ganz vergessen:
[Link]

"It isn't easy to write code for Cell, with its central processing core and eight accompanying special-purpose engines. Octopiler, which IBM Research plans to outline at a tutorial next month, aims to change all that. The software development tool converts a single, human-written program into several different programs that run simultaneously on Cell's various cores."

Interessanterweise ist ein PPC970 aka G5 auch ein mögliches Target des Octopilers! ;-)

@ klapauzius

Von: johngo | Datum: 09.05.2006 | #130
" ... Und da ist der CELL ein neuer, durchaus revolutionärer Ansatz: Man verzichtet auf diesen ganzen Klump (den Intel übrigens noch mit rumschleppt) und hat anstatt dessen einen relativ einfachen Core und die SPU's. ..."

Für mich - als Prozesor-Laien - klingt
das nicht sonderlich logisch, das IBM/
der Cell hier einen entscheidenenden Vorteil
hat. Wenn der Cell-Weg irgendwann der richtige
wäre und Intel in eine Sackgasse laufen würde,
dann lässt Intel einfach "den ganzen
Klump" weg und gut ist. Also ist die
strategische Ausrichtung von Intel doch
auch nicht so schlecht, denn weglassen
dürfte - technisch gesehen - das geringere
Problem sein.

Gruss


johngo

Johngo:

Von: Kai (MacGuardians) | Datum: 10.05.2006 | #131
"Für mich - als Prozesor-Laien - klingt
das nicht sonderlich logisch, das IBM/
der Cell hier einen entscheidenenden Vorteil
hat. Wenn der Cell-Weg irgendwann der richtige
wäre und Intel in eine Sackgasse laufen würde,
dann lässt Intel einfach "den ganzen
Klump" weg und gut ist. Also ist die
strategische Ausrichtung von Intel doch
auch nicht so schlecht, denn weglassen
dürfte - technisch gesehen - das geringere
Problem sein."

Das ist sehr wohl ein Problem, denn dadurch änderst ja du nicht den Code, der in Umlauf ist!
Wenn du "den Klump" weglässt performt ein Core Duo plötzlich bloss noch wie ein 486!

Ich erinnere an die Einführung des Pentium 4s: Intel hat nur EIN KLEIN WENIG geändert (der bisher nach Intel-Empfehlung extensiv genutzte schnelle Barrelshifter war nun z.B. weg! Auch die x87-Leistung des P4 war scheisse, ohne SSE kann das Ding halt nix!) und zack, schon lief bestehender Code scheisse! Es dauerte ne gute Zeit bis genügend mit den neuen Compilern erzeugter Code in Umlauf war dass der P4 wirklich merkbar schneller war als deutlich langsamer getaktete Athlons und P3s!

"Legacy" kann eben eine echte Crux sein. Das Problem haben Konsolen-Macher nur begrenzt, d.h. nur wenn sie die Spiele der Vorgängerkonsole abspielen wollen. Und zur Not wird statt mühsam die Legacy-Unterstützung in die CPU zu integrieren die Hardware für die Vorgängerkonsole halt extra irgendwo mit integriert, bei der PS2 steckt die PSX-Hardware im I/O Chip!
Intel kann den ganzen Klump genausowenig loswerden wie x86, PS/2, COM, LPT & Co, was sie schon seit Mitte/Ende der 90er eigentlich gerne totsehen würden... Siehe Itanic, Intel WOLLTE dass die Architektur die Nachfolgearchitektur für x86 wird! Wurde aber leider nix draus, klassischer Fall von "die Geister, die ich rief..."
Im übrigen hat IBM für Cell ja nicht einfach nur "den Klump weggelassen", sie haben das Ding von Anfang an so designt, dass es auf das neue Paradigma ausgelegt ist: Extrem breite Busse, niedrige Latenzzeiten (RDRAM!), der ganze Aufbau der Cell überhaupt! Das PPE wacht über die SPEs und managt deren Speicherzugriffe, allein das ist schon was VÖLLIG anderes als bei herkömmlichen Chips!
Man kann ja auch nicht einfach Cache durch Execution Hardware ersetzen, so leicht ist das nun mal einfach nicht mit dem CPU-Design!

Was Intel machen MÜSSTE ist, den Großteil des Codes, der in Umlauf ist schon für solche CPUs vorzubereiten lange vor der Einführung der CPUs selbst. Da Code aber vollkommen anders kompiliert werden muss würde der Code dann extrem scheisse auf BESTEHENDEN CPUs laufen, sie bräuchten für so nen Wechsel also ne Art fat binary!

@ kai

Von: johngo | Datum: 10.05.2006 | #132
Ich sehe das mehr (zugegebener-
massen als Laie) fertigungstechnisch.

Wenn ich die Quintensenz der aktuellen
Berichte über Prozessorentwicklung
nehme, dann ist im Moment der goldene
Weg die Schrumpfung in den Fertigungs-
prozessen (nm's) und dadurch die parallele
Steigerung der Ausbeute mit vielen Cores.

Sollte nun dieser Weg durch hoch-
effiziente neue Prozessorarchitekturen
(bzw. durch gute Marktanteile der alternativen
Systeme) gefährdet sein, dann würde das,
was Du als Argument und Problem der alten
kompatiblen Intel-Prozessorbasis definierst
so ja gar nicht existieren.

Wie gesagt: die Sichtweise ist rein
marktbezogen. Akzeptiert also der Kunde
die Inkompatiblität, dann könnte Intel
schnell reagieren, weil sie zwar viel
Geld für neue Architekturen ausgeben müssen,
aber andererseits die Fertigungsvorteile
der nächsten paar Prozessorauslieferungen
automatisch mitnehmen.

Soll heissen: die Hürde "kostengünstig"
(sagen wir mal) 8 Cores in einen Chip zu
implementieren ist technisch grösser, als
einen grundsätzlich neuen Chip zu bauen.
Verlangt der Amrkt nach "neuen" Chips,
dann baut man die eben. Verlangt er nicht
danach, dann konzentriert man sich auch
weiterhin auf die perfekte Ausbeute der
bestehenden Prozesse.

Gruss

@kai, johngo

Von: H. Richter | Datum: 11.05.2006 | #133
Wozu doch manchmal ein "toter Thread" gut ist.

Aus den letzten Beiträgen kommt ganz gut heraus, wo das wahre Problem in der Weiterentwicklung der Rechentechnik liegt. Auf der einen Seite haben wir neue Konzepte, die für ihre primären Anwendungsfälle brachiale Leistung liefern und auf der anderen Seite die Forderung nach Kontinuität. Letzteres läuft bekanntlich auf die suboptimale Politik der kleinen Schritte hinaus. Anders ausgedrückt: Die heilige Leitkuh der Kompatibilität fällt Intel im Hardwarebereich und M$ auf der Softwareseite momentan gehörig auf die Füße.

Vielleicht wäre es eine gute Idee, mal die historischen Gründe zusammenzutragen.

Einige Gedanken dazu als Start (aus Softwaresicht): In den 80er Jahren hat sich niemand im Bereich der Interoperabilität/Flexibilität mit Ruhm bekleckert. Allein schon der Datenaustausch aus Sicht der User war eine blanke Katastrophe (Amiga<->Atari<->Mac<->PC<->Unix), Software-Kompatibilität = NULL, von der Portabilität/Wiederverwendbarkeit auf den Plattformen untereinander ganz zu schweigen.

In diesem Licht hatte ein heterogener Markt von vorn herein NIE eine echte Chance.
Ob man dies jetzt an Details festmacht oder nicht (oder auch gezielte Schuldzuweisungen tätigt), ist in meinen Augen gar nicht so wichtig.

Was schon vor 10-15 Jahren wirklich gefehlt hat, ist ein Hardware-Abstraktionslayer für Recheneinheiten, eine flexible Sprache zur Beschreibung von Operationen, die dann beim Laden des Programmes in den Maschinencode übersetzt werden. (Klar, heute gibt es das mit JAVA und .net CLR, nur etwas zu spät und auch nicht unbedingt flexibel genug)
Solch ein Schritt hätte sowohl RISC gerettet, als auch den VLIW-Prozessoren eine breite Chance eingeräumt.

Meine derzeitigen Hoffnungen in dieser Richtung liegen bei LLVM. Wenn der in absehbarer Zeit einsatzbereit wird, können sowohl die PPCs in den bestehenden Macs über lange Sicht mit Code versorgt, als auch der Schritt von ia32 zu x86-64 ohne viel Aufhebens vollzogen werden.

Gegenüber den technisch machbaren Möglichkeiten sind das bescheidene Wünsche, dafür aber im zeitnahen,realen Bereich.

Ich finde es interessant, das in letzter Zeit ...

Von: johngo | Datum: 14.05.2006 | #134
... die Vorteile der "brachialen" Gewalt
(vor allem diejenige in Spezialbereichen,
wie AltiVec) immer stärker betont werden,
wo sie doch eher unwichtiger werden.

Wenn z. B. ein AltiVec-Photosho-Filter
mir Heute eine verdoppelte Filterge-
schwindigkeit von 2 anstatt 4 Sekunden
ermöglicht, dann gewinne ich dadurch nur
2 Sekunden.

Vor 10 Jahren brachten mir Speziallösungen
(z. B. zusätzliche Prozessorkarten) mal
schnell anstatt einer Stunde deren eine
habel Stunde ein. Der Gewinn war "spürbar".

Deshalb muss man Heute - zumindest
bei persönlichen Workstations - ganz
anders argumentieren. Denn die ange-
sprochene Kompatiblität und Kontinuität
generiert mir schneller mal einen Vorteil
von einer Stunde, als das ein AltiVec
aktuell dies überhaupt so kann.

Natürlich kann das hier gesagte in
Spezialfällen auch einmal überhaupt nicht
zutreffen. Es ist jedoch eher die Regel
und deshalb imho sehr relevant für
die weiteren Entwicklungen.