Mal was aus der Praxis

Manchmal finde ich es dann doch erstaunlich, wie wenig Ahnung manche Leute der Blogosphäre ausserhalb ihres Fachgebietes von der praktischen Seite der IT haben: Schönes Beispiel ist hier Fefe:

Die RAM-Hersteller (wahrscheinlich nur die chinesischen, nehme ich mal an) lassen ihre RAMs durch die Qualitätsprüfung fahren, und die RAMs, die das überstehen, die gehen in den Export nach Amerika und Europa, und die anderen verscheuern sie dann billig in den Schwellenländern, wo die Leute sich die Export Grade RAMs nicht leisten könnten. Und wenn ihr das hört, dann denkt mal darüber nach, dass RAMs ja auch in embedded Computern drin ist, wie sie aus China kommen. Man muß da gar nicht über medizinische Geräte oder Reaktorsteuerungen nachdenken, um ein schlechtes Gefühl zu kriegen.

Also, Fefe … das nennt sich Yield Management und das macht jeder. Nicht nur der Chinese. Oder meinst Du, irgendjemand wirft 90% des Wafers weg, weil die Dies nicht perfekt sind? Schönes Beispiel … Prozessoren. Es werden da eigentlich nur die Topprozessoren gefertigt. Das Dumme ist nur: Chipfertigung dauert lange (mehrere Wochen von Waferstart bis Ende), es gibt Fertigungstoleranzen, unterschiedliche Kontaminationen in der Umgebung und das heisst soviel wie. Alle Dies haben eine leicht unterschiedliche Qualität. Alles was den Topqualität nicht besteht, wird einfach dann eingestuft in eine andere Qualitätsstufe. Wird im Volksmund auch Taktung genannt. Wo nen Core kaputt ist … wird ein TripleCore draus. Für die Leute auch in den Industrieländern, die sich keinen Topprozessore leisten können. Das schöne ist: So kann man mehr vom Wafer verkaufen und hat ein abgestuftes Preismodell. Die nicht ganz so guten Cores zahlen den Wafer, die guten Cores den Gewinn. Interessanterweise gilt: Je ausgereifter ein Prozess wird, desto weniger Schraddel produziert man. So passiert es oft, das man nicht genügend Schraddel hat, um den Markt zu decken. Was macht man also, man stuft eigentlich bessere Komponenten herunter, um den Bedarf zu bedienen. Bei CPUs und Speicher wird das dann oft als Übertaktungspotenzial genannt, ist aber aber eine Konsequenz aus dem Yield Management. Es ist also wahrscheinlich, bessere Qualität zu erhalten, als eigentlich gekauft. Im Speicherbereich ist es das selbe: Man bekommt Speicher in “extrem gut, kaum Alterungserscheinungen,nahezu perfekt” über “haelt für normalen Haushaltsgebrauch im PC” bis hin zu “Läuft stabil bei halbiertem Takt”. Letzteres verkauft man dann in Anwendungen wie Embedded, wo die hohen Anforderungen von PC-Speicher nicht gestellt werden und Speicher weit unterhalb von seiner Spezifikation läuft. Klar gibt es da dann immer wieder Leute die noch mal nen Euro oder Yuan sparen wollen, und sich dann über ultrabilligen PC-Speicher freuen, auf dessen Platinen dann irgendeine Hinterhofwerkstatt den Niedrigqualitätsspeicher geloetet hat. Und mal ganz ehrlich: Das was wir üblicherweise in PC hier in Europa als Speicher stecken, ist auch nur der Mittelqualitätsschraddel. Wirkliche Spitzenqualität kostet mehr … sehr viel mehr. Nur das passt nicht mehr ins Preisgefüge eines x86 und oftmals auch nicht in das Preisgefüge eines x86 Servers. Das ist dann eher für Leute, die sich Gedanken darüber machen müssen, das man in einigen Jahren noch Speicher austauschen kann, und der benutzte Speicher nicht soweit aus der Toleranz gelaufen ist, das er mit neuem Speicher nicht mehr laufen kann. Ich denke nicht, das man da verwundert tun muss. Das ist Business-as-usual.