AMD auf dem Weg zum Earnings-Crossover mit Intel (Seite 2665)
eröffnet am 21.04.06 19:39:20 von
neuester Beitrag 26.03.24 12:10:10 von
neuester Beitrag 26.03.24 12:10:10 von
Beiträge: 30.441
ID: 1.055.324
ID: 1.055.324
Aufrufe heute: 13
Gesamt: 2.789.572
Gesamt: 2.789.572
Aktive User: 0
ISIN: US0079031078 · WKN: 863186 · Symbol: AMD
144,50
EUR
-0,82 %
-1,20 EUR
Letzter Kurs 12:11:51 Tradegate
Neuigkeiten
07:30 Uhr · wallstreetONLINE Redaktion |
Advanced Micro Devices Aktien ab 5,80 Euro handeln - Ohne versteckte Kosten!Anzeige |
18.04.24 · Der Aktionär TV |
18.04.24 · Thomas Heydrich |
17.04.24 · dpa-AFX |
Werte aus der Branche Halbleiter
Wertpapier | Kurs | Perf. % |
---|---|---|
4.005,00 | +300,50 | |
23,600 | +12,38 | |
440,10 | +12,00 | |
33,95 | +11,09 | |
26,48 | +10,01 |
Wertpapier | Kurs | Perf. % |
---|---|---|
40,60 | -10,57 | |
0,5374 | -13,00 | |
6,3200 | -23,75 | |
5,8900 | -35,94 | |
0,5530 | -38,56 |
Beitrag zu dieser Diskussion schreiben
Antwort auf Beitrag Nr.: 25.591.216 von BavarianRealist am 22.11.06 14:49:31@"mid-2008"
Zumindest heise newsticker (egal, wovon die abschreiben) ist der gleichen Meinung: http://www.heise.de/newsticker/meldung/81427
"Unterdessen spekuliert man bereits über Intels Pläne für einen Yorkfield-Nachfolger, der 2008 erscheinen dürfte und angeblich Bloomfield heißen könnte ..."
Zumindest heise newsticker (egal, wovon die abschreiben) ist der gleichen Meinung: http://www.heise.de/newsticker/meldung/81427
"Unterdessen spekuliert man bereits über Intels Pläne für einen Yorkfield-Nachfolger, der 2008 erscheinen dürfte und angeblich Bloomfield heißen könnte ..."
@Dell-Zahlen:
Erstaunlich bei Dells Zahlen ist der unerwartet hohe Überschuss.
Überlegung: könnte es gar sein, dass AMD Dell damit geködert haben könnte, dass sie besonders anfangs superbillige CPUs erhalten, mit denen sie kurzfristig (eben zu Ende Q3) ihre Kosten überproportional senken konnten, sodass Dell mit jedem verkauften AMD-Rechner super Überschüsse machen konnte, damit unerwartet hohe Gewinne machen konnte und in Folge dessen den Investoren den Eindruck geben könnte, dass die Aufnahme von AMD-CPUs der Schlüssel zum ZUKÜNFTIGEN Erfolg sei...
...aber AMD hätte das die Erlöse künstlich gesenkt und damit die Gross-margin verhagelt...
Würde irgendwie zusammen passen, oder?
Erstaunlich bei Dells Zahlen ist der unerwartet hohe Überschuss.
Überlegung: könnte es gar sein, dass AMD Dell damit geködert haben könnte, dass sie besonders anfangs superbillige CPUs erhalten, mit denen sie kurzfristig (eben zu Ende Q3) ihre Kosten überproportional senken konnten, sodass Dell mit jedem verkauften AMD-Rechner super Überschüsse machen konnte, damit unerwartet hohe Gewinne machen konnte und in Folge dessen den Investoren den Eindruck geben könnte, dass die Aufnahme von AMD-CPUs der Schlüssel zum ZUKÜNFTIGEN Erfolg sei...
...aber AMD hätte das die Erlöse künstlich gesenkt und damit die Gross-margin verhagelt...
Würde irgendwie zusammen passen, oder?
Antwort auf Beitrag Nr.: 25.591.340 von Wörns am 22.11.06 14:56:25@Wörns: "...Das Argument, Intel hat wegen seiner großen Caches weniger davon, kann man so nicht gelten lassen. Schließlich kann Intel dann auch weniger Cache und dafür mehr Cores in der CPU unterbringen. Intel wird das machen, was Performance bringt, bzw. sich wirtschaftlich rechnet..."
Na, hoppla
Das Argument "Intel hat wegen seiner großen Caches weniger davon" scheint gar noch mehr zu treffen: entweder Intel opfert Cache, was Performance kostet, oder Intels Dice vergrößern sich zusätzlich.
Behält Intel seine großen L2-Caches bei, dürften sie weniger von der besseren Ram-Anbindung profitieren, deren Diesizes wachsen und die Energie-Aufnahme steigt.
Geht Intel den Weg, wie Du ihn vorschlägst (den ich auch als realistisch halte), können sie mit dem Wegfallen eines Teils von ihren großen L2-Caches das Anwachsen des Dies durch die integriertern Controller zwar ausgleichen, aber sie opfern Performance durch das Schrumpfen der L2-Caches (wo aber selbst ohne das Opfern des L2-Teils das Anwachsen der Performance vermutlich vorher schon nicht so groß gewesen wäre, wegen der großen L2-Caches ).
===> was bleibt: die Performance wird womöglich kaum ansteigen.
Na, hoppla
Das Argument "Intel hat wegen seiner großen Caches weniger davon" scheint gar noch mehr zu treffen: entweder Intel opfert Cache, was Performance kostet, oder Intels Dice vergrößern sich zusätzlich.
Behält Intel seine großen L2-Caches bei, dürften sie weniger von der besseren Ram-Anbindung profitieren, deren Diesizes wachsen und die Energie-Aufnahme steigt.
Geht Intel den Weg, wie Du ihn vorschlägst (den ich auch als realistisch halte), können sie mit dem Wegfallen eines Teils von ihren großen L2-Caches das Anwachsen des Dies durch die integriertern Controller zwar ausgleichen, aber sie opfern Performance durch das Schrumpfen der L2-Caches (wo aber selbst ohne das Opfern des L2-Teils das Anwachsen der Performance vermutlich vorher schon nicht so groß gewesen wäre, wegen der großen L2-Caches ).
===> was bleibt: die Performance wird womöglich kaum ansteigen.
heise.de
US-Verteidigungsministerium finanziert Petaflop-Projekte von IBM und Cray
Mit jeweils etwa 250 Millionen Dollar greift des Pentagon, genauer gesagt dessen Forschungseinrichtung DARPA (Defense Advanced Research Projects Agency), den beiden ausgewählten Supercomputer-Firmen IBM und Cray unter die Arme. Beide Firmen stellen derzeit auch die Top-Rechner in der aktuellen Top500-Liste, was möglicherweise mit ein Kriterium für die Auswahl war. Andere US-Kandidaten wie Sun und SGI/Intel haben das Nachsehen.
Zielvorstellung für diese Förderphase III ist die Entwicklung von Supercomputern mit zwei bis über vier PetaFlop/s-Rechenleistung bis zum Jahr 2010. Sie sollen für komplexe "Real-World"-Applikationen ausgelegt sein – nicht nur für militärische Anwendungen, sondern auch für die Industrie und die Wissenschaft.
In der DARPA-Mitteilung zur Auftragsvergabe wird bei IBM dezidiert die Power-7-Architektur angesprochen, also weder Blue Gene noch Cell erwähnt. Bei Cray wird das Cascade-Programm genannt, das die Idee des Adaptive Supercomputing verwirklichen soll. Hierbei sucht der Rechner automatisch die für die Applikationen bestgeeignete Rechnerarchitektur (Skalar: Opteron, Vektor: Cray Threadstorm) aus und optimiert die Topologie des Systems. Als erster Vertreter in dieser Hybrid-Technik soll im kommenden Jahr der Cray XMT erscheinen.
Die DARPA-Auswahl ist auch ein großer Erfolg für AMD gegenüber Intel, denn das Cray-Konzept baut auf AMDs OpenSocket-Initiative Torrenza auf. Und auch für IBMs noch sehr nebulösen "Manycore"-Prozessor Power-7 ist Torrenza im Gespräch. Vielleicht gibt es ja sogar Ideen, die Prozessoren in den Systemen austauschen zu können.
Amerikanische Medien sehen in der DAPRA-Entscheidung schon einen Richtungsschwenk für die Robert-Gates-Ära nach dem Rücktritt von Donald Rumsfeld, der, obschon offiziell noch als US-Verteidigungsminister im Amt, nicht mehr in Erscheinung tritt. Sein DARPA-Statthalter Anthony J. Tether hat sich weniger um die Weiterentwicklung der Computertechnik gekümmert und den mit etwa drei Millarden Dollar vergleichsweise kleinen Etat der Forschungsabteilung lieber für andere Aufgaben verwendet. Doch Tethers DAPRA-Tage scheinen gezählt, man erwartet eine baldige Ablösung des engen Vertrauten von Rumsfeld. (as/c't)
US-Verteidigungsministerium finanziert Petaflop-Projekte von IBM und Cray
Mit jeweils etwa 250 Millionen Dollar greift des Pentagon, genauer gesagt dessen Forschungseinrichtung DARPA (Defense Advanced Research Projects Agency), den beiden ausgewählten Supercomputer-Firmen IBM und Cray unter die Arme. Beide Firmen stellen derzeit auch die Top-Rechner in der aktuellen Top500-Liste, was möglicherweise mit ein Kriterium für die Auswahl war. Andere US-Kandidaten wie Sun und SGI/Intel haben das Nachsehen.
Zielvorstellung für diese Förderphase III ist die Entwicklung von Supercomputern mit zwei bis über vier PetaFlop/s-Rechenleistung bis zum Jahr 2010. Sie sollen für komplexe "Real-World"-Applikationen ausgelegt sein – nicht nur für militärische Anwendungen, sondern auch für die Industrie und die Wissenschaft.
In der DARPA-Mitteilung zur Auftragsvergabe wird bei IBM dezidiert die Power-7-Architektur angesprochen, also weder Blue Gene noch Cell erwähnt. Bei Cray wird das Cascade-Programm genannt, das die Idee des Adaptive Supercomputing verwirklichen soll. Hierbei sucht der Rechner automatisch die für die Applikationen bestgeeignete Rechnerarchitektur (Skalar: Opteron, Vektor: Cray Threadstorm) aus und optimiert die Topologie des Systems. Als erster Vertreter in dieser Hybrid-Technik soll im kommenden Jahr der Cray XMT erscheinen.
Die DARPA-Auswahl ist auch ein großer Erfolg für AMD gegenüber Intel, denn das Cray-Konzept baut auf AMDs OpenSocket-Initiative Torrenza auf. Und auch für IBMs noch sehr nebulösen "Manycore"-Prozessor Power-7 ist Torrenza im Gespräch. Vielleicht gibt es ja sogar Ideen, die Prozessoren in den Systemen austauschen zu können.
Amerikanische Medien sehen in der DAPRA-Entscheidung schon einen Richtungsschwenk für die Robert-Gates-Ära nach dem Rücktritt von Donald Rumsfeld, der, obschon offiziell noch als US-Verteidigungsminister im Amt, nicht mehr in Erscheinung tritt. Sein DARPA-Statthalter Anthony J. Tether hat sich weniger um die Weiterentwicklung der Computertechnik gekümmert und den mit etwa drei Millarden Dollar vergleichsweise kleinen Etat der Forschungsabteilung lieber für andere Aufgaben verwendet. Doch Tethers DAPRA-Tage scheinen gezählt, man erwartet eine baldige Ablösung des engen Vertrauten von Rumsfeld. (as/c't)
Der integrierte Memorycontroller ist doch unbestritten die bessere Technolfie, allein Intel verdient gutes Geld mit seiner Trennung von CPU und Chipsatz durch den FSB. Je mehr auf der CPU integriert wird, desto geringer ist doch der FAB Bedarf für Chipsätze, die mit älterer Technologie gefertigt werden können. Wenn Intel gezwungen ist, den Memorycontroller auf der CPU zu integrieren, dann tut es das nicht freiwillig.
Das Argument, Intel hat wegen seiner großen Caches weniger davon, kann man so nicht gelten lassen. Schließlich kann Intel dann auch weniger Cache und dafür mehr Cores in der CPU unterbringen. Intel wird das machen, was Performance bringt, bzw. sich wirtschaftlich rechnet.
Was Taktraten anbelagt, denke ich, dass die sich in den kommenden Jahren gar nicht unbedingt erhöhen müssen sondern vielleicht sogar eher sinken. Darüber hinaus glaube ich an eine asymmetrische Verteilung der Taktraten in einer CPU, sofern getrennte Spannungslanes implementiert sind: Ein Häuplingscore für singlethreaded Performanceanwendungen und viele Indianercores quasi als Fußvolk für die Zubringertätigkeiten. Alles schön getrennt in dedizierte Takt- und Spannungslevel. MfG
Das Argument, Intel hat wegen seiner großen Caches weniger davon, kann man so nicht gelten lassen. Schließlich kann Intel dann auch weniger Cache und dafür mehr Cores in der CPU unterbringen. Intel wird das machen, was Performance bringt, bzw. sich wirtschaftlich rechnet.
Was Taktraten anbelagt, denke ich, dass die sich in den kommenden Jahren gar nicht unbedingt erhöhen müssen sondern vielleicht sogar eher sinken. Darüber hinaus glaube ich an eine asymmetrische Verteilung der Taktraten in einer CPU, sofern getrennte Spannungslanes implementiert sind: Ein Häuplingscore für singlethreaded Performanceanwendungen und viele Indianercores quasi als Fußvolk für die Zubringertätigkeiten. Alles schön getrennt in dedizierte Takt- und Spannungslevel. MfG
Ein interessanter Satz aus dem theinquirer-Artikel (http://uk.theinquirer.net/?article=35892) zu dem ersten Intel-Chip mit integriertem Ram-Controller (=Bloomfield):
"...Bloomfield...
....This desktop component will play a key role in mid-2008, when Intel faces a fight against the successors to AMD's Stars line up from Q3'07. Bloomfield is a key product to attack AMD's Fusion CPU as well, currently scheduled for late 2008..."
Will man hier schon wieder AMD schlecht machen? Wie kommen die auf die Idee, dass Bloomfield bereits "mid-2008" kommen soll, aber AMDs erste Fusion-CPUs nicht vor "late 2008"? Hat AMD definitiv von "late 2008" gesprochen? Und wo spricht Intel von "mid 2008" für Bloomfield?
"...Bloomfield...
....This desktop component will play a key role in mid-2008, when Intel faces a fight against the successors to AMD's Stars line up from Q3'07. Bloomfield is a key product to attack AMD's Fusion CPU as well, currently scheduled for late 2008..."
Will man hier schon wieder AMD schlecht machen? Wie kommen die auf die Idee, dass Bloomfield bereits "mid-2008" kommen soll, aber AMDs erste Fusion-CPUs nicht vor "late 2008"? Hat AMD definitiv von "late 2008" gesprochen? Und wo spricht Intel von "mid 2008" für Bloomfield?
@Ram-Kontroller bei Intel:
Nicht nur, dass der Ram-Kontroller zusätzliche Energie verbraucht, welche bei AMD in den heutigen Werten schon enthalten ist, könnte AMD vom Umstieg Intels auf Plattformen mit integriertem Kontroller womöglich gar profitieren: nicht nur das Intel damit bestätigen würde, dass AMD schon die bessere Technologie hat, sondern in der Zeit vor Intels Umstieg auf die neue Technologie könnte Intel womöglich einen Osbourning-Effekt im Server-Segment erleben, weil gerade dort AMDs Konzept seine Vorteile ausspielt und Intel quasi mit seinem Umstieg für AMDs schon existierende Plattform "wirbt", indem Intel diese Technologie erst noch anstrebt.
Nicht nur, dass der Ram-Kontroller zusätzliche Energie verbraucht, welche bei AMD in den heutigen Werten schon enthalten ist, könnte AMD vom Umstieg Intels auf Plattformen mit integriertem Kontroller womöglich gar profitieren: nicht nur das Intel damit bestätigen würde, dass AMD schon die bessere Technologie hat, sondern in der Zeit vor Intels Umstieg auf die neue Technologie könnte Intel womöglich einen Osbourning-Effekt im Server-Segment erleben, weil gerade dort AMDs Konzept seine Vorteile ausspielt und Intel quasi mit seinem Umstieg für AMDs schon existierende Plattform "wirbt", indem Intel diese Technologie erst noch anstrebt.
Das erhöht den "Watt per performance" - factor um 20 - 30 %
wuerde mich nicht wundern, wenn intel das als vorteil verkauft ;-)
wuerde mich nicht wundern, wenn intel das als vorteil verkauft ;-)
Antwort auf Beitrag Nr.: 25.590.537 von Wörns am 22.11.06 14:08:24@Wörns: "...denn, falls das Intel einen ähnlichen Boost wie seinerzeit AMD von ca. 20% gibt, dann kommen harte Zeiten auf AMD zu..."
Das bezweifle ich sehr, dass Intel daraus einen ähnlichen "Boost" heraus holen kann, da Intel sehr große L2-Caches verwendet, sodass Intels CPUs von einer Verbesserung der Ram-Anbindung "nach" dem L2 deutlich weniger Vorteile ernten dürfte.
Andererseits wird auch AMD viele Neuereung bringen, die Intel entweder schon hat (große L2/L3-Caches z.B. mit ZRam) oder womöglich noch länger nicht haben wird, weil auch AMD in der Zwischenzeit nicht untätig sein wird: das könnte beispielsweise die "Fusion"-Technologie sein.
Das bezweifle ich sehr, dass Intel daraus einen ähnlichen "Boost" heraus holen kann, da Intel sehr große L2-Caches verwendet, sodass Intels CPUs von einer Verbesserung der Ram-Anbindung "nach" dem L2 deutlich weniger Vorteile ernten dürfte.
Andererseits wird auch AMD viele Neuereung bringen, die Intel entweder schon hat (große L2/L3-Caches z.B. mit ZRam) oder womöglich noch länger nicht haben wird, weil auch AMD in der Zwischenzeit nicht untätig sein wird: das könnte beispielsweise die "Fusion"-Technologie sein.
Wörns,
wer wollte 4G schon vor Ewigkeiten ausliefern und wer hatte 10G
angepeilt? 2008 ... gähn.
BUGGI
wer wollte 4G schon vor Ewigkeiten ausliefern und wer hatte 10G
angepeilt? 2008 ... gähn.
BUGGI
07:30 Uhr · wallstreetONLINE Redaktion · Advanced Micro Devices |
18.04.24 · Der Aktionär TV · Advanced Micro Devices |
18.04.24 · Thomas Heydrich · Advanced Micro Devices |
17.04.24 · dpa-AFX · Advanced Micro Devices |
17.04.24 · dpa-AFX · Advanced Micro Devices |
17.04.24 · dpa-AFX · Advanced Micro Devices |
16.04.24 · globenewswire · Advanced Micro Devices |
16.04.24 · wallstreetONLINE Redaktion · Advanced Micro Devices |
16.04.24 · globenewswire · Advanced Micro Devices |