23.09.08 13:13 Uhr
 7.154
 

Intel greift ATI und NVIDIA an

Intel hat seinen neuen Grafikchip mit Namen Larrabee vorgestellt und verspricht den Markt der Grafikkarten auf den Kopf zu stellen.

Intel nutzt eine Weiterentwicklung der MMX Technologie, um mehrere vollwertige Rechenchips zu einem Cluster zu vereinen. Für erste Referenzkarten wird die doppelte Leistung von aktuellen ATI- und NVIDIA-Karten angepeilt.

Doch mit Grafikberechnungen ist beim Larrabee noch nicht Schluss. Der verwendete Pentium P54C-Prozessor ist zur Intel-Architektur kompatibel und kann wie eine zweite CPU normale Rechenoperationen übernehmen.


Videoplayer auf dieser Seite ausblenden
WebReporter: LopsterRobster
Rubrik:   High Tech
Schlagworte: Intel, ATI
Quelle: www.browsergame-base.de

Jetzt Deinen
Kommentar abgeben!

DAS KÖNNTE DICH AUCH INTERESSIEREN

USA: Rechtsradikale bauen sich eigene Onlinedienste auf
US-Justiz will politische Gegner von Präsident Donald Trump ermitteln
Google-Memo: Auch in Deutschland werden Frauen in der IT-Branche benachteiligt

Diese News zu meinen Favoriten hinzufügen Beitrag abgeben

17 User-Kommentare Alle Kommentare öffnen

Kommentar ansehen
23.09.2008 13:04 Uhr von LopsterRobster
 
+0 | -0
 
ANZEIGEN
Wenn das wirklich alles so klappt wie Intel verspricht, könnte der Larrabee eine super Sache werden. Dann würde sich eine gute Grafikkarte auch dann lohnen wenn man nur selten spielt, weil sie im normalen Betrieb die Haupt-CPU unterstützen würde. Aber noch mache ich mir wegen des Preises und der Wärmeentwicklung der ganzen Chips ein bisschen Sorgen. Das Ding wird sicher laut und teuer.
Kommentar ansehen
23.09.2008 13:18 Uhr von brainbug1983
 
+12 | -1
 
ANZEIGEN
Ich mach mir in der Sache eher wegen des Stromverbrauchs sorgen, was aktuelle Grafikkarten an Strom fressen ist echt nich mehr normal. Bei CPUs klappts ja inzwischen relativ gut mit Stromspar-Modellen die trotzdem noch gute Leistung bringen, aber bei den Grafikkarten vermiss ich das ehrlich gesagt n bisschen.
Kommentar ansehen
23.09.2008 13:39 Uhr von Booey
 
+10 | -8
 
ANZEIGEN
GPU: die Zukunft liegt eh in der GPU. Die CPU-Leistung wird bald sekundär werden.
Kommentar ansehen
23.09.2008 13:41 Uhr von Lightning Lord
 
+3 | -0
 
ANZEIGEN
Wird Zeit! Ich warte mindestens schon seit der ATI-Übernahme durch AMD darauf, dass Intel seine Ankündigung wahr macht und ernsthafte Grafikkartenalternativen auf den Markt bringt. Die Mittel dazu sind sicher vorhanden.
Kommentar ansehen
23.09.2008 13:44 Uhr von _DexTeR_
 
+14 | -1
 
ANZEIGEN
also: bevor da nicht exakte Daten kommen ist die News für mich völlig überflüssig. Könnte, hätte, wäre, wenn das immer höre.

Bei Computerfreaks zählen nur Fakten, denn nix anderes schmeißt ein Benchmarktest später auch aus.
Und wenn dieser Wundertechnologie später 5000€ kostet, dann haben wir da auch nix von...
Kommentar ansehen
23.09.2008 14:33 Uhr von thejack86
 
+9 | -3
 
ANZEIGEN
Zukunft in der GPU: ohhhh man... wie schlecht

GPUs können Programe nicht so schnell ausführen wie CPUs (GPUs können maximal verschiedene rechenoperationen schneller ausführen) ->

warum ist da die Zukunft in nem GPU???????????????

und warum Intel nicht eher GraKas hergestellt haben hängt wohl damit zusammen das sie AMD "beobachtet" haben, scheinbar sind GPUs doch etwas anderes als CPUs und schon alleine im Managment anders zu Hand haben.

abgesehen davon .... wer hat den grösten Marktanteil an GraKas? Intel :D gibt nunmal sehr viiele OnBoard GraKas
Kommentar ansehen
23.09.2008 14:40 Uhr von maretz
 
+5 | -1
 
ANZEIGEN
benchmarktest = fakten? Ein Benchmarktest schmeisst FAKTEN raus? Der wirft imo. viel aus - aber fakten sind so zimlich das letzte...

Ich verweise nur mal auf die guten 3D-Marks - welche für eine Grafikkarte optimiert waren (reine treiberoptimierung...). Ich verweise mal darauf das heute mit neuen Treibern magischerweise gern auch die "Fakten der Benchmarks" besser werden... (muss Magie sein - denn ne Software auf dem Windows wird idR. die Leistung der Hardware nicht verändern... - höchstens die Operationen so "umformen" das einige Ergebnisse schneller vorliegen. Ein Schelm wer dabei an vorberechnete Ergebnisse denkt - was bei Benchmarks ja auch nicht möglich ist...)

Naja, ich wünsche allen dann viel Spass mit den Fakten aus den Benchmarks... Ich behalte lieber meinen kleinen Rechner - der zieht zwar bei 3D-Mark u. Co. sicherlich keinen toten Hering mehr vom Teller - aber dafür bleibt meine Stromrechnung auch in Bereichen das ich mir auch mehr als nen toten Hering auf den Teller legen kann...
Kommentar ansehen
23.09.2008 15:04 Uhr von Boese_das
 
+1 | -0
 
ANZEIGEN
Da können wir aber: mal gespannt sein was Intel da so feines brauen wird.....nur leider erinnere ich mich auch noch zu genau an den Letztn großen Intel Grafikchip der mit viel Trara als Nvidia oder AMD Killer angekündigt wurde und was dann kam...LOL....und die aussage darüber das ein P54C verwendet wird....na das kann ja heiter werden.
Kommentar ansehen
23.09.2008 15:08 Uhr von Booey
 
+1 | -0
 
ANZEIGEN
@jack86: es gibt immer mehr Rechenzentren, v.a. in der Forschung/Medizin, die auf GPU statt CPU bauen, da diese im Vergleich leistngsstärker und schneller sind. Natürlich sind sie anders aufgebaut, was nich heißt dass sie nich die selbe Arbeit verrichten können. Autos funktionieren auch anders als Menschen, trotzdem können sich beide Fotbewegen (schlechter Vergleich, ich weiß). CPUs sind bald an der Grenze des machbaren, oder warum glaubst du sind die Dinger von 4 wieder auf 2 GHz runter geschraubt? bringt einfach kaum noch steigerung.
Kommentar ansehen
23.09.2008 15:38 Uhr von User129
 
+2 | -0
 
ANZEIGEN
viel ausführlichere Quelle: http://www.golem.de/...
Kommentar ansehen
23.09.2008 15:54 Uhr von AceOfSpade47
 
+1 | -0
 
ANZEIGEN
nVidia hat vor nem guten halben Jahr mal behauptet, dass die Ziet der CPUs vorbei wäre, und dass bald die GPUs entscheidender werden sollen...

Da diese Aussage von nVidia kommt, würde ich mich darauf aber sicherlich nicht verlassen...
Kommentar ansehen
23.09.2008 16:19 Uhr von quinn
 
+2 | -0
 
ANZEIGEN
@Booey und alle Propagandaempfänglichen: Du meine Güte! Was du (Booey) da von dir gibst ist echt dumm. Da lässt sich leider nichts schön reden.

Grafikkaten als Numbercruncher werden deswegen so gern eingesetzt, weil sie in PCIe Slots passen und so macht man auch aus einem billigen SauMarkt-PC mit wenigen Handgriffen eine ordentliche Rechenmaschine. Quasi als kosteneffiziente Zwischenlösung.

Dazu kommen so Faktoren wie Hotplug. Diese Fähigkeit ist bei PCI nämlich schon lange vorgesehen, standardisiert und entwickelt. CPU Hotplug gibts nur in Hochleistungsrechnern, die direkt ein paar Euronen mehr kosten.

Die Zukunft liegt auch nicht in GPUs weil wie der Name CPU (C streht für Central, wie in zentral) schon suggeriert, wird es niemals ohne gehen. Es liegt also deutlich näher alle Power in der CPU zu Zentralisieren (na, fällt der Groschen schon?) und die GPU abzuschaffen als mit einer zu vernachlässigen CPU eine historisch bedingte Altlast zu schaffen.

Die neuen Intel Grakas, die anscheinend 100% x86 kompatibel sind demonstrieren genau das. Es sind CPUs, die halt auch Grafikbrechnungen machen. Wenn man diese GPUs onboard verbaut, dann sind sie nicht von CPUs zu unterscheiden. Als letzten Schritt vereint man tatsächlich zwei Produktlinien und was übrig bleibt ist ein zentraler(!) Überchip im Computer, der Rechenpower je nach Bedarf zuteilt und keinen dedizierten Grafikchip -soll heißen keine GPU - mehr besitzt.

Nur weil so ein um seinen Arbeitsplatz besorgter NVidia Boss mal ein blödes Statement abgegeben hat gibt´s immer so Spinner die glauben GPUs wären besser als CPUs. Das ist Schwachsinn. Die Hardwarekonzepte sind verblüffend identisch. GPUs sind damals nur entstanden, weil die Technik nicht weit genug war so viel Power in einem einzelnen Chip zu konzentrieren bzw. eine gewisse Weisheit darin liegt für extra Aufgaben extra Controller zu schaffen. Die Verschmelzung von spezialisierten Chips zeigt vor allem, dass sie nicht wissen
- wohin mit der ganzen Rechenpower ?
- was verkaufen wir dem Kunden als nächstes ?
- wie verkaufe ich es dem Kunden als nächstes ?
Kommentar ansehen
23.09.2008 18:11 Uhr von demolitionman69
 
+2 | -0
 
ANZEIGEN
Nicht der Überflieger: Larrabee wird sicherlich ein technisch interessanter Chip, da Intel hier völlig neue Wege geht, aber der Überflieger in Sachen Performance wird es nicht. CPUs sind "Multitalente", die sich für ein großes Spektrum an Berechnungen heranziehen lassen. GPUs dagegen sind Vektoreinheiten, welche hochspezialisiert auf das Berechnen von 3D-Rastarizer-Grafiken ausgelegt sind. Ein gutes Beispiel ist der 3DMark: Wenn hier die CPU getestet wird, sinkt die Framerate ins Bodenlose, da die CPU hoffnungslos überfordert ist. Intel hat nun einen Pentiumkern umgebaut und verschiedene Elemente, die man normalerweise nur in Grafikchips findet, hinzugefügt. Da man gleichzeitig eine sehr hohe Anzahl (32-64) dieser Kerne auf einem Die unterbringt, kommt Intel dann an die Rechenleistung momentan erhälticher Grafikchips heran. Mehr aber auch nicht. Etwas anders sieht es beim Berechnen von Raytracing-Grafiken aus, aber ob und wann die Industrie vom Rasterizer zum Raytracing Renderer umschwenkt, weiß im Moment noch keiner.

Im übrigen existieren auch bei Grafikchips Multikernchips und diese werden inzwischen auch für andere Berechnungen herangezogen, in der Wissenschaft zum Beispiel. Denn in bestimmten Bereichen sind die GPUs den CPUs einfach haushoch überlegen. AMD/ATI planen darüber hinaus auch, in Zukunft CPU und GPU auf einem Die unterzubringen. Ob der Markt es annimmt (man muß ja dann beim Aufrüsten immer CPU und GPU wechseln, da eine Einheit) hängt natürlich vom Preis/Leistungsverhältnis ab. Auch die Anbindung des Grafikspeichers würde mich in diesem Falle interessieren, schließlich funktioniert der GDDR-Speicher auf Grafikkarten nur deshalb mit so hohen Taktraten, weil dieser sehr nahe an der GPU direkt auf der Platine verlötet ist.

Wie man sieht ist das ein sehr komplexes Thema, und im Bezug zum o.g. hohem Stromverbrauch der GPUs sollte man sich einmal folgendes vor Augen halten das sich ein Quadcore Q6600 aus 582 Millionen Transistoren zusammensetzt, während es beim GT200 von Nvidia ca. 1,4 Milliarden Transistoren auf dem Die sind.

Einge gute und seriöse Quelle um Infos zum aktuellen Hardwarestand zu bekommen ist 3DCenter.de. Diese haben sich auch schon [url=http://www.3dcenter.org/...]HIER[/url] mit dem Larrabee beschäftigt.
Kommentar ansehen
23.09.2008 20:57 Uhr von KidWiruz
 
+0 | -0
 
ANZEIGEN
Kooperation: Gab es net mal ne Kooperation zwischen Intel und NVIDIA?
Kommentar ansehen
24.09.2008 10:32 Uhr von thejack86
 
+0 | -0
 
ANZEIGEN
@Booey: warum von 4 auf 2GHz?

weil: Je mehr GHz desto mehr Strom -> zuviel Strom bei 4 GHz

Da heutige Software auf Multithreading ausgelegt ist (und erst durch mehrere Kerne dies auch wirklich zeitgleich ausgeführt wird!) sind 4 GHz auch nicht wirklich sinn voll.

aber GPUs die matrizen Rechnungen in einem sehr umfangreichen Stil ausführen sind (über das werden kann ja keiner was sagen ;) jedoch sehr langsam im "normallen" Programablauf.

auch wenn Intel jetzt einen GPU herstellt der "wie eine zweite CPU normale Rechenoperationen übernehmen" kann bedeutet dies erstmal es MUSS von einem Programierer GEWOLLT sein -> doe Software muss eine Optimierung für diese GraKa besitzten. Dass ist wie damals MMX-Software
Intel bringt MMX auf den Markt und keiner nutzt es ;)
Kommentar ansehen
24.09.2008 11:25 Uhr von bueyuekt
 
+1 | -0
 
ANZEIGEN
@erw: Naja...Sie könnten im 2D berech schon doppelte Rechen-
leistung hinbekommen.

Die doppelte Rechenleistung wird ja nicht explizit auf den
3D Bereich ausgerichtet.
Kommentar ansehen
24.09.2008 15:17 Uhr von S0u1
 
+0 | -0
 
ANZEIGEN
hm, alt ? Also ich glaube ich habe das in der Aktuellen CT auch schon gelesen, und die ist jetzt schon 10 Tage draussen ...

Aber an sich ist die Idee von Intel nicht schlecht. Bin mal gespannt wenn die ersten Karten wirklich in den Laden kommen ...

Ob das Programmieren auf den Karten dann auch so "benutzerfreundlich" gestaltet wird wie auf den Karten von NVIDIA wird sich dann zeigen ..

Refresh |<-- <-   1-17/17   -> -->|
Diese News zu meinen Favoriten hinzufügen Beitrag abgeben


Copyright ©1999-2017 ShortNews GmbH & Co. KG

Die News auf dieser Website werden eigenverantwortlich von Nutzern erstellt. Die Shortnews GmbH & Co. KG nimmt keinen redaktionellen Einfluss auf die Inhalte.

impressum | agb | archiv | usenet | zur mobilen Ansicht
SCHLIESSEN

Willst Du die Seite wirklich verlassen?


DAS KÖNNTE DICH AUCH INTERESSIEREN

AfD und Erika Steinbach verbreiten Fake Flüchtlingserlass
Sicherheitsbehörden versendeten seit Anfang 2017 bereits über 600.000 stille SMS
John Grisham: "Trump hat so viele Leichen im Keller, und alle graben danach"


...oder unseren und keine aktuellen News mehr verpassen?