30.04.08 09:25 Uhr
 11.310
 

"Nvidia" sieht keine Zukunft für CPUs

In einer internen Mail, die auf "The Inquirer" veröffentlicht wurde, schreibt Roy Taylor, seines Zeichens hochrangiger "Nvidia"-Manager, dass er für die herkömmlichen CPUs keine Zukunft sieht.

Taylor schreibt weiter, dass die CPU einen PC nicht mehr schneller macht, sondern die GPU der Grafikkarte eine größere Rolle spielt.

Intel und AMD haben allerdings bekannt gegeben, dass sie CPU und GPU für gleich wichtig halten. Die Tendenz, dass CPU und GPU zu einem Chip verschmolzen werden, sei trotzdem erkennbar, so Stephan Schwolow, Sprecher von AMD Deutschland.


Videoplayer auf dieser Seite ausblenden
WebReporter: StevTheThief
Rubrik:   High Tech
Schlagworte: Zukunft, Nvidia
Quelle: www.tecchannel.de

Jetzt Deinen
Kommentar abgeben!

DAS KÖNNTE DICH AUCH INTERESSIEREN

Twitter will gegen Sexismus und Hass vorgehen
Neue Funktion: Facebook hat Entdecker-Feed eingeführt
Nachbauten von originalen Spielhallen-Automaten in Mini-Formaten angekündigt

Diese News zu meinen Favoriten hinzufügen Beitrag abgeben

17 User-Kommentare Alle Kommentare öffnen

Kommentar ansehen
29.04.2008 22:36 Uhr von StevTheThief
 
+0 | -0
 
ANZEIGEN
Ich denke der Herr Taylor nimmt den Mund etwas zu voll: In Spiele PC spielt die Grafikkarte wirklich eine der größten Rollen, Büro Rechnern und Server werden sich da Meiner Meinung nach nicht groß ändern.
Kommentar ansehen
30.04.2008 10:02 Uhr von PuerNoctis
 
+4 | -1
 
ANZEIGEN
Ich bin ja mal gespannt wie sich dieses Geschäftsgebiet entwickelt, sobald die ersten Quantenrechner fehlerfrei laufen.

Es wird in naher Zukunft sowieso eine Umstellung der Bauweise geben müssen da, soweit ich informiert bin, einige elektrische Leiterbahnen und Bauteile wie z.B. Transistoren ab einer bestimmten Größe nicht mehr richtig funktionieren (falls ich da falsch liege, mich bitte korrigieren).

Über organische Bauteile wurde ja auch schon nachgedacht. Science-Fiction-Freunde verweiße ich in dem Bezug dezent auf http://en.wikipedia.org/...
Kommentar ansehen
30.04.2008 10:27 Uhr von Leeson
 
+3 | -1
 
ANZEIGEN
hmm, naja nicht verschätzen...wie hier ?
http://www.shortnews.de/...
Kommentar ansehen
30.04.2008 10:44 Uhr von Mr_T
 
+3 | -2
 
ANZEIGEN
Möglich Nachdem die GPU immer besser in der Lage ist Arbeiten des CPUs zu übernehmen ist das garnicht so undenkbar.
Die Kontrolle des Rechners erledigt dieser zwar in ganz anderen Dimensionen, was die pure Rechenleistung angeht, hat die GPU allerdings die Nase deutlich vorn.
Kommentar ansehen
30.04.2008 10:59 Uhr von ^Apo^
 
+2 | -0
 
ANZEIGEN
Das kommt ganz auf das Einsatzgebiet an! Der Herr Tailor hat wohl noch nie einen Film mit 2x3 GHz und anschließend mit 4x3 GHz umgewandelt. Das geht genau doppelt so schnell!

Selbst Zocker haben einen großen Vorteil dadurch. Mal den 3DMark Test laufen lassen (ohne die CPU Test). Auch hier hat man einen performance Zuwachs von ca. 30%.

Genau so wie im Betriebssystem, man hat dort auch immer kurzzeitige Leistungsspitzen wo alle vier Kerne mal auf 100% sind. Bei nur zwei Kernen muss man da schon länger warten bis alles Berechnet ist.
Kommentar ansehen
30.04.2008 12:02 Uhr von pippin
 
+1 | -0
 
ANZEIGEN
Gemeinsam ist man stärker: Ich denke kaum, dass eine reine GPU eine CPU ersetzen kann.
Dazu müsste die Grafikkarte dann ja auch Aufgaben der eigentliche CPU übernehmen und würde somit doch auch wieder eine CPU *kopfkratz*

Die Zukunft wird wahrscheinlich wirklich die Integration beider Systeme auf einem Chip gehören. Obwohl ich diese Entwicklung auch nicht wirklich prickelnd finde.
Immer gleich die CPU austauschen zu müssen, wenn mehr Grafikleistung erforderlich ist, halte ich für ziemlichen Unfug.

Naja, schauen wir mal, was aus dieser Geschichte wird.
Kommentar ansehen
30.04.2008 12:17 Uhr von eimma
 
+1 | -2
 
ANZEIGEN
cpu: ja die !C!pu ist ja schon tot ..das is ja nix neues
meine digitaltechnikleherer aus meiner alten schule hat mir das schon vor jahren vorrausgesagt und mein prof hat das auch nochmal untermauert
es geht ja jetzt schon nix mehr ohne multi core und auch das konzept wird wohl nicht ewig bestehen
Kommentar ansehen
30.04.2008 12:18 Uhr von eimma
 
+2 | -3
 
ANZEIGEN
achja: ich meine die jetzigen prozessoren erzeugen flächenmäßig schon mehr wärme als die sonne
Kommentar ansehen
30.04.2008 12:48 Uhr von medru
 
+1 | -0
 
ANZEIGEN
lol also keine CPU mehr im Rechner^^: also wenn die GPU die aufgaben der Central Processing Unit übernehmen sollte.... dann IST sie die CPU^^

es wird jedoch in naher zukunft keine performanten systems geben, die die Aufgaben der CPU um die der GPU erweitern...
Kommentar ansehen
30.04.2008 14:43 Uhr von lopad
 
+1 | -0
 
ANZEIGEN
Derzeit nur Wunschdenken vom Herrn Taylor.
Kommentar ansehen
30.04.2008 16:11 Uhr von quinn
 
+3 | -0
 
ANZEIGEN
so ein schmarrn: die cpu ist ein konzept und ein teil eines modells. unsere computer sind nach der von-neumann-architektur gebaut und daran wird sich nix ändern. die von-neumann-architektur sieht u.a. ein rechenwerk und ein leitwerk vor. die komponente im computer, die beides beinhaltet nennen wir cpu.

also:
solange wir leit- und rechenwerk in die selbe komponente verbauen, hat unser computer eine cpu.
(anmerkung: mehrere CPUs ändern am Prinzip nichts. erst das aufspalten von leit- und rechenwerk in 2 seperate chips ist das ende der cpu)

vom prinzip her ist eine grafikkarte ein vollständiger von-neumann computer (leitwerk, rechenwerk, hauptspeicher, ein-/ausgabewerk)

wenn der gute herr überbezahlt das ende der cpus sieht, dann meint er wohl, dass zukünftig nurnoch ein computer innerhalb des metalkastens unter meinem schreibtisch werken wird ... welch neuerung. soll heißen, die grafikkarte ist kein computer mehr im computer und wenn sie das nicht mehr ist, dann gibt es keine GPUs mehr, aber mit einer solchen aussage würde er sich ins eingene bein f****n.

anstatt so ein dämliches geblubber von sich zu geben soll er mal lieber sagen, dass die zukunft in integrierten chips liegt, weil die unter den aspekten geld, platz, temperatur, performance besser sind. wenn er es so formuliert, dann gibt er allerdings einen nachteil gegenüber der komkurrenz zu, weil ATI grafikchips werden wohl mit AMD cpus verschmolzen werden und NVidia hat niemanden für ein solches Unternehmen. Was der gute mann also eigentlich gesagt hat ist so eine art Balzgesang mit der Nachricht:
Wir suchen eine Prozessorenschmiede, die (groß) bei uns einsteigen möchte, oder wo wir (groß) einsteigen können.
Kommentar ansehen
30.04.2008 16:17 Uhr von Fornax
 
+1 | -0
 
ANZEIGEN
recht hat er ja: nur etwas übertrieben. ein kleiner core2duo ist heute in der lage alles schnell zu bearbeiten, und eigentlich jetzt schon überpowert. ein nornaler anwender wird so ein prozzeor nie auslasten.

und @ apo dann zeig mir mal ne software die auch wirklich 4 kerne unterstützen. ein core2duo ist nicht so schnell wegen der 2 kerne (weil die garnicht unterstützt werden) man sollte sich mal mit der architektur beschäftigen

der neue 45mn core2duo ist auch auch wieder 10% schneller als ein alter.

und irgendwelche freaks hatten mal ein betriebssystem für eine nvidia gpu programiert um damit komplexe rechenaufgaben zu lösen. keine desktop cpu auf der welt erreichte solche rechenpower.

aber überflüssig werden cpus erstmal nicht :) sie werden ja auch billiger und immer besser, das is ja das schöne
Kommentar ansehen
30.04.2008 16:37 Uhr von kultbrother2
 
+0 | -0
 
ANZEIGEN
@ fornax: hmm,ich bezeichne mich als normalen anwender,hab 2 high end cpu´s in meinem rechner und kann diese auch voll auslasten,crysis nutzt zB. beide kerne voll aus,also wieso sind die überpowered.also irgend wie ist etwas falsch an deiner aussage.ich für meinen teill hätte gern noch schnellere...
Kommentar ansehen
30.04.2008 17:40 Uhr von quinn
 
+1 | -0
 
ANZEIGEN
@DerBaer69: das funktioniert nicht so, wie du dir das vorstellst. erstmal ist ein shader nicht sowas wie ein core, sondern nur eine ALU, im endeffekt ein taschenrechner. zu einem core gehört noch deutlich mehr.

skalierbarkeit ist nicht etwas wo man ausschließlich mit "viel" drauf haut. da muss man zuerstmal gründlich drüber nachdenken. deswegen ist das Konzept P4 auch so herrlich garnicht aufgegangen. So ein P4 hat Power ohne ende, aber es bringt nix, weil er sie nicht intelligent nutzen kann, bzw. sie nicht intelligent genutzt wird. das mit dem stromfresser etc. kam erst später dazu und hat dem p4 endgültig den todesstoß versetzt.
Kommentar ansehen
30.04.2008 18:05 Uhr von Draco Nobilis
 
+2 | -0
 
ANZEIGEN
Naja CPU: Kann sehr komplexe Dinge Berechnen, ist aber langsam

GPU: Extrem schnell, kann aber nur einfache vorgefertigt
Befehle nutzen (inzwischen begrenzt programierbar)

Ergebniss: Man braucht beides.
Wer mal was von CISC und RISC Prozessoren hörte weiß was ich meine.
Aber eine Fusion aus beiden wäre ein ganz neue Dimension von Leistung. Nur eben schwer machbar, weil der dumme Teil (GPU) eben ständig Anweisungen braucht von der lahmen CPU.
Kommentar ansehen
30.04.2008 18:14 Uhr von Draco Nobilis
 
+1 | -0
 
ANZEIGEN
Noch was Übrigens gehen je nach Grafikkarte und Treiber bereits >33%
der CPU Leistung in den Treiber der GPU, es muss ja alles für die Graka übersetzt werden...
Kommentar ansehen
30.04.2008 20:31 Uhr von meisterthomas
 
+1 | -0
 
ANZEIGEN
Kaffeesatz-Prognose: Diese Kaffeesatz-Prognosen sind so realistisch wie alle Langzeitprognosen.
Technisch überholt ist die CPU schon mindetens 8 Jahre, aber auf das was sie ablösen könnte, liegen noch Patentrechte.
Also geht die Entwicklung unserer CPU-Pampers-Windeln entsprechend weiter.

Refresh |<-- <-   1-17/17   -> -->|
Diese News zu meinen Favoriten hinzufügen Beitrag abgeben


Copyright ©1999-2017 ShortNews GmbH & Co. KG

Die News auf dieser Website werden eigenverantwortlich von Nutzern erstellt. Die Shortnews GmbH & Co. KG nimmt keinen redaktionellen Einfluss auf die Inhalte.

impressum | agb | archiv | usenet | zur mobilen Ansicht
SCHLIESSEN

Willst Du die Seite wirklich verlassen?


DAS KÖNNTE DICH AUCH INTERESSIEREN

Berlin: Umfassende Sammlung antisemitischer Bilder wird erforscht
21-Jähriger in Düsseldorf niedergestochen
Fußball U17-WM: Deutschland verliert Viertelfinalspiel gegen Brasilien


...oder unseren und keine aktuellen News mehr verpassen?