07.12.07 15:04 Uhr
 9.412
 

IBM: Lichtimpulse statt elektrische Impulse - Prozessor mit 1.000 Kernen möglich

Computerhersteller IBM hat es mit der Umstellung von elektrischen Signalen auf Lichtimpulse möglich gemacht, Supercomputer im Format eines Laptops zu bauen.

Durch diese Technik wird es möglich, 1.000 Kerne auf einem Chip unterzubringen. Der heutige Stand der Technik wird bei der Playstation 3 sichtbar, die einen Prozessor für neun Rechenkerne aufweist.

Dieser Prozessor verbraucht allerdings sehr viel Energie und bedarf einer ausgiebigen Kühlung.


Videoplayer auf dieser Seite ausblenden
WebReporter: borgir
Rubrik:   High Tech
Schlagworte: Prozess, Licht, IBM, Prozessor
Quelle: www.idowa.de

DAS KÖNNTE DICH AUCH INTERESSIEREN

Kölner Start-up macht mit Online-Übersetzer Silicon-Valley-Größen Konkurrenz
Chaos Computer Club möchte Lücken bei Software "PC-Wahl" schließen
Facebook testet Snooze-Button: Pause von nervtötenden Freunden

Diese News zu meinen Favoriten hinzufügen Beitrag abgeben

19 User-Kommentare Alle Kommentare öffnen

Kommentar ansehen
07.12.2007 14:10 Uhr von borgir
 
+0 | -0
 
ANZEIGEN
Hammer. Vor allem wenn man sieht, dass die Playstation 3, das Non-plus-Ultra heute, mit nur neun Kernen auf einem Prozessor arbeitet. Mal sehen was dadurch in der nächsten Zeit möglich wird, mit der neuen Technologie.
Kommentar ansehen
07.12.2007 15:26 Uhr von ionic
 
+4 | -3
 
ANZEIGEN
die ps3: hat 9 kerne aber 2 davon fallen weg für virtuelle speicher oder sowas in der art und 1 von den 9 wird nicht genutzt weil falls bei der produktion einer kaputt geht kann den ungenutzten aktiviern und trotz eines eigentlich sehr gravierendem mängel die ps3 trotzdem verkaufen ;-)
Kommentar ansehen
07.12.2007 15:28 Uhr von heanz
 
+2 | -1
 
ANZEIGEN
mal sehen wie das hinhaut. aber es ist ansich eine tolle sache. schnelle prozessoren, die natürlich auch für die forschung eingesetzt werden. im grunde sehr effizient, weniger energie und mehr leistung.

stellt euch nunmal diese [email protected] oder sonstigen distributed computing projekte vor, wenn diese geräte mal für den endverbraucher standard werden. :)

wenn sie jetzt noch eine gute lösung für festplatten finden, um die mal schneller zu machen, dann gehts ja ab. ^^

btw: wie ist das mit der ps3 und den neun kernen gemeint? ich nehme mal nicht an, dass die eine "quad x2 +1" cpu hat. *g*
Kommentar ansehen
07.12.2007 15:43 Uhr von Kepas_Beleglorn
 
+0 | -0
 
ANZEIGEN
Grill: Also so wie sich die (etwas magere) Quelle liest, scheint es mit derartigen Prozessoren ja noch ordentliche Hitzeprobleme zu geben. Aber ich denke mal, dass man das auch noch in den Griff bekommt, so dass das Ganze dann Massenmarkttauglich wird. Ich bin nur mal auf die Preise bei Markteinführung solcher Prozessoren gespannt.
Kommentar ansehen
07.12.2007 15:56 Uhr von titlover
 
+0 | -0
 
ANZEIGEN
yeah.. der Gigakern Prozessor kommt: wobei ich mich als Laie frage, wieso man nich einfach die Kerne größer macht statt hunderte Kerne auf einen Prozessor zu klatschen.
Kommentar ansehen
07.12.2007 16:23 Uhr von S0u1
 
+6 | -0
 
ANZEIGEN
@titlover: das kann ich dir glaube ich beantworten.
Mit den momentenen GHZ Zahlen ist man am momentenen physikalischen Ende angelangt.
Es gibt also nur noch eine Steigerung wenn man mehrere Prozesse gleichzeitig aberbeiten kann.

Und ein 1000Kern Prozzi , kann halt 1000 Operationen exaxt parallel abarbeiten.
Kommentar ansehen
07.12.2007 16:25 Uhr von andreascanisius
 
+0 | -0
 
ANZEIGEN
hmm: Das habe ich mich auch schon gefragt.

Also warum macht man nicht einfach nen 3 mal so großen Prozessor, statt zu versuchen alles auf die selbe Fläche zu bekommen.

Ist ja nicht so, dass das jetzt schon riesen Dinger wären...
Kommentar ansehen
07.12.2007 16:49 Uhr von saber_
 
+4 | -0
 
ANZEIGEN
@heanz: die ps3 hat einen cell prozessor... das hat nichts mit einem desktopcpu zu tun... der wurde eigens fuer die ps3 entwickelt;)

@tiltlover & andreascanisius

ich denke der drang zu kleinen abmaßen ist ganz einfach damit begruendet das die signale nun auch nicht ohne verzoegerung vom einen ende ins andere gelangen... somit versucht man bestimmt die wege kleinst moeglich zu gestalten.
falls ich totalen dummfug rede erbitte ich korrigiert zu werden;)
aber das ist nunmal die einzige begruendung die mir plausibel erscheint;)
Kommentar ansehen
07.12.2007 16:54 Uhr von CHR.BEST
 
+5 | -0
 
ANZEIGEN
Vorteile von Licht: Leiterbahnen haben ja den Nachteil, daß sie unbedingt von A nach B führen müssen, ohne sich dabei zu kreuzen.
Lichtstrahlen hingegen können sich gegenseitig so oft kreuzen wie sie wollen, ohne sich im geringsten gegenseitig zu beeinflussen.

Dadurch wird ein ganz neues Chipdesign möglich. Ich hab vor Jahren mal gelesen, daß man Motherboards so fertigen wollte. Aber bis jetzt hat sich das nicht durchgesetzt.
Durch die enorme Minituarisierung und Leistungssteigerung von Fotodioden ergeben sich mittlerweile ganz neue Anwendungsgebiete. Vielleicht haben wir in Zukunft statt eines USB-Anschlusses ein Glasfaser/Kunstoffkabel, das die Energie für die Geräte in Form von intensiver IR-Strahlung gleich mit durch das Kabel schickt. Dann hätte man statt 4 Kupferleitungen nur noch einen einzigen, kapazitäts- und induktionsfreien Lichtwellenleiter.
Kommentar ansehen
07.12.2007 16:55 Uhr von andreascanisius
 
+0 | -0
 
ANZEIGEN
@saber_: Die Erklärung scheint mri auch sehr Plausibel.

Aber wenn man nun 4 Prozessoren auf eine Fläche packt, dann ist ja innerhalb dieser einzelnen prozessoren alles wie früher.

Und ich glaube auf diese Entfernung ist die Verzögerung auch garnicht messbar.
Kommentar ansehen
07.12.2007 18:12 Uhr von i.kant
 
+0 | -0
 
ANZEIGEN
@ andreascanisius: doch das denke ich schon ... signale die über kupfer/gold etc. leiterbahnen führen haben aus physikalischen gründen IMMER einen gewissen wiederstand und bei so vielen rechenprozessen innerhalb einer sekunde ist es im nano oder pico bereich sicherlich von vorteil kurze wege zurücklegen zu müssen ...
Kommentar ansehen
07.12.2007 19:42 Uhr von Lowjack-Matrix
 
+1 | -2
 
ANZEIGEN
... Genau so etwas muss es sein =): Für das was ich vorhabe ist das noch die light Version eines CPUs, da kommt noch ein ganzes Stück dazu.
Jedenfalls, welches Programm wäre heutzutage überhaupt in der Lage diese Leistung zu verwenden ?
Klimasimulation ?

Auch, aber worauf ich hinaus will ist...

Damit ist es nun endlich möglich effizient eine K.I. zu programmieren die denken kann.

Aber ich verrate nichts.
Das Ergebnis seht ihr wenn es Cyborgs gibt, und ein Rechner denken kann (Der ist dann von mir programmiert).
Ich denke wenn es so weiter geht, gibt es in spätestens 20 Jahren K.I. die dem Menschen gleicht. Wer weiß vielleicht auch komplett Gratis, da es allen zur verfügung stehen sollte K.I. zu verwenden !
(Mal sehn es sind hohe Entwicklingskosten damit verbunden)

Was schneller voranschreitet als gedacht =)...
Top. Einfach nur genial.

Ein dickes Lob an IBM. Nur keine falsche Bescheidenheit..
Spart einen haufen Zeit Forschung...
Kommentar ansehen
07.12.2007 20:54 Uhr von Das.Ding
 
+0 | -0
 
ANZEIGEN
Quelle Naja die oben genannte Quelle scheint wohl nicht unbedingt der beste Anlaufpunkt für Technische neuigkeiten zu sein.
Jedenfalls steht in der folgenden, etwas umfangreicheren, Quelle nichts von 1000 Kernen, sondern "lediglich" von einer bis zu 1000 fachen Leistungssteigerung.
http://www.golem.de/...

Zumal ich die in meinen Augen falsche wiedergabe von bis zu 1000Kernen sowieso recht eigenartig finde. Wie groß soll den der CPU bitte sein? Ich glaub kaum das die her Wissenschaftler ihre Kerne so schnell auf 0,1mm schrumpfen können um eine angemessende größe zu erhalten.
Kommentar ansehen
07.12.2007 21:43 Uhr von NoGo
 
+0 | -0
 
ANZEIGEN
stimmt die News hab ich vorgestern schon auf einer einschlägigen Newsseite gelesen irgenwo zwischen meinen RSS-feeds... da stand, man könnte mit dieser Technologie eine CELL-CPU mit ungefähr 1000facher Geschwindigkeit laufen lassen bei einem zehntel an Stromverbrauch, da der meiste Strom in den Verbindungsleitungen zwischen den Kernen draufgeht und in Wärme umgewandelt wird, wodurch man den Takt eben auf ein Tausendstel reduzieren muss (ich glaube es sind maximal 6GHz wenn man eine voll bestückte, maximal getaktete CELL CPU verwendet und nicht das abgespeckte Modell aus der PS3). Diese Werte kommen mir zwar utopisch vor (wären ja immerhin 6000 GHz bzw. 6THz) aber wer weis schon was da dann abgeht???
Kommentar ansehen
08.12.2007 10:14 Uhr von ThomasHambrecht
 
+3 | -2
 
ANZEIGEN
Der Sprung vom 286 zum DualCore ist genauso gross.
Und Microsoft hat es verstanden in Folge von DOS 3.0 zu Windows Vista die Arbeitsgeschwindigkeit immer an den Prozessor auszurichten.
Wenn wir also 2020 einen superschnellen Lichtprozessor haben wird die 2020-Version von Windows auf diesem Prozessor nur kriechend laufen.
Kommentar ansehen
08.12.2007 16:22 Uhr von joe_black
 
+1 | -2
 
ANZEIGEN
@ThomasHambrecht: hehe amüsanter kommentar ^^ was bringt ein superschneller prozessor wenn microsoft experte in sachen "ressourcenverschwendung" ist :P
Kommentar ansehen
09.12.2007 06:02 Uhr von Makkus
 
+1 | -1
 
ANZEIGEN
@joe_black vielleicht eine Menge, weil dieser Beitrag mit Deinem Thema nix zu tun hat?

Aber war klar, das wieder irgendwelche Anti-MS-Sprücheklopfer um die Ecke kommen müssen. *kopfschüttel*
Kommentar ansehen
09.12.2007 12:54 Uhr von tassenulme
 
+0 | -0
 
ANZEIGEN
@Makkus: Du weist doch dass hier alle bessere Betriebssysteme als Microsoft programmiert haben.
Die haben auf nem 100mhz Rechner HL2 und Doom3 mit vollen Details laufen.

Ich frag mich immer was die mit ihren blöden Sprüchen erreichen wollen, vor allem da die meisten nichtmal im Ansatz verstehen was bei Windows im Hintergrund wirklich alles passiert.
Es ist doch logisch das ein Betriebssystem das immer mehr funktionen bietet auch immer mehr Leistung braucht. Und diese Leistung ist doch auch vorhanden, warum also immer nur jammern und auf MS einschlagen ?
Windows ist nunmal ein wirklich gutes Betriebssystem (was ich aber Mac und Linux auch nicht absprechen möchte, sind alle gut), und die Kinderkrankheiten welche Vista bei einigen Usern hat werden mit der Zeit auch verfliegen.

Ich erinner nur mal daran wie viele Probleme teilweise neue Linuxdistros haben, und die müssen auch dort erstmal behoben werden.

Nein die Leute sind nur neidisch weil Bill Gates so erfolgreich ist, das ist alles ;)
Kommentar ansehen
09.12.2007 14:36 Uhr von joe_black
 
+0 | -0
 
ANZEIGEN
@Makkus: Sorry wenn sich ein "Möchtegern"-Entwickler bzw. "Möchtegern"-Informatiker sich über das "aufregt", was ihn MACHNMAL zur Verzweiflung bringt.

ihr versteht hinten und vorne keinen Spass... *kopfschüttel*....

So jetzt geh ich mal etwas MASM zocken...

Refresh |<-- <-   1-19/19   -> -->|
Diese News zu meinen Favoriten hinzufügen Beitrag abgeben


Copyright ©1999-2017 ShortNews GmbH & Co. KG

Die News auf dieser Website werden eigenverantwortlich von Nutzern erstellt. Die Shortnews GmbH & Co. KG nimmt keinen redaktionellen Einfluss auf die Inhalte.

impressum | agb | archiv | usenet | zur mobilen Ansicht
SCHLIESSEN

Willst Du die Seite wirklich verlassen?


DAS KÖNNTE DICH AUCH INTERESSIEREN

Höhere Strafen für Handy am Steuer, Raser und Blockierer von Rettungsgassen
Iran testet erfolgreich neue ballistische Rakete
Goslar: Vergewaltigung wurde angeblich von Behörden verheimlicht


...oder unseren und keine aktuellen News mehr verpassen?