26.02.10 09:44 Uhr
 328
 

IBM stellt neuen Algorithmus zur Überprüfung von Daten vor

Dank dieses neuen Algorithmus´ soll es möglich sein, neun TByte Daten in 20 Minuten, statt wie bisher in über 20 Stunden zu überprüfen. Dabei soll die Rechenkraft der Hardware bei der Analyse der Daten effizienter genutzt werden.

Um diese neue Entwicklung vorzuführen, benutzten die Forscher den schnellsten Supercomputercomputer in Europa - das JuGene-System am Forschungszentrum Jülich. Dabei hat das System für neun TByte Daten gerade einmal 20 Minuten benötigt, wozu der Computer normalerweise einen ganzen Tag bräuchte.

Diese technische Errungenschaft soll sich ebenfalls gut in den Bereichen Verkehrsmanagement, Ökonomie, Finanz- und Portfoliomanagement, Geologie, Astrophysik und vielem mehr verwenden lassen.


WebReporter: polotaxi
Rubrik:   High Tech
Schlagworte: Daten, IBM, Überprüfung, Algorithmus
Quelle: www.golem.de

DAS KÖNNTE DICH AUCH INTERESSIEREN

Smart TVs von Samsung und TCL sind leicht zu hacken
Landgericht Berlin: Facebook verstößt gegen Datenschutz
Google Chrome wird zukünftig vielen SSL-Seiten das Vertrauen entziehen

Diese News zu meinen Favoriten hinzufügen Beitrag abgeben

4 User-Kommentare Alle Kommentare öffnen

Kommentar ansehen
26.02.2010 10:27 Uhr von rubberduck09
 
+2 | -0
 
ANZEIGEN
Ohne eine Info, wie die Überprüfen: Ist diese News keinen Cent wert.

Machen die einfach einen Verify, ob die Daten korrekt geschrieben wurden (also CRC-Check der Sektoren), dann geht das HDD-Intern - braucht keinen Rechner für (außer zum steuern)
Wenn die andere Checksummen bilden, hängts aktuell an den Bus-Systemen und nicht an der CPU-Leistung.

Was wurde da also überprüft und wie?
Kommentar ansehen
26.02.2010 10:42 Uhr von Unrealmirakulix
 
+0 | -0
 
ANZEIGEN
stimmt: würde mich auch interessieren. Denn so weiß man nur, dass jetzt angeblich alles viel schneller geht...
Kommentar ansehen
26.02.2010 11:50 Uhr von GatherClaw
 
+0 | -0
 
ANZEIGEN
Wegen der angeforderten Info: Zitate Quelle: Forscher von IBM Research in Zürich haben einen neuen Algorithmus vorgestellt, der die Rechenintensität für die Qualitätsanalyse sehr großer Datensätze deutlich reduzieren soll. Die Methode hilft, die Genauigkeit und Zuverlässigkeit komplexer mathematischer Modelle zu prüfen und zu verbessern, so IBM.


Hätte sicher noch in die News gepasst

Grüße
Gather

[ nachträglich editiert von GatherClaw ]
Kommentar ansehen
26.02.2010 13:26 Uhr von nemesis128
 
+0 | -0
 
ANZEIGEN
hmm: Die News ist sehr verwirrend. Erst wird suggeriert, dass ein normaler Computer die Arbeit in 20 Minuten schaffen kann, und dann wird doch ein "Supercomputercomputer" benutzt.

Refresh |<-- <-   1-4/4   -> -->|
Diese News zu meinen Favoriten hinzufügen Beitrag abgeben


Copyright ©1999-2018 ShortNews GmbH & Co. KG

Die News auf dieser Website werden eigenverantwortlich von Nutzern erstellt. Die Shortnews GmbH & Co. KG nimmt keinen redaktionellen Einfluss auf die Inhalte.

impressum | agb | archiv | usenet | zur mobilen Ansicht
SCHLIESSEN

Willst Du die Seite wirklich verlassen?


DAS KÖNNTE DICH AUCH INTERESSIEREN

Pinneberg: Familienvater wird Polygamie gestattet
Wien: Permanent furzender Flugpassagier veranlasst Notlandung
Jetzt hattest die SPD geschafft,erstmals hinter AFD


...oder unseren und keine aktuellen News mehr verpassen?