05.02.13 19:17 Uhr
 1.711
 

Intel will eine 180 GB große SSD-Festplatte auf den Markt bringen

Für einen Endverbraucherpreis ab etwa 150 Euro will Intel eine SSD-Festplatte mit einer Kapazität von 180 GB auf den Markt bringen. Bisher gab es in der Baureihe 335 nur ein einziges Laufwerk mit 240 GB Speicherplatz.

Die neue SSD-Festplatte hat die Bezeichnung SSDSC2CT180A4K5. Hergestellt ist sie aus Speicherbausteinen in NANDFlash-Technik mit einer Strukturbreite von 20 nm. Der Zulieferer der Teile ist die Firma IMFlash Technologies. Ein Sandforce SF-2281 Controller verwaltet die Bausteine.

Die Platte wird im 2,5-Zoll-Format gehalten sein. Die Schreib- und Lesegeschwindigkeit liegt bei 450 MB/s bzw. bei 500 MB/s und wird über einen SATA-III-Anschluss mit einer Geschwindigkeit von sechs Gb/s angeschlossen. Es werden drei Jahre Garantie auf das Gerät angeboten.


Videoplayer auf dieser Seite ausblenden
WebReporter: 24slash7
Rubrik:   High Tech
Schlagworte: Markt, Intel, Festplatte, SSD
Quelle: www.tomshardware.de

DAS KÖNNTE DICH AUCH INTERESSIEREN

Google: Schadsoftware auf Android-Geräten gefunden
BND will 150 Millionen Euro ausgeben, um Messenger wie WhatsApp zu entschlüsseln
Bei Netflix kann man nun auch Filme und Serien downloaden

Diese News zu meinen Favoriten hinzufügen Beitrag abgeben

11 User-Kommentare Alle Kommentare öffnen

Kommentar ansehen
05.02.2013 20:00 Uhr von jschling
 
+20 | -0
 
ANZEIGEN
wer eine SSD für Aufnahmen nutzt, der hat den Sinn und die Technik nicht verstanden (und zuviel Geld *g*)
aber 180GB für 150 Euro... zumindest nix besonderes
Kommentar ansehen
05.02.2013 20:15 Uhr von Rychveldir
 
+10 | -0
 
ANZEIGEN
Was ist jetzt hier die News? Andere Hersteller bieten mehr Platz für weniger Geld... ich habe 250 GB für 150 bekommen, läuft auch wie die Feuerwehr. Das ist viel mehr Platz als nur die wichtigsten Programme brauchen.
Kommentar ansehen
05.02.2013 20:23 Uhr von 24slash7
 
+6 | -4
 
ANZEIGEN
Ich war bisher der Meinung, diese Flash Speicher würden durch häufige Lösch- und Beschreibzyklen relativ schnell verschlissen, also zerstört? SSD Festplatten machen keinen Sinn bei gigantischen Speicheraufgaben. Da kommt es sicher weniger auf Geschwindigkeit an. Sinnvoll einsetzbar ist deren höhere Geschwindigkeit beim Bootvorgang und für die Auslagerungsdateien. Also für das BS.

[ nachträglich editiert von 24slash7 ]
Kommentar ansehen
05.02.2013 20:32 Uhr von Flutlicht
 
+2 | -0
 
ANZEIGEN
Halbwissen. Dazu gibt es ausführliche Berichte...

http://www.anandtech.com/...

Wem´s interessiert, kann sich ja den gesamten Bericht durchlesen. :)
Kommentar ansehen
05.02.2013 22:02 Uhr von ted1405
 
+5 | -1
 
ANZEIGEN
@jschling und @hoenipoenoekel ...

Da stimme ich absolut zu. Wer wichtige oder viele Daten (allein) auf einer SSD speichert, der hat die Technik nicht verstanden.

Leute ... macht so einen Scheiß nicht!

Eine SSD, welche richtig kaputt geht (z.B. durch eine anständige Spannungsspitze), nimmt alle Daten mit ins Grab. Eine Datenwiederherstellung ist - wenn überhaupt - nur mit höchstem, finanziellen Aufwand wieder möglich. So ist z.B. die Hilfe des Herstellers unabdingbar, da die Daten in den ICs durch die Hardware komprimiert und teilweise sogar verschlüsselt gespeichert werden.

Den Daten auf einer Festplatte ist es weitgehend völlig scheiß egal, ob die Elektronik gerade dank 230V oder schlimmeren Funken schlägt. Die Daten liegen auf den Magnetscheiben und können mit halbwegs erträglichen Kosten wieder gerettet werden.
Kommentar ansehen
05.02.2013 23:50 Uhr von DigitalKeeper
 
+1 | -2
 
ANZEIGEN
Boah, Ey....

...wenn diese zerhackte Speicherkacke mit dem ewigen und nervigen Auslagern endlich aufhören würde, dann würden die PCs rennen wie die Hölle.

Ich erinnere:

Vor gut 25 Jahren hatte man gerade mal bei einem gut ausgestatteten System 16 MB Speicher!!!

Und das Speichermanagement lief AUSSCHLIESSLICH übers ECHTE RAM !!!!

Sound an, Packer packt Proggys, mit Finalwriter Text bearbeitet, im Hintergund lief noch ne Emulation - und das alles Ruckelfrei gleichzeitig ohne Abstürze!!!!

Und nich die "V-Mem" Auslagerungskacke auffe Pladde...

Ich wette, wenn ich meinen guten Alten 4000´er mit BS starte, dann rennt das Ding bei VIELEN Anwendungen - siehe oben - garantiert drei mal so schnell, wie ne PC Krücke mit 3 GHz. Und die alte Kiste hatte gerade mal 40 Mhz - muahahhahahahha.....

PS: Scheixxx Compiler - Maschinensprache iss in....

C++/*/etc -> 3,8 MB und im Assembler-Code -> 150 KB - ich lach mich schlapp.......

Schon klar, warum kritische Anwendungen HARDWARE nah programmiert werden....

In diesem Sinne...
.
Kommentar ansehen
06.02.2013 08:01 Uhr von ted1405
 
+0 | -0
 
ANZEIGEN
@DigitalKeeper ...

is´ eine schöne Theorie, hat aber mit der Realität eher wenig zu tun. Aber verständlicher Weise ist es sehr einfach, die Schuld kurzerhand auf den oder die Compiler schieben zu wollen.

Ich programmiere mittlerweile seit 30 Jahren und habe dabei auch Projekte, welche mich über viele Jahre begleiten. Das generelle Problem ist der Fakt, dass neuer Code zum größten Teil auf altem Code aufbaut und diesen intensiv verwendet. Wenn ich das nun einmal auf Windows übertrage, dann kann man sich in etwa vorstellen, dass Windows wie eine Zwiebel aufgebaut ist. Mit jedem Jahr kommen neue Schichten hinzu und der Weg zum Kern wird länger.
Einmal angenommen ... mein Systemaufruf zum Zeichnen einer Linie ruft Routine A auf, welche B aufruft, welche ihrerseits C, D, E,F und auch noch G benutzt. Fast jede dieser Routinen prüft z.B., ob die übergebenen Werte überhaupt plausibel sind ... jeder normale Mensch würde sich an den Kopf greifen und sagen: "hat doch A schon längst geprüft!" ... einem Prozessor ist das aber egal.

Über Jahre verkettet sich somit immer mehr Code mit in Summe immer mehr überflüssigen Teilen. Ausmisten der alten Teile ist aber auch nicht möglich, denn wer weiß schon, welches steinalte Programm morgen genutzt werden soll und nur diese alten Routinen kennt?

Natürlich wird zwischendrin immer wieder mal alter Code optimiert, ggf. sogar auch in Assembler umgestellt - dennoch: die Summe an immer zunehmenden Verkettungen bremst jedes System letztlich auch aus.
Kommentar ansehen
06.02.2013 18:48 Uhr von Kanga
 
+0 | -0
 
ANZEIGEN
na hoffentlich sind die damit schnell auf dem markt..
wenn die sich zu viel zeit lassen..
braucht keiner mehr solche kleinen SSD´s
Kommentar ansehen
06.02.2013 19:10 Uhr von DigitalKeeper
 
+0 | -0
 
ANZEIGEN
@ ted1405

Jepp, so isses....

Es wäre schön, könnte man die Routinen "direkt" adressieren und dementsprechend die Stacks und Register verwenden. Leider, leider MUSS man ja den Balast mitschleppen.

Die Krux an der Sache ist, das der zerhackte Speicher immer noch weiter zerhackt wird, anstatt da mal aufzuräumen. Das Allerdings würde dazu führen, das 98% der Proggys/Routinen nicht mehr funktionieren würden. Zumindest bei dem umfangreichen Hadrwareangebot das es derzeit gibt.

Funktionieren könnte es, wenn - ja wenn, die Hardware-Architektur immer gleich wäre....Jay Miner war auf dem richtigen Wege...damals schon mit 32 Bit unterwegs....
Kommentar ansehen
06.02.2013 21:15 Uhr von mysimon
 
+0 | -0
 
ANZEIGEN
Passend wäre noch ein Gutscheincode und ein Ref-Link zu Amazon.
Kommentar ansehen
03.03.2013 17:19 Uhr von Seravan
 
+0 | -0
 
ANZEIGEN
liest sich wie ein Werbeartikel.........

Refresh |<-- <-   1-11/11   -> -->|
Diese News zu meinen Favoriten hinzufügen Beitrag abgeben


SCHLIESSEN

Willst Du die Seite wirklich verlassen?


DAS KÖNNTE DICH AUCH INTERESSIEREN

Kein Forum für Vollverschleierung, Kritik an "Anne Will"-Sendung
Besucher empört über muslimischen Infostand auf Weihnachtsmarkt
Bundesstaat New Mexiko/USA: Lehrerin bewertete Schüler für Sexleistungen


...oder unseren und keine aktuellen News mehr verpassen?