Task Manager Tab "Leistung" zeigt: 3,9 GB - Tab "Prozesse": 1,5 GB. Warum?

#0
18.12.2013, 13:24
Member
Avatar Xeper

Beiträge: 5285
#16

Zitat

Ich verschiebe ja schon ständig Daten auf externe Platten, ein großer Aufwand bei Windows, jedenfalls für mich, und natürlich langsam.
Verschieben ist immer sehr langsam weil es sehr uneffizient ist halt: O(1).
Daher sollte man größere Daten auch nicht verschieben... ich selbst empfehle da immer ein RAID -
allerdings ist sowas natürlich stationär.
Daten >=1TB rumzuschleppen halte ich auch nicht gerade für optimal, in diesen Größen steht SSD auch nicht zur Relation natürlich.
Das Problem aber auch ist das MS Windows ja keine Möglichkeiten hat größere RAIDs optimal zu verwalten, daher greifen viele Leute halt zu diesen NAS Stationen, da läuft halt im Grunde dann ein Linux System und der Benutzer hat eine Weboberfläche um das ganze zu administrieren - vielleicht wäre das ja was für dich.

Zitat

Defragmentieren hat für mich noch nie merkbar das System schneller werden lassen.
Das ist der Grund warum andere Betriebssysteme auch keine Möglichkeit dazu haben (oder nur in Ausnahmefällen),
ist sowieso suboptimal - am besten es fragmentiert nicht so stark. ;)
__________
Email/XMPP: therion at ninth-art dot de
IRC: megatherion @ Freenode
Seitenanfang Seitenende
18.12.2013, 13:32
Member

Themenstarter

Beiträge: 429
#17 Also, eigentlich kopieren, nicht verschieben (ist mir zu gefährlich bei Windows), bzw. synchronisieren, danach dann die Quell-Dateien löschen, wenn sie sicher kopiert worden sind.

Vielleicht sollte ich ja tatsächlich mal Linux ausprobieren oder das teure Apple-System. Aber wieder gänzlich neu sich mit einem anderen System zu befassen, "von vorne" anzufangen, gefiele mir auch nicht. Und ich weiß vor allem auch gar nicht, welche Programme ich dann nicht mehr nutzen könnte, welche mir fehlten auf so einem neuen System
__________
- aktuelles Vista Home Premium, alle Service Packs
- Windows 7 Home Premium Build 7600
Seitenanfang Seitenende
18.12.2013, 13:36
Member
Avatar Xeper

Beiträge: 5285
#18 Naja ich wollte dir jetzt nicht nahelegen sofort auf ein anderes System umzusteigen,
dass war jetzt nur für die Storage Lösung in Bezug auf größere Datenmengen - da hat MS Windows nun mal echt nicht viel zu bieten im Gegensatz zu POSIX/UNIX Systemen.

Zitat

Vielleicht sollte ich ja tatsächlich mal Linux ausprobieren oder das teure Apple-System.
...
welche Programme ich dann nicht mehr nutzen könnte, welche mir fehlten auf so einem neuen System
Also Mac OS X ist natürlich ein gutes System (ein BSD Derivat) aber die bieten halt eine eigene Produktpalette an,
wo du natürlich dann entsprechend jede Software die du benötigst auch erstmal wieder erwerben müsstest.

Welche Programme brauchst du denn, bzw. was benutzt du täglich?
__________
Email/XMPP: therion at ninth-art dot de
IRC: megatherion @ Freenode
Seitenanfang Seitenende
18.12.2013, 13:46
Member

Themenstarter

Beiträge: 429
#19 Was brauchte ich denn alles, um diese NAS Stationen nutzen zu können, wäre der Aufwand groß, das einzurichten?

Das sind ganz schön viele Programme, von sagen wir mal "üblichen" abgesehen, wie Firefox, Thunderbird etc. XBMC, Media Portal, Freecommander, jDownloader, WinSCP, FileZilla, OpenOffice oder LibreOffice, foobar, viele kleine Programme, etwa zum Kopieren und so, da kommen wohl massenhaft zusammen.
__________
- aktuelles Vista Home Premium, alle Service Packs
- Windows 7 Home Premium Build 7600
Seitenanfang Seitenende
18.12.2013, 14:12
Member
Avatar Xeper

Beiträge: 5285
#20

Zitat

Das sind ganz schön viele Programme,
Naja du musst jetzt bedenken das viele Programme die du aufgezählt hast sowieso erstmals
unter Linux verfügbar waren (OSS/GNU) und viel später auf Windows portiert worden sind.
Foobar ist nicht besonders toll von dem was ich mal gesehen hab, da ist amaroK um längen besser -
Music player (sehr gute sogar) gibt es für UNIX Systeme zu genüge...

Das meiste was du aufgezählt hast auch + viel mehr...

Zitat

Was brauchte ich denn alles, um diese NAS Stationen nutzen zu können, wäre der Aufwand groß, das einzurichten?
Da ist der Aufwand natürlich gering, dafür kosten die ja auch einiges - sind ja out-of-the-box Lösungen...
__________
Email/XMPP: therion at ninth-art dot de
IRC: megatherion @ Freenode
Seitenanfang Seitenende
26.12.2013, 12:58
Member

Themenstarter

Beiträge: 429
#21

Zitat

Naja du musst jetzt bedenken das viele Programme die du aufgezählt hast sowieso erstmals
unter Linux verfügbar waren (OSS/GNU) und viel später auf Windows portiert worden sind.
Vermute, auf Linux funktionieren sie wenigstens einwandfrei.

Ach, hätte gedacht, gerade foobar ist eines der umfangreichsten / besten Programme zum Abspielen von Musik, wüßte gar nicht - von ein paar Ausnahmen wohl -, was man da noch besser machen könnte, vom dem Arbeitsplatzverbrauch auch noch abgesehen.
Werde mal amaroK ausprobieren, gibt es offenbar nicht als portable Version, kann mich nicht daran erinnern, davon mal gehört zu haben. Haben eigentlich portable Versionen Nachteile zu fest intallierten? Bevorzuge portable, weil bei mir bei Windows ja schnell mal nicht mehr funktioniert und man so den gigantischen Aufwand der Neueinrichtung portabler Programme nicht mehr betreiben muß.

Ah so, hohe Kosten, na ja...aber vielleicht werde ich doch mal Linux ausprobieren. So ein Betriebsprogramm und Porgramme, die einfach immer funktionieren oder überhaupt erst richtig...kann ich mir gar nicht vorstellen.
__________
- aktuelles Vista Home Premium, alle Service Packs
- Windows 7 Home Premium Build 7600
Seitenanfang Seitenende
26.12.2013, 16:23
Member
Avatar Xeper

Beiträge: 5285
#22

Zitat

Werde mal amaroK ausprobieren, gibt es offenbar nicht als portable Version, kann mich nicht daran erinnern, davon mal gehört zu haben.
amaroK ist erst kürzlich (seit QT4) auf Windows portiert worden, gabs vorher nicht für Win.

Zitat

Haben eigentlich portable Versionen Nachteile zu fest intallierten?
Natürlich, du musst alle Bibliotheken mit schleppen - die Dinger starten langsam -
es ist eigentlich auch nicht der Sinn eines Betriebssystems auf dynamische Bindung zu verzichten, aber naja.

Zitat

Bevorzuge portable, weil bei mir bei Windows ja schnell mal nicht mehr funktioniert und man so den gigantischen Aufwand der Neueinrichtung portabler Programme nicht mehr betreiben muß.
Joa kann ich schon verstehen, da hat man ja dann normalerweise ein Backup - aber auch das scheint wohl bis heute bei Windows nicht vernünftig zu funktionieren, sonst hätte ja jeder eins.
Anscheinend ist es nur durch dritt Programme und durch großen Aufwand zu erreichen,
unter UNIX Systemen ziehst du das "Backup" mal kurz während des Arbeitens...
Ober man benutzt (zusätzlich) noch Snapshots - sofern man ein COW Dateisystem benutzt.

Zitat

So ein Betriebsprogramm und Porgramme, die einfach immer funktionieren oder überhaupt erst richtig...kann ich mir gar nicht vorstellen.
Joa und das ist einfach bei allen Betriebssystemen so, außer bei Windows - ich kenne eigentlich so fast alles was es gibt.
Daher finde ich es auch immer und immer wieder erstaunlich welcher Aufwand betrieben wird um mit Windows weiter zu arbeiten - da werden logs erarbeitet und keine Ahnung was um eine Totgeburt irgendwie nochmal in die Gänge zu bekommen.
Ich denk mir da einfach, hätten die Leute diese Zeit einfach mal investiert um auf was anderes zu migrieren hätten die kein Problem mehr...

Spiele war bis her immer noch so ein großes Argument, aber auch das wird immer schwächer...
für bestimmte Windows Anwendungen (Photoshop usw.) oder Windows Entwicklung kann man sowieso schon seit Jahren auf Virtualisierung zurückgreifen.

Hab auch einige MS Win XP / Win 7 Umgebungen die ich auf einer dedizierten SSD (als zvol) gespeichert hab und die starten auch flux... da kann man dann mal mit 2, 3 Betriebssystemen parallel arbeiten wenns denn nun sei muss.

Edit:

Muss dazu sagen, selber brauche ich kein NAS weil ich privat nur eine Workstation habe (darf man so nennen, hat schon so einen Umfang).
Da habe ich dann mein 6TB zpool welches auch ständig in Benutzung ist, momentan sieht das dann so aus:

Zitat

therion@enigma ~ > sudo zpool list <16:33
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
system 212G 180G 32,0G 84% 1.00x ONLINE -
vdisks 214G 92,1G 122G 43% 1.24x ONLINE -
warehouse 5,44T 4,59T 863G 84% 1.13x ONLINE -
Das geniale ist ja das ZFS sowieso nun für Solaris, FreeBSD und Linux existiert,
hat man auch nicht mehr das Problem das OS X das FS Z nicht lesen kann -
wenn ich dann mal (viele) Daten übertragen muss ziehe ich einfach die Festplatte bzw.
und importier die in ein anderes System.
Externe Festplatten bringen in meinen Augen eigentlich gar nichts, sterben wie die Fliegen und man hat dadurch nichts erreicht da die Daten ja immernoch unsicher gelagert werden.
__________
Email/XMPP: therion at ninth-art dot de
IRC: megatherion @ Freenode
Dieser Beitrag wurde am 26.12.2013 um 16:41 Uhr von Xeper editiert.
Seitenanfang Seitenende
26.12.2013, 22:18
Member

Themenstarter

Beiträge: 429
#23

Zitat

amaroK ist erst kürzlich (seit QT4) auf Windows portiert worden, gabs vorher nicht für Win.
Ah so, habe ich installiert, bzw. es versucht, kriege es aber momentan nicht zum Starten, na ja, mal sehen. Würde mich ja interessieren.

Zitat

Natürlich, du musst alle Bibliotheken mit schleppen - die Dinger starten langsam -
es ist eigentlich auch nicht der Sinn eines Betriebssystems auf dynamische Bindung zu verzichten, aber naja.
Ja, bevor bei mir so ein Programm gestartet ist, vergehen im schlechten Falle mitunter einige Minuten. Das würde es dann ja erklären.

Zitat

Joa kann ich schon verstehen, da hat man ja dann normalerweise ein Backup - aber auch das scheint wohl bis heute bei Windows nicht vernünftig zu funktionieren, sonst hätte ja jeder eins.
Ja, Möglichkeiten Daten zu sichern hat Windows, glaube ich. Man kann ja auch Images machen vom Betriebssystem, hatte ich eine zeitlang mal gemacht, aber das hatte auch irgendwelche Nachteile, falls ich mich recht erinnere. Bei portablen Programmen, die man eigentlich wohl am besten auf einer anderen Festplatte haben sollte, hätte man eben den Vorteil, daß man dafür nicht mal ein Backup haben brauchte (aber haben sollte), wenn C: zerschrotet, kann man einfach nur das OS neu installieren, ist ja schon genug Aufwand mit allen Einstellungen, Treibern etc.
Es kann natürlich übrigens auch sein, daß ich mit diesem Windows und alledem nicht vernünftig umgehen kann und ich daher Probleme habe, das kann ich natürlich nicht ausschließen, aber Win sollte ja auch für weniger bemittelte Leute funktionieren.

Zitat

Anscheinend ist es nur durch dritt Programme und durch großen Aufwand zu erreichen,
unter UNIX Systemen ziehst du das "Backup" mal kurz während des Arbeitens...
Ja, das würde ich sagen, den Aufwand empfinde ich als enorm. Während des Arbeitens geht bei mir auch nur sehr unangenehm, da das System damit unbrauchbar langsam wird mitunter, sollte man wohl dann am besten machen, wenn man nicht am Computer tätig ist.

Zitat

Ober man benutzt (zusätzlich) noch Snapshots - sofern man ein COW Dateisystem benutzt.
Das entspricht wohl den Images.

Zitat

Joa und das ist einfach bei allen Betriebssystemen so, außer bei Windows - ich kenne eigentlich so fast alles was es gibt.
Daher finde ich es auch immer und immer wieder erstaunlich welcher Aufwand betrieben wird um mit Windows weiter zu arbeiten - da werden logs erarbeitet und keine Ahnung was um eine Totgeburt irgendwie nochmal in die Gänge zu bekommen.
Ich denk mir da einfach, hätten die Leute diese Zeit einfach mal investiert um auf was anderes zu migrieren hätten die kein Problem mehr...
Ja, ich hätte diese Zeit, die vermutlich für den Aufwand für Windows lächerlich sein könnte, auch schon verwenden sollen. Werde wohl einfach mal Linux mir 'raufspielen, das geht glaube ich sogar auf einer eigenen Partition, von der man das OS starten kann. Könnte ich dann ja nach und nach erweitern mit benötigten Programmen, langsam anfangen.

Zitat

Hab auch einige MS Win XP / Win 7 Umgebungen die ich auf einer dedizierten SSD (als zvol) gespeichert hab und die starten auch flux... da kann man dann mal mit 2, 3 Betriebssystemen parallel arbeiten wenns denn nun sei muss.

Edit:

Muss dazu sagen, selber brauche ich kein NAS weil ich privat nur eine Workstation habe (darf man so nennen, hat schon so einen Umfang).
Da habe ich dann mein 6TB zpool welches auch ständig in Benutzung ist, momentan sieht das dann so aus:

Zitat

therion@enigma ~ > sudo zpool list <16:33
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
system 212G 180G 32,0G 84% 1.00x ONLINE -
vdisks 214G 92,1G 122G 43% 1.24x ONLINE -
warehouse 5,44T 4,59T 863G 84% 1.13x ONLINE -

Das geniale ist ja das ZFS sowieso nun für Solaris, FreeBSD und Linux existiert,
hat man auch nicht mehr das Problem das OS X das FS Z nicht lesen kann -
wenn ich dann mal (viele) Daten übertragen muss ziehe ich einfach die Festplatte bzw.
und importier die in ein anderes System.
Glaube, von dem meisten habe ich als gemeiner Kachelschieber noch nicht einmal etwas gehört.

Ach, externe Platten (interne dann wohl nicht minder) gehen tatsächlich so oft kaputt? Sehr beunruhigend, bisher bin ich immer noch mal gerade so davongekommen, habe so ungefähr 20 TB Daten, die ich wohl größtenteils nicht gesichert habe, hatte immer gehofft, daß die Plattenkapazitäten schnell größer werden, so daß ich vielleicht die originalen Daten auf 2, 3 Platten haben könnte und noch mal die gleiche Anzahl Platten zum Sichern, aber das dauert ja wohl doch noch einige Zeit. Der Aufwand zum Sichern wäre ja auch nicht unbeträchtlich beim gegenwärtigen Stand.
__________
- aktuelles Vista Home Premium, alle Service Packs
- Windows 7 Home Premium Build 7600
Seitenanfang Seitenende
26.12.2013, 23:15
Member
Avatar Xeper

Beiträge: 5285
#24

Zitat

...
Das entspricht wohl den Images.
Nein nein, Snapshots sind keine images sondern feste Momente zu einem bestimmten Zeitpunkt eines Volumes/Dateisystems.
Unter MS Windows hat man das ja als Schattenkopien implementiert?
Allerdings weiß ich nicht wieviel das bringt, da es ja wieder angebaut ist - NTFS ist ja kein COW Dateisystem somit ist das bestimmt entweder nicht Dateisystem Ebene und/oder schrecklich inperformant.
Unter ZFS kosten Snapshot's gar nichts, es werden einfach die momentanen Daten referenziert,
man kann sofort die Differenz zwischen Snapshots feststellen oder einfach das System zu einen früheren Zeitpunkt booten/besuchen.

Zitat

Werde wohl einfach mal Linux mir 'raufspielen, das geht glaube ich sogar auf einer eigenen Partition, von der man das OS starten kann.
Du solltest schon vorher Planen, Partitionen sind ja eher suboptimal -
sagen wir einfach wenn du dir jetzt nicht sicher bist oder erst mal schauen möchtest benutze doch Virtualisierung zb. mit VirtualBox (gibt's ja auch für Windows).

Zitat

Ach, externe Platten (interne dann wohl nicht minder) gehen tatsächlich so oft kaputt?
Natürlich, ganz oft sogar - naja interne Festplatten gehen bei Windows auch sehr oft kaputt -
aber im Verbund hält sich sowas in Grenzen.
Mir ist schon lange keine Festplatte mehr kaputt gegangen... die Last wird ja auch verteilt auf alle 4.

Zitat

Sehr beunruhigend, bisher bin ich immer noch mal gerade so davongekommen, habe so ungefähr 20 TB Daten, die ich wohl größtenteils nicht gesichert habe,
20TB Daten ohne ein ordentliches Dateisystem?
Das ist ja gruselig, woher willst du wissen ob die Daten alle noch intakt sind oder schon korrupiert sind? ;)
20TB ohne ordentliches Dateisystem/Volume Manager lassen sich nicht vernünftig verwalten,
so viele Daten redundant zu speichern ist natürlich kosten-intensiv aber was will man machen.

Zitat

Der Aufwand zum Sichern wäre ja auch nicht unbeträchtlich beim gegenwärtigen Stand.
Tja mit einem RAID ja eben nicht, daher hat man sowas ja - man sichert ja nicht manuell irgendwas... das wäre sehr schlecht. ;)

Im Moment nutze ich ein RAID10 das wäre dann so:

Zitat

NAME STATE READ WRITE CKSUM
warehouse ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
wwn-0x50014ee60342a5b8 ONLINE 0 0 0
wwn-0x50014ee6adecc3f5 ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
wwn-0x50014ee6adecb6b3 ONLINE 0 0 0
wwn-0x50014ee603424142 ONLINE 0 0 0
... das heißt 2 Spiegel a 3TB - zusammen 6TB.
Das striping der Spiegel übernimmt ZFS automatisch da striping immer inklusive ist.
So kann zumindestens eine Festplatte (egal welche) ausfallen oder zwei von unterschiedlichen Spiegeln - so muss das sein.
Bei 20TB brauch man dann entsprechend mehr Festplatten bzw. kann immernoch mit Deduplikation usw. arbeiten - weiß ja nicht was du da genau speicherst.
Alles andere ist halt quatsch, da glaubt man zu einem gewissen Zeitpunkt 20TB zu haben - und wenn man nochma genau nach schaut sind dann 5TB tot oder defekt oder kp was. ;)
ZFS garantiert nicht nur die Integrität der Metadatan sondern auch der eigentlichen Daten,
heißt wenn was wo kaputt geht und man hat Redundanz wird es automatisch repariert/ersetzt.
Bzw. in dem RAID Fall wird dann eh vermutlich gleich die gesamte Festplatte getauscht -
das alles geht zum Zeitpunkt des arbeitens, da muss man nix runterfahren oder manuell umändern und verliert somit weder Zeit noch Daten.

Zitat

Glaube, von dem meisten habe ich als gemeiner Kachelschieber noch nicht einmal etwas gehört.
Naja es wäre ineffizient ein GUI für die ZFS utilities zu verwenden, die sind über CLI einfach viel besser kontrollierbar.

Es gibt natürlich noch andere Dateisysteme, man kann Linux RAID verwenden und dann XFS (XFS ist für große Daten sehr gut geeignet, aber halt ein traditionelles Dateisystem) kombinieren aber das hab ich früher getan - im Moment gibt es einfach nichts besseres als ZFS.
__________
Email/XMPP: therion at ninth-art dot de
IRC: megatherion @ Freenode
Dieser Beitrag wurde am 26.12.2013 um 23:23 Uhr von Xeper editiert.
Seitenanfang Seitenende
29.12.2013, 20:49
Member

Themenstarter

Beiträge: 429
#25

Zitat

20TB Daten ohne ein ordentliches Dateisystem?
Das ist ja gruselig, woher willst du wissen ob die Daten alle noch intakt sind oder schon korrupiert sind?
Ja, wohlwollend ausgedrückt gruselig...da würde ich jetzt einfach mal raten, ich glaube, ich weiß es gar nicht...aber ich glaube auch, ich will es lieber gar nicht wissen...und mich in meiner Erinnerung einfach an den 20 TB oder so erfreuen, die vielleicht noch 20 b sind...

Zitat

20TB ohne ordentliches Dateisystem/Volume Manager lassen sich nicht vernünftig verwalten,
Das kann man wohl sagen, überhaupt allein Dateien auf zig Platten zu finden, macht keinen Spaß. Man könnte natürlich Dateilisten, Ordnerlisten mit einem Programm erzeugen, aber das dauert ja alles, vor allem, die aktuell zu halten, wäre ja auch wieder aufwändig. Gibt es einen sinnvollen Volume Manager für Windows?

Zitat

so viele Daten redundant zu speichern ist natürlich kosten-intensiv aber was will man machen.
Wenn man die Daten so, also redundant speichern wollte, brauchte man also weitere 40 TB? Aber müßten nicht eigentlich auch 20 TB genügen? Das müßte ja auch schon ziehmlich sicher sein.

Zitat

... das heißt 2 Spiegel a 3TB - zusammen 6TB.
Das striping der Spiegel übernimmt ZFS automatisch da striping immer inklusive ist.
So kann zumindestens eine Festplatte (egal welche) ausfallen oder zwei von unterschiedlichen Spiegeln - so muss das sein.
Bei 20TB brauch man dann entsprechend mehr Festplatten bzw. kann immernoch mit Deduplikation usw. arbeiten - weiß ja nicht was du da genau speicherst.
Alles andere ist halt quatsch, da glaubt man zu einem gewissen Zeitpunkt 20TB zu haben - und wenn man nochma genau nach schaut sind dann 5TB tot oder defekt oder kp was
Ah ja, also tatsächlich 40 TB, wie ich oben meinte. Das wären ja wirklich recht hohe Kosten, dazu kommen ja dann wohl noch irgendwelche Geräte, diese RAIDs. Das müßten ja allein für die Platten...circa 1300 € sein, 3 TB gibt es ja wohl für 90 €.

Ist hauptsächlich Musik auf den Platten, also wav, mp3, flac und so, bzw. das in Archiven, zip, rar, Fotos sind auch dabei.
__________
- aktuelles Vista Home Premium, alle Service Packs
- Windows 7 Home Premium Build 7600
Seitenanfang Seitenende
29.12.2013, 22:08
Member
Avatar Xeper

Beiträge: 5285
#26

Zitat

Ah ja, also tatsächlich 40 TB, wie ich oben meinte.
Auf jedenfall ein vielfaches, bei 20TB würde man vielleicht nicht unbedingt RAID10 empfehlen - wie gesagt 20TB sind schon eine Menge.
Ein RAID5 kann also zb. aus 6x4TB Festplatten bestehen, dann kommst du auf deine 20TB.

Rechnung ergibt sich aus:
(Anzahl der Festplatten − 1) × (Kapazität der kleinsten Festplatte)

Nur die Schreibgeschwindigkeit ist bei RAID5 nicht mehr als durchschnittlich,
aber das sollte zum archivieren egal sein.

Zitat

Gibt es einen sinnvollen Volume Manager für Windows?
Da es ja schon beim Dateisystem mangelt würde ich das einfach vergessen...
Ich kann es mir nicht vorstellen 20TB in einem einzigen NTFS zu verwalten,
wenn jemand da noch etwas sinnvolles anmerken kann soll er das gerne tuen.

Zitat

3 TB gibt es ja wohl für 90 €.
Joa greif jetzt aber nicht zur untersten Qualität - da spart man nur am falschen Ende.
So eine Sache baut man ja für Dauer und nicht für mal eben kurz...

Zum Thema Volume Manager les dir vielleicht einfach mal die Wiki Seite durch:
http://de.wikipedia.org/wiki/Logical_Volume_Manager
http://de.wikipedia.org/wiki/RAID

Für ZFS zum Einstieg:
http://de.wikipedia.org/wiki/ZFS_(Dateisystem)
__________
Email/XMPP: therion at ninth-art dot de
IRC: megatherion @ Freenode
Seitenanfang Seitenende
29.12.2013, 23:12
Member

Themenstarter

Beiträge: 429
#27 Danke für die Links.

Das alles aufzubauen, und das noch richtig, sich damit auszukennen, so daß man es alltagsgerecht sinnvoll einsetzen kann, scheint mir aber - jedenfalls für mich - nicht gerade so einfach zu sein und verdammt viel Zeit zu brauchen.

Es müssen doch in so einem RAID-System dann alle Platten immer eingeschaltet sein, oder?

Zitat

Nur die Schreibgeschwindigkeit ist bei RAID5 nicht mehr als durchschnittlich,
aber das sollte zum archivieren egal sein.
Die Daten sollen eigentlich nicht oder nicht nur archiviert werden, sondern ja auch benutzt werden, also etwa Musik / Alben etc. gespielt werden, Titel gesucht etc. Aber auch beim Archivieren / Datensichern, das ich ja dann zu machen versuche, wenn ich den Computer nicht benutzen will, etwa nachts, ist diese Langsamkeit unangenehm, ich muß ja immer darauf achten, daß ich den Computer wirklich nicht brauche während so einer Sicherung, weil er dann meist unbrauchbar langsam ist, auch können andere Aufgaben gleichzeitig nur maximal eingeschränkt laufen.

Zitat

Joa greif jetzt aber nicht zur untersten Qualität - da spart man nur am falschen Ende.
Hätte eigentlich gedacht, so große Unterschiede gibt es da gar nicht mehr. Zwar weiß ich, daß bestimmte Marken zu bestimmten Zeiten besser oder schlechter getestet sind, weniger oder mehr Ausfälle haben, aber ich dachte, grundsätzlich gibt es da in der Qualität kaum noch Unterschiede. 3,5"-Platten wären doch 2,5"-Platten bestimmt vorzuziehen.
__________
- aktuelles Vista Home Premium, alle Service Packs
- Windows 7 Home Premium Build 7600
Seitenanfang Seitenende
29.12.2013, 23:25
Member
Avatar Xeper

Beiträge: 5285
#28

Zitat

Es müssen doch in so einem RAID-System dann alle Platten immer eingeschaltet sein, oder?
Natürlich.

Zitat

Die Daten sollen eigentlich nicht oder nicht nur archiviert werden, sondern ja auch benutzt werden, also etwa Musik / Alben etc. gespielt werden, Titel gesucht etc. Aber auch beim Archivieren / Datensichern, das ich ja dann zu machen versuche, wenn ich den Computer nicht benutzen will, etwa nachts, ist diese Langsamkeit unangenehm, ich muß ja immer darauf achten, daß ich den Computer wirklich nicht brauche während so einer Sicherung, weil er dann meist unbrauchbar langsam ist, auch können andere Aufgaben gleichzeitig nur maximal eingeschränkt laufen.
Ja das wird schon gehen, es hängt natürlich auch von anderen Faktoren ab das ist je nach Konfiguration unterschiedlich.
Lesen geht schon schnell, schreiben ist wie gesagt so eine Sache das kommt drauf an wieviel.
Dein Backup wirst du schon machen können...

Zitat

Hätte eigentlich gedacht, so große Unterschiede gibt es da gar nicht mehr.
Naja 1, 2 Unterschiede gibt es da schon, besonders wenn man gesteigerte Ansprüche hat und die nicht einfach irgendwo rumgammeln sollen... es kommt natürlich drauf an was du dir da vorstellst - wenn es dir reicht irgendwie nur Daten gepspeichert zu haben und diese aber entbehrlich sind - wenn dann mal eine Festplatte ganz ausfällt und dann nun mal ca. 15% der Daten komplett verloren sind - egal ist, dann ist auch eine ordentliche Lösung viel zu kosten intensiv.

Nach meiner Meinung sind 0-8-15 Lösungen in der heutigen Welt wo doch zunehmend alle (persönlichen) Daten digitalisiert werden bzw. digital gespeichert werden unzureichend.
Insbesondere die sog. handelsüblichen externen Festplatten - da hab ich einfach schon ein dutzend Leute gesehen die sich da fälschlicherweise drauf verlassen haben genauso wie auf USB Sticks.
Oder die denken es würde genügen wenn man die Daten einfach mal sporadisch dann auch noch auf eine andere Festplatte kopiert...

Auf der anderen Seite gibt es dann die bequeme Cloud wo man Sachen nach irgendwo hochlädt und dann ein vermeidliches Backup hat - tatsächlich ist das natürlich auch nur ein Placebo für's Gewissen - wenn es drauf ankommt hat man bei einer kostenlosen Cloud kein tatsächliches Anrecht oder auch nur irgendeine Garantie auf die Daten - von der Privatsspähre mal ganz zu schweigen.

Zitat

...aber ich dachte, grundsätzlich gibt es da in der Qualität kaum noch Unterschiede. 3,5"-Platten wären doch 2,5"-Platten bestimmt vorzuziehen.
Das auf jedenfall.
__________
Email/XMPP: therion at ninth-art dot de
IRC: megatherion @ Freenode
Seitenanfang Seitenende
30.12.2013, 00:31
Member

Themenstarter

Beiträge: 429
#29

Zitat

Insbesondere die sog. handelsüblichen externen Festplatten - da hab ich einfach schon ein dutzend Leute gesehen die sich da fälschlicherweise drauf verlassen haben genauso wie auf USB Sticks.
Oder die denken es würde genügen wenn man die Daten einfach mal sporadisch dann auch noch auf eine andere Festplatte kopiert...
Selbst, wenn man regelmäßig, also so, wie es sinnvoll wäre, den gesamten Inhalt der originalen Dateien einer externen (oder auch internen) Platte auf eine andere externe Platte kopierte, genügte das nicht? Wohl, weil das Dateisystem / die Daten bei Windows auf so einer externen (oder auch internen) Platte einfach zu instabil sind, nehme ich an.

Zitat

Auf der anderen Seite gibt es dann die bequeme Cloud wo man Sachen nach irgendwo hochlädt und dann ein vermeidliches Backup hat - tatsächlich ist das natürlich auch nur ein Placebo für's Gewissen - wenn es drauf ankommt hat man bei einer kostenlosen Cloud kein tatsächliches Anrecht oder auch nur irgendeine Garantie auf die Daten - von der Privatsspähre mal ganz zu schweigen.
Da wäre ja ohnehin wohl - jedenfalls bei 20 TB, falls das überhaupt sinnvoll wäre so zu sichern - die Geschwindigkeit der Internetverbindung mitentscheidend, aber in der Tat, ich hätte da Bedenken, daß da jemand an die Daten 'rankäme, der es nicht soll. Überhaupt müßten oder sollten die Daten ja vermutlich auch verschlüsselt werden (oder nur der Zugang), das würde wohl auch wieder Zeit kosten, das Ver-, Entschlüsseln. Also das alles auch bei einem bezahlten Online-Speicher.

Zitat

Naja 1, 2 Unterschiede gibt es da schon, besonders wenn man gesteigerte Ansprüche hat und die nicht einfach irgendwo rumgammeln sollen... es kommt natürlich drauf an was du dir da vorstellst - wenn es dir reicht irgendwie nur Daten gepspeichert zu haben und diese aber entbehrlich sind - wenn dann mal eine Festplatte ganz ausfällt und dann nun mal ca. 15% der Daten komplett verloren sind - egal ist, dann ist auch eine ordentliche Lösung viel zu kosten intensiv.
Was für eine Platte sollte man denn da nehmen? Welchen Anforderungen müßte so eine entsprechen?
__________
- aktuelles Vista Home Premium, alle Service Packs
- Windows 7 Home Premium Build 7600
Seitenanfang Seitenende
30.12.2013, 02:40
Member
Avatar Xeper

Beiträge: 5285
#30

Zitat

Selbst, wenn man regelmäßig, also so, wie es sinnvoll wäre, den gesamten Inhalt der originalen Dateien einer externen (oder auch internen) Platte auf eine andere externe Platte kopierte, genügte das nicht?
Joa das würde ja schon genügen, bei dir hieße das nun du musst wissen auf welcher Festplatte du das Verzeichnis Foobar00100 hast - die Festplatte anschließen, alles kopieren.
Nochmal checken ob das geklappt hat, dann die Festplatte wieder abhängen.

Das heißt trotzdem das du von diesen Daten keinerlei Redundanz hast,
bekommt die Festplatte einen defekt - mechanisch oder noch schlimmer elektronisch ist alles verloren.
Desweiteren darfst du nicht den Menschen als Fehlerquelle vergessen,
stell dir einfach vor das du das mit dem kopieren nun öfters machen musst.
Dann ist die Wahrscheinlichkeit sehr groß das du etwas vergessen wirst oder dir ein Fehler unterlaufen wird.

Im schlimmsten Fall merkst du das dann wenn du die Daten wieder brauchst und die sind nicht da wo du diese erwartest...
Desweiteren passieren einfach statistisch gesehen auch Übertragungsfehler und kleinere Mängel wenn du mit solchen Mengen zu tuen hast - nun gut zumindestens das haben die meisten Leute nicht.

Zitat

Was für eine Platte sollte man denn da nehmen? Welchen Anforderungen müßte so eine entsprechen?
Im Moment benutze ich 4x WD Red 3TB Festplatten und die laufen wie erwartet, die sind jedenfalls für NAS Zwecke ausgelegt - mehr oder weniger im 24/7 Betrieb.
Seit Do Apr 18 19:40 2013 sind diese nun im Einsatz -
dazu noch 2x SSD Talos (die hab ich schon etwas länger) aber die haben mit dem RAID10 nichts zu tun.

Zitat

Wohl, weil das Dateisystem / die Daten bei Windows auf so einer externen (oder auch internen) Platte einfach zu instabil sind, nehme ich an.
Da kann man nun vieles behaupten, ich versuche mal so objektiv wie möglich zu sein.
Viele Jahre stagnierte die Entwicklung von Dateisystemen, wer glaubt das dies eine triviale Angelegenheit ist wie Daten auf der Festplatte effizient gespeichert werden - der irrt.
In den jüngeren Jahren wurde NTFS mehrmals überarbeitet, dass On-Disk Layout änderte sich jedoch nicht ausreichend - man hat nicht wirklich versucht etwas daran zu tuen.
Es ist nun schon 20 Jahre alt und schon damals war es nicht besonders gut, oder mit Hinblick auf große Daten oder zukünftige Datenmengen optimiert (nicht so wie XFS zb. das erschien 1 Jahr später und ist noch immer eines der besten und stabilsten traditionellen Dateisysteme).

In Windows gehen Festplatten sowieso gerne defekt, besonders die wo das Betriebssystem selbst gespeichert ist - da tauchen dann regelmäßig immer die ersten defekten Sektoren auf.
Das nicht nach irgendwelchen langen langen Jahren sondern schon nach 1-3 Jahren bei den unterschiedlichsten Festplatten Herstellern (ergo Hersteller unabhängig).
Woran das nun tatsächlich liegt ob es NTFS selbst ist oder die MS Windows Implementation - keine Ahnung, läßt sich bei closed-source ja auch nicht weiter feststellen.
Auf jedenfall ist es ineffizient im Sinne wie es Dateien verwaltet und vor allem heut zu Tage im
Storage Bereich mit den Datenmengen die verarbeitet werden müssen unzureichend.
__________
Email/XMPP: therion at ninth-art dot de
IRC: megatherion @ Freenode
Seitenanfang Seitenende
Um auf dieses Thema zu ANTWORTEN
bitte erst » hier kostenlos registrieren!!

Folgende Themen könnten Dich auch interessieren: