Was ist eigentlich: … ein Petabyte, Exabyte, Zettabyte

/

cloud_computingWir speichern, arbeiten, kommunizieren immer seltener via lokal gespeicherte Programme und Daten, sondern via «die Wolke» – IT-Infrastrukturen, die im Netz(werk) gespeichert und betrieben werden. Die Datenmengen in dieser «Cloud» sind riesig.

Vorbei die Zeiten, in denen wir neue Software mühsam auf unserem Computer gespeichert und gewartet haben. Wir greifen auf Funktionen zu, die zentral «gehostet» und angeboten werden. Das reduziert zwar den Platzbedarf auf unseren Geräten – nicht aber denjenigen im Netzwerk: Hier wächst und wächst der Datenberg rasant. Die Forscher der Datenspezialisten von IDC (International Data Corporation) gehen davon aus, dass 2010 die Gesamtheit aller digitalen Daten von 800’000 Petabyte um 50 % auf 1,2 Millionen Petabyte gewachsen ist. Wieviel ist das? Ein Überblick:

1 Kilobyte kB = 1’000 Byte
1 Megabyte MB = 1’000’000 Bytes
1 Gigabyte GB = 1’000’000’000 Bytes (1’000 MB’s)
1 Terabyte TB = 1’000’000’000’000 Bytes (1’000 GB’s)
1 Petabyte PB = 1’000’000’000’000’000 Bytes (1’000 TB)
1 Exabyte EB = 1’000’000’000’000’000’000 (1’000 PB’s)

Und dann gibt es noch Zettabyte und Yottabyte – logischerweise je 1’000-fach grösser. Momentan liegen also weltweit rund 1’200 Exabytes im digitalen Universum. Es lässt sich ausrechnen, wieviel handelsübliche Notebooks (300 GB’s?) es bräuchte um diese Datenmenge zu speichern. Wer hat Lust? Die erste richtige Lösung kriegt einen Kaffee oder Aperitiv in Bellevue-nähe von mir (Lösung steht im Kommentar). Es sind gigantische Mengen.

Unterdeckung beim Speicherplatz und die Ressourcenfrage
Problematisch dabei ist die sogenannte «Unterdeckung» – die Lücke zwischen den erzeugten Daten und dem vorhandenen Speicherplatz. Heute geht man von einer Unterdeckung von rund 35 % aus. Bis ins Jahr soll sie auf bis zu 60 % wachsen (Nachtrag: erweiterte Erklärung hierzu s. im Kommentar). Aber die Forschung reagiert: Die Verwaltung von Daten kann via Deduplizierung (finden und abgleichen von redundanten Daten) um Komprimierung verbessert werden.

Obwohl die Speicherflächen weiter kleiner werden – der Datenberg wächst. Und mit ihm die Belastung der Speichermedien – und schlussendlich der Natur. Die Verschiebung jeder Aktivität ins digitale Netz stellt uns eine weitere Ressourcen-Fragen, deren wir uns heute noch kaum bewusst sind.

(Quelle: inspiriert und informiert durch den Beitrag «Flexibler, schneller und gemeinsam effizienter» in Professional Computing, ab S. 6, Dez. 10)

Weitere Beiträge in der Serie «Was ist eigentlich:…»

  • Kategorien
  • Tags

Kommentieren

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

* Pflichtfelder

Beiträge

  • Spannend. Die Seiten aller Bücher und Studien konnte man nicht global zählen, jetzt kann man’s mit den Bytes. Heisst diese „Unterdeckung“, dass 35 % der Daten verloren gehen, nicht gespeichert werden können? Bin gespannt, wer den Bellevue-Kaffee holt… Mitarbeitende von Bernet_PR bleiben ausgeschlossen 🙂

  • das sollten so ungefähr 4000000000 od. 4mia „handelsübliche notebooks a 300GB sein..

    @Marcel Bernet: mit unterdeckung ist gemeint, das den anwendungen 35% mehr platz „vorgegaukelt“ wird als tatsächlich vorhanden ist. diese ist kein problem solange der platz nicht gebracuht wird, wird er aber gebraucht, kann es zum problem werden. als beispiel, wuala hat 100 abonenten mit 1 GB, jedoch physisch nur 70GB verfügbar, somit können 70 der hundert abonenten das 1 GB benutzen und die anderen 30 schauen in die röhre, diesem umstand wird eben mit deduplizierung entgegengewirkt, so das die gleichen sektoren (z.b. 01010101010, das in mehreren sektoren vorkommt wird nur verlinkt) auf der physischen harddisk nur 1 mal benötigt werden.

  • RICHTIG! «themoshow» hat die richtige Lösung als erster «gepostet» – und ich habe sie (da meine Rechenkünste doch sehr beschränkt sind) von einem ganzen Entwicklungsteam aus lauter internationalen Ingenieur-Cracks (STericsson in Schlieren ZH) nachrechnen lassen. Sie kommen zum gleichen Resultat.

    Kafi (oder Apéro) geht an «themoshow». Melde dich via dominik.allemann@bernet.ch für die details : )

  • @seggenberger präzisiert übrigens via Twitter:

    > @marcelbernet 4.194304 Milliarden Gigabytes um es genau zu sagen – wenn ich mich nicht verrechnet habe (Byte sind 1024) >

    und somit ist er natürlich auch auf Kafi oder Apéritiv eingeladen…

  • Hier Luzius von Wuala.
    @themoshow: natürlich werden in einem System wie Wuala rechtzeitig neue Server und Festplatten eingebaut, so dass nie jemand in die Röhre schaut.

    Generell: Meistens (auch in Wuala) ist 1 GB = 1024 MB und 1 MB = 1024 KB usw. Nur die Festplattenhersteller schreiben 1 GB = 1000 MB weil sie sie so mehr Anschreiben können als eigentlich drin ist.

  • Wer fragt nach den Kosten. Zum Beispiel wieviel kostet 1Bit Information in KWh oder Joule (Ws). Das die Informationsgesellschaft (Widerspruch in sich da bis jetzt meiner Ansicht niemand „Gescheiter“ reagiert als in der Prähinformationsgesellschaft) sich einen Deut darum kümmert wieviel natürliche Ressourcen unnötig fürs Speichern/Sammeln und Betreiben verbraten werden empfehle ich unseren Jungs in Bern sofort die MWST pro Bit einzuführen und in langen Sitzungen einen neuen Fonds zu gründen. Eine AIV oder so.