Big Data - globale Datenmenge soll sich bis zum Jahr 2025 auf 163 Zettabyte verzehnfachen

Diskutiere Big Data - globale Datenmenge soll sich bis zum Jahr 2025 auf 163 Zettabyte verzehnfachen im IT-News Forum im Bereich News; Während ein Großteil der aktuell auf der Welt verteilten Datenmengen auf Bildern, Musik und Filmen von Privatnutzern basiert, sollen...
maniacu22

maniacu22

Threadstarter
Dabei seit
18.02.2013
Beiträge
5.733
Während ein Großteil der aktuell auf der Welt verteilten Datenmengen auf Bildern, Musik und Filmen von Privatnutzern basiert, sollen Unternehmens-Daten in den kommenden 8 Jahren massiv an Bedeutung gewinnen, so dass sich der aktuell geschätzte Datenbestand von etwas mehr als 16 Zettabyte im Jahr 2025 verzehnfachen dürfte, wobei hier mit 163 Zettabyte gerechnet wird




Kauft man sich heutzutage einen neuen Computer, ist dieser mindestens mit einer Festplatte mit einem Datenvolumen von einem Terabyte ausgestattet, egal ob es sich hier um ein Notebook oder einen Desktop-PC handelt. Wer selber seine Fotos, Musik und Videos von analogen zu digitalen Quellen umwandelt (digitalisiert), dürfte wissen, dass eine solche Speichergröße von einem Terabyte nicht lange ausreichen wird. Stellt man sich jetzt noch vor, dass man zudem nicht der Einzige auf der Welt ist, der seine Daten digitalisiert, kommt man Schätzungen der IDC Marktforschern zufolge auf eine globale Datenmenge von 16 Zettabyte - einer 16 mit insgesamt 21 Nullen, oder auch 16 Milliarden Terabyte. Das war zumindest das ermittelte Ergebnis im Jahr 2016.

Der Festplattenhersteller Seagate hat jetzt in Zusammenarbeit der IT-Marktforscher vom IDC eine Hochrechnung bis zum Jahr 2025 erstellt, bei welcher man davon ausgeht, dass sich der globale Datenbestand in den kommenden acht Jahren verzehnfachen dürfte, was ungefähr 163 Zettabyte entsprechen müsste. Interessant ist dabei die Aussage, dass bis dahin aber nicht mehr die Privatuser, sondern eher die Unternehmen die Hauptlast für diesen enormen Datenbestand tragen würden. Während Unternehmen vor 2 Jahren noch einen Anteil von 30 Prozentpunkten am weltweiten Datenbestand für sich beanspruchen konnten, sollen dieser bezugnehmend auf die Hochrechnungen im Jahr 2025 ganze 60 Prozent betragen.

Für einen Großteil dieses Datenaufkommens soll auch die Verarbeitung von Echtzeitdaten verantwortlich sein, wie man sie von autonom gesteuerten Fahrzeugen oder auch der Hausautomatisierung her kennt. Insgesamt sollen laut Studie die Echtzeitdaten bis zum Jahr 2025 ein Viertel des gesamten Datenvolumens ausmachen. Aber auch im Bereich von Machine Learning erwartet man einem Anstieg des Datenaufkommens, welche die dafür benötigte Datenmenge in den kommenden acht Jahren um den Faktor 50 auf insgesamt 5,2 Zettabyte anhebt.

Durch diesen prognostizierten Wandel dürften die aktuellen und traditionellen Datenquellen, welche das Archivieren von analogen zu digitalen Daten, aber auch die Nutzung von Entertainment-Bereichen wie Spotify, Netflix, YouTube und Co. darstellen, im Verhältnis dazu an Bedeutung verlieren.

Steve Luczo, CEO von Seagate beschreibt das Phänomen wie folgt: "Die neue Studie beweist, dass die Big-Data-Ära angebrochen ist. Der wahre Wert der Daten liegt jedoch nicht im ‚Bekannten‘, sondern im ‚Unbekannten‘, wo das volle Potenzial heute noch massiv unterschätzt wird. Die wirklich spannenden Anwendungsmöglichkeiten liegen in der Datenanalyse, neuen Geschäftsmodellen, neuen Denkweisen und neuen Ökosystemen in Branchen wie Robotik und Machine Learning und ihrem enormen Potenzial für Wirtschaft und Gesellschaft."

Eine ausreichende Menge an Speicherkapazität wird in den kommenden Jahren weiter an Bedeutung gewinnen, was wohl auf die Speicherhersteller wie Samsung, Seagate und Western Digital genügend Druck ausüben dürfte, die Kapazitäten ihrer Festplatten und SSDs stetig weiterzuentwickeln und zu erhöhen.




Meinung des Autors: Gehe ich von mir selbst aus, kann ich diese Hochrechnung bestätigen. Zumindest insoweit, dass ich im privaten Sektor mit meinen 6 TB auskomme. Das im Enterprise-Bereich sowie bei den Echtzeitdaten noch extremer Nachholbedarf besteht, da sich diese Bereiche noch in der Entwicklung befinden, sollte auch klar sein. Wichtig ist aber, dass die benötigten Speicherkapazitäten zuverlässig und bezahlbar bleiben.
 
Thema:

Big Data - globale Datenmenge soll sich bis zum Jahr 2025 auf 163 Zettabyte verzehnfachen

Big Data - globale Datenmenge soll sich bis zum Jahr 2025 auf 163 Zettabyte verzehnfachen - Ähnliche Themen

  • Channel 9: Cortana Intelligence Suite – Big Data und Advanced Analytics

    Channel 9: Cortana Intelligence Suite – Big Data und Advanced Analytics: Lernen Sie in diesem Video die Cortana Intelligence Suite kennen und wie Sie Ihnen dabei hilft, Einsichten in Ihre Daten auf sichere Weise zu...
  • Channel 9: Big Data erklärt

    Channel 9: Big Data erklärt: Seth Juarez und Andrew Brust diskutieren über eine Definition von Big Data sowie über einige wichtige Technologien und wie Big Data mit BI genutzt...
  • Channel 9: Big-Data-Analysen mit Zoomdata und Azure

    Channel 9: Big-Data-Analysen mit Zoomdata und Azure: In diesem Channel-9-Video sprechen Baldwin Ng, weltweiter Windows Apps Lead bei Microsoft, und Russ Cosention, Mitbegründer und Vizepräsident von...
  • Channel 9: R Server und Apache Spark für schnellere Big Data-Analysen

    Channel 9: R Server und Apache Spark für schnellere Big Data-Analysen: <p>Microsoft R Server bietet ab sofort Unterstützung für Apache Spark. Durch diese Kombination ergibt sich die Möglichkeit, R-Funktionen über...
  • Ähnliche Themen
  • Channel 9: Cortana Intelligence Suite – Big Data und Advanced Analytics

    Channel 9: Cortana Intelligence Suite – Big Data und Advanced Analytics: Lernen Sie in diesem Video die Cortana Intelligence Suite kennen und wie Sie Ihnen dabei hilft, Einsichten in Ihre Daten auf sichere Weise zu...
  • Channel 9: Big Data erklärt

    Channel 9: Big Data erklärt: Seth Juarez und Andrew Brust diskutieren über eine Definition von Big Data sowie über einige wichtige Technologien und wie Big Data mit BI genutzt...
  • Channel 9: Big-Data-Analysen mit Zoomdata und Azure

    Channel 9: Big-Data-Analysen mit Zoomdata und Azure: In diesem Channel-9-Video sprechen Baldwin Ng, weltweiter Windows Apps Lead bei Microsoft, und Russ Cosention, Mitbegründer und Vizepräsident von...
  • Channel 9: R Server und Apache Spark für schnellere Big Data-Analysen

    Channel 9: R Server und Apache Spark für schnellere Big Data-Analysen: <p>Microsoft R Server bietet ab sofort Unterstützung für Apache Spark. Durch diese Kombination ergibt sich die Möglichkeit, R-Funktionen über...
  • Oben