GNU/Linux >> LINUX-Kenntnisse >  >> Linux

Die Herausforderung und das Versprechen von Big Data

Mit dem Wachstum des Internets sind auch die Datenmenge und der Wert der Daten gewachsen – vor allem durch die Regierung und börsennotierte Unternehmen, obwohl selbst kleine Unternehmen die Erkenntnisse schätzen, die sie von Google Analytics und ähnlichen Diensten sammeln. Das Sammeln und Untersuchen von Daten gilt als außerordentlich wirkungsvolles Mittel, um bessere Produkte zu liefern. verstehen, wie Menschen Websites und Anwendungen nutzen; Mitarbeiterleistung verfolgen; bestimmen Sie die effektivste Marketingsprache; und mehr.

Laut Prognosen der International Data Corporation wird der Big-Data-Markt bis 2018 eine CAGR von 26 % aufrechterhalten, wenn der Umsatz mit Big-Data-Diensten 42 Milliarden $ erreichen wird.

Der Wert des Marktes sagt uns, dass Unternehmen große Geldsummen in Unternehmen investieren, die sich auf das Sammeln, Verstehen und Integrieren riesiger Datenpools spezialisiert haben – mit anderen Worten, Dienstleistungen, die die Informationen in bessere Ergebnisse umwandeln können.

Wie groß ist der Fokus auf Big Data? Nun, die Raumschiff-Leute sind im Spiel.

Chris Mattman von der NASA sagt über die Forschungen seines Arbeitgebers in diesem Bereich:„Die NASA verwaltet insgesamt wahrscheinlich mehrere hundert Petabyte und nähert sich einem Exabyte.“

Forbes Der Mitwirkende Joshua Steimle stellt fest, dass ein Exabyte eine außerordentlich große Menge an Informationen ist, 1 Milliarde Gigabyte.

In einem Meer von Zahlen überschwemmt?

Mit der Technologie, die uns jetzt zur Verfügung steht, können Daten für Unternehmen so schnell anfallen, dass sie für traditionelle Datenbanken eine Überlastung darstellen – sowohl in Bezug auf die Aufbewahrung als auch auf die sinnvolle Nutzung. Unternehmen müssen keine Raketen bauen, um sich von der schieren Masse der verfügbaren Daten überwältigt zu fühlen, argumentiert Steimle .

Chris Riquier, Asien-Pazifik-Chef von Taylor Nelson Sofres, sagt, er habe die Auswirkungen in einem anderen Bereich gesehen:„Die Marktforschung gründet sich auf Vermessung und Meinungsforschung.“ Jetzt geschieht dies stattdessen in Echtzeit mit Informationen, die aus sozialen Medien, Suchmaschinen und zahlreichen anderen Quellen einfließen. Dank des Fokus der Technologen auf Data Science und der kontinuierlichen Verfeinerung der Analytik glaubt Riquier, dass sich unsere „Fähigkeit, auf den Markt zu reagieren und Entscheidungen zu treffen, drastisch verändert hat.“

Aussagekräftige Muster in Big Data zu finden, war für viele Unternehmen ein Rätsel. Laut einem Harvard Magazine aus dem Jahr 2014 bauen Dateningenieure jedoch Systeme, die so stark sind, dass der Trend, Daten so schnell wie möglich zu sammeln und zu verarbeiten, so gut wie unvermeidlich ist Bericht. Der Artikel schlug vor, dass innovative „große Algorithmus“-Formeln es Unternehmen ermöglichen würden, von der Verbindung und Integration von Datenspeichern zu profitieren sowie die Zahlen in robustere und benutzerfreundlichere Bilder umzuwandeln.

Auf der Grundlage lang etablierter Forschungstechniken aus Physik und Astronomie bringen Technologen und Kulturexperten ihre unterschiedlichen Perspektiven zum gegenseitigen Nutzen in das Thema ein.

Die Big-Data-Autoren Viktor Mayer-Schonberger und Kenneth Cukier stellen fest, dass es bei der Datenanalyse nicht nur um individuelle Entscheidungen geht, sondern darum, die Art und Weise, wie Unternehmen Gesamtentscheidungen treffen, vollständig zu verändern – schließlich soll Predictive Analytics seinem Namen gerecht werden diejenigen, die es verwenden, sind eine logisch basierte, alles sehende Kristallkugel.

Zu den Erfolgen von Big Data gehören:

Google – Google stellte die Hypothese auf, dass bestimmte Suchbegriffe wahrscheinlich Indikatoren dafür sind, dass Menschen beginnen, grippeähnliche Symptome zu haben. Durch die Anwendung ihrer Vermutungen auf Echtzeitsuchen konnte das Unternehmen schneller als die CDC herausfinden, wo sich die Grippe ausbreitete.

Kanadische Bank – Auf der anderen Seite der Grenze verwendet die Canadian Bank „Hadoop, ein Open-Source-Software-Framework, das von Apache entwickelt wurde“, Steimle erklärt, „um ein Programm einzuführen, das die Identifizierung von Geldwäsche und Betrug ermöglicht.“

Daten &Alltag

Die NASA und Google sind bekannte Beispiele für den Fokus auf Big Data, aber sein Potenzial ist viel breiter und erstreckt sich auf jedes Unternehmen, das online Aufmerksamkeit erregen möchte. Es ist der Treibstoff, der die Suchmaschinenoptimierung und die Social-Media-Optimierung antreibt. Unternehmer können die Webmaster-Tools von Google in Kombination mit Analysedaten aus sozialer Software verwenden, um eine erfolgreichere Online-Präsenz zu entwickeln.

Joe Hall, der Kunden dabei hilft, ihre Internetpräsenz durch sein Unternehmen Hall Analysis zu verbessern, kommentiert, dass es zwei verschiedene Arten gibt, wie Daten analysiert werden können, um die Suchmaschinenergebnisse zu verbessern:

  1. Untersuchen der Muster in den umfangreichen Daten, die direkt mit einem bestimmten Unternehmen in Verbindung stehen.

Einer von Halls Kunden hatte mehr als 15 Millionen Backlinks – was bedeutet, dass viele, viele Webseiten ihren Traffic an seinen Kunden schickten.

Auf dieser Ebene ändert es die Regeln für die Backlink-Analyse“, kommentiert Hall. Das Ermitteln der Muster innerhalb der Daten wird deutlich komplexer.

  1. Gewinnen eines differenzierteren Verständnisses der aktuellen Position ihres Unternehmens und der Dynamik auf dem Markt als Ganzes.

Die Betrachtung der Beziehung zwischen verschiedenen Variablen durch Analysesoftware ermöglicht es Unternehmen, besser zu verstehen, wie sie einen herausragenden Rang einnehmen und mehr Menschen dazu bringen können, auf einen Eintrag zu reagieren, wenn er in der Suchmaschine erscheint. Zwei relevante Studienrichtungen sind die Korrelationsanalyse und Nutzerverhaltensanalyse , sagt Hall.

Beschleunigen Sie Ihre Big-Data-Engines

Eine Technologie, die für Data Scientists und Unternehmen, die ihre Dienste nutzen, von grundlegender Bedeutung ist, ist Premium Cloud Computing. Schließlich basieren schlüsselfertige VPS-Hosting-Lösungen auf der Optimierung von Geschwindigkeit, Zuverlässigkeit und Effizienz durch virtualisierte Ressourcenverteilung.

Der Informatiker Geoffrey Fox von der Indiana University hat sogar festgestellt, dass die Cloud oft schneller ist als ein Supercomputer.


Linux
  1. Was ist der Unterschied zwischen Sudo Su – und Sudo Su –?

  2. Wie überprüft man, ob eine Pipe leer ist, und führt einen Befehl für die Daten aus, wenn dies nicht der Fall ist?

  3. Der Unterschied zwischen Nss und Pam?

  4. Überblick über CCPA und DSGVO

  5. Häufig gestellte Fragen zu Systemfestplatten und Datenfestplatten

Linux auf dem Mainframe:Damals und heute

Was ist Intel SGX und was sind die Vorteile?

Big Data Server erklärt

Apache Cassandra:Funktionen und Installation

Die 15 besten ökonometrischen und statistischen Software für Linux-Systeme

Was ist der Unterschied zwischen DMA und Memory-Mapped IO?