Kategorie: Informatik

Foulum Rechenzentrum


Foulum Rechenzentrum (Name nicht bekannt ist oder offiziell. Außenministerium Codename ist Projekt Hurrikan im Projektplan genannt [1] Projekt Wildcat und Vertreter von Apple in Irland Projekt namens Antioch 2) ist ein geplanter Apple – Rechenzentrum am Dorf Foulum und DC – Bahnhof Tjele in Viborg .

Das Rechenzentrum wurde am angekündigten 23. Februar zum Jahr 2015 zusammen mit einem ähnlichen Rechenzentrum in Irland. Jeder ist die Größe von 166.000 m² und Gesamtinvestition von Apple für die beiden Rechenzentrum verlassen wurde auf 1,7 betragen Milliarden. EUR . [2]

Apples Rechenzentrum dient der Firma European Kunden für Online – Dienste wie iTunes Store, App Store , iMessage , Karten und Siri . [2]

Das Rechenzentrum wird zu nahe sein DC – Station Tjele . Das Zentrum soll die überschüssige Wärme an die lokale senden Fernwärmenetz . Es ist auch geplant , dass das Zentrum ausschließlich verlassen wird erneuerbare Energie . [2] und in der Lage zu verwenden Wasserkraft aus Norwegen .

Die Wahl von Dänemark statt Norwegen wurde geschätzt auf ein niedriges dänisches wegen seines Energiesteuer von je nur 0,5 Cent kWh im Vergleich zu 12,39 Cent pro kWh in Norwegen. [3] Es wird geschätzt , dass das Rechenzentrum 700 GWh jährlich verbraucht. [4] Das Projekt umfasste eine Notstromanlage, für die Sicherung aller Stromausfälle verwendet werden. Das Not – Kraftwerk wird aus 14 Einheiten bestehen, die jeweils eine etwa mit 7 Meter hohe Diesel – Generator, eine oberirdische Tankeinheit mit app 25.000 Liter Dieselkraftstoff und ca. 16 Meter hohe Schornstein. [5]

Wenn das Datenzentrum 23 Februar angekündigt wurde, 2015 war es mit großem Optimismus aus Viborg Kommune Seite, und es wurde behauptet , dass es die größten ausländische hatten Investitionen in Dänemark je. Die Gemeinde geschätzt , dass die Bauphase „Hunderte von Arbeitsplätzen schaffen“ würde und dass die Betriebsphase auch einige Arbeitsplätze schaffen würde – sowohl direkt als auch Derivat. Bau der ersten Handwerker Häuser begann im November 2015. [6]

Von der dänischen Seite gibt es eine dreijährige heimlich mit Apple verhandelt. In den Verhandlungen war neben der Gemeinde auch beteiligt Universität Aarhus , Energie Viborg und das Außenministeriums Abteilung „Invest in Denmark“. Die damalige Handel und Entwicklungszusammenarbeit Mogens Jensen fand , dass die Werbung mußte „das Jahr beste Business – Nachrichten für Dänemark sein.“ [7]

Durch den Zugang gefunden Børsen , die auch SKAT in den Verhandlungen beteiligt war, die eine Steuer technisches Modell gebaut wurde, dann Abkühlen in Rechenzentrum von Apple wurde als betrachtet Wärme erzeugende Gerät. [8] Die ungewöhnliche Konstruktion verursacht mehrere Probleme in der Energie, Strom und Klimaausschuss im Parlament . [9]

Ein ähnliches Apple – Rechenzentrum in Maiden in North Carolina hatte 50 Vollzeit – Arbeitsplätze geschaffen. [10]

Referenzen

  1. Aufspringen^ Zugang zum Außenministerium und die Gemeinde Viborg
  2. ^ Nach oben springen zu:ein b c Apfel zwei € 1,7 Milliardäre in New europäischen Rechenzentren investieren . Apfel .
  3. Aufspringen^ Espen Zachariassen (23. Februar 2015). Dänemark verwendete Apple mit norwegischer Wasserkraft . digi.no .
  4. Aufspringen^ Apple Rechenzentrum absorbiert Energie mindestens 175.000 Familien | ing.dk
  5. Aufspringen^ Rechenzentren und neue Hochspannungs – Bahn – Station in Foulum | Viborg Gemeinde
  6. Aufspringen^ Geschäftsmann baut für Apple – Viborg | viborg-folkeblad.dk
  7. Aufspringen^ Apple Milliarden in Mega-Rechenzentrum in der Nähe von Viborg investieren . Viborg Municipality . Abgerufen 28. Februar 2015 .
  8. Aufspringen^ Daniel McClane (30. Juli 2015). Apple bekam den Rat von der dänischen Regierung weniger Steuern zu zahlen . Version2 .
  9. Aufspringen^ Susanne Junker (1. August 2015). EL wird von Apple dänischen Steuer Finte untersuchen . DR .
  10. Aufspringen^ Michael S. Rosenwald (24. November 2011). Cloud – Zentren zu erzeugen High-Tech-Blitz , aber nicht viele Arbeitsplätze zwei geschlagenen Stadtzentren . The Washington Post .

Bereitstellungsplattform


Bereitstellungsplattform

Eine Provisioning – Plattform ist eine Methode , durch die man sammeln kann Daten aus unstrukturierten Datenquellen, Strukturierung von Daten in einer gemeinsamen Datenbank und verteilen Daten zu vielen Datenquellen. Zur gleichen Zeit ist eine Provisioning – Plattform eine offene Plattform für die Zusammenarbeit zwischen einem Unternehmen vieler Datenbanksystemen wie üblich zu erreichen Identitätsmanagement für alle Systeme.

Metadaten

Metadaten ( Griechisch : meta : neben , im Sinne der Ebene der + Latein : Daten „Informationen“), wörtlich „Daten über Daten“ sind Informationen über andere Daten. Ein gutes Beispiel ist die Kartonkarte sie gehalten hatte , die Bibliotheken , wo jede Karte Informationen über den Inhalt und den Ort eines Buches in der Bibliothek enthalten: sie Daten über Daten waren, sagte , das Buch. In der Praxis ist der Begriff heute überwiegend technische oder inhaltliche beschreibende Informationen über die Dateien, zum Beispiel. ein Computer .

IT-Entwickler untersucht die in der Regel scharfe Unterscheidung zwischen technischen (strukturellen) Metadaten und Führungs Metadaten:

  • Technische Metadaten werden automatisch durch das Programm oder die Hardware, die die Datendatei mit erstellt. Ein Beispiel dafür ist die Information über die Auflösung, Belichtung, GPS-Position, Kameramodell, etc. Das ist in digitalen Fotos eingebettet werden kann.
  • Vorläufige Metadaten auf der anderen Seite Inhalt beschreibenden Informationen, die von Hand hinzugefügt werden könnten. Beispiele hierfür sind Informationen über Menschen in einer Fotografie oder andere praktische oder beschreibende Kommentaren zu einem Bild, ein Dokument oder eine Audio- oder Videoaufzeichnung.

Literatur

  • Haynes, D. (2004). Metadaten für das Informationsmanagement und den Abruf . London: Facet.
  • Intner, SS; Lazinger, SS & Jean Weihs, J. (2006). Metadaten und deren Auswirkungen auf die Bibliotheken . Westport, CT: Bibliotheken Unlimited.
  • Smiraglia, RP (Hrsg.). (2005). Metadaten: Ein Cataloger der Primer . Binghamton, NY: Haworth Informationen Presse.
  • Vellucci, SL (1998). Metadaten. Jährliche Überprüfung der Informationswissenschaft und Technik, 33 , 187-222.
  • Gill, T. et al. (2008). Einführung in den Metadaten. Los Angeles: Getty Publications.

Datentyp

Innerhalb der Informatik und Programmierung ist ein Datentyp ist eine Klassifikation , die identifiziert und begrenzt , welche Werte eine bestimmte Menge an Daten darstellen. Für klassische Datentypen, ganzen Zahlen, Punktzahlen mit begrenzten precision floating, Charakter und Boolesche Werte erwähnt.

Werte für jeden Datentyp ist eine definierte Menge und die Funktionen und Operatoren, die auf ihnen arbeiten, sind unterschiedlich implementiert. Bei der Definition eines Datentypen wird auch erkannt, wie der Datentyp gespeichert wird.

Maschine und primäre Datentypen

Alle Daten in Computern basierend auf der digitalen Elektronik und wie dargestellt Bits . Jedoch werden Daten in großen Blöcken, in der Regel in Form von einer Vielzahl von zugegriffenen Bytes (8 Bits). Die Menge der Daten , die in einem Befehl in der verarbeitet werden Maschinencode ist ein sogenanntes Wort (Eng. Wort ) die Länge und in der Regel 32 oder 64 Bits in Abhängigkeit von dem Prozessor .

Die meisten Desktop – Computern arbeiten heute mit der Grunddatentypen integer (resp. Mit und ohne Vorzeichen, oft genannt unterzeichnet und unsigned ), Gleitkommazahlen (die Variablen oft als float und double ) und Zeichen aus anderen Datentypen erweitert. Insbesondere kann man feststellen , dass es nicht ein Datentyp von Bits ist, sondern , dass es Anweisungen , die parallel arbeiten auf Sequenzen von Bits , die in dem ganzen Wort .

Dies wirkt sich auf die wichtigsten Datentypen in vielen Programmiersprachen – alle Datentypen , die effektiv liefern können auf diese Maschine basieren – können nur Prozesswerte , die mit dieser Einschränkung dargestellt werden kann. Zum Beispiel kann eine positive ganze Zahl in einer 32-Bit – Maschine , um Zahlen von 0 bis 2 begrenzt werden 32 -1 (4,294,967,295). Nicht bewusst zu sein , solche Beschränkungen kann zu Fehlern führen , die Puffer überlaufen .

Abstrakte Datentypen

Die meisten Programmiersprachen haben eine Reihe von grundlegenden Datentypen , die unter Verwendung erweitert werden kann , abstrakte Datentypen , einschließlich , aber nicht beschränkt auf Klassen in der objektorientierten Programmierung , ohne die Sprachgrundlagen zu verändern.

Wenn zum Beispiel Zahlen jeder Größe darstellen, können Sie einen abstrakten Datentyp verwenden. Andere abstrakte Datentypen umfassen Arrays , Tupel, Listen, Bäume und Graphen.

Zeiger und Referenzen

Die Daten können auch auf andere Daten – zu – Punkt verwendet werden. Programmiersprachen von unterschiedlichem Umfang unterstützt. Dieses Phänomen, genannt Zeiger (Eng. Pointer ) oder Referenzen, ist von zentraler Bedeutung für den Bau von abstrakten Datentypen.

Typ Theorie und Typsysteme

Neben der praktischen Anwendung der Typen existieren innerhalb Typentheorie eine Reihe von formalen Systemen Typen und deren individuelles Verhalten innerhalb einer bestimmten beschreiben Typsysteme .

Data Warehouse

Ein Data Warehouse ist eine Sammlung von elektronischen Daten aus verschiedenen Quellen ist so organisiert , dass die bestmögliche ermöglicht es Ihnen , Berichte zu erstellen und Daten analysieren. Zum Beispiel. von einer Organisation verwendet , die Daten sammeln , auf seinen Produktionseinheiten Umsatz pro Tag, Kosten pro Tag will, oder wie für Entscheidungen eine Grundlage haben.

Definition

Bill Inmon ‚s formale Definition eines Data Warehouse ist eine Computer – Datenbank , die die folgenden Anforderungen erfüllt:

  • Themenorientiert , was bedeutet , dass die Daten in der Datenbank ist so organisiert , dass alle Elemente , die mit einem bestimmten Objekt oder ein Ereignis in der realen Welt müssen zusammen in der Datenbank house’et verknüpft werden.
  • Zeitabhängig , was bedeutet , dass die Daten in der Datenbank zusammen mit der Zeit gespeichert werden , so dass Sie , wie die Daten im Laufe der Zeit verändert hat sehen können.
  • Unveränderliche , die , dass die Daten nicht verändert oder gelöscht verstanden werden müssen, sondern beibehalten , so dass sie in künftigen Berichten verwendet werden können; und,
  • Integrierte , was bedeutet , dass die Daten aus allen Systemen kommen muss die Organisation verwendet und die Daten müssen konsistent sein.

Geschichte

Data Warehousing in den frühen 80er Jahren kam die Notwendigkeit für Cross-Berichterstattung zu erfüllen Unternehmen , sahen im gleichen Zeitraum eine schnell wachsende Menge an Daten, zum Teil , weil. Die allgemeine Umstellung auf größere Einheiten und zum Teil , weil. Der Aufstieg der Computer verwenden. Die Unternehmen der Ansicht , dass Systeme Datendateien und Datenbanken direkt aus der Produktion berichten gab eine unangemessene Belastung für diese und verursacht Probleme in Daten aus unterschiedlichen Systemen ohne gemeinsame Definitionen Sortier.

Gebäude

Die Gründung eines Data Warehouse ist eine Datenbank, die regelmäßig Daten von Produktionssystemen und anderen Informationsquellen in einer solchen Art und Weise kopieren, die die Daten vergleichbar ist, dh das gleiche Nummerierungssystem, das gleichzeitig Division, gleiches Konzept Definition. sucht weiter Daten von Eingabefehlern, unzuverlässige Daten und alles andere ausgespült, die Fehler in der Berichterstattung führen würde, die aber aus verschiedenen Gründen nicht in Produktionssystemen korrigiert.

Ein Data Warehouse wird in der Regel mehrere Jahre Geschichte sammeln Berichterstattung für eine lange Zeit Perspektiven gerecht zu werden. Im Idealfall, so dass ein Data-Warehouse-Daten aus allen Unternehmenssystemen enthalten, dass in allen Kontexten analysiert werden kann und im Bericht ein vollständiges Bild bilden, aber in der Regel ein Unternehmen „stecken“, dass nur einzelnen Abteilungen oder einzelne Bereichen von Daten abgedeckt Lager durch. organisatorische Fragen oder technische Hindernisse.

Ein Data Warehouse mit detaillierten Daten für mehrere Jahre enthält oft eine überwältigende Menge an Daten und damit große Rechenleistung und teilweise erhebliche und unvorhersehbare Reaktionszeiten für die Analyse und Berichterstattung wird ergeben erfordern würde. Um dieses Problem zu lösen, gibt es eine zusätzliche Datenaufbereitung für die Berichterstattung, in der Regel Daten und unterliegen Pannen zusammen. So können Sie detaillierte Daten mit begrenzten Geschichte zu lassen, während die vollständige Geschichte zum Beispiel ugesummer oder eine Produktgruppe Summer gehalten. In ähnlicher Weise kann eine themenorientierte sogenannte ‚bauen Data Marts ‘ , das unterstützt die besondere Art der Berichterstattung , um die gewünschten Bericht Geschwindigkeit zu erreichen.

Verwenden Sie

Die Entwicklung von Data-Warehousing bewegt (vor allem in kundenorientierten Unternehmen) weg von der traditionellen Sicht als historisches Datenarchiv und in Richtung Operationalisierung, dh die Data Warehouse-basierte Funktionalität ist ein wesentlicher Bestandteil des täglichen Geschäftsprozesse. Letzteres setzt voraus, dass die Daten auf die letzte Minute aktualisiert, und die Differenz der Betriebssysteme wird somit immer weniger.

Die typische Stromstruktur, wobei das Datenlager ein separates, zentralisiert Analysesystem ist, wird durch eine erhöhte Analysefunktionen in den sogenannten in Zukunft allmählich ersetzt erwartete ERP – Systemen (integrierte Betrieb Netze), wobei ein Teil des oben beschriebenen Prozesses wird überflüssig. In ähnlicher Weise die neuen Web-basierten erlauben Integrationsmethoden auf den Daten aus dem Quellsystem ohne ersten Kopier analysiert werden.

Data Mining

Data Mining ist ein englische Wort Darlehen bezeichnet Suche nach Mustern und Strukturen von großen Datenmengen. Das Konzept hat sich aktuell nach der Größe der Datenbanken in zunehmendem Maße die Möglichkeiten der vollständigen statistischen Analyse begrenzt. Dies gilt zum Beispiel in den Bereichen Biologie und Finanzen . Durch beispielsweise Algorithmen oder direkte Beobachtung versuchen Beziehungen zwischen Datenpunkten zu finden , um die komplexen Informationen besser zu visualisieren und schließlich zu nutzen.

Data Mining ist das Prinzip, relevante Informationen zu finden, durch Mengen von großer Datensortierung. Data Mining wird häufig von großen Business-Intelligence-Organisationen, Finanzanalysten, sondern auch in den Wissenschaften verwendet wird, genaue Informationen aus den riesigen Datenmengen erzeugen mit modernen experimentellen und Beobachtungsorientierten Methoden zu extrahieren. DM werden als „nicht-triviale Extraktion impliziter, bisher unbekannten und möglicherweise nützlicher Informationsdaten und“ The Science of Extrahieren nützliche Informationen aus großen Datenmengen oder großen Datenbanken beschrieben worden.

Wo bei herkömmlichen statistischen Verfahren sucht aus Einzelbeobachtungen den Ansprüchen der gesamten Bevölkerung zu verbinden, ist für Data Mining durch den Vergleich der Eigenschaften der individuellen oder das einzelne Objekt verwendet.

Data Mining und Überwachung Data – Mining – Boden als Mittel gewinnt neues Wissen wringen und nicht auf Einzelpersonen, wie Daten über Personen durch die Überwachung von Telefon gesammelt, Datenströmen, Internet – Datenverkehr, E – Mail, Videoüberwachung, Zahlungsverkehr und dergleichen. Dieses Verfahren wird zum Teil zur Klärung des personalisierten Marketings verwendet, zum Teil für die politische Intelligenz.

Kernkomponenten Technische Spezifikation (CCTS)

Kernkomponente Technische Spezifikation (CCTS) ist eine Art und Weise zum Ausdruck zu bringen , was die Daten bedeuten und wie sie in Beziehung stehen. CCTS ist eine Möglichkeit , Modelle der Sätze von Daten und Dokumenten in Geschäftsprozessen zu bauen, mit dem Ziel , eine effizientere Nutzung der Daten zu ermöglichen, beispielsweise durch deutlich machen , welche Informationen an mehreren Stellen verwendet wird.

Wo kommt es her?

CCTS ist ein internationaler Standard , der von der beibehalten UN -Standards Organisation, UN / CEFACT . Die Organisation besteht aus mehreren hundert Business – Experten und Techniker aus der ganzen Welt.

Die wichtigsten Funktionen?

Es gibt grundsätzlich drei verschiedene Elemente von CCTS (wie in praktisch jedem anderen Objekt-Modellierungsansätze):

  • einfache Elemente
  • Verbundelemente
  • Beziehungen zwischen Objekten

Zum Beispiel kann die Eigenschaft VIN einfach ein Element in dem Verbundelement Radfahren enthalten und das Verbundelement kann die Beziehung des Eigentums zu einer Person, die einen Namen haben kann, usw.

Dies ist das Rückgrat der Datenmodellierung und damit in CCTS.

Das obligatorische

Für alle CCTS Objekte gilt, dass sie müssen

  • Ein Ausdruck, der angibt, was das Objekt aufgerufen wird
  • Eine Definition, die erklärt, was das Objekt ist
  • Ein eindeutiger Name, der es ermöglicht, ein bestimmtes Objekt in Bezug auf alle anderen Objekte zu identifizieren. Dieser Name wird in dem CCTS für den Wörterbuch-Eintragsnamen (DER) genannt.

Verbundelemente haben auch Informationen über die einfache oder zusammengesetzte Elemente aus denen sie bestehen, und wie oft jedes Unterelement auftreten können (es muss mindestens ein oder ist es optional, es kann nicht mehr als eine bestimmte Anzahl oder eine beliebige Anzahl?).

Beziehungen haben natürlich auch Informationen über die Objekte, die sie verbinden.

Einfache Elemente hat einen Datentyp, der den Probenraum, dh die Werte angibt , die für das Element gültig sind. Ein Element kann, zum Beispiel, sollte eine ganze Zahl ist , eine positive ganze Zahl, eine Zahl zwischen 5 und 10 und so weiter sein. Dies entspricht in etwa der Struktur von XML , die Typen deklariert angibt , Constraints und Gegenstände mit Angabe der Variablennamen in der XML – Dateien sind.

Aber es gibt mehr …

Die oben ist nur eine sehr einfache Methode, um einzelne Datenmodelle, aber CCTS zielt darauf ab, die Entwicklung, Wartung und Andocken von Modellen zu unterstützen, so gibt es viele andere Möglichkeiten in der Beschreibung. Kernkomponenten im Vergleich zu Geschäftseinheiten in erster Linie unterscheidet CCTS zwischen auf der einen Seite „Core Components“ (CCER) und auf der anderen Seite „Business Information Entities“ (BIEer) weiß, dass CCER sind verallgemeinerte Objekte wie „Name“, während BIEer spezialisiert ist ein spezifischer Kontext – zum Beispiel persönlicher Name des Antragstellers. In der Praxis gibt es viele, die nur entweder CCER oder BIEer entwickeln, da es leicht wie unnötigen Doppel kommen kann zunächst so etwas wie CC scheinen erklärt und von einer BIE bilden.

Versionierung

Es ist auch möglich CCTS Objekte versionize. Man kann sowohl im traditionellen Sinne versionize, wo eine neue Version eines Objekts kann eine alte ersetzen und Gestaltung das gleiche Objekt in mehreren Sprachen – in Dänemark wird wahrscheinlich oft relevant sein Definitionen zu leiten usw. in Dänisch und Englisch.

Context

Ein weiterer potentiell mächtiger Aspekt von CCTS sind Hinweise auf Zusammenhang. Das bedeutet, dass es möglich ist, um anzuzeigen, wo ein bestimmtes Objekt relevant ist – eine „Probe“ gut zwei verschiedene Dinge sein kann, die jeweils in einem Krankenhaus und eine Schule. Diese Seite der CCTS ist nicht wirklich ausgereift, aber die Arbeit an Spezifikationen vollständig an Ort und Stelle zu bekommen.

Nachricht Zusammensetzung

Ein herausragendes in der CCTS entwickeln , ist ein gemeinsamer Standard für wie einheitliche Dokumente von CCTS Elemente erstellen. Dieses Thema wird diskutiert derzeit in UN / CEFACT wird erwartet , dass eine Lösung einmal im Jahr 2009 vorzuschlagen.

Namens

Die CCTS ist eigentlich ziemlich strenge Regeln für die Benennung von Objekten, alle Formularanforderungen für Dener. Alle Namen sollten drei Teile, die jeweils, was darauf hindeutet, das Objekt, in dem Fall von (als Einzelperson), die Eigenschaft offenbart (zB Namen) und wie das angegebene Aussehen (wie zB Text). Darüber hinaus genannt BIEer Qualifier ihre Verwendung Kontext angibt (zB Antragsteller). Diese Regeln können sehr steif erscheinen, und sie können einige sehr markante Ergebnisse liefern, macht aber insgesamt die Regeln leichter zu verfolgen Namensgebung und die Schaffung von Tools, die die Verwendung von CCTS unterstützen.

Wie geht es Ihnen in der Praxis?

Insgesamt gebildet CCTS steuert nach dem Klärungsprozess, in dem zunächst die Menschen erkennen, was Sie tun und wie (Geschäftsprozesse). Dann werden die Daten identifizieren, die in jedem Schritt des Verfahrens verwendet werden und wie die Daten kommen aus (sie getippt werden als Teil des Prozesses, können sie von außen heruntergeladen werden oder sind sie bereits irgendwo im Prozess). Auf der Grundlage der angegebenen einzelne Datensätze und Datenelementen abgerufen oder erstellt werden – und es ist hier nur, dass der CCTS wirklich ins Spiel kommt.

Es gibt kein maßgebliches Format für die Aufnahme der CCTS – Objekte. Die meisten , die verwenden CCTS die Objekte in der speichert Kalkulationstabelle , und das ist das Ende dieser Broschüre Link zu dem Format , das UN / CEFACT verwendet. UN / CEFACT arbeitet derzeit. ein entwickeln XML – Format , das verwendet werden kann , um CCTS Objekte aufnehmen und den Austausch, aber die Arbeit ist nicht früher am Ende des Jahres 2009 abgeschlossen erwartet.

Darüber hinaus gibt es einige Tools , die CCTS unterstützen, einschließlich FX von GEFEG und Enterprise Architect von Sparx Systems .

Business Intelligence

Business Intelligence (BI) ist ein Begriff für Software – Lösungen . Der Begriff umfasst ein breites Spektrum an Softwarelösungen, die typischerweise Daten extrahieren aus einem oder mehreren Quellsystemen, sie in etwas einfacher und legt sie in einer neuen Datenbank oder Struktur transformieren , die in der Berichterstattung und Statistiken einfacher für die Endanwender zu bedienen ist . Ein gemeinsames Merkmal besteht darin , dass BI verwendet wird , einen Überblick über das Unternehmen unzähligen bereitzustellen Daten . Der Wert von Business Intelligence entsteht durch die Einbeziehung der wesentlichen Daten innerhalb Beispiel des Unternehmens. Wirtschaft , Produktion , Kundendatenbanken , Zeiterfassung und Gehalt.

Mit Tool wie Software-Anwendungen und Analyseverfahren für die Erfassung und Umwandlung von Daten in Informationen, die zukünftigen Geschäftsstrategien und Entscheidungen ermöglicht.

Komponenten

  • Das Sammeln von Daten, die oft unbeaufsichtigt, über die verschiedenen Datenquellen
  • Datenintegration und Qualität
  • Die Behandlung, die Auswahl, Gruppierung und statistische Analysen der Datenverarbeitungs
  • Präsentation und Übermittlung von Daten
  • Projektion von Daten durch Analysen und Prognosen.

Benutzerprofil

Ein Benutzerprofil ist eine visuelle Darstellung von persönlichen Daten in Verbindung mit einem bestimmten Benutzer oder einer benutzerdefinierten Desktop – Umgebung .

Ein Profil bezieht sich daher auf die explizite digitale Darstellung der Identität einer Person.

Das Profil kann auch als betrachtet werden Computerdarstellung eines Benutzermodells.

Benutzerprofile finden Sie unter Betriebssystemen , Computerprogrammen , recommendersystemer oder dynamische Websites (wie Online – Social – Networking – Sites oder Bulletin Boards).

große Daten

Big Data [1] [2] ist ein Begriff in der Informatik , die auf die Sammlung, Speicherung bezieht sich breit, [3] Analyse, [4] Verarbeitung und Interpretation der großen Mengen von Daten . Wie viele andere IT-Wort hat große Daten keine dänische Übersetzung.

Der Rahmen für große Datenmengen im Laufe der Jahre stark verschoben. Es wurde von einer Wahrnehmung von bewegten Gigabyte Daten als große Mengen von Daten, einem im Jahr 2012 darüber gesprochen Petabyte und Exabyte als großen Mengen. [5] [6] Der Trend zu größeren Datenmengen hat , die Grundlage für die Fähigkeit , aus der Analyse eines einzelnen Satzes von vielen zusammenhängenden Daten zusätzliche Informationen zu ziehen, im Vergleich zu getrennten, kleinerem Satz mit der gleichen Gesamtdatenmenge , die ermöglicht , für Verbindungen , so dass Sie können „Spot Business – Trends , ermitteln Forschung Qualität, verhindern Krankheiten , vergleichen Sie die rechtlichen Zitate, zu bekämpfen Kriminalität und halten ein Auge auf Verkehrsbedingungen in Echtzeit.“ [7] [8]

Wissenschaftler stehen oft Einschränkungen aufgrund großer Datenmengen; solche Bereiche könnten Meteorologie , Genetik , [9] komplexe physikalische Simulationen [10] , und biologische und Umweltforschung . [11]

Im Jahr 2012 produziert auf dem Internet große Mengen an Daten, zum Beispiel über soziale Dienste wie Facebook und Flickr .

Big – Daten in Echtzeit, zum Beispiel oft produziert. GPS – Geräte und digitale Sensoren in Autos eingebettet, Krankenhausausrüstung, etc .. Man kann auch große Datenmengen haben , die nicht einmal eine Kopie, sondern einfach zugegriffen durch haben API ‚s.

Merkmale

Da die „Big Data“ bedeutet „Big Data“ ist es verlockend , große Daten wie die Fläche zu charakterisieren mit großen Datenmengen zu tun hat. Allerdings gibt es einige Experten , die behaupten , dass es nicht nur die Größe der Datenmenge, die auf das Paradigma um große Datenmengen wesentlich sind. Viktor Mayer-Schönberger und Kenneth Cukier zitiert drei Merkmale: der Lage gewesen , um große Datenmengen zu analysieren und nicht nur eine Probe ; dass Daten bereit ist , zu behandeln , die unordentlich und nicht notwendigerweise genau; und dass sie aussehen Korrelation nicht Kausalität . [12] Andere haben gekennzeichnet große Daten auf drei Vs: „Velocity“ (Geschwindigkeit bei der Verarbeitung von Daten), „Lautstärke“ (Datenmenge) und „Sorte“ (Diversität in den Daten). [13]

Verwalten große Daten

Bei großen Mengen heterogener Daten (Big Data) arbeitet, ist es oft , dass das traditionelle SQL – Datenbank – Paradigma der Aufgabe nicht lösen kann. Teilweise , weil man kann nicht ein Modell machen , die alle Daten Merkmale aufnehmen und skaliert auch die nicht für die große Menge an Daten. Deshalb übernimmt oft große Datenmengen in NoSQL – Datenbanken. Im Grunde eine Art von Datenbank wählen , die Analyse von Daten in einer bestimmten Art und Weise unterstützt. Zum Beispiel. wählen soziale Netzwerke speichern oft Informationen darüber , wer ist „Freunde“ mit wem, in den so genannten Graph – Datenbanken. Wenn Sie viele semi-strukturierte Informationen haben, wählen Sie eine oft eine Dokumentendatenbank genannt.

Referenzen

  1. Aufspringen^ (Englisch) Weiß, Tom (10 Mai 2012). Hadoop: The Definitive Guide . O’Reilly Media. p. 3. ISBN 978-1-4493-3877-0 .
  2. Aufspringen^ (Englisch) MIKE2.0, Big Data Definition .
  3. Aufspringen^ (Englisch) Kusnetzky, Dan. Was ist „Big Data?“ . ZDNet.
  4. Aufspringen^ (Englisch) Vance, Ashley (22. April 2010). “ Start-Up geht nach Big Data Mit Hadoop Helper „. New York Times Blog .
  5. Aufspringen^ (Englisch) Francis, Matthew (2012-04-02). Zukunft Teleskop – Array Entwicklung von Exabyte Verarbeitung angetrieben . Abgerufen 2012.10.24 .
  6. Aufspringen^ (Englisch) Watters, Audrey (2010) (Webseite / Slide). Das Zeitalter der Exabyte: Werkzeuge und Ansätze für Big Data Verwalten . Hewlett-Packard Development Company . Abgerufen 2012.10.24 .
  7. Aufspringen^ (Englisch) E-Discovery – Sonderbericht: The Rising Tide of Nonlinear Bewertung . Hudson Globale . 1. August 2012 abgerufen . von Cat Casey und Alejandra Perez
  8. Aufspringen^ (Englisch) Welche Technologie-Assisted Electronic Discovery lehrt sie über die Rolle des Menschen in der Technik – Re-Humanisierung Technologie-Assisted Bewertung . Forbes . 1. August 2012 abgerufen .
  9. Aufspringen^ (English) „ Gemeinschaft Klugheit erforderlich “. Nature 455 (7209): 1. 4 September 2008. doi : 10.1038 / 455001a .
  10. Aufspringen^ (Englisch) „ Sandia Datenmanagement Spirale Herausforderungen sieht “. HPC – Projekte . 4. August 2009.
  11. Aufspringen^ (Englisch) Reichman, ABl; Jones, MB; Schildhauer, MP (2011). „Herausforderungen und Chancen von Open Data in Ecology“. Science 331 (6018): 703-5. doi : 10.1126 / science.1197962 .
  12. Aufspringen^ Viktor Mayer-Schönberger und Kenneth Cukier (2013). Big Daten . ISBN 978-1-84854-791-9 .
  13. Aufspringen^ Anders Lisdorf (18. August 2014). Big Data? Vergiss es . Version2 .