Data Warehouse


Ein Data Warehouse ist eine Sammlung von elektronischen Daten aus verschiedenen Quellen ist so organisiert , dass die bestmögliche ermöglicht es Ihnen , Berichte zu erstellen und Daten analysieren. Zum Beispiel. von einer Organisation verwendet , die Daten sammeln , auf seinen Produktionseinheiten Umsatz pro Tag, Kosten pro Tag will, oder wie für Entscheidungen eine Grundlage haben.

Definition

Bill Inmon ‚s formale Definition eines Data Warehouse ist eine Computer – Datenbank , die die folgenden Anforderungen erfüllt:

  • Themenorientiert , was bedeutet , dass die Daten in der Datenbank ist so organisiert , dass alle Elemente , die mit einem bestimmten Objekt oder ein Ereignis in der realen Welt müssen zusammen in der Datenbank house’et verknüpft werden.
  • Zeitabhängig , was bedeutet , dass die Daten in der Datenbank zusammen mit der Zeit gespeichert werden , so dass Sie , wie die Daten im Laufe der Zeit verändert hat sehen können.
  • Unveränderliche , die , dass die Daten nicht verändert oder gelöscht verstanden werden müssen, sondern beibehalten , so dass sie in künftigen Berichten verwendet werden können; und,
  • Integrierte , was bedeutet , dass die Daten aus allen Systemen kommen muss die Organisation verwendet und die Daten müssen konsistent sein.

Geschichte

Data Warehousing in den frühen 80er Jahren kam die Notwendigkeit für Cross-Berichterstattung zu erfüllen Unternehmen , sahen im gleichen Zeitraum eine schnell wachsende Menge an Daten, zum Teil , weil. Die allgemeine Umstellung auf größere Einheiten und zum Teil , weil. Der Aufstieg der Computer verwenden. Die Unternehmen der Ansicht , dass Systeme Datendateien und Datenbanken direkt aus der Produktion berichten gab eine unangemessene Belastung für diese und verursacht Probleme in Daten aus unterschiedlichen Systemen ohne gemeinsame Definitionen Sortier.

Gebäude

Die Gründung eines Data Warehouse ist eine Datenbank, die regelmäßig Daten von Produktionssystemen und anderen Informationsquellen in einer solchen Art und Weise kopieren, die die Daten vergleichbar ist, dh das gleiche Nummerierungssystem, das gleichzeitig Division, gleiches Konzept Definition. sucht weiter Daten von Eingabefehlern, unzuverlässige Daten und alles andere ausgespült, die Fehler in der Berichterstattung führen würde, die aber aus verschiedenen Gründen nicht in Produktionssystemen korrigiert.

Ein Data Warehouse wird in der Regel mehrere Jahre Geschichte sammeln Berichterstattung für eine lange Zeit Perspektiven gerecht zu werden. Im Idealfall, so dass ein Data-Warehouse-Daten aus allen Unternehmenssystemen enthalten, dass in allen Kontexten analysiert werden kann und im Bericht ein vollständiges Bild bilden, aber in der Regel ein Unternehmen „stecken“, dass nur einzelnen Abteilungen oder einzelne Bereichen von Daten abgedeckt Lager durch. organisatorische Fragen oder technische Hindernisse.

Ein Data Warehouse mit detaillierten Daten für mehrere Jahre enthält oft eine überwältigende Menge an Daten und damit große Rechenleistung und teilweise erhebliche und unvorhersehbare Reaktionszeiten für die Analyse und Berichterstattung wird ergeben erfordern würde. Um dieses Problem zu lösen, gibt es eine zusätzliche Datenaufbereitung für die Berichterstattung, in der Regel Daten und unterliegen Pannen zusammen. So können Sie detaillierte Daten mit begrenzten Geschichte zu lassen, während die vollständige Geschichte zum Beispiel ugesummer oder eine Produktgruppe Summer gehalten. In ähnlicher Weise kann eine themenorientierte sogenannte ‚bauen Data Marts ‘ , das unterstützt die besondere Art der Berichterstattung , um die gewünschten Bericht Geschwindigkeit zu erreichen.

Verwenden Sie

Die Entwicklung von Data-Warehousing bewegt (vor allem in kundenorientierten Unternehmen) weg von der traditionellen Sicht als historisches Datenarchiv und in Richtung Operationalisierung, dh die Data Warehouse-basierte Funktionalität ist ein wesentlicher Bestandteil des täglichen Geschäftsprozesse. Letzteres setzt voraus, dass die Daten auf die letzte Minute aktualisiert, und die Differenz der Betriebssysteme wird somit immer weniger.

Die typische Stromstruktur, wobei das Datenlager ein separates, zentralisiert Analysesystem ist, wird durch eine erhöhte Analysefunktionen in den sogenannten in Zukunft allmählich ersetzt erwartete ERP – Systemen (integrierte Betrieb Netze), wobei ein Teil des oben beschriebenen Prozesses wird überflüssig. In ähnlicher Weise die neuen Web-basierten erlauben Integrationsmethoden auf den Daten aus dem Quellsystem ohne ersten Kopier analysiert werden.


Data Mining


Data Mining ist ein englische Wort Darlehen bezeichnet Suche nach Mustern und Strukturen von großen Datenmengen. Das Konzept hat sich aktuell nach der Größe der Datenbanken in zunehmendem Maße die Möglichkeiten der vollständigen statistischen Analyse begrenzt. Dies gilt zum Beispiel in den Bereichen Biologie und Finanzen . Durch beispielsweise Algorithmen oder direkte Beobachtung versuchen Beziehungen zwischen Datenpunkten zu finden , um die komplexen Informationen besser zu visualisieren und schließlich zu nutzen.

Data Mining ist das Prinzip, relevante Informationen zu finden, durch Mengen von großer Datensortierung. Data Mining wird häufig von großen Business-Intelligence-Organisationen, Finanzanalysten, sondern auch in den Wissenschaften verwendet wird, genaue Informationen aus den riesigen Datenmengen erzeugen mit modernen experimentellen und Beobachtungsorientierten Methoden zu extrahieren. DM werden als „nicht-triviale Extraktion impliziter, bisher unbekannten und möglicherweise nützlicher Informationsdaten und“ The Science of Extrahieren nützliche Informationen aus großen Datenmengen oder großen Datenbanken beschrieben worden.

Wo bei herkömmlichen statistischen Verfahren sucht aus Einzelbeobachtungen den Ansprüchen der gesamten Bevölkerung zu verbinden, ist für Data Mining durch den Vergleich der Eigenschaften der individuellen oder das einzelne Objekt verwendet.

Data Mining und Überwachung Data – Mining – Boden als Mittel gewinnt neues Wissen wringen und nicht auf Einzelpersonen, wie Daten über Personen durch die Überwachung von Telefon gesammelt, Datenströmen, Internet – Datenverkehr, E – Mail, Videoüberwachung, Zahlungsverkehr und dergleichen. Dieses Verfahren wird zum Teil zur Klärung des personalisierten Marketings verwendet, zum Teil für die politische Intelligenz.

Kernkomponenten Technische Spezifikation (CCTS)

Kernkomponente Technische Spezifikation (CCTS) ist eine Art und Weise zum Ausdruck zu bringen , was die Daten bedeuten und wie sie in Beziehung stehen. CCTS ist eine Möglichkeit , Modelle der Sätze von Daten und Dokumenten in Geschäftsprozessen zu bauen, mit dem Ziel , eine effizientere Nutzung der Daten zu ermöglichen, beispielsweise durch deutlich machen , welche Informationen an mehreren Stellen verwendet wird.

Wo kommt es her?

CCTS ist ein internationaler Standard , der von der beibehalten UN -Standards Organisation, UN / CEFACT . Die Organisation besteht aus mehreren hundert Business – Experten und Techniker aus der ganzen Welt.

Die wichtigsten Funktionen?

Es gibt grundsätzlich drei verschiedene Elemente von CCTS (wie in praktisch jedem anderen Objekt-Modellierungsansätze):

  • einfache Elemente
  • Verbundelemente
  • Beziehungen zwischen Objekten

Zum Beispiel kann die Eigenschaft VIN einfach ein Element in dem Verbundelement Radfahren enthalten und das Verbundelement kann die Beziehung des Eigentums zu einer Person, die einen Namen haben kann, usw.

Dies ist das Rückgrat der Datenmodellierung und damit in CCTS.

Das obligatorische

Für alle CCTS Objekte gilt, dass sie müssen

  • Ein Ausdruck, der angibt, was das Objekt aufgerufen wird
  • Eine Definition, die erklärt, was das Objekt ist
  • Ein eindeutiger Name, der es ermöglicht, ein bestimmtes Objekt in Bezug auf alle anderen Objekte zu identifizieren. Dieser Name wird in dem CCTS für den Wörterbuch-Eintragsnamen (DER) genannt.

Verbundelemente haben auch Informationen über die einfache oder zusammengesetzte Elemente aus denen sie bestehen, und wie oft jedes Unterelement auftreten können (es muss mindestens ein oder ist es optional, es kann nicht mehr als eine bestimmte Anzahl oder eine beliebige Anzahl?).

Beziehungen haben natürlich auch Informationen über die Objekte, die sie verbinden.

Einfache Elemente hat einen Datentyp, der den Probenraum, dh die Werte angibt , die für das Element gültig sind. Ein Element kann, zum Beispiel, sollte eine ganze Zahl ist , eine positive ganze Zahl, eine Zahl zwischen 5 und 10 und so weiter sein. Dies entspricht in etwa der Struktur von XML , die Typen deklariert angibt , Constraints und Gegenstände mit Angabe der Variablennamen in der XML – Dateien sind.

Aber es gibt mehr …

Die oben ist nur eine sehr einfache Methode, um einzelne Datenmodelle, aber CCTS zielt darauf ab, die Entwicklung, Wartung und Andocken von Modellen zu unterstützen, so gibt es viele andere Möglichkeiten in der Beschreibung. Kernkomponenten im Vergleich zu Geschäftseinheiten in erster Linie unterscheidet CCTS zwischen auf der einen Seite „Core Components“ (CCER) und auf der anderen Seite „Business Information Entities“ (BIEer) weiß, dass CCER sind verallgemeinerte Objekte wie „Name“, während BIEer spezialisiert ist ein spezifischer Kontext – zum Beispiel persönlicher Name des Antragstellers. In der Praxis gibt es viele, die nur entweder CCER oder BIEer entwickeln, da es leicht wie unnötigen Doppel kommen kann zunächst so etwas wie CC scheinen erklärt und von einer BIE bilden.

Versionierung

Es ist auch möglich CCTS Objekte versionize. Man kann sowohl im traditionellen Sinne versionize, wo eine neue Version eines Objekts kann eine alte ersetzen und Gestaltung das gleiche Objekt in mehreren Sprachen – in Dänemark wird wahrscheinlich oft relevant sein Definitionen zu leiten usw. in Dänisch und Englisch.

Context

Ein weiterer potentiell mächtiger Aspekt von CCTS sind Hinweise auf Zusammenhang. Das bedeutet, dass es möglich ist, um anzuzeigen, wo ein bestimmtes Objekt relevant ist – eine „Probe“ gut zwei verschiedene Dinge sein kann, die jeweils in einem Krankenhaus und eine Schule. Diese Seite der CCTS ist nicht wirklich ausgereift, aber die Arbeit an Spezifikationen vollständig an Ort und Stelle zu bekommen.

Nachricht Zusammensetzung

Ein herausragendes in der CCTS entwickeln , ist ein gemeinsamer Standard für wie einheitliche Dokumente von CCTS Elemente erstellen. Dieses Thema wird diskutiert derzeit in UN / CEFACT wird erwartet , dass eine Lösung einmal im Jahr 2009 vorzuschlagen.

Namens

Die CCTS ist eigentlich ziemlich strenge Regeln für die Benennung von Objekten, alle Formularanforderungen für Dener. Alle Namen sollten drei Teile, die jeweils, was darauf hindeutet, das Objekt, in dem Fall von (als Einzelperson), die Eigenschaft offenbart (zB Namen) und wie das angegebene Aussehen (wie zB Text). Darüber hinaus genannt BIEer Qualifier ihre Verwendung Kontext angibt (zB Antragsteller). Diese Regeln können sehr steif erscheinen, und sie können einige sehr markante Ergebnisse liefern, macht aber insgesamt die Regeln leichter zu verfolgen Namensgebung und die Schaffung von Tools, die die Verwendung von CCTS unterstützen.

Wie geht es Ihnen in der Praxis?

Insgesamt gebildet CCTS steuert nach dem Klärungsprozess, in dem zunächst die Menschen erkennen, was Sie tun und wie (Geschäftsprozesse). Dann werden die Daten identifizieren, die in jedem Schritt des Verfahrens verwendet werden und wie die Daten kommen aus (sie getippt werden als Teil des Prozesses, können sie von außen heruntergeladen werden oder sind sie bereits irgendwo im Prozess). Auf der Grundlage der angegebenen einzelne Datensätze und Datenelementen abgerufen oder erstellt werden – und es ist hier nur, dass der CCTS wirklich ins Spiel kommt.

Es gibt kein maßgebliches Format für die Aufnahme der CCTS – Objekte. Die meisten , die verwenden CCTS die Objekte in der speichert Kalkulationstabelle , und das ist das Ende dieser Broschüre Link zu dem Format , das UN / CEFACT verwendet. UN / CEFACT arbeitet derzeit. ein entwickeln XML – Format , das verwendet werden kann , um CCTS Objekte aufnehmen und den Austausch, aber die Arbeit ist nicht früher am Ende des Jahres 2009 abgeschlossen erwartet.

Darüber hinaus gibt es einige Tools , die CCTS unterstützen, einschließlich FX von GEFEG und Enterprise Architect von Sparx Systems .

Business Intelligence

Business Intelligence (BI) ist ein Begriff für Software – Lösungen . Der Begriff umfasst ein breites Spektrum an Softwarelösungen, die typischerweise Daten extrahieren aus einem oder mehreren Quellsystemen, sie in etwas einfacher und legt sie in einer neuen Datenbank oder Struktur transformieren , die in der Berichterstattung und Statistiken einfacher für die Endanwender zu bedienen ist . Ein gemeinsames Merkmal besteht darin , dass BI verwendet wird , einen Überblick über das Unternehmen unzähligen bereitzustellen Daten . Der Wert von Business Intelligence entsteht durch die Einbeziehung der wesentlichen Daten innerhalb Beispiel des Unternehmens. Wirtschaft , Produktion , Kundendatenbanken , Zeiterfassung und Gehalt.

Mit Tool wie Software-Anwendungen und Analyseverfahren für die Erfassung und Umwandlung von Daten in Informationen, die zukünftigen Geschäftsstrategien und Entscheidungen ermöglicht.

Komponenten

  • Das Sammeln von Daten, die oft unbeaufsichtigt, über die verschiedenen Datenquellen
  • Datenintegration und Qualität
  • Die Behandlung, die Auswahl, Gruppierung und statistische Analysen der Datenverarbeitungs
  • Präsentation und Übermittlung von Daten
  • Projektion von Daten durch Analysen und Prognosen.

Benutzerprofil

Ein Benutzerprofil ist eine visuelle Darstellung von persönlichen Daten in Verbindung mit einem bestimmten Benutzer oder einer benutzerdefinierten Desktop – Umgebung .

Ein Profil bezieht sich daher auf die explizite digitale Darstellung der Identität einer Person.

Das Profil kann auch als betrachtet werden Computerdarstellung eines Benutzermodells.

Benutzerprofile finden Sie unter Betriebssystemen , Computerprogrammen , recommendersystemer oder dynamische Websites (wie Online – Social – Networking – Sites oder Bulletin Boards).

große Daten

Big Data [1] [2] ist ein Begriff in der Informatik , die auf die Sammlung, Speicherung bezieht sich breit, [3] Analyse, [4] Verarbeitung und Interpretation der großen Mengen von Daten . Wie viele andere IT-Wort hat große Daten keine dänische Übersetzung.

Der Rahmen für große Datenmengen im Laufe der Jahre stark verschoben. Es wurde von einer Wahrnehmung von bewegten Gigabyte Daten als große Mengen von Daten, einem im Jahr 2012 darüber gesprochen Petabyte und Exabyte als großen Mengen. [5] [6] Der Trend zu größeren Datenmengen hat , die Grundlage für die Fähigkeit , aus der Analyse eines einzelnen Satzes von vielen zusammenhängenden Daten zusätzliche Informationen zu ziehen, im Vergleich zu getrennten, kleinerem Satz mit der gleichen Gesamtdatenmenge , die ermöglicht , für Verbindungen , so dass Sie können „Spot Business – Trends , ermitteln Forschung Qualität, verhindern Krankheiten , vergleichen Sie die rechtlichen Zitate, zu bekämpfen Kriminalität und halten ein Auge auf Verkehrsbedingungen in Echtzeit.“ [7] [8]

Wissenschaftler stehen oft Einschränkungen aufgrund großer Datenmengen; solche Bereiche könnten Meteorologie , Genetik , [9] komplexe physikalische Simulationen [10] , und biologische und Umweltforschung . [11]

Im Jahr 2012 produziert auf dem Internet große Mengen an Daten, zum Beispiel über soziale Dienste wie Facebook und Flickr .

Big – Daten in Echtzeit, zum Beispiel oft produziert. GPS – Geräte und digitale Sensoren in Autos eingebettet, Krankenhausausrüstung, etc .. Man kann auch große Datenmengen haben , die nicht einmal eine Kopie, sondern einfach zugegriffen durch haben API ‚s.

Merkmale

Da die „Big Data“ bedeutet „Big Data“ ist es verlockend , große Daten wie die Fläche zu charakterisieren mit großen Datenmengen zu tun hat. Allerdings gibt es einige Experten , die behaupten , dass es nicht nur die Größe der Datenmenge, die auf das Paradigma um große Datenmengen wesentlich sind. Viktor Mayer-Schönberger und Kenneth Cukier zitiert drei Merkmale: der Lage gewesen , um große Datenmengen zu analysieren und nicht nur eine Probe ; dass Daten bereit ist , zu behandeln , die unordentlich und nicht notwendigerweise genau; und dass sie aussehen Korrelation nicht Kausalität . [12] Andere haben gekennzeichnet große Daten auf drei Vs: „Velocity“ (Geschwindigkeit bei der Verarbeitung von Daten), „Lautstärke“ (Datenmenge) und „Sorte“ (Diversität in den Daten). [13]

Verwalten große Daten

Bei großen Mengen heterogener Daten (Big Data) arbeitet, ist es oft , dass das traditionelle SQL – Datenbank – Paradigma der Aufgabe nicht lösen kann. Teilweise , weil man kann nicht ein Modell machen , die alle Daten Merkmale aufnehmen und skaliert auch die nicht für die große Menge an Daten. Deshalb übernimmt oft große Datenmengen in NoSQL – Datenbanken. Im Grunde eine Art von Datenbank wählen , die Analyse von Daten in einer bestimmten Art und Weise unterstützt. Zum Beispiel. wählen soziale Netzwerke speichern oft Informationen darüber , wer ist „Freunde“ mit wem, in den so genannten Graph – Datenbanken. Wenn Sie viele semi-strukturierte Informationen haben, wählen Sie eine oft eine Dokumentendatenbank genannt.

Referenzen

  1. Aufspringen^ (Englisch) Weiß, Tom (10 Mai 2012). Hadoop: The Definitive Guide . O’Reilly Media. p. 3. ISBN 978-1-4493-3877-0 .
  2. Aufspringen^ (Englisch) MIKE2.0, Big Data Definition .
  3. Aufspringen^ (Englisch) Kusnetzky, Dan. Was ist „Big Data?“ . ZDNet.
  4. Aufspringen^ (Englisch) Vance, Ashley (22. April 2010). “ Start-Up geht nach Big Data Mit Hadoop Helper „. New York Times Blog .
  5. Aufspringen^ (Englisch) Francis, Matthew (2012-04-02). Zukunft Teleskop – Array Entwicklung von Exabyte Verarbeitung angetrieben . Abgerufen 2012.10.24 .
  6. Aufspringen^ (Englisch) Watters, Audrey (2010) (Webseite / Slide). Das Zeitalter der Exabyte: Werkzeuge und Ansätze für Big Data Verwalten . Hewlett-Packard Development Company . Abgerufen 2012.10.24 .
  7. Aufspringen^ (Englisch) E-Discovery – Sonderbericht: The Rising Tide of Nonlinear Bewertung . Hudson Globale . 1. August 2012 abgerufen . von Cat Casey und Alejandra Perez
  8. Aufspringen^ (Englisch) Welche Technologie-Assisted Electronic Discovery lehrt sie über die Rolle des Menschen in der Technik – Re-Humanisierung Technologie-Assisted Bewertung . Forbes . 1. August 2012 abgerufen .
  9. Aufspringen^ (English) „ Gemeinschaft Klugheit erforderlich “. Nature 455 (7209): 1. 4 September 2008. doi : 10.1038 / 455001a .
  10. Aufspringen^ (Englisch) „ Sandia Datenmanagement Spirale Herausforderungen sieht “. HPC – Projekte . 4. August 2009.
  11. Aufspringen^ (Englisch) Reichman, ABl; Jones, MB; Schildhauer, MP (2011). „Herausforderungen und Chancen von Open Data in Ecology“. Science 331 (6018): 703-5. doi : 10.1126 / science.1197962 .
  12. Aufspringen^ Viktor Mayer-Schönberger und Kenneth Cukier (2013). Big Daten . ISBN 978-1-84854-791-9 .
  13. Aufspringen^ Anders Lisdorf (18. August 2014). Big Data? Vergiss es . Version2 .

Datenmanagement

Data Management (engl. Datenmanagement umfasst Data Governance ) beinhaltet Regeln und Verfahren für die Verwaltung von Daten . Dies kann einen umfassen Datenmanagement – Plan , wenn die vielen Aspekte Berücksichtigung Datenverwaltung , Metadatengenerierung , Datenspeicherung und Analyse vor dem Start der Sammlung. Ziel ist es, dass die Daten , um sicherzustellen , sind gut genug , um in der Gegenwart verwaltet und für die Langzeitarchivierung in der Zukunft vorbereitet.

Daten – Management – Forschung

Ein Datenmanagementplan ist ein offizielles Dokument, beschreibt , wie der Forscher seine behandelten Daten sowohl während als auch nach dem Forschungsprojekt. Das Ziel eines Datenmanagementplan für Forschungsdaten ist es, die einzelnen Forscher zu helfen , die verschiedenen Aspekte der Datenverwaltung zu klären. Dies gilt für die Erstellung von Metadaten , die dafür sorgen können , dass Daten wiederhergestellt werden können, kontinuierliche Sicherung von Daten auf dem Weg und dauerhafte Erhaltung für das Forschungsprojekt. In Englisch wird ein Datenmanagementplan für namens Data Management – Plan (DMP).

Warum ist es notwendig?

Es ist notwendig, Forschungsdaten zu verwalten, die Qualität diesen zu gewährleisten und Betrug und Plagiate zu verhindern und sicherzustellen, die Möglichkeit dieser Forschung auf vorhandenes Wissen oder Daten zu erstellen ist. Im Einklang mit dem technologischen Entwicklungen haben große Mengen von Daten in Experimenten, Messungen, Aufzeichnungen und mehr zu schaffen entstanden. Es geschieht in allen wissenschaftlichen Bereichen, angefangen von der Wissenschaft in Geisteswissenschaften. Zusätzlich zu dem erhöhten Speicherbedarf und Auffindbarkeit, dass die erhöhte Datenmenge setzen, gibt fordert zunehmend, dass die Forscher ihre Daten vollständig machen oder teilweise verfügbar.

Diese Entwicklung bedeutet, dass die Forscher steigenden Anforderungen an die Dokumentation der Daten und ihre Forschung im Allgemeinen konfrontiert. Ein DMP hilft, die Forscher, die Aspekte des Datenmanagements zu klären, die auf den spezifischen Forschungsprojekt relevant sind. Graham Pryor (2012) und Büttner (2011).

Was ist ein DMP?

Ein DMP ist eine Liste von Fragen, die die Forscher, um beantworten muss, dass die Daten, um sicherzustellen, ist nach gemäß den geltenden Rechtsvorschriften und entsprechen den Anforderungen der Universitäten, Stiftungen und Forschung geführt. Es gibt große Unterschiede in dem, was dokumentiert werden soll. Donelly (2012) und Jensen (2011).

Eine Reihe von gemeinsamen Themen kehren in mehreren Orten:

  • Allgemeine Informationen: Informationen zu Daten und Datenformate
  • Eigentümer: Politik für den Zugang, die gemeinsame Nutzung und Wiederverwendung
  • Zustand: Metadaten-Inhalt und Format
  • Bedingungen für die Daten: Langzeitspeicherung und Datenmanagement
  • Organisation inkl. Budgetierung

Um die einzelnen Forscher Digital Curation Centre (DCC) entwickelt Software (DMP online) , die es ermöglicht , ein DMP zu schaffen, basierend auf einer Kombination der vielen beruflichen Anforderungen und Anforderungen von Behörden und Stiftungen.

Management von Forschungsdaten ist nicht frei

Management von Forschungsdaten erfordert die Forscher Beschreibung der zur Verfügung zu stellen Daten und die Verfügbarkeit und sichere Konservierung. Wenn Daten online verfügbar sein muss, bedarf es Software, die die Suche handhaben kann, Zugang usw. Im Zusammenhang mit der Herstellung der Forscher muss unter anderem die Einhaltung der Rechtsvorschriften über die personenbezogenen Daten, Patente und Urheberrechte zur Verfügung. Diese Elemente werden in der Regel in einem DMP enthalten sein. Der obige Arbeitsablauf erfordert , dass die Forscher die Ressourcen für Stunden zu zahlen haben gearbeitet und Ausrüstung zur Verfügung. In Dänemark können Sie beispielsweise Forschungsdaten aus den speichernden dänischen Datenarchive (DDA).

Management von Forschungsdaten in Dänemark

Im Jahr 2011 ins Leben gerufen Dänemark Electronic Research Library eine Studie, wie Forschungsdaten an dänischen Universitäten verwaltet. Die Studie zeigte einen hohen Grad an Variation in Bezug auf die Daten gespeichert werden soll, langtidsbevaret, zur Verfügung gestellt und wie dies geschieht. Dies ist offenbar aufgrund von Unterschieden in der akademischen Traditionen, die die Teilnahme an internationalen Projekten, die sie in verschiedenen Praktiken, Universitäten Forscher Organisationsstruktur und unterschiedliche Bedürfnisse der Forscher.

Weitere Untersuchungen haben ergeben , dass in dem Maße , dass die Daten systematisch gespeichert werden, im Falle der Lagerung und ohne langfristige Speicherung und Daten ist oft nicht verfügbar getan. Aber im Allgemeinen zeigt die Studie , dass es Fokus auf diesem Bereich erhöht wird. Dies spiegelt sich unter anderem in der neu gegründeten reflektiert dänische e-Infrastructure Zusammenarbeit sehen es als strategisches Ziel, „eine nationale, eine nachhaltige Lösung zu schaffen“ und „Schaffung einer nationalen Strategie für Datenmanagementbereich“ [1] . Ein Teil dieser Arbeit wird auf einer praktischen Ebene mit DMP zu arbeiten.

Dänische Institutionen und Akteure

  • Dänische Datenarchive (DDA)
  • Dänemark Electronic Research Library (DEF)
  • DeIC
  • Digital Preservation

Dänische Projekte mit großen Mengen an digitalen Forschungsobjekte und Daten

  • DigHumLab
  • NOISE
  • Net – Archiv und Netarkivet

Beispiele für Datenmanagementpläne

  • Die nationale Rechenzentrum in Australien hat eine Reihe von Beispielen für DMP’ere gesammelt .
  • DCC Checkliste verglichen , um einen DMP vorzubereiten .
  • Biomedizin
  • Umweltbiologie
  • Sozialwissenschaften

Ausländische Ressourcen

  • Australian National Data Service (ANDS)
  • Digital Curation Centre (DCC)
  • Datenarchivierung und Networked Services (DANS)

Quellen

  • Stephan Büttner. „Forschungsdaten Managegment“ (2011). Im „Handbuch Forschungdatenmanagement“. BOCK + Herchen Verlag, Seiten 7-12 .
  • Digital Curation Centre (DCC) Checkliste für einen Data – Management – Plan
  • Digital Curation Centre (DCC) DMP Online
  • Alfred Heller und Lars Nondal. „Forschungsdaten Down Under – und vielleicht hier“ (2011) in Revy, Band 34, Nr 1, Seiten 16-18..
  • Danish e-Infrastructure Cooperation (DeIC). 2012. „DeIC Strategie 2012-2016 – Data Management“ .
  • Martin Donnelly. „Datenmanagementpläne und Planung“ (2012). In Graham Pryor (Hrsg.). „Verwalten von Forschungsdaten“: Facet Publishing, Seiten 83-104.
  • Uwe Jensen. „Datenmanagementpläne“ (2011). Im “ Handbuch Forschungdatenmanagement“. BOCK + Herchen Verlag, Seiten 71-82 ..
  • Graham Pryor. „Warum Forschungsdaten verwalten?“ (2012). In Graham Pryor (Ed). „Verwalten von Forschungsdaten“: Facet Publishing; Seite 1-16.

Hinweise

  1. Aufspringen^ Strategisches Ziel: Koordinaten Lösungen für das Datenmanagement und große Datenmengen | DeIC

Mumble (Software)

Mumble ist ein Voice – over – IP (VoIP) Anwendung , die vorzugsweise für die Verwendung von Internet – Spielen, wie Programme wie entworfen ist Teamspeak und Ventrilo . [1]

Mumble ist ein Server, der Benutzer über Server kommunizieren können. [2] Die administrative Schnittstelle ist einfach, aber die Nutzungsmöglichkeiten sind groß und Funktionen sorgen für eine hohe Klangqualität. Die gesamte Kommunikation verschlüsselt ist . [3]

Mumble ist eine kostenlose Software . Seit der Version 1.0 haben Anwender in der Lage gewesen zu verwenden Avatare selbst zu vertreten und damit erreichen eine persönliche Erfahrung. Ab Version 1.2 arbeitet die Anwendung mit den meisten Spielen , die verwenden Direct3D 10.9 und OpenGL unter Windows und OpenGL für Linux und Mac OS X

Hinweise

  1. Aufspringen^ FAQ / Englisch – Mumble . www.mumble.info . Abgerufen 2011-06-30 .
  2. Aufspringen^ FAQ / Englisch – Mumble . www.mumble.info . Abgerufen 2011-06-30 .
  3. Aufspringen^ Projekt des Monats November 2009 . SourceForge.net. 2005-08-31 . Abgerufen 2011-06-30 .

Lesezeichen

Ein Lesezeichen ist etwas, das markiert Seite in einem Text , sie werden gedruckt oder digital .

Gebäude

Ist der Text gedruckt werden Lesezeichen zu setzen typischerweise durchhalten, so ist es leicht zu erkennen. Lesezeichen können aus verschiedenen gemacht werden Arten von Papier , kann aber auch von anderen gemacht werden Materialien wie Leder . Viele von ihnen sind nur flache Flecken , während andere gebogen sind , sicher zu halten und weiter die Chance auf eine reduzieren Lesezeichen herausfallen, können angebracht werden Magnete durch gegenseitige Anziehung an jedem Ende, auf der Seite zu halten. Ist Lesezeichen elektronisch, es besteht in der Regel nur ein Symbol , die Links auf der Seite.

Wiki Daten

Wiki Daten sind Basis kollektiv bearbeitet Wissens betrieben von der Wikimedia -stiftelsen. Die Absicht ist es, einen gemeinsamen Satz von konformen Datentypen zu liefern – Register – Indizes (Los) – die von den Wikimedia – Projekten wie verwendet werden kann Wikipedia . So wie die Wikimedia Commons Speicherung und den Zugriff auf gemeinsam genutzte Dateien ermöglicht (zB Bilder) für alle Wikimedia – Projekte, so zu Wiki – Datenregister allgemein verfügbar.

Konzept

Wiki Data ist eine dokumentenorientierte Datenbank, auf Fragen zentriert. Jedes Element stellt eine Seite auf Wikipedia und wird durch eine eindeutige Nummer , das Präfix durch die Buchstaben Q identifiziert – zum Beispiel d: Q7163 im Fach Politik . Auf diese Weise kann die grundlegenden Informationen zum Thema können , ohne dass jede Sprache ein fortrinssstilling übersetzt werden.

Information hinzugefügt von Aussagen zu schaffen. Zukunftsgerichtete Aussagen bestehen aus Schlüssel-Wert-Paaren, wobei für jede Eigenschaft (Schlüssels), ein oder mehr tilfhørende Aussagen.

Entwicklungsgeschichte

Die Einrichtung von Wiki – Daten wurde möglich dank der Spenden aus dem gemacht Allen – Institut für Künstliche Intelligenz , Gordon und Betty Moore Foundation und Google in Höhe von insgesamt 1,3 Millionen. EUR. Das Projekt wurde ursprünglich von Wikimedia Deutschland und organisiert in drei Phasen geleitet:

  1. Zentralisierung der interwiki Verbindung zwischen den Artikeln zum gleichen Thema in verschiedenen Sprachen. Die Bühne ist abgeschlossen.
  2. Einrichtung einer zentralen Lage mit Daten Info-Box. Phase ist im Gang und wird teilweise in Betrieb genommen.
  3. Der Aufbau und die Liste der Artikel basiert auf Wiki Daten zu aktualisieren.