Was sind eigentlich Daten?" von Jakob Voß erreichte uns eine Leserantwort von Walther Umstätter, emeritierter Professor für Bibliotheks- und Informationswissenschaft am Institut für Bibliotheks- und Informationswissenschaft der Berliner Humboldt-Universität, die wir hier mit freundlicher Genehmigung veröffentlichen:"> Was sind eigentlich Daten? - Ein Kommentar von Walther Umstätter | dasBibliothekswissen

Was sind eigentlich Daten? - Ein Kommentar von Walther Umstätter

10.12.2013  — Walther Umstätter.  Quelle: Verlag Dashöfer GmbH.

Zu dem Artikel "Was sind eigentlich Daten?" von Jakob Voß erreichte uns eine Leserantwort von Walther Umstätter, emeritierter Professor für Bibliotheks- und Informationswissenschaft am Institut für Bibliotheks- und Informationswissenschaft der Berliner Humboldt-Universität, die wir hier mit freundlicher Genehmigung veröffentlichen:

Das Problem ist immer wieder das Gleiche. Es werden verschiedene Perspektiven des selben Problems zusammengetragen und als unterschiedliche Definitionen angesehen.

Wenn es da heißt: „Mindestens bis in die 1960er lässt sich zeigen (Gray 2003), dass in der Fachliteratur keine Unterscheidung zwischen Daten und Informationen getroffen wurde“, dann ergibt sich das bei genauerem Hinsehen auch wieder aus Shannons Informationstheorie, die damals ja gerade allgemein bekannt wurde. Da Daten der Oberbegriff von Information, Redundanz und Rauschen sind, kann man Daten und Informationen so lange synonym benutzen, so lange es beispielsweise bei der Datenübertragung hauptsächlich darum geht, Informationen zu übertragen, d.h. das Rauschen muss mit ausreichend Redundanz überwunden werden. Anders kann man Information gar nicht übertragen.

Wir sprechen darum auch meist von der Informationstheorie, obwohl es "Theory of Communication" heißt. Bei Shannon und Weaver ging es also um Datenaustausch, darum, Information von A nach B zu bringen. Erst in der Kybernetik ging es auch um die Rückkopplung, also das, was man im laienhaften Sprachgebrauch als Kommunikation versteht. Im Prinzip ist auch Floridis „Definition“ von Daten als: „x being distinct from y, where x and y are two uninterpreted variables” nur ein Aspekt. Es ist der Hinweis darauf, dass es bei Daten um die Unterscheidung zwischen Information und Redundanz geht. Denn das Problem „der Identität und Gleichheit“ heißt im Datenaustausch Redundanz.

Durch diese sich wiederholende und ausufernde Verwechslung von Definition und Teilaspekten kommt es nicht nur zu unzähligen Missverständen, sondern auch dazu, dass der Eindruck entsteht, es ließen „sich verschiedene Konzepte von Daten voneinander abgrenzen“, auch wenn es durchaus richtig ist, dass es verschiedene abgrenzbare Datentypen gibt.

Hinsichtlich der Fakten ist anzumerken, dass wir bei Messdaten beispielsweise immer eine Toleranzbreite bzw. den Messfehler angeben müssten. In dieser Datendiskussion finden wir das klassische Pädagogische Perzeptionsparadox, bei dem Probleme, so lange sie unverstanden sind, höchst komplex und vielschichtig (oft unlösbar) erscheinen, während man nach dem berühmten Heurekaeffekt sich wundert, wie man so etwas Evidentes wie die Informationstheorie nicht auf Anhieb logisch einsehen kann. Es klingt kleinlich, ist aber essentiell. Die Aussage, dass Shannon „Information mathematisch als eine Menge von Bits definiert“, ist nicht ganz richtig. Daten, Information, Rauschen, Redundanz und damit auch Wissen lassen sich alle, wie auch die Entropie, in Bit messen. Das Bit ist ein Maß wie Meter, Sekunde oder Kilogramm, es ist aber erstaunlicherweise nicht linear (wie die letztgenannten), sondern logarithmisch skaliert. 10 Bit sind nicht das Zehnfache von 1 Bit, sondern das ~1000fache (www.ib.hu-berlin.de/~wumsta/infopub/Planckeinheiten13d.pdf). Das ist wichtig für den Informationsgehalt in unserem Universum.


Newsletter:

dasBibliotheks­wissen

Aktuelle News und Informationen zum Bibliothekswesen und zum Bibliotheksmanagement

Aktuelle Ausgabe Jetzt abonnieren
nach oben