Gesendet: Samstag, 12. Oktober 2013 um 16:06 Uhr
Von: "Peter Ohly" <peter.ohly@xxxxxxxxxxxxxx>
An: "Internet in Bibliotheken" <inetbib@xxxxxxxxxxxxxxxxxx>
Betreff: Re: [InetBib] „Was sind eigentlich Daten?“
Lieber Herr Umstätter,
zunächst vielen Dank für den Hinweis auf die interessante
Darstellung von
Jakob Voß, worin Ballsun-Stantons Punkt der “data as communications”
wohl
für die Informationswissenschaft am treffendsten zu sein scheint.
Ansonsten
kann nur beigepflichtet werden, dass das jeweilige Verständnis in
unserer
multidisziplinären Welt ggf. erst eruiert werden muss.
Leider gibt es keinen Bezug zu Wersig oder Kuhlen, die Information als
etwas mehr als Daten ansehen, nämlich als interpretierbare,
handlungsrelevante Daten. Auch Sie führen leider den
Informationsbegriff
nur auf Shannon-Weaver zurück, wo es sich in der Tat nur um formale
Bits
handelt. Hier könnte man vielleicht sagen, dass diese schon den Begriff
‚Information‘ vielleicht irreführend verwendet haben. Selbst der
Begriff
‚Nachricht‘ setzt eigentlich eine Interpretationsfähigkeit dieser
voraus,
denn sie ist ja an einen (als verstehend vorausgesetzten) Empfänger
gerichtet. Gravierender ist meines Erachtens die Abgrenzung gegenüber
‚Wissen‘. Dies sollte mehr als ‚Information‘ sein: umfangmäßig, in der
wissenschaftlichen Absicherung, in der kausalen Vernetzung. Hier liegt
derzeit wohl die größte Problematik, dass ständig von ‚Wissen‘
gesprochen
wird, obwohl nur ‚Information‘ geliefert, verarbeitet etc. wird – von
Erkenntnis ganz zu schweigen, die zusätzlich eine transzendentale
Qualität
aufweist.
Am 12. Oktober 2013 13:14 schrieb h0228kdm <h0228kdm@xxxxxxxxxxxxxxxx>:
Jakob Voss hat in LIBREAS
http://libreas.eu/ausgabe23/**02voss/<http://libreas.eu/ausgabe23/02voss/>einen,
wie ich meine interessanten Beitrag zur Frage „Was sind eigentlich
Daten?“ geschrieben, der aufzeigt, wie chaotisch man in diesem
Bereich mit
fundamentalen Begriffen wie Information oder Daten umgeht.
Seit dem das Internet mit immer mehr Daten von Laien zugeschüttet
wird,
ist es nicht verwunderlich, dass wir dort fast jeden Unsinn finden
können,
den sich Menschen (insbesondere unter Pseudonymen) ausdenken und
ins Netz
bringen. Hier jede Nachricht auf Evidenz zu prüfen ist nicht immer
einfach.
Darum finden wir in den letzten Jahrzehnten immer häufiger unsinnige
Definitionen für Begriffe wie Daten, Information, Wissen etc. Dazu
kommt,
dass mit einer wachsenden Wissenschaft und einer zunehmenden
Spezialisierung der Wissenschaftler immer mehr Spezialisten auf einem
Gebiet, die Laien auf vielen anderen Gebieten sind.
Obwohl es also legitim und wichtig ist, bei der Frage „Was sind
eigentlich
Daten?“ dies reviewartig zu hinterfragen, zeigt J. Voß, dass man
bei den
verschiedenen Autoren, immer wieder prüfen muss, was sie nun gerade
gemeint
haben. Was allerdings schwierig wird, wen die Autoren soelbst nur sehr
diffuse Vorstellungen entwickeln. Andererseits ist es schon
bedenklich,
wenn R. L. Gray in seinem Rückblick auf die Entwicklung der
Begriffe Daten
und Information, die eindeutig wichtigste Quelle (Shannon und
Weaver 1949)
ignoriert. Denn das wurde im zweiten Weltkrieg bei der Chiffrierung
und
Dechiffrierung von Nachrichten rasch klar, dass jede Nachricht aus
grundsätzlich drei Grundelementen besteht, der Information, dem
Rauschen
und der Redundanz. Das Wort Nachricht war damit der Oberbegriff
dieser drei
Unterbegriffe. Auch die Erkenntnis, dass man jede Nachricht
grundsätzlich
in binary digits zerlegen und damit in Bits messen kann, fand rasch
Eingang
in die ersten Computer, bei denen man aber weniger von
Nachrichtenverarbeitung als vielmehr von Datenverarbeitung sprach.
Damit
konnte man Daten sammeln, speichern, verarbeiten, verschicken etc. Der
Begriff Daten war also nach dem Weltkrieg, als diese Erkenntnisse
nichtmehr
geheim waren, eindeutig der Oberbegriff von Information, Rauschen und
Redundanz, insbesondere in digitaler Form. Da aber alle
Nachrichten, wie
Zahlen, Texte, Bilder, Töne oder Metadaten digitalisierbar sind,
wurde der
Begriff Daten damit sozusagen zum Top Term.
Die Fundamentale Erkenntnis von Shannon, der auf der Ebene der
Informationstheorie „Aspekte der Bedeutung explizit ausklammert“
wie Voss
richtig schreibt, war gerade bei der anfänglichen Computerisierung
bemerkenswert, weil man die Daten ohne jede Semiotik (die
Wissenschaft von
der Bedeutung von Zeichen) verarbeiten konnte. Dieser nächste
Schritt, der
Bedeutungsverarbeitung, und darauf aufsetzend der
Wissensverarbeitung, ist
erst eine Entwicklung unserer heutigen Zeit. Die Aussage W. Weavers,
„information cannot be confused with meaning“ darf nicht als
Nachteil der
Informationstheorie verstanden werden, sondern zeigt eine tiefere
Erkenntnis über die Tatsache, dass Information nicht mit
Interpretation
verwechselt werden darf. Interpretation ist erst Gegenstand der
sogenannten
Pragmatik in der Semiotik. Auch die Semiotk hat drei Unterbegriffe,
die
Semantik (Zuordnung von Zeichen zu Gegenständen auf der
Senderseite), die
Syntax (Zuordnung der Zeichen zueinander), und die Pragmatik
(Rekonstruktion der Zeichen zu ihren Gegenständen auf der
Empfängerseite).
Das hat seine Entsprechung zu Shannons Kommunikationsmodell mit
Sender,
Übertragungskanal und Empfänger, aber auf der nächst höheren
(semiotischen)
Ebene. Während auf der Wissensebene noch die Begründung einer
Information
hinzu kommt. Sie ist eine a priori Redundanz, weil wir beim Wissen als
Empfänger auch Informationen vorhersagen können, soweit sie sich
aus dem
zuvor gesendeten logisch oder erfahrungsgemäß ableiten lassen.
MfG
Walther Umstätter
--
http://www.inetbib.de
--
http://www.inetbib.de