Am 2013-10-12 16:06, schrieb Peter Ohly:
Lieber Herr Umstätter,zunächst vielen Dank für den Hinweis auf die interessante Darstellung von Jakob Voß, worin Ballsun-Stantons Punkt der “data as communications” wohlfür die Informationswissenschaft am treffendsten zu sein scheint.
Das war ja schon bei Shannon die Ausgangssituation, bei seiner"Mathematical Theory of Communication". Auch die oft wiederholte Aussage, Informmation sei die Beseitigung von Ungewissheit, ist nur ein Teilaspekt aus Shannons Informationstheorie.
Ansonsten kann nur beigepflichtet werden, dass das jeweilige Verständnis in unserermultidisziplinären Welt ggf. erst eruiert werden muss. Leider gibt es keinen Bezug zu Wersig oder Kuhlen, die Information als etwas mehr als Daten ansehen, nämlich als interpretierbare, handlungsrelevante Daten.
Darum habe ich ja versucht deutlich zu machen, dass wir Information und Interpretation nicht verwechseln dürfen. Die Interpretation liegt erst auf der Ebene der Semiotik (bzw. wie es oft heißt, der Semantik, obwohl Semantik ohne Pragmatik und Syntax eigentlich keinen Sinn ergibt. Ähnlich wie Information ohne ausreichend Redundanz sinnlos und zu ungesichert bleibt.) Zu Kuhlens "pragmatischem Primat" mit der Aussage "Information ist Wissen in Aktion", habe ich mich bereits mehrfach geäußert. Außerdem denke ich hier ebenso wie Sie, dass Information "die Abgrenzung gegenüber ‚Wissen‘" braucht, und somit keine spezielle Teilmenge von Wissen sein kann.
Auch Sie führen leider den Informationsbegriffnur auf Shannon-Weaver zurück, wo es sich in der Tat nur um formale Bitshandelt.
Das ist der weit verbreitete Fehler, dass die Theorie von Shannon im Laufe der Zeit mit zu viel Unsinn zugeschüttet wurde. Das Bit war und ist ein Maß zur Messung jedweder Information, von Noise, Redundanz und Wissen. Auch beispielsweise des Wissens, das die Evolution über Jahrmillionen auf ihrer DNS hoch redundant gespeichert hat, damit die Arten überleben können. Ebeso kann auch das Wissen in unseren Gehirnen nur in Bit gemessen werden, weil es kein anderes Maß gibt. Im Gegensatz zum höchst anthropozenrischen MKS-System ist das Bit eine natürliche Einheit, die die auffällige Eigenschaft besitzt nicht linear, wie Meter, Kilogram und Sekunde skaliert zu sein, sondern exponetiell. So sind bekanntlich 10 Bit nicht das Zehnfache von einem Bit, sondern das 2^10, 1024-fache. Das ist auch kosmologisch interessant, weil es Überlegungen gibt, ob nicht auf der Oberfläche unseres Universums die gesamte Information in diesem Universum, mit seiner gesamten Geschichte holographisch gespeichert sein könnte. Ein faszinierender Gedanke der Informationstheorie.
Hier könnte man vielleicht sagen, dass diese schon den Begriff‚Information‘ vielleicht irreführend verwendet haben. Selbst der Begriff ‚Nachricht‘ setzt eigentlich eine Interpretationsfähigkeit dieser voraus,denn sie ist ja an einen (als verstehend vorausgesetzten) Empfänger gerichtet.
Genau das ist der Unterschied zwischen Information und Interpretation.Wenn wir aber diese informationstheoretische Ebene und semiotische Ebene nicht klarer trennen, haben wir permanent all die Unklarheiten und Widersprüche, die wir in unserer Zunft täglich beobachten. Man kann Information auch verarbeiten ohne ihre Bedeutung zu verstehen!
Gravierender ist meines Erachtens die Abgrenzung gegenüber ‚Wissen‘. Dies sollte mehr als ‚Information‘ sein: umfangmäßig, in der wissenschaftlichen Absicherung, in der kausalen Vernetzung. Hier liegtderzeit wohl die größte Problematik, dass ständig von ‚Wissen‘ gesprochenwird, obwohl nur ‚Information‘ geliefert, verarbeitet etc. wird – vonErkenntnis ganz zu schweigen, die zusätzlich eine transzendentale Qualitätaufweist.
Genau das ist auch mein Anliegen. Wissen als begründete Information hat je nach Begründungstiefe Zuverlässigkeit und Vorhersehbarkeit, um Gefahren aus dem Weg zu gehen. Auch wenn uns die Informationstheorie deutlich macht, dass es keine absolute Gewissheit geben kann, so gibt es Wissen erstaunlich hoher Sicherheit, Präzision und Vorausschau.
MfG Walther Umstätter
Am 12. Oktober 2013 13:14 schrieb h0228kdm <h0228kdm@xxxxxxxxxxxxxxxx>:Jakob Voss hat in LIBREAS http://libreas.eu/ausgabe23/**02voss/<http://libreas.eu/ausgabe23/02voss/>einen, wie ich meine interessanten Beitrag zur Frage „Was sind eigentlich Daten?“ geschrieben, der aufzeigt, wie chaotisch man in diesem Bereich mitfundamentalen Begriffen wie Information oder Daten umgeht.Seit dem das Internet mit immer mehr Daten von Laien zugeschüttet wird, ist es nicht verwunderlich, dass wir dort fast jeden Unsinn finden können, den sich Menschen (insbesondere unter Pseudonymen) ausdenken und ins Netz bringen. Hier jede Nachricht auf Evidenz zu prüfen ist nicht immer einfach.Darum finden wir in den letzten Jahrzehnten immer häufiger unsinnigeDefinitionen für Begriffe wie Daten, Information, Wissen etc. Dazu kommt,dass mit einer wachsenden Wissenschaft und einer zunehmenden Spezialisierung der Wissenschaftler immer mehr Spezialisten auf einem Gebiet, die Laien auf vielen anderen Gebieten sind.Obwohl es also legitim und wichtig ist, bei der Frage „Was sind eigentlich Daten?“ dies reviewartig zu hinterfragen, zeigt J. Voß, dass man bei den verschiedenen Autoren, immer wieder prüfen muss, was sie nun gerade gemeinthaben. Was allerdings schwierig wird, wen die Autoren soelbst nur sehrdiffuse Vorstellungen entwickeln. Andererseits ist es schon bedenklich, wenn R. L. Gray in seinem Rückblick auf die Entwicklung der Begriffe Daten und Information, die eindeutig wichtigste Quelle (Shannon und Weaver 1949) ignoriert. Denn das wurde im zweiten Weltkrieg bei der Chiffrierung undDechiffrierung von Nachrichten rasch klar, dass jede Nachricht ausgrundsätzlich drei Grundelementen besteht, der Information, dem Rauschen und der Redundanz. Das Wort Nachricht war damit der Oberbegriff dieser drei Unterbegriffe. Auch die Erkenntnis, dass man jede Nachricht grundsätzlich in binary digits zerlegen und damit in Bits messen kann, fand rasch Eingangin die ersten Computer, bei denen man aber weniger vonNachrichtenverarbeitung als vielmehr von Datenverarbeitung sprach. Damitkonnte man Daten sammeln, speichern, verarbeiten, verschicken etc. DerBegriff Daten war also nach dem Weltkrieg, als diese Erkenntnisse nichtmehrgeheim waren, eindeutig der Oberbegriff von Information, Rauschen undRedundanz, insbesondere in digitaler Form. Da aber alle Nachrichten, wie Zahlen, Texte, Bilder, Töne oder Metadaten digitalisierbar sind, wurde derBegriff Daten damit sozusagen zum Top Term. Die Fundamentale Erkenntnis von Shannon, der auf der Ebene derInformationstheorie „Aspekte der Bedeutung explizit ausklammert“ wie Vossrichtig schreibt, war gerade bei der anfänglichen Computerisierungbemerkenswert, weil man die Daten ohne jede Semiotik (die Wissenschaft von der Bedeutung von Zeichen) verarbeiten konnte. Dieser nächste Schritt, der Bedeutungsverarbeitung, und darauf aufsetzend der Wissensverarbeitung, isterst eine Entwicklung unserer heutigen Zeit. Die Aussage W. Weavers,„information cannot be confused with meaning“ darf nicht als Nachteil derInformationstheorie verstanden werden, sondern zeigt eine tiefereErkenntnis über die Tatsache, dass Information nicht mit Interpretation verwechselt werden darf. Interpretation ist erst Gegenstand der sogenannten Pragmatik in der Semiotik. Auch die Semiotk hat drei Unterbegriffe, die Semantik (Zuordnung von Zeichen zu Gegenständen auf der Senderseite), dieSyntax (Zuordnung der Zeichen zueinander), und die Pragmatik(Rekonstruktion der Zeichen zu ihren Gegenständen auf der Empfängerseite). Das hat seine Entsprechung zu Shannons Kommunikationsmodell mit Sender, Übertragungskanal und Empfänger, aber auf der nächst höheren (semiotischen) Ebene. Während auf der Wissensebene noch die Begründung einer Informationhinzu kommt. Sie ist eine a priori Redundanz, weil wir beim Wissen alsEmpfänger auch Informationen vorhersagen können, soweit sie sich aus demzuvor gesendeten logisch oder erfahrungsgemäß ableiten lassen. MfG Walther Umstätter -- http://www.inetbib.de
-- http://www.inetbib.de