Gestern sandte P. Cornelius dankenswerterweise den Hinweis auf eine Studie
aus Mainz
www.uni-mainz.de/presse/57274.php
an die DGI-Liste, den ich auch für Inetbib als bemerkenswert halte.
Ich frage mich allerdings ob irgendjemand wirklich glaubt, dass Google seine
internationale Stellung über die letzten zwei Jahrzehnte erobert hätte, wenn
es sich „stärker als bisher medienrechtlich“ hätte regulieren lassen, und
seine „Neutralität, Transparenz und Kompetenz“ nicht ausreichend bewiesen
hätte. Jeder der ein wenig Ahnung von Recall Ratio und Precision hat, kann
transparent prüfen, was Google im Internet findet und was nicht. Die Furcht
vor der internationalen Dominanz von Google liegt doch ganz wo anders. Dort
wo sie durch Snowden deutlich wurde, und in der Überlegenheit beim
semantischen Retrieval von Google, von der die Projektpartner anscheinend
wenig wissen. Anders gesagt, Google ist so gut, damit die NSA möglichst
alles überwachen kann.
Übrigens ist es interessant, dass früher bei der Eingabe von „Science“ alles
mögliche über Science erschien, während bei mir jetzt die Zeitschrift
„Science“ an erster Stelle erscheint. Das gleiche gilt z.B. für „Nature“
"Password" oder „Tagesspiegel“. Die Verlage sollten eigentlich dankbar sein,
sonst sind sie bald wieder aus der Spitzenposition raus.
Es ist auch interessant, dass die Befrager anscheinend bei Google zu wissen
glauben, „wie Trefferlisten zustande kommen“, weil sie vermutlich mal etwas
vom Ranking gelesen haben. Wenn das wirklich bekannt wäre, würden noch sehr
viel mehr Nutzer versuchen mit allen Tricks in die Spitze des Rankings zu
gelangen. BMW hat das bekanntlich mal versucht und stieß auf
Schwierigkeiten. Darum ist auch der Wunsch nach „Transparenz“ mit der
Forderung „hinreichende Offenlegung der Funktionsweise von Suchmaschinen“
leider nicht ganz ernst zu nehmen.
Dass „Suchmaschinenbetreiber keinen Einfluss auf das Ranking von
Suchergebnissen nehmen“ dürfen, scheint mir eine eher scherzhafte Bemerkung,
denn das war doch der Grund für den Durchbruch von Google. Dies ist leider
kein gutes Zeichen für die Wissenschaftlichkeit des Mainzer
Forschungsschwerpunkts Medienkonvergenz der Johannes Gutenberg-Universität,
da diese Projektergebnisse eher an ein Gefälligkeitsgutachten für das
deutsche Verlagswesen erinnern, und damit an das, was Kerstin Kohlenberg in
der Zeit an Material zum Thema „Die gekaufte Wissenschaft“
(www.zeit.de/2013/32/gekaufte-wissenschaft) zusammengetragen hat.
Dieses Projekt der "Googleisierung" blamiert uns vor den
Informationswissenschaftlern der USA, die uns so immer weniger ernst nehmen.
Ich habe das schon vor über dreißig Jahren erlebt, als uns die National
Library of Medicine und auch Biosis hier in Deutschland deutlich spüren
ließ, wie weit wir abgeschlagen sind.
MfG
Walther Umstätter
--
http://www.inetbib.de