[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]
Re: [InetBib] Freies Wissen und Freies Suchen
- Date: Mon, 14 Jun 2010 00:19:11 +0200
- From: Sascha Szott <szott@xxxxxx>
- Subject: Re: [InetBib] Freies Wissen und Freies Suchen
Hallo Herr Fenn,
vielen Dank für diesen wichtigen Hinweis -- das Projekt war zumindest
mir bislang nicht bekannt. Soweit ich es überblicke, ist diese Software
aber standardmäßig eher als Suchmaschine für Webseiten und damit für das
Retrieval in relativ unstrukturierten Daten gedacht. Gibt es denn
bereits Erfahrungen mit Anwendungen im Bibliotheksumfeld? Dank MAB und
MARC sind dort ja ganz andere Arten von Suchanfragen (jenseits von
reinen Keyword-Suchen) möglich.
Eine Randnotiz will ich aber nicht verschweigen: Die Software steht
unter der GPLv2 und macht damit zumindest den Einsatz in kommerziellen
Softwareunternehmungen schwierig. Wer hier nach Alternativen sucht,
sollte sich
* Nutch ansehen (steht unter der Apache Licence 2.0), wenn es um das
Crawlen von und Retrieval in großen Mengen von Webseiten geht (lässt
sich dank der Hadoop-Unterstützung sehr leicht nach dem
Map-Reduce-Paradigma parallelisieren)
* oder das ebenfalls unter der Apache Licence 2.0 stehende Solr ansehen,
wenn der Korpus aus (semi-)strukturierten Dokumenten besteht
Beide Projekte ermöglichen es auch ohne (tiefergehende)
Programmierkenntnisse Suchmaschinenindizes aufzubauen, indem lediglich
Konfigurationsdateien editiert werden. Für die anschließende Integration
in die eignen Internetangebote muss man aber schon etwas Code schreiben
- sonst bräuchte man ja auch keine Informatiker mehr ;)
Ich denke aber, dass die Diskussion bezüglich freier Daten und dem
Zugriff auf diese momentan -- zumindest nach meinem Geschmack -- auf zu
niedriger Ebene geführt wird. Sicherlich gibt es vielfältige technische
Herausforderungen, aber diese sind nicht unlösbar. Viel entscheidender
ist doch aber die sinnvolle Nutzung der freien Datensilos, die an jeder
Ecke entstehen. Ohne diese Bewegung kritisieren zu wollen (ich bin
selbst ein Befürworter von freien Daten), fehlen mir momentan einfach
die sinnvollen Anwendungsfälle, die Killer-App. Natürlich können wir
jedes Silo anzapfen und in einen großen Index werfen, aber mit welchem
Ziel? Man sollte immer daran denken, dass die Benutzerzufriedenheit
nicht unbedingt mit der Menge der eingebundenen Datenquellen zunimmt.
Beste Grüße,
Sascha Szott
Am 12.06.2010 23:57, schrieb Juergen Fenn:
Michael Christen, der die freie Peer-to-peer-Software<a
href="http://yacy.de/index_de.html">Yacy</a> entwickelt hat, mit der man
verteilte Suchmaschinen aufbauen kann, hat Manfred Kloiber vom
Deutschlandfunk auf dem Linuxtag ein Interview gegeben und dabei
erklärt, warum es nicht reicht, freie Inhalte ins Netz zu stellen. Auch
die Suchmaschinentechnik muß frei sein.
"Es gibt ja sehr viele freie Inhalte im Internet. Diese freien Inhalte,
Wikipedia ist ein prominentes Beispiel, es gibt auch freie Musik, und
alles unter Creative Commons, und die Open-Access-Bewegung: alles
produziert freie Inhalte. Aber der Zugang zu diesen Inhalten ist
proprietär. Sie müssen über eine Suchplattform gehen, die eine geheime
Software betreibt, die Sie nicht selber benutzen können und eben
unabhängig werden von einem proprietären Betreiber. Und hier gibt es
eine fehlende Funktion in der Kette. Freie Information kann eben nur
dann frei sein, wenn sie es frei mit freier Software finden können."
Audio:
<http://ondemand-mp3.dradio.de/file/dradio/2010/06/12/dlf_20100612_1648_7c15a712.mp3>
Jürgen Fenn.
--
http://www.inetbib.de
Listeninformationen unter http://www.inetbib.de.