[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]
Re: URL's aus WWW - Seiten extrahieren
Hallo,
On Wed, May 16, 2001 at 10:27:47AM +0200, Michael Schaarwaechter wrote:
> benutzt. Die Zielsetzung bei meinem Programm war, ein Verzeichnis
> aller internen und externen Links eines oder mehrerer Webserver(s) zu
> erstellen, um damit eine Positivliste fuer einen Proxy zu erstellen.
hmm, kommt mir irgendwie bekannt vor ;-) Allerdings ist es bei uns eine
Negativliste mit Webmailern, die gerade aufgebaut werden soll. Wenn unser
Proxy (squid+squidguard) in Betrieb gegangen ist, dann werde ich unsere
Einstellungen und Positiv/Negativ-Listen auf Ihrer Squid-Seite
http://misc.ub.uni-dortmund.de/squid/
eintragen lassen.
Gruss
Oliver
--
Oliver Flimm E-mail: flimm _at__ ub.uni-koeln.de
Computing Department Voice : +492214703330 (Room 303)
Central Library (USB) Adress: Universitaetsstr. 33
University of Cologne, Germany D-50931 Koeln
Listeninformationen unter http://www.inetbib.de.