Mrz 082007
 

Aus dem „morgen mehr“ sind nun beinah zwei Woche geworden. Trotzdem wollte ich auch noch mal die Eindrücke des zweiten Tages festhalten.

Den ersten Beitrag Es geht um mehr als Suche! von Dr. Stefan Wess (Geschäftsführer Empolis) fand ich eigentlich sehr interessant. Im Wesentlichen ging es über Stichworte wie „Ein Begriff – viele Bedeutungen… und viele Synonyme“, „Informationsflut“ und Kosten von langwierigen Recherchen (durch Wissenschaftler) schließlich zur Begründung der Notwendigkeit eines semantischen Webs (und damit von Theseus). Nico Lumma, welcher an selbigem Tag einen Vortrag zu Blogs hielt, kommentiert diesen Beitrag von Dr. Wess in seinem Blog unter dem Titel Subventioniertes Leuchtturmprojekt mit 90% Eisberg eingehender. Selber hat mich der Beitrag in seinen Aspekten zu Synonymen, Ontologien und so weiter sehr an unser sehr schönes HAW-Seminar Wissensorganisation erinnert – vielleicht sollten wir mal Herrn Wess einladen. 🙂 Welch Zufall, dass die letzte Folie auch auf Vannevar Bushs Memex hinwies („As we may think„), von dem wir dieses Semester auch hörten. Sehr schön, aus bibliothekarischer Sicht, fand ich auch das angeführte Zitat nach der Delphi Group: „Lack of organisation of information is in fact the number one problem in information management and retrieval“ und „Suche ist ein Ausdruck mangelnder Organisation“ (wobei Suche in den Google-Farben geschrieben stand). Interessant auch die Begriffseinführung Informationslogistiker nach dem Prinzip „Die richtige Information, für die richtige Person, zur richtigen Zeit“.
Kein Wunder also, dass Herr Wess die Internetsuche als Schlüsseltechnologie bezeichnete, dabei aber die These aufstellte, dass gerade einmal 10% des Potentials genutzt (=Google), 90% also noch zu erschließen seien. Unter diesem Motto liefe im Grunde auch Theseus und die Abspaltung von Quaero leite sich davon ab, dass man mehr als „10% + 10%“ wolle. Ehrlich gesagt bleibt mir der Ansatz von Theseus als semantische Suchmaschine aber schleierhaft, wenn in der anschließenden Fragerunde die Frage „Ist eine weltweite Ontologie überhaupt möglich?“ geantwortet wird, dass dies bisher immer „in die Hose gegangen sei“ und das eine Ontologie nur lokal und für spezielle Anwendungszwecke Sinn mache (interessantes Beispiel übrigens tatsächlich Otto.de, wenn man z.B. die natürlichsprachige Anforderung „Ich brauche eine blaue Hose für meine Tochter“ in der Suchmaske eingibt).

Der folgende Vortrag Geht nicht, gibt’s nicht – Die lokale Suche wurde von Peter Neumann (Director Content & Portals, Allesklar.com AG) gehalten. Dabei ging es vor allem um die Erfahrungen mit meineStadt.de. Dabei wurden viele Nutzeraspekte aufgefächert – Geschlecht,Alter, Bildung etc. Quelle hierfür war vor allem die Studie Internet Facts 2006-II der AGOF-AG. Interessant ist doch, dass dort bei der Top 10 der generellen Produktinteressen, Bücher an erster Stelle liegen – würde man das erwarten? Weiterhin fand ich interessant, wie sich der Sucheinstieg der Nutzer aufschlüsselte. Dabei wurde die Ansicht der Branchen von Kiel als Beispiel herangezogen. Danach würden je 40% über die Suchmaske und über den Katalog einsteigen, die restlichen 20% über die alphabetische Branchen-Suche. Abgesehen davon, dass man das Ergebnis nicht ganz isoliert vom Nutzerspektrum der Seite betrachten solllte, finde ich es doch erstaunlich, dass der Katalog so hoch im Kurs steht (auch wenn es Sinn macht). Ansonsten ging es schließllich vor allem um kundenspezifische Angebote – und natürlich Werbung. Interessant war noch die Aussage, dass Qype als keine wirkliche Konkurrenz angesehen wird. Prinzipiell ist die Aussage, dass kein Mensch den Doktor um die Ecke eintragen würde (entgegen dem redaktionellen Angebot von meineStadt), jedoch einleuchtend. Erfolgsversprechender sei gegenüber dem rein user-generated-content eher die Ergänzungmöglichkeit durch den Nutzer.

Nach der Pause ging es mit dem Bereits erwähnten Vortrag von Nico Lumma Konversationen sind das Salz in der Suche weiter. Hier ging es um das bald startende Projekt blogmonitor.de, ein Tool zur Anaylse der deutschen Blogosphäre und Nachfolger von blogstats.de. Im Grunde ein Tool zur Trendanalyse, welche auch am ersten Tag schon Thema war, für Blogs. Amüsant fand ich in diesen Zusammenhang die Einführung des Begriffs Eitelkeitssuche, d.h. wenn ein Blogger seinen eigenen Blog analysiert. Ich denke für Blogleser ist es bereits schlüssig, dass eine Analyse der Blogossphere auch wirtschaftlich sehr interessant sein kann. Insofern waren auch die von Lumma gestellten Fragen „Wer bloggt“ und „Wer liest Blogs?“ interessant. Die erste Frage hatt, soweit ich das sehen konnte von meinem Platz, nur sehr wenige Meldungen (und bei denen bin ich nicht in die Nähe des Namensschildchens gekommen). Die zweite Frage hatte bei „monatlich“ noch einigermassen viele Meldungen, aber bei wöchentlich und täglich waren es vielleicht noch eine Hand voll…

Der folgende Vortrag Search Engine Marketing – Was geht, was lohnt? von Prof. Hendrik Speck war sehr interessant, aber mit fast 90 Folien, sehr vielen Quellenangaben und sehr vielen Erläuterungen auch extrem umfangreich. Sehr knapp zusammengefasst ging es um zum einen um den weltweiten Wandel in der Mediennutzung, natürlich mit Schwerpunkt auf der Internetnutzung. Zum anderen wurden daraufhin die große Lücke bei den Werbeinvestitionen im Internet gegenüber den Investitionen in den klassischen Medien dargestellt. Im Folgenden ging es entsprechend um (Google-) Adwords und Marktdruchdringung der Suchmaschinen über die Jahre, mit dem „überraschenden“ Zuwachs bei Google…
Ganz interessant war auch die graphische Gegeüberstellung der Anzahl durchschnittlich verwendeter Suchworte mit Zahlen von 2003 (OneStat) gegenüber Zahlen von 2007 (RankStat). Balkendiagramme zeigen dann doch sehr deutlich, dass es eine starke Tendenz zu mehr Suchworten gibt, wobei die Mehrzahl der Nutzer im Schnitt zwei Suchbegriffe verwendet. Die danach aufgeführte Liste der meistgesuchten Begriffe (welche dies sind erahnt man ja), läßt dann aber vermuten, dass die häufigste Kombination „+free +sex“ sein müsse. Ebenfalls nicht so überraschend neu (dafür aber sehr detailreich dargestellt), dass Nutzer selten über die ersten ein bis zwei Seiten der angezeigten Suchergebnisse hinausgehen. Hier wurde besonders häufig auf die Quelle iProspect verwiesen.
Im weiteren ging es dann um die Bewertung des Marktwertes von Web 2.0-Seiten, sowie den entsprechenden Bewertungskritierien. Die Folie Brief history of decline stellte dann gravierende Markteinbrüche der Geschichte, vom Wallstreet-Crash 1929, über die geplatzte Dot-Com-Blase im Jahr 2000 hin zum Jahr 2007 mit dem Punkt „Web 2.0 Bubble evaporates“, dar.
Persönlich hat mich der Vortrag sehr mit seinenganzen Zahlen erschlagen…

Nach dem Mittagessen wurde es dann bereits ziemlich leer im Raum – anscheinend rief das Wochenende. Dabei war der folgende Beitrag Deep Web – Suchen wir was man finden könnte? von Dr. Lewandowski ebenfalls sehr interessant, aber vielleicht tatsächlich nicht so sehr aus einer Marketingperspektive. Die Folien zu dem Vortrag kann man übrigens unter www.durchdenken.de/lewandowski abrufen (Direktlink PDF). Zum einen ging es um die Defintion des Deep Webs, vereinfacht dargestellt also der Teil des Webs, welcher nicht von Suchmaschinen erschlossen wird (werden kann), und zum anderen um die geschätzte Größe. Die Herleitung der Größe wurde recht feinstufig unternommen. Interessant ist dabei, dass nach Schätzungen von Lewandoski und Mayr die Größe bei weniger als 100 Milliarden Dokumenten liegt, wobei diese Ergebnisse auf einer kritischen Auseinandersetzung insbesondere mit den Ergebnissen von Bergmann (500 Milliarden Dokumente) gründen.
Die Größendimensionen sind zwar spannend, noch spannender ist jedoch die Frage: Wie kommt man daran? Ein Teil des Problems sind natürlich die Formate, d.h. Bilder, Video, Audio, Flash oder auch gepackte Dateien. PDFs, sofern sie als Volltext vorliegen (also keine „Bild“-PDFs sind), werden ja mittlerweile von den meisten Suchmaschinen indexiert. Für Bilder zeichnen sich langsam auch Lösungen ab (der Name der Gesichtserkennungssuchmschine fällt mir gerade jedoch nicht ein), die über die Bereitstellung von Metadaten hinausgehen. Bei Audio- und Video nehme ich an, dass noch ein ganzes Weilchen auf die Inhalte über den „umgebenden“ Content zurückgeschlossen werden muss, allerdings glaube ich auch nicht, dass hier die wichtigsten zu erschließenden Quellen liegen. Die größten „Schätze“ liegen sicher gut verborgen in Datenbanken. Der Vorteil von Datenbanken, ihre Strukturiertheit und die feldspezfische Suche (u.a.), ist bei einem Volltextindex, wie in Suchmaschinen erstellen, ihr Nachteil.
Ein Vorschlag zur Lösung dieses Problemes ist, dass zweigleisig gefahren wird, d.h. das die Datenbankinhalte noch einmal flach abgebildet werden – z.B. als HTML-Seiten. Als Beispiel für eine solche Lösung wird auf den Folien imdb.com genannt. Betrachtet man eBay oder Amazon, dann stecken dort wohl ähnliche Ansätze dahinter.
Mir kam dabei gleich der Gedanke, dass selbst wenn Nutzer eine Suchmaske für alles wünschen, dass solche indexierbaren flachen Hierarchien aber zugleich Recall und Precision stark negativ beeinflussen könnten. Immer häufiger fällt mir doch auf, dass ich ein Problem habe, recherchiere, aber die ersten Ergebnisse immer Amazon, eBay, idealo oder auch Foren sind, welche bei inhatlichen Fragen selten weiterbringen (was dazu führt, dass ich dann mit mäßigem Erfolg versuche diese über „-amazon -eBay …“ auszuschliessen). Das hat mich dann auch veranlasst bei Exalead den Vorschlag (Möglichkeite hier: Englisch, Deutsch) zu machen, dass Refines der Suche auch nach „Quellart“ oder Ausrichtung (Kommerziell, Foren, Mailinglisten etc.) möglich sein sollten. Das erfordert (dummer Weise) natürlich wieder einen hohen intellektuellen Aufwand bei der Definition solcher Cluster, es sei denn man überläßt es dem Nutzer selber seine permanenten Exclude-Filter zu definieren. Da mach ich mir vielleicht lieber an anderer Stelle Gedanken drüber – sprengt hier wirklich den Rahmen.
Es gibt aber natürlich auch interessantere Quellen, welches ähnliches bereits machen. E-Lis z.B. ist im Wesentlichen ja ebenfalls flach organisiert. Die Lösung zur Erschließung des Deep Web scheint derzeit also am häufigsten eingesetzt zu werden, soweit dies vom Anbieter überhaupt gewünscht ist – was ja noch eine ganz andere Frage ist.
Die zweite Möglichkeit ist die spezieller Suchmaschinen, d.h. in der Regel Metasuchmaschinen für eine begrenzte Zahl an (fachverwandten) Datenbanken, die gegenüber Suchmaschinen zwar erweiterte Suchmöglichkeiten bieten, jedoch natürlich nicht das Potential der einzelnen Quellen ausnutzen. Im Grunde machen ViFas ja nichts anderes. Für die als Beispiel genannte Deep-Web-Suchmaschiene Turbo10 („Search 804 Deep Net Engines“) bin ich aber irgendwie zu blöd – weder im IE noch im FF erhalte ich hier Ergebnisse (außer JavaScript-Fehler). Interessante Angebote sich eigene Suchmaschinensets zusammenzustellen gibt es aber ja auch sonst. Hier hat der Blog AgoraWissen übrigen häufig sehr interessante Beiträge – z.B. der Beitrag zu Trovando.
Die dritte Möglichkeit die Lewandowski nennt, ist dass reguläre Suchmaschinen Links (Shortcuts) zu spezielleren Suchmaschinen oberhalb der eigentlichen Ergebnisse liefern. Dies wird bereits auch bei den meisten Suchmaschinen in der ein oder anderen Form umgesetzt, so erhält man bei Lycos z.B. gleich eine Grafik zum aktuellen Aktienkurs, wenn man einen Unternehmsnamen sucht. Was (wer) dann angezeigt wird ist allerdings eine andere Frage.
Insgesamt wird das Deep Web und Lösungen zu seiner (sinnvollen) Erschließung aber auch weiterhin ein spannendes Feld bleiben. Vielleicht kann man ja irgendwan bei Google&Co auch „bibliothek hamburg orwell“ eingeben und kriegt ein „passendes“ Ergebniss? 🙂

Der letzte Beitrag der Konferenz war Rechtliche Haftungsfragen für Internet-Anbieter (Dr. Arnd Haller, Leiter Recht, Google Germany). Der Vortrag war sehr interessant und wurde anschaulich, angereichert mit vielen Beispielen, gehalten. Ich spar es mir aber an dieser Stelle auf die ganze gesetzlichen Haftungsregelungen für Internetanbieter einzugehen. Das Heise-Urteil ist ohnehin wahrscheinlich den meisten bekannt und das neue Telemediengesetzt (TMG) geistert derzeit auch durch die Kritiken sämtlicher Zeitungen und Zeitschriften (oder der Blogosphere).
Interessant war natürlich auch die Frage des zweiten Vortragsteils: Ist das deutsche Urheberrecht „Web 2.0–tauglich“? Hier wurden aber vor allem weitere Fragen gestellt, denn Antworten gegeben („Urheberrecht als Hindernis für die weitere Entwicklung des Web 2.0?; „Ausweichstrategien für Host- und Content-Provider ins Ausland realistisch – User generated content nur noch außerhalb des deutschen Rechtsraums?“). Natürlich durfte hier auch nicht der Hinweis auf die Fair-Use-Klausel des amerikanischen Urheberrechts fehlen.
Der dritte Teil Ausblick: Was gibt´s Neues in 2007? war zugleich quasi das Fazit, nämlich dass man erst mal abwarten müsse, was sich 2007 im Bereich des Urheberrechtsgesetzes, der zu erwartenden Revision des TMG und bei relevanten Entscheidugen des BGH ergibt. Da kann man, als auf einmal beinah jounalistisch tätiger Blogger, ja nur gespannt sein (hey, solange ich keinen Lektor beschäftige, sollte die Bewertung über die Zahl der Zeichensetzungsfehler passieren! :D).

Nun, als Fazit dieser Konferenz komme ich zu dem Schluss, dass die Konferenz spannende Themen und Personen aufbot, dabei aber Fragen des Marketings sehr beherrschend waren. Begriffe wie Recherche- oder Informationskompetenz, Recall und Precision oder auch Nutzergruppen waren dabei eher implizit ein Thema, obwohl sich die Macht der Suchmaschinen auf lange Sicht wohl über ihre Qualität definieren wird – hoffentlich auch ihrer Transparenz. Nicht ganz unwesentlicher Aspekt der (einer derartigen) Konferenz ist sicher aber auch das Knüpfen von Kontakten („Pflegen und erweitern Sie Ihr Netzwerk“) – Exzellenz wird auch von den Teilnehmern erwartet, wenn man die Frage der Dame neben mir zu Beginn der Konferenz betrachtet: „HAW – sind sie Suchmaschinenexperte?“ 😀
Alles in allem waren mir neue Ideen und Konzepte wie die Trendanalyse, „Long Tail“ und „Vertical Search“ doch sehr spannend und letztlich kann es ja nur das eigene Blickfeld erweitern. Es weckt eine ganz andere Aufmerksamkeitsspanne, wenn man z.B. letzte Woche zweimal den Begriff Long Tail bei netbib findet oder der Rechercheblog ausführlich über ZoomInfo (ZoomInfo: Recherche von Unternehmen und Mitarbeitern) berichtet. Denk ich an die Diskussion der Verlagsvertreter, dann trifft auch das Thema Magazine Publishing in a Web 2.0 World (Folien eines Vortrags, übrigens Titel der Folie 15: „Web 2.0 Priciples: The Power of the Tail“) bei David Rothman voll ins Schwarze – im Grunde wird hier die halbe Konferenz zusammengefasst, allerdings ohne von Kannibalisierung zu sprechen.
Alles in allem also eine gute Erfahrung – auch wenn diese mir zukünftig immer noch mit 1800 EUR zu teuer wäre. Umso mehr Dank an Herrn Lewandoski!

Feb 232007
 

Insgesamt klingt das nach einer interessanten Veranstaltung. Es scheint aber, als sollten die Agierenden unter sich bleiben. Wer ist bereit für 2 Tage mehr als 2000 Euro (incl. MWSt.) auszugeben? fragte der @-web-Suchmaschinen Blog vor einem Weilchen und ich mich selber auch. Nun hatte ich richtig Glück, dass unser neuer „Erstsemestler“-Professor Dr. Lewandowski ebenfalls einen Vortrag bei der Euroforum-Konferenz Die Macht der Suchmaschinen – Informationsdienste als Wachstumsmarkt hielt. Das waren damit zwei spannende Tage, wobei ich mir teilweise doch schon eigenartig unter all den Vertretern von Verlagen, Suchmaschinen, Sendeanstalten, Universitäten usw. vorkam – trotzdem gab es in den Pausen auch angenehme Gespräche und ich bin immerhin um zwei Visitenkarten reicher 😉

Das Programm war enorm umfangreich und das werde ich hier auch kaum übersichtlich zusammengefasst bekommen. Der erste Beitrag Web 3.0 = Web 2.0 + Semantisches Web war jedenfalls definitionstechnisch schon sehr interessant. zum einen ging es in diesem Beitrag von Dr. Wahlster um SmartWeb (~“mobiler Zugriff auf das semantische Web“), zum anderen um das Quaero-„Spaltprodukt“ Theseus, dessen Fokus entgegen Quaeros statistischem Auswertungsansatz auf semantischen Technologien liegt. Im Wesentlichen gingen die Informationen zu Theseus aber nicht über das hinaus, was nicht auch schon in einem Heise-Artikel stand (auch das Golf-Beispiel wurde genannt). Aufschlussreich fand ich auch die Folie Drei Ebenen von Markupsprachen im Web:
(1) Form = HTML; (2) Struktur = XML; (3) Inhalt = OWL (Web Ontology Language)
und die dazugehörige Gleichung Inhalt : Struktur : Form = 1 : n : m.

Danach folgte eine Diskussionsrunde zur Macht der Suche – Kampf in einem dynamischen Markt. Google (bzw. einer der Vertreter) war hier meines Empfindens nach sehr dominant, aber letztlich war Googles allgemeine Marktdominanz (Quasi-Monopol) ohnehin mal mehr, mal weniger direkt den ganzen Konferenzverlauf ein wichtiger Punkt (Titel einer Folie eines anderen Beitrages „Nur wer von Google gefunden wird, wird im Netz auch wahrgenommen“).

Der nächste Beitrag – Bedeutung von Suche im Telekommunikations- und IP-Geschäft – behandelte vor allem dieses Thema im Bezug auf das T-Online-Suchportal. Besonders interessant wäre dies sicher auch für die Gruppe des Projekt Strategien für die lokale Suche bei T-Online im nächsten Semester gewesen. Persönlich fand ich die Aussage interessant, dass Trends bei der Suche frühzeitig analysiert werden sollten. Hierbei wurde das Schnappi-Beispiel genannt, dass „Internet-intern“ lange vor dem richtigen (Medien)-Hype schon ein großer Erfolg war. Dieses Thema der Trendanalyse wurde später vor allem im Vortrag Was sucht der Mensch? von Dr. Höchstötter nochmal sehr deutlich aufgegriffen. Eine sehr verkürzte Darstellung gibt es bei Topic Flux. Primär ging es bei der ganzen Veranstaltung im wirtschaftliche Ausnutzung der Macht von Suchmaschinen. In diesem Falle hieße dass, das man auf solche Analysen mit dem Setzen entsprechender Kategorien und Hotspots auf seinem Portal reagiert oder auch auf sich abzeichnende Peaks mit Printangeboten reagiert. Im Verlauf des Vortrags kam bei mir dann noch die – möglicherweise eher absurde – Frage auf, ob eine solche Queryanalyse in OPACs nicht auch bei Bibliotheken zu Qualitätsverbesserungen oder auch für Erwerbungsentscheidungen genutzt werden könnte – zugegeben etwas wilde Idee, aber vielleicht würde sich ein kleines Brainstorming lohnen?

Der Vortrag Vertical Search – Neue Geschäftsmodelle für Verlage und ISPs hat mich lange etwas ratlos dastehen lassen. Dabei lässt sich der Begriff Vertical Search im Grunde recht einfach herleiten, wenn man vertikal als „spezialisiert“ interpretiert (gegenüber horizontal als „in die Breite“). Spezialisierte Suchmaschinen wären ja noch nicht so aufregend. Meines Verständnises nach ging es hierbei aber eher um spezialisierte (Unternehmens)-Portale, wobei insbesondere auch semantische Techniken zum Einsatz kommen. Diese allerdings nicht nach dem Open Domain-Ansatz, sondern eher in einem kleinen abgesteckten (besser „kontrollierbaren“) Teilbereich des Webs (eines Angebotes). Oder anderes Stichwort zur vertikalen Suche: Eingrenzung des Suchraumes. Da mit rein spielt dann schließlich natürlich auch Web 2.0 mit dem user generated content – nettes Beispiel übrigens die Seniorensuchmaschine Cranky. Sehr interessantes Beispiel für den „semantischen Teil“: die Firmensuchmaschine ZoomInfo (Info-Link).

Danach wurde es erst mal verlagsspezifischer mit dem Vortrag Überleben im digitalen Informationsmarkt Marktveränderung für Verlage (am Beispiel von Kress) und der folgenden Diskussion mit dem Thema Print vs. Online – Kannibalisierung oder Symbiose? Der Kressvortrag hat mir hinsichtlich seines Fazits gefallen:
(1) Testen, testen, testen und an den Nutzer denken; (2) Einfach sein und bleiben […]
Obwohl das eine sehr gesunde Einstellung ist, blieb – insbesondere nach der Diskussion – doch ein wenig der Eindruck, dass man dem Selbstverständnis nach einer „Raubtiermentalität“ (Kannibalen) ausgeliefert sei, andererseits aber doch auch eine gewisse Unbesorgtheit bezüglich der Zukunft der Print-Produkte herrschte. Allein stand ich mich diesem Eindruck jedenfalls nicht (wieso hörte ich danach blos den Witz von der Schnecke:
„Fragt ein Beamter den anderen ‚Na, du siehst aber lädiert aus‘. Antwort: ‚Ja ich hatte einen Unfall mit einer Schnecke‘. ‚Wie konnte denn das passieren? Ausgerutscht?‘. ‚Nein, sie hat sich hinterhältig auf dem Weg hierhin von hinten angeschlichen.'“
Welch eine Ironie (!), dass mir bei der Selbstdarstellung der Verlage (welche diesen Witz – in einer Pause – provozierte) auch ständig das Bild unserer hochanpassungsfähigen, zukunftsgerichteten Bibliotheken im Gedanken herumschwirrte. Trotzdem nochmal deutlich: das war mein nur Eindruck. Bei der Diskussion war auch ein Vertreter der Zeit beteiligt. Speziell zu Zeitschriften gab es vor kurzem bei Zapp einen sehr interessanten Beitrag, welcher aber nicht ganz dem Tenor dieser Diskussion entsprach – in dem online abrufbaren Beitrag Rasante Entwicklung – Wachsende Angebote im Online-Bereich der Zeitungen scheint mir die Gegenwartsanalyse nämlich etwas „präziser“.

Zwischen Kress und Diskussion gab es noch einen Vortrag von Dr. Wessling, welcher aber nicht im Programm auf der Euroforum-HP aufgeführt ist. Der Beitrag hatte das Thema Herausforderungen und Chancen für Verlage im digitalen Umbruch. Auf die – anschaulich präsentierten – Inhalte gehe ich hier nicht ein, da Herr Wessling sein eigener bester Schüler ist und sogar Videos seiner Vorträge online bereitstellt. Ein Fazit-Punkt sei trotzdem noch genannt, da er dem von Kress sehr änhlich ist: „Fachverlage müssen neues ausprobieren, schnell sein und Irrtümer zulassen“. Jetzt bin ich wirklich gespannt, ob ich auf dem Leipziger Kongress eine ähnlich gelagerte Aussage (natürlich für Bibliotheken) hören werde – oder wird es dort nur Selbstmitleid geben? 😉

Als nächstes folgte ein Beitrag von Google mit dem Thema Google – Erfolgskonzepte und Zukunftsstrategien. Tja, obwohl ein (sehr) dicken Ordner mit allen Folien der Vorträge ausgegeben wurde, lag an dieser Stelle nur ein Blatt mit dem Hinweis „Es gilt nur das gesprochene Wort“. Nun, besonders viele Notizen habe ich mir auch nicht gemacht, da doch viele Aussagen jetzt auch so neu nicht waren. Interessant war aber die Erwähnung des Long-Tail-Konzepts nach Chris Anderson (Anderson ausführlich dazu in Wired-Artikel The Long Tail). Im Kern ist die Aussage dieser These, dass Bestseller einfach zu finden und in großen Stückzahlen zu verkaufen sind (sozusagen der „Kopf“ sind. Der „lange Schwanz“ hingegen sind die Nischenprodukte, welche z.B. von Liebhabern gekauft werden. Das Potential der Suche liegt dann darin, dass diese Nischen gut erschlossen werden, dass also auch mit diesem „Kleinvieh“ Umsatz generiert wird – in der Gesamtheit sogar erheblich mehr als die Bestseller alleine es tun (also: Die Masse macht’s). Ich muss gestehen, dass ich den Vortrag sonst so genau nicht mehr erinnere, aber mein zweites Stichwort auf dem Zettel war schon sehr dominierend: Werbung. Wie aber das Stichwort zu O’Reilleys Rough Cuts Service mit dem Googel-Beitrag zusammenhängt, kriege ich nicht mehr zusammen. Warum soll ich aber blos Geld für eine sich ständig verändernde Preprint-Ausgabe eines Buches zahlen? Fällt vielleicht in die Kategorie „neues ausprobieren, schnell sein und Irrtümer zulassen“…

Danach folgte der bereits erwähnte Vortrag von Dr. Höchstötter und schließlich der lang erwartete Vortrag vom Exalead Mitbegründer und CEO Dr. Bourdoncle: Exalead – a different way to search. Suchmaschinenbetreiber scheinen nicht gerne etwas „handfestes“ zu Verfügung zu stellen und so gab es auch hier nur den Hinweis „Es gilt nur das gesprochene Wort“. Es war der letzte Beitrag nach etwa acht vorangegangenen Stunden und er wurde in Englisch gehalten. Das auf einmal etwas studienstimmung aufkam (viele verabschiedeten sich nach 15 Minuten aus dem Raum), habe ich jetzt einfach zur Wahrung meines Selbstwertgefühles darauf geschoben, dass ich nicht der einzige war, der Probleme hatte dem Beitrag zu folgen. Es lag sicher nicht am Englisch oder am Vortragsstil des Redners, aber manchmal war die Akkustik (es wurde sowohl bei Rednern, als auch bei Fragen, Mikrofone eingesetzt) nicht ganz optimal. Klingt wie eine Ausrede und ist es vielleicht auch (obwohl ich in der darauffolgenden Diskussion meine den leisen Satz gehört zu haben – er hatte gerade etwas gesagt und leicht, vom Publikum nicht reflektiert, gelacht – „Errm, is anybody listening at all?“. Vielleicht nur mein Phantasie… Im Wesentlichen wurde natürlich das Exalead-Konzept vorgestellt, wobei ein Grundgedanke hinter dem Refining wohl war, dass viele Suchen nach dem Prinzip „Discover by Accident“ verliefen. Ein Bibliothekar würde das vielleicht als Quick & Dirty-Recherche bezeichnen, bei der man sich den „richtigen“ Suchbegriffen durch Try and Error annähert. Das Refining minimiert zumindest den Error-Anteil naturgemäß schon recht wesentlich. An dieser Stelle kam mir auch der Gedanke an die Worte eine vorherigen Beitrags, in welchem (sinngemäß) die so bezeichnete „Starrheit von Datenbankmodellen“ dem Refining gegenübergestellt wurde. Einmal mehr „wilde“ Assoziationen zu Bibliotheksopacs (oder auch WorldCat)…
Ansonsten wurde auch auf die Monopolmacht von gewissen Suchmaschinen eingegangen, aber genaueres kann ich da aus genanntem Grund und sehr bedauerlicher Weise nicht zu sagen.

Mit der Diskussion schloss dann auch der erste Tag. Zu dem ebenfalls sehr spannenden zweiten Tag, werde ich morgen noch was sagen. Ich glaube die Länge dieses Eintrags überschreitet ohnehin schon die Belastbarkeit eines „Monitorlesers“. Insgesamt war es auf jedenf Fall ein sehr spannender, anregender aber auch unterhaltsamer Tag. Eine Frage, welcher diese Tag für mich offen gelassen hat, war, ob es den prototypischen Sucher gibt? Das Wort „Zielgruppe“fiel keinmal – es gab nur den/die Suchenden. Vielleicht war dieser Aspekt aber auch für alle Anwesenden bereits geklärt, da sie jeweils ihren eigenen Kontext „mitbrachten“…

Noch ein kleiner Kommentar: Namen habe ich nur sehr bedingt erwähnt (soweit sie nicht im Programm stehen), da auf der Teilnehmerliste explizit steht, dass diese nur zum persönlichen Gebrauch genutzt werden darf…

Feb 172007
 

Vor zwei Tagen veröffentliche Tagesschau.de ein Interview mit Benjamin Greschbach (unabhängiger allgemeiner Studierendenausschuss der Universität Freiburg). Die Beteiligung am Boykott ist (waren, je nach Uni) einfach zu gering.

Soweit mir für Hamburg bekannt ist, ist das Prinzip des Boykotts recht simpel. Studierende überweisen die Gebühren (500 EUR) auf ein, von den Astas organisierten, Treuhandkonto. Beteiligt sich etwa ein Drittel der „Gebührenpflichtigen“, dann wird das Geld nicht überwiesen. Der Gedanke dabei ist, dass eine so große Zahl nicht (sinnvoll) vom Studium ausgeschlossen werden kann. Kommt die benötigte Zahl nicht zusammen, dann gilt der Boykott als gescheitert und es wird innerhalb der Regelfrist überwiesen. (Ein wenig ausführlicher ist dies unter www.gebuehrenboykott.de für die Verwaltungsgebühren beschrieben.)

Mir scheint das Konzept einfach wie funktional zu sein. Und begründet zudem. Wenn ich nämlich höre – und das sei ganz eindeutig als Hören-Sagen deklariert – dass für die HAW die zugewiesenen Mittel schon entsprechend der erwarteten Einnahmen gekürzt wurden, dann erwarte ich beinah noch eher eine Verschlechterung der Studienbedingungen. Das Interview untermauert diese Annahme:

Greschbach: Das glaube ich nicht. Wir haben recherchiert, was mit den Geldern wirklich gemacht wird. […] Manche Institute bei uns haben nach der Einführung der Studiengebühren sogar weniger Geld als vorher, weil das Land so viele Mittel gestrichen hat.

Auf der Seite der Behörde für Wissenschaft und Forschung auf Hamburg.de ist das PDF Studiengebühren in Hamburg – ein Beitrag zu einem besseren Studium zu finden. Einige Zitate daraus:

An den staatlichen Hamburger Hochschulen (Universität Hamburg, Hochschule für angewandte Wissenschaften, Technische Universität Hamburg-Harburg, HafenCity Universität, Hochschule für bildende Künste sowie Hochschule für Musik und Theater) werden von allen Studierenden […] ab dem Sommersemester 2007 Studiengebühren in Höhe von 500 Euro pro Semester erhoben. Die bisher erhobenen Gebühren für Langzeitstudierende und Studierende die außerhalb der Metropolregion gemeldet sind, entfallen damit.

mit dem Ziel

Mit diesem zusätzlichen Geld schaffen die Hochschulen bessere Studienbedingungen: Intensivere Betreuung (z.B. durch mehr Tutorien und kleinere Lerngruppen), eine bessere Infrastruktur (z. B. mit längeren Bibliotheksöffnungszeiten, mehr Büchern und mehr PC-Arbeitsplätzen) und eine verbesserte räumliche Ausstattung sollen zu einem schnelleren und erfolgreicheren Studium beitragen.

unter der (Selbst)verpflichtung

Die Hochschulen sind gesetzlich verpflichtet, die erzielten Gebühreneinnahmen vollständig für ihre Aufgaben in Studium und Lehre einzusetzen.

Das klingt prinzipiell ja alles sehr schön. Wenn ich aber dann (ein Beispiel) betrachte, dass ich seit Beginn des Studiums immer auch an der HAW drucken konnte, seit etwa zwei Monaten aber kein Drucker (nun, es war ohnehin immer nur einer) mehr im entsprechendem Raum steht, dann vermute ich doch, dass ich die 500 EUR dann u.a. bezahle, damit ich wieder dort drucken kann. Aus bereits angeführerter Hören-Sagen-Quelle hieß es auch, dass ein Limit von 200 Seiten/Monat eingeführt werden soll.
Ums klar zu sagen: ja, eine ganze Menge Leute haben es mit dem Drucken übertrieben. Zum Beispiel wurden Handouts für einen ganzen Kurs gedruckt, statt einmal zu drucken und dann zu kopieren. Praktisch ist eine Kopie billiger als ein Ausdruck, allerdings gibt es keinen gebührenfreien Kopierer (doch den gibt es, aber auf die Möglichkeit für seminarrelevante Dinge den Kopierer auf der Verwaltungsebene nutzen zu dürfen, wird man auch höchstens durch „Mund-zu-Mund-Propaganda“ hingewiesen).
Auf der anderen Seite steht aber auch, dass mittlerweile immer mehr Unterlagen (die Mehrzahl) als PDF bereitgestellt werden, d.h. 200 Seiten kommen da schnell zusammen, wenn man die Sachen in den Seminaren verfügbar haben will – das darf man doch als prinzipiell vernünftig annehmen.

Sollte es so kommen (warum eigentlich Zweifel haben?), dann erhielte man allein in diesem Bereich unter Strich weniger als bisher für einen Aufpreis von 500 EUR. Zugegeben, das Beispiel wirkt möglicherweise etwas banal. Andererseits habe ich gerade dieses Semester erstaunt festgestellt, wie viele Leute keinen Drucker zu Hause haben oder gar noch über Modem ins Internet gehen. Ist es eigentlich zynisch, wenn ich mich dann frage, ob wir 2008 dann alle unseren RFID-Ausweis mit gespeicherten Druck- und Downloadkontigenten bekommen?

Hier in Hamburg wurde jedenfalls eine eigenartige Variante des Gebühreneinzugs gewählt. Die Forderung wird erst irgendwann nach Beginn des Semesters zugestellt werden – hat man dann mehr Zeit um auf eine evtl. erfolgreichere Boykott-Aktionen zu reagieren? Oder kann man bei einem zweiten Bescheid (erster wäre der mit den Unterlagen fürs Semester) nochmal Verwaltungsgebühren zusätzlich verlangen?

Nun, wir werden ja sehen, ob der Boykott erfolgreich sein wird.

Sollte dies nicht der Fall sein, dann wäre vielleicht folgendes eine interessante Überlgegung (für Hamburg). Im oben genannten Papier gibt es einen langen Abschnitt zur Finanzierung der Studiengebühren. In Hamburg soll es dafür die Möglichkeit eines Darlehens geben. Dort heißt es:

Jede und jeder darlehensberechtigte Studierende erhält ein Studiendarlehen zu gleichen Konditionen. Es wird keine Differenzierung zwischen den Studiengängen geben, d.h. Studierende in Studiengängen mit vermeintlich schlechteren Berufschancen werden nicht benachteiligt. Außerdem wird das Darlehen elternunabhängig vergeben. Damit muss die Einkommenssituation der Eltern nicht aufwendig nachgewiesen und geprüft werden. Und es ist keinerlei Bürgschaft von Eltern oder Verwandten beizubringen, um ein Hamburger Studiendarlehen zu erhalten. Es gilt: Wer ein Studium an den staatlichen Hamburger Hochschulen absolviert, ist kreditwürdig.

Der Darlehen ist elterunabhängig, flexible (d.h. es können pro Semester maximal 500 EUR aufgenommen werden, aber auch weniger) und hat einen garantierten Zinshöchstsatz von 7,5%. Besonders interessant ist aber die Karenzphase von 24 Monaten nach Studienabschluss. Da heißt es nämlich

Keine Rückzahlung bei keinem oder geringem Einkommen
Wer – auch nach Ablauf der Karenzphase – (noch) kein Einkommen erzielt, muss auch keine Rückzahlung leisten. Mehr noch: Die Rückzahlungsplicht wird erst ab einem Nettojahreseinkommen von 12.720 Euro für Alleinstehende einsetzen. Und auch der Familienstand wird berücksichtigt: Eine Familie mit zwei Kindern – bei der die Darlehennehmerin oder der Darlehensnehmer Alleinverdiener/in ist – unterliegt erst ab 28.920 Euro Nettojahreseinkommen (2.410 Euro monatlich) der Rückzahlungsplicht.

Na, da brauch ich ja nur zwei Kinder und einen Anstellung als Bibliothekar (mal das Gehalt beim – ziemlich guten – Berufbild Bibliothkar [monster.de] zugrundegelegt)…

Hui, ich glaub der Beitrag ist an ein paar Stellen ein wenig zynisch oder ironisierend geraten 🙂

UPDATE 21.02.07: Interessant auch der Spieglartikel Studiengebühren werden zweckentfremdet (mit Gebührenkarte nach Ländern) und etwas weniger direkt der Artikel Alarm aus den FH-Bibliotheken auf oberpfalz.net [via netbib].

UPDATE 2 23.02.2007:  Keine Resignation [19.02.07] und Verspieltes Vertrauen [21.02.07] (jeweils Zeit-Online)

 

 

Okt 132006
 

Netbib hat gerade einen sehr interessanten Hinweis auf 360°, ein Journal in dem Studenten ihre Arbeiten publizieren können, gebracht. Interessantes Konzept, dass man mal verfolgen sollte.

Passt nicht ganz, aber ich bin eben in der C’t über einen Linkhinweis auf MeinProf.de gestoßen.

MeinProf.de ist eine von der studentischen IT-Beratung Juniter betriebene Online-Plattform zur Bewertung von Lehrveranstaltungen an deutschen Hochschulen.

Studenten können hier ihre Professoren bewerten, indem sie besuchte Veranstaltungen anhand von sieben Kriterien bewerten. Diese Bewertungen wiederum helfen anderen Studenten, den richtigen Kurs für sie zu finden.

Die einzelnen Bewertungen ergeben kumuliert die Bewertung eines Professors. Diese finden sich dann ab einer Mindestanzahl von Bewertungen in den Rankings der Professoren wieder, über die man zum Beispiel den schwierigsten Kurs in ganz Deutschland oder den witzigsten Professor in Berlin finden kann.

Sep 262006
 

Heute war zwar ein reichlich langer Tag mit Seminaren von 10 bis 19:30, aber dafür doch recht positiv stimmend. Eigentlich ist es auch viel zu spät um jetzt noch was zu den Eindrücken des Tages zu sagen, aber ansonsten wird das vor Sonntag – und damit wahrscheinlich endgültig – nichts mehr.

Auf Seminare wie Arbeits-, Studien und Präsentationstechniken und BWL geht ich hier nicht näher ein, außer dass man hier anscheinend recht motivierte und kompetente Referenten vor sich hat.

Zu Kommunikationtraining bei Prof. Schulz kann ich auch nur sagen, dass ich mich anscheinend ehere unglücklich ausgedrückt habe, als ich mir wünschte, dass auch Möglichkeiten zur „Aktivierung“ eines Publikums über einen Vortrag hinaus ein interessantes Thema wären. Im Grunde fällt dies bereits in den Bereich „einen interessanten, ansprechenden und anschaulichen Vortrag bieten“, aber geht vielleicht doch von der Intention etwas weiter, d.h. nicht nur primär Informationen zu vermitteln. Sicher kann man dies eher den groben Bereichen Öffentlichkeitsarbeit und Organisation zuordnen, aber andererseits geht es auch dort um Kommunikation. Auch dies keine glücklich Formulierung, aber dafür hab ich mir derweil eine Kategorie Getting ‚em to use the tools geschaffen bis das besser läuft. Das lehnt an den letzten Beitrag von mir an. In gewisser Weise fällt da dann auch so etwas wie der Blog mit dem schönen Titel Creating Passionate User auf den David Rothman hinweist darunter.

Ebenfalls bei Prof. Schulz war dann das Seminar Teaching Library. Nachdem ich mich unter Diplombibliothekare als Lehrer? doch recht kritisch zu dem derzeitigen Stand geäußert habe, muss ich ja doch jetzt ein wenig zurückrudern was unseren Studiengang angeht. Immerhin werden wir in diesem Seminar jetzt eine Lehrveranstaltung“ für Informatikstudenten ausrichten. Unsere Themen sind leider mit Lesetechniken, Zitieren, Belegen, Plagiate und Vortrags-und Visualisierungstechniken nicht unbedingt besonder günstig gewählt worden – meiner Meinung nach. Sinnvoller, aber leider nicht angenommen, schien es mir auf Recherchetechniken unter Einbeziehung der für Informatiker relevanten Datenbank IEEE Xplore einzugehen. Zumindest setzen wir uns aber mit den theoretischen Grundlagen auseinander und vollziehen sie dabei, sozusagen testweise, einmal praktisch. Dabei werden die genannten Themen jeweils von zwei Gruppen im und außerhalb des Seminars erarbeitet und dann schließlich jeweils zwei Gruppen von Informatikstudenten präsentiert. Endziel ist dieses Angebot schließlich dauerhaft anzubieten. Sehr gut gefallen hat mir auch die (sinngemäße) Aussage, dass die Biblitoheken in Deutschland hier in letzter Zeit etwas geschlafen haben, aber jetzt langsam sich doch vermehrt dem Thema widmen.

Den Abschluss bildete dann das Seminar Klassiker der Wissensorganisation bei Prof. Spree. Sätze wie „Ich habe dieses Seminar zu meinem eigenen Vergnügen eingeführt. Einmal um selber auf dem aktuellen Stand zu bleiben und zum anderen um mit Stundenten einen Austausch zu führen.“ (sinngemäßes Zitat, so wie ich es erinnere) fördern sicher auch die Teilnahme an einem solchen, mit fast 30 Leuten äußerst überfüllten, Seminar. Statt einfach nur Referate von Studenten aneinanderzureihen, sollen hier vielmehr relevante Aufsätze/Texte vorgstellt und dann in der Gruppe diskutiert werden. Ich glaube, dass das ein sehr spannendes und ergiebiges (wie übrigens auch schon Wissensorganisation im Grundstudium) Seminar werden kann. Einzigst ein wenig schade ist der späte Termin, denn um 18h, nach sechs Zeitstunden zuhören (mitmachen) zuvor, ist die Konzentration nicht mehr die beste. Da huscht auch eine Frage wie „Wer hat schon mal den Begriff Folksonomy gehört?“ schonmal an einem Vorbei (auf die auditive Wahrnehmung dieses Begriffs muss man aber ja auch erst mal gefasst sein ;)). Entweder ging es vielen anderen auch so oder der Begriff war wirklich keinem bekannt – zumindest doch erstaunlich…

Eigentlich gäbe es noch viel mehr zu sagen, aber ob der fortgeschrittenen Stunde soll es dann erst mal reichen. Insgesamt bin ich jedenfalls sehr viel optimistischer als vor Beginn dieses Semesters.

Sep 202006
 

Nun schreib ich doch mal wieder etwas ins Blog – sonst findet sich im Moment leider sehr wenig Zeit dafür.

Der Grund ist, dass dieses Semester doch mal sehr positiv gestartet ist und zwar mit drei Tagen Blockunterricht im Seminar XML I – Einführung. Bisher habe ich noch selten (das heißt nicht „nie“) ein so gutes Seminar im Fachbereich erlebt.
Ein wichtiger Faktor dabei ist natürlich der Referent, Prof. Geeb (Homepage), welcher keine (primär) bibliothekarische Ausbildung hat, sondern Professor für Informationstechnologie und Computerlinguistik ist. Obwohl es mich zunächst gewundert hat, dass wir jetzt mit Moodle eine E-Learning-Plattform haben (oder Course Management System), sind dort nur Kurse von Herrn Geeb verzeichnet – scheint doch also auf (r)eine Eigeninitiative zurückzugehen (hoffentlich keine Implikation der Tatsache aus dem letzten Satz ;)). Großes Lob. Da stellt sich mir natürlich auch die Frage, was eigentlich aus dem (teuren) WebCT-System geworden ist, dass in drei Semestern nur in einem Seminar – welches war das überhaupt – (marginal) genutzt wurde…

Neben Moodle, gibt es auch ein vom Referenten verfasstes Buch zum Thema XML, welches im Print erschienen ist, aber – ganz im Sinne des Open Access – auch vollständig online abrufbar ist (Das XML-XSLT-Seminar).
Insgesamt hat man hier das Gefühl, dass der Referent wirklich gut vertraut mit den vermittelten Inhalten ist und sie auch souverän vermittelt.

Neben den den Faktoren „Person“ und eingesetzte Lehrmittel, ist aber auch das Konzept des Blockunterrichts viel praktischer, als ein auf ein Semester festgelegter Wochenplan mit vielen 1½-stunden Seminaren. Zum einem wird hier nämlich der Stoff zusammenhängend und nicht „gestückelt“ vermittelt, zum anderen kann frühzeitig im Semester zu den Arbeitsaufgaben für den Scheinerweb übergegangen werden, d.h. die Arbeit ist nicht eine von vielen, in den letzten Wochen des Semesters zu bearbeitenden, Aufgaben. Insgesamt wäre es grundsätzlich ein interessantes Konzept, wenn statt für ein Semester statischer Lehrpläne, Lehrpläne mit mehren „Blockphasen“ umgesetzt würden. Wahrscheinlich entspricht diese Idee etwa dem, was bei den Trimestern, die auch bei einigen Studiengängen der Hamburger Universität umgesetzt sind, praktisch vollzogen wird. Jedenfalls würde es die Arbeit sinnvoll über ein Semester verteilen, statt nur eine große Lehr- und eine Prüfungsphase zu haben.

Sep 112006
 

„… mehrere Exemplare sind in der Fachbereichsbibliothek vorhanden“.

Aha, zum Teil stimmt das schon, aber was nutzen mir eigentlich drei Exemplare, wenn in einem Seminar bis zu 25 Leute sitzen? Nehmen wir einmal an, dass vielleicht um die 50% – evtl. schon hochgegriffen – diesen Empfehlungen (teilweise auch obligatorisch) nachkommen wollten, dann hieße das doch folgendes:

50% von 25 sind 12 Studenten, welche sich auf 3 Exemplare verteilen, d.h. jeweils 4 auf ein Exemplar. Um bei einer Minimumausleihzeit von 4 Wochen (bei direkter Vormerkung durch den nächsten Studenten), welche in der Regel auch ausgenutzt wird, müsste man also quasi 4 Monate vor Beginn des Semesters mit dem Ausleihen beginnen. Das ist ein Zeitraum, in dem normalerweise nicht einmal das Angebot des nächsten Semesters feststeht.

Das ganze ist natürlich fiktiv, denn Teilnehmerzahlen und die Zahl der „Ausleihwilligen“ können natürlich stark variieren – sowie auch die Zahl der verfügbaren Exemplare. Auch richtig ist, dass im Normalfall ein (1) Präsenzexemplar vorhanden ist, jedoch halte ich dieses zur Vorbereitung für nur eingeschränkt praktisch, denn schließlich liest man dies doch eher sequentiell und nutzt es für Diskussionen und zum Nachschlagen – im Gegensatz vielleicht zu Referaten und ähnlichem, welche man am Bibliotheks-PC oder eigenem Laptop vorbereitet und wo man i.d.R. sich auf Abschnitte eines Buches begrenzt.

Prinzipiell wäre es doch aber wünschenswert, dass 100% eines Kurses sich einermaßen zeitnah vorbereiten könnten. Nach 4 Monaten noch Details und Zusammenhänge von (Fach)-Büchern zusammenzubekommen halte ich jedenfalls schon für eine außerordentliche informationsmanagementtechnische Leistung – natürlich kann man immerhin sagen, dass man etwas gelesen hat… Genauso beindruckend fände ich, wenn jemand alle Vorbereitungen über die Präsenzexemplare managen würde, wobei hier unter Umständen auch meine Abneigung gegen diese bequeme und gemütliche Innenausstattung unserer Bibliothek mit rein spielt 😉

Zugegebenermaßen ist diese Betrachtung recht unsachlich (unvollständig), sogar sehr subjektiv, da ich eigentlich nichts zur Bestandspolitik, dem Etat und dem tatsächlichen Bedarf in unserer FB-Bibliothek sagen kann. Natürlich kann und wird man auch auf alternative Titel ausweichen können, aber die sind meist in noch geringeren Exemplarzahlen vorhanden. Besonders „praktisch“ ist es für mich jedoch trotzdem nicht, dass ich ggf. auf jeden Titel jetzt quasi 2 Monate warten müßte. Oh, ich könnt ja auch natürlich auch noch mal schnell zu Amazon und mir z.B. den Titel zu holen 😀