Euroforum-Kongress: Die Macht der Suchmaschinen


Insgesamt klingt das nach einer interessanten Veranstaltung. Es scheint aber, als sollten die Agierenden unter sich bleiben. Wer ist bereit für 2 Tage mehr als 2000 Euro (incl. MWSt.) auszugeben? fragte der @-web-Suchmaschinen Blog vor einem Weilchen und ich mich selber auch. Nun hatte ich richtig Glück, dass unser neuer “Erstsemestler”-Professor Dr. Lewandowski ebenfalls einen Vortrag bei der Euroforum-Konferenz Die Macht der Suchmaschinen – Informationsdienste als Wachstumsmarkt hielt. Das waren damit zwei spannende Tage, wobei ich mir teilweise doch schon eigenartig unter all den Vertretern von Verlagen, Suchmaschinen, Sendeanstalten, Universitäten usw. vorkam – trotzdem gab es in den Pausen auch angenehme Gespräche und ich bin immerhin um zwei Visitenkarten reicher 😉

Das Programm war enorm umfangreich und das werde ich hier auch kaum übersichtlich zusammengefasst bekommen. Der erste Beitrag Web 3.0 = Web 2.0 + Semantisches Web war jedenfalls definitionstechnisch schon sehr interessant. zum einen ging es in diesem Beitrag von Dr. Wahlster um SmartWeb (~”mobiler Zugriff auf das semantische Web”), zum anderen um das Quaero-“Spaltprodukt” Theseus, dessen Fokus entgegen Quaeros statistischem Auswertungsansatz auf semantischen Technologien liegt. Im Wesentlichen gingen die Informationen zu Theseus aber nicht über das hinaus, was nicht auch schon in einem Heise-Artikel stand (auch das Golf-Beispiel wurde genannt). Aufschlussreich fand ich auch die Folie Drei Ebenen von Markupsprachen im Web:
(1) Form = HTML; (2) Struktur = XML; (3) Inhalt = OWL (Web Ontology Language)
und die dazugehörige Gleichung Inhalt : Struktur : Form = 1 : n : m.

Danach folgte eine Diskussionsrunde zur Macht der Suche – Kampf in einem dynamischen Markt. Google (bzw. einer der Vertreter) war hier meines Empfindens nach sehr dominant, aber letztlich war Googles allgemeine Marktdominanz (Quasi-Monopol) ohnehin mal mehr, mal weniger direkt den ganzen Konferenzverlauf ein wichtiger Punkt (Titel einer Folie eines anderen Beitrages “Nur wer von Google gefunden wird, wird im Netz auch wahrgenommen”).

Der nächste Beitrag – Bedeutung von Suche im Telekommunikations- und IP-Geschäft – behandelte vor allem dieses Thema im Bezug auf das T-Online-Suchportal. Besonders interessant wäre dies sicher auch für die Gruppe des Projekt Strategien für die lokale Suche bei T-Online im nächsten Semester gewesen. Persönlich fand ich die Aussage interessant, dass Trends bei der Suche frühzeitig analysiert werden sollten. Hierbei wurde das Schnappi-Beispiel genannt, dass “Internet-intern” lange vor dem richtigen (Medien)-Hype schon ein großer Erfolg war. Dieses Thema der Trendanalyse wurde später vor allem im Vortrag Was sucht der Mensch? von Dr. Höchstötter nochmal sehr deutlich aufgegriffen. Eine sehr verkürzte Darstellung gibt es bei Topic Flux. Primär ging es bei der ganzen Veranstaltung im wirtschaftliche Ausnutzung der Macht von Suchmaschinen. In diesem Falle hieße dass, das man auf solche Analysen mit dem Setzen entsprechender Kategorien und Hotspots auf seinem Portal reagiert oder auch auf sich abzeichnende Peaks mit Printangeboten reagiert. Im Verlauf des Vortrags kam bei mir dann noch die – möglicherweise eher absurde – Frage auf, ob eine solche Queryanalyse in OPACs nicht auch bei Bibliotheken zu Qualitätsverbesserungen oder auch für Erwerbungsentscheidungen genutzt werden könnte – zugegeben etwas wilde Idee, aber vielleicht würde sich ein kleines Brainstorming lohnen?

Der Vortrag Vertical Search – Neue Geschäftsmodelle für Verlage und ISPs hat mich lange etwas ratlos dastehen lassen. Dabei lässt sich der Begriff Vertical Search im Grunde recht einfach herleiten, wenn man vertikal als “spezialisiert” interpretiert (gegenüber horizontal als “in die Breite”). Spezialisierte Suchmaschinen wären ja noch nicht so aufregend. Meines Verständnises nach ging es hierbei aber eher um spezialisierte (Unternehmens)-Portale, wobei insbesondere auch semantische Techniken zum Einsatz kommen. Diese allerdings nicht nach dem Open Domain-Ansatz, sondern eher in einem kleinen abgesteckten (besser “kontrollierbaren”) Teilbereich des Webs (eines Angebotes). Oder anderes Stichwort zur vertikalen Suche: Eingrenzung des Suchraumes. Da mit rein spielt dann schließlich natürlich auch Web 2.0 mit dem user generated content – nettes Beispiel übrigens die Seniorensuchmaschine Cranky. Sehr interessantes Beispiel für den “semantischen Teil”: die Firmensuchmaschine ZoomInfo (Info-Link).

Danach wurde es erst mal verlagsspezifischer mit dem Vortrag Überleben im digitalen Informationsmarkt Marktveränderung für Verlage (am Beispiel von Kress) und der folgenden Diskussion mit dem Thema Print vs. Online – Kannibalisierung oder Symbiose? Der Kressvortrag hat mir hinsichtlich seines Fazits gefallen:
(1) Testen, testen, testen und an den Nutzer denken; (2) Einfach sein und bleiben […]
Obwohl das eine sehr gesunde Einstellung ist, blieb – insbesondere nach der Diskussion – doch ein wenig der Eindruck, dass man dem Selbstverständnis nach einer “Raubtiermentalität” (Kannibalen) ausgeliefert sei, andererseits aber doch auch eine gewisse Unbesorgtheit bezüglich der Zukunft der Print-Produkte herrschte. Allein stand ich mich diesem Eindruck jedenfalls nicht (wieso hörte ich danach blos den Witz von der Schnecke:
“Fragt ein Beamter den anderen ‘Na, du siehst aber lädiert aus’. Antwort: ‘Ja ich hatte einen Unfall mit einer Schnecke’. ‘Wie konnte denn das passieren? Ausgerutscht?’. ‘Nein, sie hat sich hinterhältig auf dem Weg hierhin von hinten angeschlichen.’”
Welch eine Ironie (!), dass mir bei der Selbstdarstellung der Verlage (welche diesen Witz – in einer Pause – provozierte) auch ständig das Bild unserer hochanpassungsfähigen, zukunftsgerichteten Bibliotheken im Gedanken herumschwirrte. Trotzdem nochmal deutlich: das war mein nur Eindruck. Bei der Diskussion war auch ein Vertreter der Zeit beteiligt. Speziell zu Zeitschriften gab es vor kurzem bei Zapp einen sehr interessanten Beitrag, welcher aber nicht ganz dem Tenor dieser Diskussion entsprach – in dem online abrufbaren Beitrag Rasante Entwicklung – Wachsende Angebote im Online-Bereich der Zeitungen scheint mir die Gegenwartsanalyse nämlich etwas “präziser”.

Zwischen Kress und Diskussion gab es noch einen Vortrag von Dr. Wessling, welcher aber nicht im Programm auf der Euroforum-HP aufgeführt ist. Der Beitrag hatte das Thema Herausforderungen und Chancen für Verlage im digitalen Umbruch. Auf die – anschaulich präsentierten – Inhalte gehe ich hier nicht ein, da Herr Wessling sein eigener bester Schüler ist und sogar Videos seiner Vorträge online bereitstellt. Ein Fazit-Punkt sei trotzdem noch genannt, da er dem von Kress sehr änhlich ist: “Fachverlage müssen neues ausprobieren, schnell sein und Irrtümer zulassen”. Jetzt bin ich wirklich gespannt, ob ich auf dem Leipziger Kongress eine ähnlich gelagerte Aussage (natürlich für Bibliotheken) hören werde – oder wird es dort nur Selbstmitleid geben? 😉

Als nächstes folgte ein Beitrag von Google mit dem Thema Google – Erfolgskonzepte und Zukunftsstrategien. Tja, obwohl ein (sehr) dicken Ordner mit allen Folien der Vorträge ausgegeben wurde, lag an dieser Stelle nur ein Blatt mit dem Hinweis “Es gilt nur das gesprochene Wort”. Nun, besonders viele Notizen habe ich mir auch nicht gemacht, da doch viele Aussagen jetzt auch so neu nicht waren. Interessant war aber die Erwähnung des Long-Tail-Konzepts nach Chris Anderson (Anderson ausführlich dazu in Wired-Artikel The Long Tail). Im Kern ist die Aussage dieser These, dass Bestseller einfach zu finden und in großen Stückzahlen zu verkaufen sind (sozusagen der “Kopf” sind. Der “lange Schwanz” hingegen sind die Nischenprodukte, welche z.B. von Liebhabern gekauft werden. Das Potential der Suche liegt dann darin, dass diese Nischen gut erschlossen werden, dass also auch mit diesem “Kleinvieh” Umsatz generiert wird – in der Gesamtheit sogar erheblich mehr als die Bestseller alleine es tun (also: Die Masse macht’s). Ich muss gestehen, dass ich den Vortrag sonst so genau nicht mehr erinnere, aber mein zweites Stichwort auf dem Zettel war schon sehr dominierend: Werbung. Wie aber das Stichwort zu O’Reilleys Rough Cuts Service mit dem Googel-Beitrag zusammenhängt, kriege ich nicht mehr zusammen. Warum soll ich aber blos Geld für eine sich ständig verändernde Preprint-Ausgabe eines Buches zahlen? Fällt vielleicht in die Kategorie “neues ausprobieren, schnell sein und Irrtümer zulassen”…

Danach folgte der bereits erwähnte Vortrag von Dr. Höchstötter und schließlich der lang erwartete Vortrag vom Exalead Mitbegründer und CEO Dr. Bourdoncle: Exalead – a different way to search. Suchmaschinenbetreiber scheinen nicht gerne etwas “handfestes” zu Verfügung zu stellen und so gab es auch hier nur den Hinweis “Es gilt nur das gesprochene Wort”. Es war der letzte Beitrag nach etwa acht vorangegangenen Stunden und er wurde in Englisch gehalten. Das auf einmal etwas studienstimmung aufkam (viele verabschiedeten sich nach 15 Minuten aus dem Raum), habe ich jetzt einfach zur Wahrung meines Selbstwertgefühles darauf geschoben, dass ich nicht der einzige war, der Probleme hatte dem Beitrag zu folgen. Es lag sicher nicht am Englisch oder am Vortragsstil des Redners, aber manchmal war die Akkustik (es wurde sowohl bei Rednern, als auch bei Fragen, Mikrofone eingesetzt) nicht ganz optimal. Klingt wie eine Ausrede und ist es vielleicht auch (obwohl ich in der darauffolgenden Diskussion meine den leisen Satz gehört zu haben – er hatte gerade etwas gesagt und leicht, vom Publikum nicht reflektiert, gelacht – “Errm, is anybody listening at all?”. Vielleicht nur mein Phantasie… Im Wesentlichen wurde natürlich das Exalead-Konzept vorgestellt, wobei ein Grundgedanke hinter dem Refining wohl war, dass viele Suchen nach dem Prinzip “Discover by Accident” verliefen. Ein Bibliothekar würde das vielleicht als Quick & Dirty-Recherche bezeichnen, bei der man sich den “richtigen” Suchbegriffen durch Try and Error annähert. Das Refining minimiert zumindest den Error-Anteil naturgemäß schon recht wesentlich. An dieser Stelle kam mir auch der Gedanke an die Worte eine vorherigen Beitrags, in welchem (sinngemäß) die so bezeichnete “Starrheit von Datenbankmodellen” dem Refining gegenübergestellt wurde. Einmal mehr “wilde” Assoziationen zu Bibliotheksopacs (oder auch WorldCat)…
Ansonsten wurde auch auf die Monopolmacht von gewissen Suchmaschinen eingegangen, aber genaueres kann ich da aus genanntem Grund und sehr bedauerlicher Weise nicht zu sagen.

Mit der Diskussion schloss dann auch der erste Tag. Zu dem ebenfalls sehr spannenden zweiten Tag, werde ich morgen noch was sagen. Ich glaube die Länge dieses Eintrags überschreitet ohnehin schon die Belastbarkeit eines “Monitorlesers”. Insgesamt war es auf jedenf Fall ein sehr spannender, anregender aber auch unterhaltsamer Tag. Eine Frage, welcher diese Tag für mich offen gelassen hat, war, ob es den prototypischen Sucher gibt? Das Wort “Zielgruppe”fiel keinmal – es gab nur den/die Suchenden. Vielleicht war dieser Aspekt aber auch für alle Anwesenden bereits geklärt, da sie jeweils ihren eigenen Kontext “mitbrachten”…

Noch ein kleiner Kommentar: Namen habe ich nur sehr bedingt erwähnt (soweit sie nicht im Programm stehen), da auf der Teilnehmerliste explizit steht, dass diese nur zum persönlichen Gebrauch genutzt werden darf…


4 Antworten zu “Euroforum-Kongress: Die Macht der Suchmaschinen”

  1. […] Bericht vom Euroforum-Kongress “Die Macht der Suchmaschinen” 02.03.07 16:11 Sehr erfreulich: Verweisungsform berichtet ausführlich von diesem hochkarätig besetzten Kongress, der aber wegen eines Teilnehmerbeitrags […]