Apr 232008
 

Anne Christensen legt in Netbib – Wikipedia: Kein Auskunftssilo – Überlegungen ihres Kurses an der HAW zur Einbindung/Nutzung von Wikipedia in den (bibliothekarischen) Auskunftsdienst dar. Schon die einleitende Frage ist tatsächlich spannend, ob es legitim sei, wenn Auskunftsdienste Wikipedia-Artikel als Quellen angeben. Gerade in Hinsicht auf das wissenschaftliche Arbeiten (Zitieren) ist das Thema Wikipedia ja schon häufig diskutiert worden. Vielleicht ist die Lage bei einem Auskunftdienst aber doch anders. Da fallen mir eine ganze Menge Fragen ein, die eine Antwort bedingt.

Die erste dürfte wohl sein, welchen Anspruch an die Qualität und den Umfang die Auskunft überhaupt genügen soll oder will. Ich vermute, dass der Anspruch in der Vor-Ort-Auskunft schon erheblich zwischen wissenschaftlichen und öffentlichen Bibliotheken oder „wissenschaftlicher Arbeit“ und „Alltags-/Gebrauchsinformation“ schwanken dürfte. So eine pauschale Einteilung ist vielleicht nicht unbedingt zu halten, aber andererseits spiegelt sich der Anspruch einer Einrichtung ja doch auch in ihrem Bestand wider, auch wenn die Auskunft (und die Kompetenz dazu) natürlich darüber hinaus gehen kann (soll). Andererseits geht es bei erwähnten Beitrag wohl in erster Linie um Onlineauskünfte, d.h. es gibt immerhin keinen so direkten Zeitdruck wie er besteht, wenn der Kunde vor einem steht und wartet. Ganz unabhängig von der leidigen Kostenfrage, wird so oder so die praktische Frage nach dem „maximal Zeitkontingent“ für eine Frage bzw. der Recherche auch eine Rolle spielen, die wiederum Einfluss auf die Qualität hat.

Umfang und Qualität sind so leicht sicher nicht zu trennen. Trotzdem ist der Umfang selbst schon eine spannende Frage. Die urbibliothekarischen Tätigkeiten befassen sich eigentlich eher wenig mit Inhalten, sondern mehr mit der formalen Erfassung und Verwaltung von „Information“ (man erinnert sich an die „entäuschten Bibliophilen“ im ersten Semester). Oder macht man sich Feinde mit so einer Generalisierung? Vielleicht ist es auch durchaus derzeit im Umbruch befindlich und das Berufsbild wird über die auskunftbibliothekarische Facette in seiner Definition erweitert (oder erhellt). Nun, wie auch immer, die Frage bleibt ob oder wie stark Antworten konkret sein sollen oder nur auf (formal) relevante Quellen verweisen. Wenn sie konkret sein sollen, d.h. Inhalte gesichtet und bewertet werden, dann liegt das Internet (Google und Wikipedia als Klassiker) zur schnellen Orientierung nahe – bei „trivialen Gebrauchsinformationen“ allemal. Interessant an dieser Stelle ist der Einwand, dass der Nutzer das doch selber könne. Alle? Die Mehrheit? Viele? Die die fragen? Ginge man davon aus, dass viele es nicht „richtig könnten“ (der ein oder andere hat vermutlich solche Erfahrungswerte im Umfeld gesammelt), schließt sich die Frage an, ob man gerade denjenigen die Informationskompetenz abverlangen könnte (z.B.) einen spezifischen Wikipedia-Artikel selber nochmal auf sachliche Korrektheit „abzuschätzen“ oder ob man als „Profi“ die Quelle soweit selber abtastet, dass man sie uneingeschränkt empfehlen kann (während man beim Print oder kommerziellen Produkten da ja weitgehend unbekümmert ist). Der Vorteil ist natürlich, dass der Nutzer, sofern vernetzt, direkten Zugriff auf die Information hat. Das ist bei kommerziellen Datenbanken schon umständlicher. Allein aber auch wenn man die schier unendliche Menge an Datenbanken bedenkt (kommerzielle und freie, zuverlässige auch im Internet), dann kann der Rechercheaufwand enorm sein – eben je nach Anspruch.

Hmm, man kann dabei ins Hunderste und Tausendste kommen. Die Hauptfrage denke ich, wäre aber erstmal festzulegen, welchen Anspruch man als Auskunftsdienst selber genügen will: Qualität, Umfang, Zeitaufwand/Stellen, inhaltliche Tiefe, Themegebiete, Kostenlosigkeit, Zuverlässigkeit, Schnelligkeit, Nutzerfreundlichkeit….

Irgendwo dabei beantwortet man ggf. schon die Frage, ob Wikipedia, ja oder nein. Ich denke es hängt wohl ohnehin von der Frage ab und eigentlich sind die Überlegungen schon beinah zu abgehoben für den Alltag, aber andererseits hatte ich selber bei meinem Praktikum vor kurzem zweimal den Fall, wo ich Wikipedia genutzt habe. Beide Male ging es um Literatursuche zu bestimmten Themen (wie ungewöhnlich eigentlich). Bei der ersten Frage ging es darum, den Wert einer Standuhr einzuschätzen. Das krieg ich aber nicht mehr genau zusammen, ich glaub da musste Wikipedia für die zeitliche Einordnugn einer bestimmten Bauform herhalten. Bei der zweiten Frage wollte einen Nutzerin Literatur zur „Klangmassage“ (gerade Wellness-Themen wirken außerordentlich oft eher esoterisch). Da brachte mich der Katalog nicht so recht weiter, ganz abgesehen dass er bei der erweiterten Suche auch gerne zu eigenartigen Fehlermeldungen neigte. Ich hab natürlich nicht die Wikipediaseite als Quelle angegeben, aber die Literaturlisten sind gerade dann doch teilweise äußerst hilftreich. Gerade die Link- und Literaturangaben empfinde ich mittlerweile als durchaus überzeugenden Grund auch mal bei Wikipedia anzufangen mit einer Recherche, selbst wenn man Wikipedia nicht selber als Quelle nutzen will. Nicht sehr professionell? Nun, im Zweifel konnte ich Hinweise geben, die der Katalog nicht hergab (doch unter Klangschalle, aber da muss man erst mal hinkommen). Alternativ hätte ich sie ohne Ergebnis wegschicken müssen. Andererseits war ich nur sehr kurz in der Auskunft und andere Mitarbeiter hatten es auch sehr viel besser raus den Nutzern präzisere Informationen zu ihren Fragen zu entlocken. Datenbanken, hier Digibi, wurden übrigens nie in der Auskunft benutzt. Zum einen waren die meisten Fragen nicht so speziell und zum anderen dauert der Weg zum Ziel bei direkter Beratung zu lange. Ich war aber wohl auch nicht der einzige, dem Inhalt und Umfang von Digibib nicht so dauerpräsent war.

Aber noch mal kurz zurück zur eigentlichen Idee des eingangs erwähnten Beitrags: Rechercheergebnisse nutzen um Wikipedia zu ergänzen. Klingt spannend. Aber – auch in Hinsicht auf bereits genannte Punkte – frag ich mich doch wirklich wie viele Antworten (oder Fragen) denn „enzyklopädietauglich“ sind. Auch wenn Artikel teilweise ausufernd sind, so ist das doch alles was Wikipedia sein soll. Gut vorstellen könnte ich mir noch, dass Links und Literaturverweise bei vorhandenen Artikeln ergänzt werden. Beides soll sparsam gesetzt werden und vom Feinsten sein (Was Wikipedia nicht ist) – das sollte von Bibliothekaren ja zu leisten sein.  🙂 Ganz offensichtlich sind meine Vorstellungen von Umfang und Form der bibliothekarischen Auskunftsdienste nur äußerst wage, aber wenn da tatsächlich (so viel) ergänzungswürdiges für Wikipedia generiert werden sollte – umso besser. Ohnehin sind erweiterte Auskunftsdienste durch Bibliothekare eine spannende Sache, gerade wenn ich mich an Klagen/Befürchtungen über ein immer unklarer definiertes Berufsbild (und seiner Abgrenzung z.B. zum Fami) erinnere mit allem was man so fürchten kann (Rfid, Google etc.)…

Interessant ist übrigens auch noch – und die Siehe-auch-Links beim netbib-Beitrag verweisen auch darauf (Wikipedia: Reference Desk), dass Wikipedia selbst einen „Antwortdienst“ hat. Besonders außergewöhnlich ist es ja eigentlich nicht, schließlich gibt es seit anbeginn Newsgroups, Foren und auch mittlerweile von den meisten großen Suchmachinenbetreibern spezialisierte Antwortdienste, bei dem sich jeder als Experte deklarieren kann. Aber immerhin hat Wikipedia wohl die Notwendigkeit für die Einrichtung eines separaten Fragebereichs gesehen. Wo stünde dann eigentlich die bibliothekarische Auskunft – irgendwo zwischen dem User-to-User und kostenpflichtigen (allgemeinen) Auskunftsdiensten mit einer Ausrichtung auf das was halt Nutzer so fragen?

Bevor ich mich im Kreis drehe, belass ich es mal dabei. Vielleicht ordne ich die Gedanken irgendwann nochmal richtig :mrgreen:

Dieser Beitrag ist übrigens überhaupt nicht fürs wissenschaftliche Arbeiten geeignet. Das schöne ist ja, dass man in einem Blog von „Belegzwängen“ befreit ist und einfach mal etwas brainstormen darf – merken muss es der Leser aber noch 😉

Apr 172008
 

Heute scheint der Tag der „virtualisierten Dienstleistungen“ zu sein. Über den Ticker des Informationsdienstes Wissenschaft kam gerade die Pressemitteilung HAW Hamburg startet auf dem virtuellen „Campus Hamburg“ in Second Life. Obwohl es recht ruhig geworden ist, scheint das Thema Second Life doch noch nicht ganz vom Tisch zu sein.

Nun, mal sehen, ob diese Neuerung durch unsere äußerst innovative Hochschule mich bis zum 22. April 2008 tatsächlich nochmal dazu motiviert SL zu installieren. Das letzte mal endete ich nackt auf irgendeiner Bibliotheksinsel. Dieser peinliche Moment sitzt noch tief 😉

Apr 172008
 

…sagte ich vorgestern und heute heißt es im Stabi-Blog, dass Stellas Wissensbasis zum dritten Mal verkauft wurde. Es gibt auch eine kleine Statistik zum Arbeitsaufkommen und zur Hauptarbeitszeit von Stella, wobei ich bei dem Eintrag max. Anzahl Dialoge pro Tag ein wenig schmunzeln musste – das Datum fällt immerhin in die Zeit unseres Projektes.

Eigentlich spannend ist aber das dort angeprochene große – auch internationale – Interesse an der Technik. Auch wenn die Technik eigentlich recht alt ist und bisher nicht gerade den durchbrechenden Erfolg als ernsthafte Supportmöglichkeit hatte (kommerziell fällt mir derzeit nur Anna von Ikea ein), so haben Bibliotheken hier vielleicht doch einen guten Riecher für das „versteckte“ Potential. Eigentlich kann man nichtmal mehr unbedingt sagen, dass die Bots in deutschen Bibliotheken gar so spärlich gesäht wären. Welche gäbe es bisher (kein Anspruch auf Vollständigkeit):

Nun, vielleicht auch nicht erschlagend viele, aber wenn nun noch die Universitäts- und Stadtbibliothek Köln (mit Stella Wissenbasis) dazukommt, dann sind es immerhin schon fünf große Bibliotheken in Deutschland. Interessant ist natürlich auch, was der dreisprachige Bot dann in der FUB Bozen leisten wird.

Leider ist es nicht immer ganz einfach herauszufinden, welche Software den Bots eigentlich zugrunde liegt. Bei Stella ist es eine Software von Novomind (lt. dem Artikel Fragen wird immer schöner) und vermutlich wird diese auch bei den Bots zum Einsatz kommen, die Stellas Wissensbasis nutzen. Die Wissensbasis wiederum wurde in Zusammenarbeit mit Kiwi Interaktive Medien erstellt bzw. optimiert. Da man diese Information unter den Case Studies bei Novomind finden kann, ist dies wohl auch kein Betriebsgeheimnis. Der Preis für das ganze Unterfangen vielleicht schon, wobei ich jetzt auch erst mal alle Protokolle des Projekts dafür checken müsste – ganz marginal war er jedenfalls nicht. Bei den Case Studies sind neben Club Bertelsmann auch einige Bundesministerien aufgeführt, die Bots im Einsatz haben. Der Bundestagsadler (knuffiger Avatar aber auch), ist nicht aufgeführt – find ich dennoch bemerkenswert, dass auch der Bundestag soetwas nutzt.

Nun, jedenfalls kann man vielleicht feststellen, dass das Thema Chatbots nicht ohne weiteres als reine Spielerei (durchaus ein nicht selten geäußerter erster Gedanke zu dem Thema) abgetan werden können.

Wer richtig tief in die Welt der Chatbots, Chatterbots, Chat Agents, Virtual Reference Avatars – ob all dieser Bezeichnungsvielfalt gar nicht mal so leicht zu ergooglen – eintauchen will, dem sei als eine Top-Quelle die Chatterbot Collection empfohlen. Eine umfassendere Link- und Literaturliste dürfte es kaum geben, obwohl auch der Subject Tracer zu Chatterbots von Zillman sicher noch einen Blick wert ist.

Ein letzter Gedanke: Eigentlich könnte Stella ja auch mal für den Loebner Prize bewerben. Wäre doch ein netter PR-Gag, wenn eine virtuelle Bibliotheksauskunft als erstes den Turing Test bestehen würde. Mit den richtigen menschlichen Referenzen vielleicht auch gar nicht so schwer :mrgreen: .

Update 25.04.2008: Ina nutzt offenbar nicht die Software und Wissensbasis von Stella, wie man den Information über Ina, unsere virtuelle Kollegin auf buecherhallen.de entnehmen kann. Verantwortlich ist vielmehr die Firma Artificial Solutions, die übrigens auch Ikea (neben u.a. EON und Tele2) als Referenz angibt.

Apr 152008
 

Nach einem Jahr, sieben Monaten und dreizehn Tagen ist dieser („dieses“ – sorry Edlef ;-)) Blog immer noch irgendwie am Leben. Sei Juli oder beinah eher Mai 2007 jedoch eher vegetierend. Somit hab ich natürlich auch das obligatorische Resümee zum ersten Geburtstag verpasst. Also wäre dies wohl mal nachzuholen…

Was war bloß wichtiger als dieser dieses Blog?

Projekt Chat4You

Nun, etwa als es hier richtig mau wurde, begann das Projektsemester (6. Semester). Ich hatte mich für das Projekt Chat4You entschieden, bei dem es um die Programmierung und das Training eines Chatbots für das Jugendlexikon LookedUp4You.de gehen sollte. Das Lexikon war bereits über ein früheres Projekt als Ergänzung zu checked4you.de – das Online-Jugendmagazin der Verbraucherzentrale NRW – entstanden. Da hätte es eigentlich unheimlich viel (aus meiner Sicht) spannendes zu bloggen gegeben, aber die Schreibzeit floß dann in das Moodle-Forum zum Projekt (mit dem Effekt hinterher als totaler Forumsjunkie zu gelten). Die restliche Zeit ging dann ohne weiteres für die eigentlichen Aufgaben drauf, da das Projekt mit gerade drei IT-lern nicht gerade üppig besetzt war und zudem (möglicherweise) die Aufgabenteilung etwas ungünstig war – einer beschäftigte sich mit dem Backend, einer mit dem Design unseres Avatars und ich habe mehr oder weniger das Frontend (nicht das Design!) und die Botanpassung übernommen.

Schon allein die Inkonsistenzen und Designschwächen der Datenbank und der zugrunde liegenden Datei(-organisation) des Lexikons und ein reines Redesign der Optik hätten eigentlich schon ein Semester füllen können. Zumal wenn man stark abweichende Grundmotivationen und Kenntnisse der Teilnehmer einbezogen hötte – lassen wir das Thema lieber. Irgendwie hat an dieser Fachhochschule ja alles von vornherein einen Proof-of-Concept-Charakter, d.h. dann konkret, dass man von vornherein sagt „Wenn am Ende nichts dabei rauskommt, auch nicht schlimm“.

Nun, das Design find ich zwar immer noch augenfeindlich, aber immerhin hat das Lexikon jetzt eine einigermassen cleane Datenbanstruktur, eine (soweit es möglich war) ordentliche logische Verzeichnisstruktur und Gimmicks wie eine „Artikel-Cloud“, „SEO-taugliche“ URLs und eine Breadcrumbnavigation. Und das wichtigste: einen Chatbot, der zugleich eine Suchfunktion in sich vereint. Die Suche mit relevanten Ergebnissen ist dabei eigentlich auch der größere Trick, denn die Funktionsweise eines durchschnittlichen Chatbots ist eigentlich nur (relativ simples) Pattern Matching, bei der die Wissensbasis die entscheidende Rolle spielt, die wiederum „manuell/intellektuell“ erstellt werden muss und dabei eigentlich nicht mehr tut als Gesprächssituationen (möglichst intelligent) vorwegzunehmen. Als Grundlage diente für das Projekt übrigens das auf PHP/MySQL basierende Script ProgrammE, ein Intepreter für AIML (Artificial Markup Language) wozu es auf alicebot.org reichlich weitere Informationen gibt. Prinzipiell nutzen übrigens auch Stabi-Stella, Höb-Ina und TU-Dortmund-ASKademicus AIML (gut zmdst. bei ersteren beiden etwas angereichert mit Matching über Regular Expressions). Zumindest behaupte ich, dass es nur unter einem anderen Label („exklusive Technik“) verkauft wird
– wobei man natürlich zugestehen muss, dass Support und eine einigermassen ordentliche Verwaltung der Wissensbasis auch ein Mehrwert sind. Gerade letzteres fehlt unserem Projekt, d.h. bis zu einem gewissen Grad kann man aber durchaus mit einem ordnentlichen XML-Editor oder insbesondere dem derzeit noch kostenlosen (aber nicht ganz ausgereiftem) GaitoBot AIML Editor eine ordentliche Wissensbasis managen. Obwohl sich das entsprechende Team unseres Projektes da ziemlich reingekniet hat, kann unsere „Polly“ in ihren Dialogen natürlich nicht so glänzen wie Stella, die aber auch über Jahre gelernt hat und sogar extern gecoached wurde.

Na, man sieht jedenfalls, dass es noch sehr viel mehr zu sagen gegeben hätte. Eigentlich wollte ich das jetzt hier auch jetzt nicht nachholen, bin aber schon auf dem besten Weg. Am meisten ärgert mich eigentlich auch, dass ich mich nicht aufgerafft habe und die Änderungen an ProgrammE (soweit mit meinen beschränkten Kenntnissen möglich gewesen, nun objektorientiert in Klassen formulierter und insgesamt besser nachzuvollziehender Code) wieder irgendwie beim Originalprojekt auf Sourceforge einzubringen. Ist aber auch so fummelig mit der GPL/GNU-Lizenz. Rechte sind so eine Sache, weswegen ich nicht mal die vollständige Dokumentation hier reinstellen kann, da sie den modifizierten Quellcode von ProgrammE und eine leicht angepasste AIML-Dokumentation enthält. Was eindeutig auf meinen Mist gewachsen ist gäbe es hier: 2007-08-15-technische-dokumentation-zeumer.zip. Es wird drauf eingegangen, wie das mit der Suche funktioniert und einige Links und Literaturquellen zum Thema Chatbot sind auch noch enthalten. Na, wohl auch nicht gerade interessant für die Mehrheit… 😉

Nunja, tot ist das Thema Chatbot jedenfalls nicht. Es gab noch ein Folgeseminar, in dem die Wissensbasis ausgebaut werden sollte (keine Ahnung was darauf geworden ist) und dieses Jahr bietet Anne Christensen („Stellas Mama“) das Seminar „Informationsdienstleistungen“ an, bei dem auch Chatbots ein Thema sind. Mein persönliches Fazit zu Chatbots ist jedoch, dass zwar mit relativ einfachen Regeln recht viel zu erreichen ist, jedoch davor noch ein unheimlicher „intellektueller“ Aufwand für die Schaffung einer angepassten (an den Einsatzzweck) Wissenbasis betrieben werden muss, der vermutlich kaum in Relation zum wirklichen Nutzen liegt. Letzlich würde ich immer mehr Gewicht auf eine ausgefeilte Suche legen, wobei diese durchaus mit umgangssprachlichen, ggf. in Halbsätzen formulierten, Anfragen umgehen können sollte. Im Grunde leistet Google und jede andere drittklassige Suchmaschine das auch (wenn ich mir ansehe mit welchen Anfragen die Leute hier auf dem Blog landen) und auch Karl Klammer (der interaktive Helfer bei Winword) macht eigentlich nichts anderes. Komischerweise haben sich die meisten Leute von Letzterem genervt gefühlt, obwohl ich vermuten würde, dass er bei objektiver Betrachtung sogar ziemlich gut seinen Dienst verrichtet. Ich glaube eine Suche mit „echten“ Konversationsfähigkeiten ist ein leichter Overkill. Auch als „Helpdesk-Ersatz“ für die Nutzung von Webseiten oder auch ganz speziell OPACs würde ich eher in Richtung intelligenter interaktiver Hilfen und gut erreichbarer/verständlicher FAQs tendieren. Kurz gesagt: Mir scheint die Aufwands/Nutzen-Relation nicht zu stimmen. Trotzdem mag in Chatbots noch ein gewisses Potential liegen – frei nach dem Motto „sag niemal nie“.

So, das reicht wirklich nun zum ersten Blogvernachlässigungspunkt.

Das siebte Semester und ein Tutorium

Nachdem ich nun im Projektsemester als „aktiver bis hilfreicher Forumsnutzer“ eingeschätzt wurde (oder so ähnlich), wurde mir ein Tutorium für das Seminar „Web 2.0 und Rich Internet Applications mit PHP/MySQL“ angeboten. Hab ich einfach mal angenommen. Das interessante dabei war, dass es daneben noch ein zweites Seminar „Zukunft des Peer Review? Vom elektronischen Zeitschriftenmarkt zu Open Access“ gab, wobei beide Seminare gemeinschaftlich prüfen sollten, wie und unter welchen Bedingungen man eine Website mit Open Access Content nach dem Vorbild von Philica auf dem deutschen Markt placieren könnte. Genaugenommen lag die Konzeption im Aufgabenbereich des Peer Review-Seminar und die technische Umsetzung sollte in „meinem“ Seminar stattfinden.

Hinzu kam, dass beide Seminare durch die Körber-Stiftung gefördert wurden, die darüber das sogenannte „Forschende Lernen“ als Lehr- bzw. Lernmethode evaluieren wollte. Im Wesentlichen beudeutet dies, dass die Studierenden die Inhalte, die Organisation und die Umsetzung weitestgehend selbständig erarbeiten sollten. Das wäre durchaus ein krasser Gegensatz zur ansonsten häufig angewandten „Referatsdidaktik“. Da nur die Zeit eines reguläre Seminars vor Ort verfügbar war, sollte die Kommunikation zu einem guten Teil innerhalb der gebildeten Teams und über entsprechend eingerichtete Moodle-Foren stattfinden. Die Beteiligung an letzteren (wie übrigens auch beim Projekt schon) war aber nicht unbedingt euphorieauslösend. Ganz objektiv muss man auch eingestehen, dass der Zeitaufwand relativ zu „herkömmlichen“ Seminaren sicher ein gutes Stückchen höher lag und (ebenfalls wie im Projekt) liefen Vorkenntnisse und Motivation der einzelnen Teilnehmer sicher auch weit auseinander. Das ist einfach immer ein arges Problem, wenn die Seminare so wenig aufeinander aufbauen, wie es im Studium (ich behaupte mal nicht, das das nur für diesen Studiengang gilt) der Fall ist.

Das größere Problem – aus meiner ganz subjektiven Sicht – war jedoch, dass das Thema des Seminars (Open Access/Peer Review) schließlich in den Hintergrund zur Methodik (Forschendes Lernen) rückte bzw. sogar eher die Methodik thematisiert wurde. Klingt kompliziert? Fiel mir auch schwer nachzuvollziehen. Letzlich lief es darauf hinaus, dass sich drei Gruppen mit „State of the Art“ bezüglich Open Access-Angeboten in Deutschland/Hamburg und nochirgendwie-so beschäftigten, das komplizierte Theme Recht jedoch noch einer bereits kleinen Gruppe „untergeschoben“ wurde (ich glaub deren Thema war eigentlich PR). Nun, ich war nicht Teilnehmer und nicht mal Tutor in diesem Seminar (wobei die Tutorin dort aber sehr gute Arbeit geleistet hat), weswegen ich eigentlich wohl besser gar nichts großartiges dazu sagen sollte. Zumindest kann ich aber sagen, dass meine Vorüberlegungen, warum ich dieses thematisch eigentlich interessante Seminar (also Peer Review etc.) nicht gewählt habe, richtig waren :mrgreen: .

Nun, die Seminare hatten nur ein gemeinsames Treffen, es gab relativ wenig Austausch untereinander und so lief es dann vor sich hin. Trotz aller Kritik muss ich sagen, dass es mir persönlich Spaß gemacht hat, insbesondere da ich mal nicht aus der Studentenperspektive heraus an einem Seminar teilgenommen habe. Meinen „Forumsfreak“-Titel habe ich mir wohl auch erhalten, insbesondere nachdem ich dann auch bei dem „anderen“ Seminar einfach mitkommentiert habe und dort auch eingeforderte Feedbacks gegeben habe, die sonst keiner geben wollte  🙄 . Ansonsten gab es natürlich Ergebnisse der Seminare, jedoch nichts was hinter die verschlossenen Türen treten wird.

Das Ergebnis der von der Körberstiftung ausgegebenen Evaluationsbögen war auch nicht gerade berauschend. Im Schnitt würden die „Peer Review“ler eine 2,6 und die „Techniker“ eine 3,3 jeweils für ihr Seminar vergeben. Von den Technikern würden weniger als 1/3 nochmal ein solches Seminar besuchen, bei den Reviewlern jedoch fast 2/3. Ich gestehe, dass mich das gewundert hat, aber vielleicht liegt es daran, dass sie dem Statistik-Seppel die Auswertung der Bögen überantwortet haben (das war ich). Noch eigenartiger ist, dass sich das Verhältnis bei der Frage umdreht, ob man sich durch die Lehrenden fachlich (inhaltlich) unterstützt gesehen hat. Insofern das meine „ausgeschriebene“ Aufgabe war, habe ich damit wenigstens kein so schlechtes Gewissen. Allerdings fand ich es wiederum schade, dass der überwiegende Teil in meinem Seminar eine Rückmeldung zur Qualität vermisste. Da weiß ich auch nicht mehr, was man noch sagen soll außer „Schickt mir die Zugangsdaten zu euren Entwicklunsgservern und schreibt Fragen ins Forum, per Mail oder noch direkter bei ICQ/MSN“. Genau einer hat mir Fragen per Mail geschickt und im Forum hab/hätte ich eh alles beantwortet… Trotzdem kann ich die Kritik grundsätzlich nachvollziehen – hat mich selber oft genug im Studium genervt, dass man eine Note, aber keine differenzierte Begründung erhält. Aber am Ende kann man es erwarten, zwischendurch sollte man es wohl selber einfordern.

Na, wie auch immer. War jedenfalls interessant und ich hab selber noch einiges gelernt. Und wenn ich mein eigenes Open Access Journal starten will, dann weiß ich jetzt auch wo ich ein mit Open Journal Systems ziemlich geniales und freies Stück Software herbekomme (womit man sich ggf. solche Projekte sparen könnte – wenn es nicht nur ums Lernen selber gehen sollte) 😉 .

Orientierungspraktikum im letzten Semester

Nun, eigentlich soll man zwei Orientierungspraktika im Grundstudium machen: einmal WB und einmal ÖB. Letzteres bin ich irgendwie immer schuldig geblieben, aber seit März ist auch das geschafft. Neben der Erstellung eines Raumplans, hab ich vor allem viel Zeit an der Information, mit dem Raussuchen von Blockthemen und auf Arbeitskreis- und Regionalsitzungen verbracht. Eigentlich war ich nur auf einer Arbeitskreissitzung, der des AK Kinderbibliotheken, aber das war schon recht spannend. Wobei sich spannend eher auf die schiere Masse an Angeboten bezieht, denn bei all den Themen in kurzer Zeit konnte ich kaum folgen (außer als es um Buchstart ging, womit ich mich früher schon beschäftigt habe). Ich glaube, ich kann behaupten, dass die HÖB wirklich ein gutes Angebot für Kinder und Jugendliche oder auch Familien allgemein aufgebaut hat. Ich muss gestehen, dass ich baff war, als in meiner Zweigstelle fast jeden zweiten Tag eine Klassenführung war. Zu meiner Schulzeit gab es sowas nicht (kaum überhaupt?), ganz davon zu schweigen, dass über Bibliotheken zu beziehende Literatur je eine große Rolle im Unterricht gespielt hätte (bei uns gabs nur Kopien auf Umweltpapier). Die Führungen können auch durchaus sehr witzig sein – ich glaub irgendwann muss ich doch mal die Wilden Fußballkerle lesen um herauszufinden in welchen Jungen aus Band 2 (musste der sein) sich Mädchen in zweiten Klasse verknallen („Ich bin nämlich in den verknallt“) :mrgreen: .

Im Gegensatz zu meinen WB-Praktika emfpand ich die Zeit an der Information ohenhin als sehr „sociable“. Besonders im Gedächtnis geblieben ist mir die Dame, die ein Buch über Leni Riefenstahl haben wollte und dann irgendwann sagte „Seit ich ihre formidable Bibliothek für mich entdeckt habe, ist mir nicht mehr langweilig. Das kommt ja sonst schon mal vor, wenn man 91 ist.“ (jedenfalls so ähnlich).  Langweilig wird einem an der Information jedenfalls nicht – andererseits müssen die Leute auch fragen, denn der Weg vom Katalog zum Regal kann schon mal irritierend sein.

Die zwei Regionalsitzungen an denen ich teilgenommen habe, fand ich auch ganz interessant, allerdings eher im Rahmen eines „Eindrucks“, als das es da viel zu zu sagen gäbe. Ganz interessant bis unterhaltsam war auch das Treffen in der Jugendbibliothek in Altona, wo es darum ging, wer, wann und was an Konsolenspielen (insbesondere WII) bei sich anbieten sollte – auch mit Testmöglichkeiten. Von Konsolen hab ich mich bisher ja immer fern gehalten, aber die WII ist schon tatsächlich ziemlich unterhaltsam. Ob Spiele nun wirklich in den Bestand einer Bibliothek gehören, halte ich trotzdem für fraglich. Hörbücher, ja keine Frage: schon allein wegen der „nicht-lesen-könnenden“ (z.B. Blinden) Zielgruppen. Filme… auch noch, solange sie den Gesamtetat nicht übermäßig negativ beeinflussen und man nicht gleich in Konkurrenz zur Videothek tritt. Naja, das wäre nochmal ein ganz anderes Thema…

Alles in allem war es jedenfalls interessant und hat mich tatsächlich noch etwas orientiert. Auch muss ich sagen, dass ich sehr nett aufgenommen wurde von den „Kollegen“ und es wirklich klasse fand, dass sie mich zu den „Mittwochssitzungen“ mitgenommen haben.

Ein bissel Initiativbewerben und dann bald mal diplomen (tun)

Vor einer ganzen Weile gab es eine Stellenausschreibung des HIBS (Hochschulinformations- und Bibliotheksservice) – praktischerweise in der HAW. Da ein Abschluss gefordert war (nicht ganz unüblich) habe ich die Ausschreibung zunächst ignoriert, mich dann aber doch beworben, da mir das Professor Geeb mir das nahe legte, es trotzdem doch mal zu probieren. Genialer Weise hat er mir auch ein Gutachten erstellt und auch Herr Wendt (der Ansprechpartner der Ausschreibung) war da ganz positiv eingestellt. Eine Stelle, in deren Rahmen man noch eine Diplomarbeit schreiben könnte, wäre natürlich genial gewesen. Nicht ganz unerwartet war der zwangsweise fehlende Abschluss aber ein KO-Kriterium bei den Entscheidungsträgern. Nachdem ich eines halbfreien Nachmittags über die Flure des 10. Stocks in der HAW schlich, traf ich Herrn Wendt zufällig und er teilte mir das mit (mittlerweile ist auch ein offizieller Brief angekommen). Das interessante war, dass er trotzdem noch Möglichkeiten für eine Zusammenarbeit im Rahmen einer Diplomarbeit sah. Nun, was dabei rauskommt. müsste sich diese Woche klären…

Ansonsten wird es sehr spannend, denn langsam wird es zeitlich spannend, da das Semester nicht mehr so lange ist. Tja, eigentlich gibt es soviel spannende Themen und einige werden einem auch beinah direkt zugespielt, nachdem man seine Interessen mal kundgetan hat, aber was ist wirklich interessant. Vor einem Jahr war es tatsächlich noch ein spannendes Thema, mal zu untersuchen wie sich Open Access (-Angebote) in den letzten Jahren entwickelt haben, aber mittlerweile ist da schon dermaßen viel zu publiziert, dass sich da ohne weiteres auch keine spannenden Erkenntnisse mehr gewinnen lassen. Was noch? Ein Angebot entwickeln wie es in meinem „tutorierten“ Seminar nicht ganz gelungen ist? Naja… Eine Qualitäts- oder Usability-Untersuchung von z.B. Suchmaschinen oder OPACs? Hmm… Evaluation oder Entwicklung eines „out-of-the-box“-OPACs für Schulbibliotheken? Könnte sogar interessant sein, scheint mir aber irgendwie zu simpel…

Nunja, wenn die nächsten Monate hier wieder tote Hose ist, dann weiß man jetzt wenigstens warum 😉

Und was ist das Blog-Resümee?

Achja… Nun, wenn ich ganz weit zurückblicke, dann hat mich netbib-Edlef Stabenau während meines Praktikums an der TUB-Harburg auf den Trichter gebracht. Statt klein anzufangen, musste ich damals ja aber unbedingt die Joomla-Variante mit integriertem WordPress nehmen, da ich dann ja auch ein Forum, eine Wiki und all den anderen tollen Schnick-Schnack hätte. Nachdem sich das doch als unpraktisch erwies, musste es dann in JavaScript erstickendes Ajax-Template sein, damit auch alle (an einer Hand abzählbaren Besucher) all die tollen Vorteile genießen könnten.

Nun, mittlerweile steht WordPress alleine (obwohl es immer noch die aus Joomla herausgezogene Version ist), ist beinah wieder Web 1.0-ig und füllt sich eher gemächlich. Das Problem ist, dass es doch relativ viel Zeit kostet. Es gab über die Monate eine ganze Menge Dinge, zu denen ich etwas schreiben wollte, aber dann die Zeit, manches mal auch die Motivation, fehlte.  Außerdem wollte/will ich „Link-Dreizeiler“ vermeiden, die weder mich (nach ein paar Tagen) noch andere wirklich interessieren. Wobei ersteres entscheidender ist, da die meisten Einträge hier eher eine Nachschlagefunktion für mich erfüllen. Andererseits ist es natürlich schon spannend, wenn zu etwas Input von außen kommt. Andererseits sind das Momente, wo ich mir die Einträge nochmal angucke und mich ob all der schrägen Formulierungen, (vermeidbaren) Rechtschreibfehler und (ich-lern’s-nicht-mehr) Zeichensetzungsfehler ärgere. Dann denk ich mir wiederum, dass ich bei so einem besserem Notepad keine Ansprüche erfüllen muss (will), aber trotzdem… 😉

Ansonsten ärgert mich, dass ich immer noch keine ordentlichen Kategorien erstellt habe und die Tags in aller Regel recht willenslos gewählt sind. Seit dem (einem der) letzten Update sind auch gleich ein paar Tags flöten gegangen. Das hängt natürlich damit zusammen, dass ich einen unheimlichen Spieltrieb habe, wenn es um das ausprobieren von Plugins geht und entsprechend sich gerne mal größere Probleme einstellen. Andererseits hab ich aber auch den Eindruck, dass die Entwicklung von WordPress sehr schleppend verläuft und erst langsam sinnvolle Funktionen direkt integriert werden, statt über tausende Plugins auf Umwegen realisiert zu werden. Mit der 2.5er Version hat sich aber dann doch einiges getan.

Tja, soviel mehr hab ich dazu auch nicht zu sagen. Es ist jedenfalls unwahrscheinlich, dass die Beitragsquote sich in näherer Zukunft erheblich steigern wird, aber man weiß ja nie. Ansonsten zähl ich mich eher zu den fleißigen Rezipienten des Planet Biblioblog mit all den viel emsigen Schreibern. 🙂

Ok, das war der zweite (und sicher letzte) Beitrag des Tages, der eigentlich völlig uninteressant für andere ist.

Apr 152008
 

Nun, eigentlich gibt es das Layout (mehr oder weniger) schon etwas länger, aber ohne neue Beiträge in der Zeit. Ich hoffe, dass es einen einigermaßen ordentlichen Eindruck macht, auch wenn es jetzt ganz „old school“ ohne viel JavaScript und derlei Schnickschnack daher kommt.

So viel hat sich eigentlich auch nicht geändert. Ich bleibe dem Ansatz treu, dass die wichtigstens Dinge (Neue Beiträge, Kommentare, Suche, Archiv etc.) bei durchschnittlicher Auflösung schnell verfügbar sind und man auch nicht noch tolle Sachen entdeckt, wenn man tausend Zeilen nach unten gescrollt oder die tatsächliche Priorität der fünften Spalte von links erfasst hat. Wenn man doch scrollt, dann sieht man den Anfang der Beiträge und kann ggf. auf den Ttiel oder „Weiterlesen“ klicken, sollte der Beitrag einen tatsächlich interessieren. Ich glaube die Breite ist auch noch in Ordnung, damit ich meinen geliebten Blocksatz verwenden kann. Bei der Schriftgröße werd ich aber vielleicht doch noch mal Zugeständnisse machen 😉

Kommentare können jetzt auch wieder ohne Freischaltung gemacht werden (nachdem mir das ein ziemlicher Faux-Pas unterlaufen ist), allerdings muss man nun eine äußerst komplizierte Frage beantworten, bevor der Beitrag erscheint. Der Plugin-Autor stellte hocherfreut fest, dass auch irgendein Usability-Guru sein Plugin verwendet, d.h. eine ultimative Barriere kann es auch nicht sein. Sind zu viele Links in einem Kommentar, dann landet er aber vielleicht doch noch in der Warteschlange. Links kann man mittels des Editors nun bei den Kommentaren auch bequem erstellen. Leider produziert der Editor ein paar JavaScript-Fehler, die aber für die Funktionalität unerheblich sind – der Grund ist mir nicht nachvollziehbar, zumal es bereits ohne Fehler funktionierte (diese blöden wechselwirkenden Plugins).

Kommentare kann man per Mail abonnieren, wobei man dazu keinen Kommentar geschrieben haben muss. Die Abos können auch verwaltet werden – der Link dazu ist in den Mails und bei den entsprechenden Beiträgen.

Beiträge drucken funktioniert nun auch wieder mittels des Druckersymbol über den Beiträgen. Über den Beiträgen steht übrigens das Erstellungsdatum, aber wenn etwas geändert wurde, dann steht das bei den Metadaten unter dem Artikel.

Ansonsten konnte ich es mir nicht verkneifen doch wieder die Shoutbox (ok, für die muss man wohl auch scrollen) einzubinden. Ich mag die Dinger einfach 😉

Sonst noch was? Naja, die Suche durchsucht jetzt auch Kommentare und Co., allerdings ist die Ergebnisseite (zeigt nur Titel) noch nicht das gelbe vom Ei. Na, und wer Spaß daran hat, der kann unter Tags gucken mit welchen Suchbegriffen Leute hierher gelangt sind. Da sich hier  nicht so viele herverirren wird sogar fast alles angezeigt (mindestens zweimal zutreffend).

Ich hoffe jedenfalls, dass soweit alles funktioniert und einigermaßen fix läuft.

Ok, der erste Beitrag des Tages, der eigentlich völlig uninteressant ist.

Apr 092008
 

Worum geht es?

Vor weit über einem Monat habe ich bei Inetbib den Thread Erstellung eines Raum-/Orientierungsplans – Best Practise? eröffnet. Ganz kurz zusammengefasst, ging es darum einen Raumplan für eine Öffentliche Bibliothek zu erstellen, wobei dabei keinerlei Kosten entstehen sollten. In der Liste selber gab es keine Antwort, aber einen Hinweis erhielt ich direkt per Mail. Mittlerweile habe ich auch noch ein paar direkte Anfragen erhalten, ob ich nun wiederum einen Tipp bekommen hätte. Insofern gebe ich den einen hier mal weiter, da er mir tatsächlich geholfen hat. Außerdem kann ich dann einfach hierhin verweisen 😉

Der SketchUp-Ansatz

Der Tipp kam von einer Dame, die einen solchen Plan mal mit Google SketchUp erstellt hatte. SketchUp ist ein kostenloses (es gibt eine Pro-Version, dazu aber später) Programm zum erstellen von 3D-Modellen – ich würde sagen sowas wie ein CAD-Programm für Dummies. Ich hatte das bereits früher mal auf dem Rechner, aber keine wirkliche Verwendung dafür und war ehrlich gesagt auch durch die erste Erscheinung etwas abgeschreckt. Tatsächlich ist das Programm aber äußerst einfach (möchte beinah sagen genial simpel) zu bedienen, wenn man sich nur die wenigen Quickstart-Tipps am Anfang durchliest.

Warum SketchUp?

Aber der Reihe nach. Warum ein 3D-Tool, wenn man einen 2D-Plan haben will? Eigentlich kann ich darauf keine qualifizierte Antwort geben, da ich kaum Erfahrungen mit Layout-/Graphikprogrammen habe (nur ein wenig mit Photoshop, das aber weit entfernt vom Anspruch der Kostenlosigkeit ist). Aus dieser Perspektive heraus würde ich argumentieren, dass es mit SketchUp – wahrscheinlich – erheblich einfacher sein dürfte Objekte zu positionieren, da Modelle mit metrischen Maßen erstellt werden können und alles leicht ausgemessen werden kann. Desweiteren kann man theoretisch auf die Dreidimensionalität verzichten und zweidimennsional arbeiten. Allerdings hat es mir geholfen, den Raum, die Regale usw. auch perspektivisch betrachten und bewegen zu können. Außerdem ist es kostenlos und wenn man in 3D arbeiten will, dann findet man massenhaft fertiger Objekte (Regale, Tische, Stühle…) zum direkten Importieren – natürlich kann man sich die auch in 2D anzeigen lassen.

Uneingeschränkt empfohlen?

Soweit so gut. Stellt sich die Frage, ob es einen Haken gibt. Klare Antwort darauf? Jein… Kurze Erläuterung: Ursprünglich hatte ich die Erstellung eines Planes als „Lückenfüller“ für ab und an vorkommende Leerläufe vorgeschlagen („Chef, wo soll ich jetzt hin?“ ;-)). Dabei schwebten mir gerade mal ein paar Ausdrucke auf DinA4 vor, die man im Raum verteilt und mit einem handelsüblichen Drucker auswirft. Nun kam aber der „Chef“ auf die Idee, dass man das auch auf den Zweigstellenflyer drucken könnte, weswegen ich dann mit einem Mitarbeiter aus der Abteilung Öffentlichkeitsarbeit sprach, der mir erklärte, dass es sich schon um einen „hochwertiges“ Exportformat handeln müsse, da Druckereien Probleme mit Auflösungen unter 300 DPI hätten (zum Vergleich – „Gebrauchsgfrafiken“ im Internet haben i.d.R. 72 DPI). Die einzige Beschränkung der freien SketchUp-Version liegt aber in den wählbaren Exportformaten. 3D-Modelle können nur im Google Earth-Format (ja, da kann man sein Gebäude dann auch placieren) und 2D-Modelle in einigen gängigen Bildformaten exportiert werden (jpg, gif, png, tiff), wo jedoch keine DPI-Angaben mitgegeben werden können. Zum zweiten Teil des „Jein“: Man kann allerdings bei den Exporten die Dimensionen mitgegeben, d.h. die x*y Pixel, die die exportierte Bilddatei haben soll. Ehrlich gesagt kann ich es jetzt auch nicht genau erklären – wie gesagt, bin ich kein Grafikspezialist, aber wir haben uns dabei auf den Export als Tiff geeinigt, wobei der Maßstab dann 3508 * x (x ist der automtisch errechnete relative Wert) sein sollte. Ich habe die Zahl einfach so hingenommen, aber mir ist gerade bei Irfanview (Grafikviewer) aufgefallen, dass ich eine Druckgröße von 29,7cm erhalte, wenn ich für diese Kantenlänge 300 DPI wähle (sprich DinA4). Da ich es nicht vertiefen kann, soll das als Hinweis reichen, wenn man über mehr als einen „Durchschnittsausdruck“ nachdenkt. Eins noch: Wenn ich noch (erheblich) höhere Auflösungen wähle, dann schmiert mir SketchUp ab.

Eine Alternative gibt es noch. Die Testversion der Pro-Variante lässt sich 6 Stunden uneingeschränkt verwenden (soweit ich das beobachtet hat beziehen sich die 6 Stunden auf die tatsächliche Nutzung). Hier können auch günstigere Formate exportiert werden. Leider war der entsprechende Mitarbeiter im Urlaub als ich nochmal nachfragen wollte, der Kollege vermutete jedoch, dass EPS (Encapsulated PostScript) immer vorteilhaft wäre. Also theoretisch könnte man seinen Plan in der freien Version erstellen und dann einmal mittels der Pro-Funktionalität exportieren. Ggf. auch in andere Formate, wo man jedoch wieder die entsprechend teuren Programme benötigen würde (womit der ganze Ansatz beinah hinfällig wäre, besäße man diese). Das ist natürlich nur sinnvoll, wenn der Plan in absehbarer Zukunft nicht geändert werden muss. Möglicherweise wird bei der Pro-Trial-Version auch ein Wasserzeichen oder etwas in der Art eingefügt – derartiges hab ich jetzt nicht geprüft. Ansonsten finde ich auch keine Lizenzbestimmungen, die sowas ausschließen – genaugenommen finde ich bei SketchUp gar keine.

und… erst denken, dann handeln

Hinsichtlich der beiden letzten Absätze würde ich also ganz dringend empfehlen, dass man sich als erstes überlegt in welchem Format (Flyer, DinA4, DinA3…) und wie (Standardrucker, Druckerei) der Plan schließlich genutzt werden soll. Entsprechend sinnvoll ist es, dass man einmal den Grundriss zeichnet und ein paar Objekte eher wahllos placiert, so dass man bei einen Probeexport sehen kann, ob das ganze Vorhaben noch zielführend ist. Andererseits muss ich sagen, dass mir in den letzten Wochen aufgefallen ist, dass man nur höchst selten über gute Raumpläne, Orientierungspläne, Aufstellungspläne, oder wie auch immer man die Pläne nun eigentlich am besten bezeichnet, findet.

In gewisser Weise resultiert das auch aus dem zweiten Problem: die Beschriftung. Es ist ungemein schlau, wenn man sich auch darüber voher sehr konkret Gedanken macht. Im Grunde stehen einem einige Varianten zu Verfügung, die aber zunächst mehr oder weniger unabhängig von SketchUp sind. Dabei fallen mir vor allem Farblegenden (Elemente farbig gruppieren, z.B. Auskunftsplätze, Systematikgruppen…), Ikonographisch Legenden (Selbstklärende oder in der Legende erläuterte Symbole), „Numerische Legenden“ (Zahlen im Plan, Erläuterung in der Legende) oder die direkte Beschriftung im Plan ein. Persönlich finde ich eine Farblegende (gepaart mit Symbolen) am intuitivsten, aber die ASB ist schon recht schwer mit ihren 26 Hauptklassen abzubilden (obwohl ich mich beinah ernsthaft mit Munsell beschäftigt hätte :-D). Mit dem Plan den Weg vom Katalog zu den Regalen zu finden empfand ich aber eigentlich als das Hauptziel. Irgendwie fällt das ganze wohl auch unter Informationsdesign, aber die beschäftigen sich auf den schnell zu ergooglenden Seiten auch nur noch mit dem ganzen technik-schnick-schnack á la Web 2.0 ;-). Da ich meinen primären Ansprechpartner bei der Öffentlichkeitsarbeit verloren hatte und das Praktikum kurz vor Ende stand, hab ich da auch keine wirkliche Lösung mehr gefunden, insbesondere weil ich dachte/denke, dass Schrift beim Skalieren problematisch sein könnte. Beschriftungen in SketchUp selber vorzunehmen würde ich jedenfalls nicht empfehlen. Im Grunde kann man mit jedem x-bliebigen Bildbearbeitungsprogramm den Export schließlich beschriften, aber vielleicht bietet sich etwas wie Gimp an, da die Beschriftung dann zu einem späteren Zeitpunkt beliebig geändert werden kann. Ich hab es jetzt zwar mit dem kommerziellen Pendant gemacht und die einzelen Beschriftungen jeweils als eigenen Layer eingefügt, aber ich vermute, das kann Gimp auch. Da ich das aber nur am letzten Tag noch schnell gemacht habe (nach dem Motto „so in etwa könnte es aussehen“), sieht die Finale Version (Ober- und Untergeschoss) etwas „hässlich“ aus, aber vielleicht bietet es ja einen Eindruck.

Erst gehandelt (ein Beispielergebnis)

HOEB-UG-Thumbnail HOEB-OG-Thumbnail

Kopiert man die Bilder in Word (Ränder auf Minimum stellen), dann sieht man etwa was beim Ausdruck rauskäme. Ausgedruckt ist es aber noch besser zu lesen, als es (bei mir) am Bildschirm den Eindruck macht. Andererseits hat ja auch nicht jede Bibliothek so ungünstige DinA4-Raumdimensionen 😉

Die Farben sind übrigens über Layer (in etwa: gruppierte Ansichten) realisiert, d.h. Objekte der gleichen Farbe können auch leicht ein- und ausgeblendet werden (so wie die Wände unten im Video verschwinden beispielsweise). Die Farben (sogar mit Durchscheineffekten) kann man mit zwei Klicks ändern.

Spontane Idee für große Pläne im Eigenbau

Wo ich hier jetzt aber die ganze Zeit am tippen bin, ist mir noch eingefallen, dass ich vor Urzeiten mal ein Bild auf mehreren DinA4-Seiten ausgedruckt und dann unter einem Rahmen zusammengeschnipselt habe. Das klingt fummeliger als es ist, denn die Aufteilung übernimmt ein ziemliches feines Freewareprogramm mit dem bezeichnenden namens Posterizer. Ich bin alles andere als ein Bastler, aber selbst ich habe es hingekriegt die Blätter ordentlich und (fast) ohne erkennbare Kanten auf eine DinA2-Pappe (paar Cent im Laden) zu kleben. Das klingt vielleicht so, als ob das nicht unbedingt einem professionellen Anspruch genügt – mag auch sein, aber nachdem ich jetzt genauer bei solchen Plänen hingucke, ist mir aufgefallen, dass der Plan unserer FH-Bibliothek auch ein Konstrukt aus mehreren (Tesa-gekitteten?) Seiten ist… 😉

Letzte Worte und eine Warnung

Es mag bessere Ansätze als SketchUp geben, wenn man nur einen 2D-Plan erstellen will, allerdings wird man nicht gerade mit Hinweisen oder Literatur dazu erschlagen. Durch die wirklich intuitive Handhabung, das sich knapp aber präzise fassende Handbuch und nicht zuletzt durch den schnell einsetzenden Spieltrieb, ist es aber von meiner Seite her absolut zu empfehlen. Wenn man nicht gerade Praktikant ist, kann letzter Punkt natürlich nachteilhaft sein, denn in der 2D-Perspektive interessiert hinterher keinen mehr der CD-Ständer, die RFID-Selbstverbuchung, die L-förmige Treppe oder der Taschenbuchdrehständer Marke Eigenbau mit den feinen Details :-D. Zu meiner Verteidigung: ich habe ne ganze Weile über einen Plan mit isometrischer Ansicht nachgedacht. Ich glaube eigentlich immer noch, dass man mit dem richtigen Ansatz damit etwas besseres als einen 2D-Plan hinkriegen könnte. Lässt man das aber alles beiseite und konzentriert sich auf die 2D-tauglichkeit, dann kann man in kurzer Zeit einen maßstabsgetreuen Raumplan erstellen (gut ist, wenn man die Maße kennt und nicht mit untauglichen Zentimermaßen ans Werk geht ;-)). Was heißt kurz? Ich habe von vier Wochen Praktikum etwa 2,5 Wochen darum rumgebastelt. Das meiste zu Hause (da sich dann ja doch immer was zu tun fand) und mit genannten Spielerreien dabei. Im Grunde bricht sich das reine Rumwerken mit SketchUp aber auf wenige Stunden runter, insbesondere wenn man die Räumlichkeiten gut kennt.

Wie das war’s?

Das hier soll ja kein Tutorial sein. Davon gibt es genug und das Handbuch ist auch wirklich gut. Ein, zwei Tipps aber doch. Die „echte“ 2D-Perspektive erhält man, wenn man zum einen die Draufsicht wählt und zum anderen im Menü Kamera „Parallele Projektion“ wählt. Außerdem sollte man sich auf der Produktseite zu SketchUp unter Additional Ressources die Quick Reference Card runterladen – die Maus ist zwar eine schöne Erfindung, aber mit der Tastatur geht es dann doch schneller (und man sieht auf einen Blick was möglich ist). Der letzte Tipp ist etwas spezieller und eigentlich nur für 3D-Perspektiven wirklich relevant: Will man Türen und Fenster in Wände einsetzen, dann geht das eigentlich mit zwei Klicks, auch so dass man durch die Fenster/geöffnete Türen hindurchsehen kann. Das funktioniert aber nur automatisch und ohne Weiteres, wenn die Wände nur 2D-Flächen sind, ansonsten wird es fummeliger (und der Hinweis ist sehr versteckt im Handbuch).

Zum Abschluss

So säh es dann in 3D aus. Die Qualität ist recht mies, aber soll ja alles noch webtauglich sein. So ein Flythrough kann man aber in beliebiger hoher Qualität mit SketchUp erstellen (auch in der freien Version).

Ansonsten würde mich noch interessieren, ob jemand einen besseren Ansatz, ein besseres Tool oder gute Ressourcen für solche Raumplanerstellungen kennt…

Edit

Ganz vergessen. Auf meine Inetbib-Anfrage kam auch ein Hinweis von der EKZ, die mit Bibmap einen Service für solche Pläne anbietet, die wohl zudem noch mit den OPAC-Ergebnissen verknüpft werden können. Kostenlos ist das natürlich nicht…

Update 25.04.2008 – Qualität der Exporte, exakte Maße beim Zeichnen und einsetzen von Fenstern und Türen

Ich gebe es zu: ich bin unheimlich neugrierig und gucke gerne über welche Suchanfragen hier gelandet wird. Eine davon ist „warum kann sketch up keine guten bilder exportieren“, die als erstes Ergebnis zu der SketchUp-eignen Hilfe Wie exportiere ich 2D-Bilder in hoher Qualität? führt. Im Zusammenhang mit den Hintergrundinformationen – How do I export higher quality 2D images (background information)? – wird dort um einiges besser erklärt warum und worauf man beim Export zum Drucken achten sollte als ich es hier laienhaft hergeleitet habe. Die Antwort ist zwar unter den Fragen zur Pro-Version aufgeführt, aber ich habe nichts entdeckt, dass nicht auch mit der freien Version funktionieren sollte.

Eine andere eingehende Suchanfrage war etwas in der Richtung „Werte direkt eingeben“. Für den Schnelleinstieg in SketchUp ist es tatsächlich äußerst praktisch, wenn man weiß, dass man nach dem ersten Klick mit einem Werkzeug (z.B. mit dem Werkzeug um ein Viereck zu zeichnen) die Maße einfach direkt eingeben und mit Return bestätigen kann. Beispiel: Man wählt das Rechteck, klick einmal und gibt dann die Kantelängen einfach getrennt durch ein Semikolon ein (x;y) und drückt „Eingabetaste“. Bei Kreisen und Co. gibt man natürlich nur einen Wert ein (den Radius), aber das steht auch unten Rechts vor dem Eingabefeld im SketchUp-Fenster. Auf die Maßeinheit kann man verzichten. Verwendet wird die Einheit, die unter Fenster>Modellinformationen>Einheiten angegeben ist (dort kann man übrigens auch die Präzision einstellen – sollte sich jemand mal über die Näherungswerte á la „~3m“ wundern). Wenn man unbedingt will kann man aber auch explizit eine andere Einheit angeben, z.B. „3cm;5mm“.

Eine weitere Anfrage über die hier öfters hingelangt wird, ist die Frage, wie man Türen oder Fenster einsetzt. Wie das bei 2D-Flächen geht, zeigt das Video SketchUp: Making your own doors and windows bei Youtube sehr anschaulich. Eigentlich ist es aber auch selbstklärend. Anders ist das bei „dicken“ 3D-Wänden, also Wänden mit Volumen, da Türen und Fenster hier nicht automatisch durch die Vorder- und Hinterseite schneiden. Das wiederum erklärt das Video SketchUp: Making your own openings [in double faced walls] hervorragend (bin ja ganz begeistert, dass ich dann doch von selber auf die richtige Idee gekommen bin). Spätestens nach dem zweiten Video guckt man doch mal was sich hinter der Adresse www.aidanchopra.com verbirgt: die offzielle Webseite von Aidan Chopra zu seinem Buch Google SketchUp For Dummies. Da findet man dann auch noch eine Menge weiterer Video-Tutorial zu SketchUp, die offensichtlich ständig ergänzt werden. Das Englisch kann man m.E. sehr gut verstehen, aber ansonsten sieht man ja auch sehr deutlich was gemacht wird.

So, ich glaub damit sind dann auch die Fragen beantwortet, bei denen man hier vorher frustriert worden wäre 🙂