Feb 232007
 

Insgesamt klingt das nach einer interessanten Veranstaltung. Es scheint aber, als sollten die Agierenden unter sich bleiben. Wer ist bereit für 2 Tage mehr als 2000 Euro (incl. MWSt.) auszugeben? fragte der @-web-Suchmaschinen Blog vor einem Weilchen und ich mich selber auch. Nun hatte ich richtig Glück, dass unser neuer „Erstsemestler“-Professor Dr. Lewandowski ebenfalls einen Vortrag bei der Euroforum-Konferenz Die Macht der Suchmaschinen – Informationsdienste als Wachstumsmarkt hielt. Das waren damit zwei spannende Tage, wobei ich mir teilweise doch schon eigenartig unter all den Vertretern von Verlagen, Suchmaschinen, Sendeanstalten, Universitäten usw. vorkam – trotzdem gab es in den Pausen auch angenehme Gespräche und ich bin immerhin um zwei Visitenkarten reicher 😉

Das Programm war enorm umfangreich und das werde ich hier auch kaum übersichtlich zusammengefasst bekommen. Der erste Beitrag Web 3.0 = Web 2.0 + Semantisches Web war jedenfalls definitionstechnisch schon sehr interessant. zum einen ging es in diesem Beitrag von Dr. Wahlster um SmartWeb (~“mobiler Zugriff auf das semantische Web“), zum anderen um das Quaero-„Spaltprodukt“ Theseus, dessen Fokus entgegen Quaeros statistischem Auswertungsansatz auf semantischen Technologien liegt. Im Wesentlichen gingen die Informationen zu Theseus aber nicht über das hinaus, was nicht auch schon in einem Heise-Artikel stand (auch das Golf-Beispiel wurde genannt). Aufschlussreich fand ich auch die Folie Drei Ebenen von Markupsprachen im Web:
(1) Form = HTML; (2) Struktur = XML; (3) Inhalt = OWL (Web Ontology Language)
und die dazugehörige Gleichung Inhalt : Struktur : Form = 1 : n : m.

Danach folgte eine Diskussionsrunde zur Macht der Suche – Kampf in einem dynamischen Markt. Google (bzw. einer der Vertreter) war hier meines Empfindens nach sehr dominant, aber letztlich war Googles allgemeine Marktdominanz (Quasi-Monopol) ohnehin mal mehr, mal weniger direkt den ganzen Konferenzverlauf ein wichtiger Punkt (Titel einer Folie eines anderen Beitrages „Nur wer von Google gefunden wird, wird im Netz auch wahrgenommen“).

Der nächste Beitrag – Bedeutung von Suche im Telekommunikations- und IP-Geschäft – behandelte vor allem dieses Thema im Bezug auf das T-Online-Suchportal. Besonders interessant wäre dies sicher auch für die Gruppe des Projekt Strategien für die lokale Suche bei T-Online im nächsten Semester gewesen. Persönlich fand ich die Aussage interessant, dass Trends bei der Suche frühzeitig analysiert werden sollten. Hierbei wurde das Schnappi-Beispiel genannt, dass „Internet-intern“ lange vor dem richtigen (Medien)-Hype schon ein großer Erfolg war. Dieses Thema der Trendanalyse wurde später vor allem im Vortrag Was sucht der Mensch? von Dr. Höchstötter nochmal sehr deutlich aufgegriffen. Eine sehr verkürzte Darstellung gibt es bei Topic Flux. Primär ging es bei der ganzen Veranstaltung im wirtschaftliche Ausnutzung der Macht von Suchmaschinen. In diesem Falle hieße dass, das man auf solche Analysen mit dem Setzen entsprechender Kategorien und Hotspots auf seinem Portal reagiert oder auch auf sich abzeichnende Peaks mit Printangeboten reagiert. Im Verlauf des Vortrags kam bei mir dann noch die – möglicherweise eher absurde – Frage auf, ob eine solche Queryanalyse in OPACs nicht auch bei Bibliotheken zu Qualitätsverbesserungen oder auch für Erwerbungsentscheidungen genutzt werden könnte – zugegeben etwas wilde Idee, aber vielleicht würde sich ein kleines Brainstorming lohnen?

Der Vortrag Vertical Search – Neue Geschäftsmodelle für Verlage und ISPs hat mich lange etwas ratlos dastehen lassen. Dabei lässt sich der Begriff Vertical Search im Grunde recht einfach herleiten, wenn man vertikal als „spezialisiert“ interpretiert (gegenüber horizontal als „in die Breite“). Spezialisierte Suchmaschinen wären ja noch nicht so aufregend. Meines Verständnises nach ging es hierbei aber eher um spezialisierte (Unternehmens)-Portale, wobei insbesondere auch semantische Techniken zum Einsatz kommen. Diese allerdings nicht nach dem Open Domain-Ansatz, sondern eher in einem kleinen abgesteckten (besser „kontrollierbaren“) Teilbereich des Webs (eines Angebotes). Oder anderes Stichwort zur vertikalen Suche: Eingrenzung des Suchraumes. Da mit rein spielt dann schließlich natürlich auch Web 2.0 mit dem user generated content – nettes Beispiel übrigens die Seniorensuchmaschine Cranky. Sehr interessantes Beispiel für den „semantischen Teil“: die Firmensuchmaschine ZoomInfo (Info-Link).

Danach wurde es erst mal verlagsspezifischer mit dem Vortrag Überleben im digitalen Informationsmarkt Marktveränderung für Verlage (am Beispiel von Kress) und der folgenden Diskussion mit dem Thema Print vs. Online – Kannibalisierung oder Symbiose? Der Kressvortrag hat mir hinsichtlich seines Fazits gefallen:
(1) Testen, testen, testen und an den Nutzer denken; (2) Einfach sein und bleiben […]
Obwohl das eine sehr gesunde Einstellung ist, blieb – insbesondere nach der Diskussion – doch ein wenig der Eindruck, dass man dem Selbstverständnis nach einer „Raubtiermentalität“ (Kannibalen) ausgeliefert sei, andererseits aber doch auch eine gewisse Unbesorgtheit bezüglich der Zukunft der Print-Produkte herrschte. Allein stand ich mich diesem Eindruck jedenfalls nicht (wieso hörte ich danach blos den Witz von der Schnecke:
„Fragt ein Beamter den anderen ‚Na, du siehst aber lädiert aus‘. Antwort: ‚Ja ich hatte einen Unfall mit einer Schnecke‘. ‚Wie konnte denn das passieren? Ausgerutscht?‘. ‚Nein, sie hat sich hinterhältig auf dem Weg hierhin von hinten angeschlichen.'“
Welch eine Ironie (!), dass mir bei der Selbstdarstellung der Verlage (welche diesen Witz – in einer Pause – provozierte) auch ständig das Bild unserer hochanpassungsfähigen, zukunftsgerichteten Bibliotheken im Gedanken herumschwirrte. Trotzdem nochmal deutlich: das war mein nur Eindruck. Bei der Diskussion war auch ein Vertreter der Zeit beteiligt. Speziell zu Zeitschriften gab es vor kurzem bei Zapp einen sehr interessanten Beitrag, welcher aber nicht ganz dem Tenor dieser Diskussion entsprach – in dem online abrufbaren Beitrag Rasante Entwicklung – Wachsende Angebote im Online-Bereich der Zeitungen scheint mir die Gegenwartsanalyse nämlich etwas „präziser“.

Zwischen Kress und Diskussion gab es noch einen Vortrag von Dr. Wessling, welcher aber nicht im Programm auf der Euroforum-HP aufgeführt ist. Der Beitrag hatte das Thema Herausforderungen und Chancen für Verlage im digitalen Umbruch. Auf die – anschaulich präsentierten – Inhalte gehe ich hier nicht ein, da Herr Wessling sein eigener bester Schüler ist und sogar Videos seiner Vorträge online bereitstellt. Ein Fazit-Punkt sei trotzdem noch genannt, da er dem von Kress sehr änhlich ist: „Fachverlage müssen neues ausprobieren, schnell sein und Irrtümer zulassen“. Jetzt bin ich wirklich gespannt, ob ich auf dem Leipziger Kongress eine ähnlich gelagerte Aussage (natürlich für Bibliotheken) hören werde – oder wird es dort nur Selbstmitleid geben? 😉

Als nächstes folgte ein Beitrag von Google mit dem Thema Google – Erfolgskonzepte und Zukunftsstrategien. Tja, obwohl ein (sehr) dicken Ordner mit allen Folien der Vorträge ausgegeben wurde, lag an dieser Stelle nur ein Blatt mit dem Hinweis „Es gilt nur das gesprochene Wort“. Nun, besonders viele Notizen habe ich mir auch nicht gemacht, da doch viele Aussagen jetzt auch so neu nicht waren. Interessant war aber die Erwähnung des Long-Tail-Konzepts nach Chris Anderson (Anderson ausführlich dazu in Wired-Artikel The Long Tail). Im Kern ist die Aussage dieser These, dass Bestseller einfach zu finden und in großen Stückzahlen zu verkaufen sind (sozusagen der „Kopf“ sind. Der „lange Schwanz“ hingegen sind die Nischenprodukte, welche z.B. von Liebhabern gekauft werden. Das Potential der Suche liegt dann darin, dass diese Nischen gut erschlossen werden, dass also auch mit diesem „Kleinvieh“ Umsatz generiert wird – in der Gesamtheit sogar erheblich mehr als die Bestseller alleine es tun (also: Die Masse macht’s). Ich muss gestehen, dass ich den Vortrag sonst so genau nicht mehr erinnere, aber mein zweites Stichwort auf dem Zettel war schon sehr dominierend: Werbung. Wie aber das Stichwort zu O’Reilleys Rough Cuts Service mit dem Googel-Beitrag zusammenhängt, kriege ich nicht mehr zusammen. Warum soll ich aber blos Geld für eine sich ständig verändernde Preprint-Ausgabe eines Buches zahlen? Fällt vielleicht in die Kategorie „neues ausprobieren, schnell sein und Irrtümer zulassen“…

Danach folgte der bereits erwähnte Vortrag von Dr. Höchstötter und schließlich der lang erwartete Vortrag vom Exalead Mitbegründer und CEO Dr. Bourdoncle: Exalead – a different way to search. Suchmaschinenbetreiber scheinen nicht gerne etwas „handfestes“ zu Verfügung zu stellen und so gab es auch hier nur den Hinweis „Es gilt nur das gesprochene Wort“. Es war der letzte Beitrag nach etwa acht vorangegangenen Stunden und er wurde in Englisch gehalten. Das auf einmal etwas studienstimmung aufkam (viele verabschiedeten sich nach 15 Minuten aus dem Raum), habe ich jetzt einfach zur Wahrung meines Selbstwertgefühles darauf geschoben, dass ich nicht der einzige war, der Probleme hatte dem Beitrag zu folgen. Es lag sicher nicht am Englisch oder am Vortragsstil des Redners, aber manchmal war die Akkustik (es wurde sowohl bei Rednern, als auch bei Fragen, Mikrofone eingesetzt) nicht ganz optimal. Klingt wie eine Ausrede und ist es vielleicht auch (obwohl ich in der darauffolgenden Diskussion meine den leisen Satz gehört zu haben – er hatte gerade etwas gesagt und leicht, vom Publikum nicht reflektiert, gelacht – „Errm, is anybody listening at all?“. Vielleicht nur mein Phantasie… Im Wesentlichen wurde natürlich das Exalead-Konzept vorgestellt, wobei ein Grundgedanke hinter dem Refining wohl war, dass viele Suchen nach dem Prinzip „Discover by Accident“ verliefen. Ein Bibliothekar würde das vielleicht als Quick & Dirty-Recherche bezeichnen, bei der man sich den „richtigen“ Suchbegriffen durch Try and Error annähert. Das Refining minimiert zumindest den Error-Anteil naturgemäß schon recht wesentlich. An dieser Stelle kam mir auch der Gedanke an die Worte eine vorherigen Beitrags, in welchem (sinngemäß) die so bezeichnete „Starrheit von Datenbankmodellen“ dem Refining gegenübergestellt wurde. Einmal mehr „wilde“ Assoziationen zu Bibliotheksopacs (oder auch WorldCat)…
Ansonsten wurde auch auf die Monopolmacht von gewissen Suchmaschinen eingegangen, aber genaueres kann ich da aus genanntem Grund und sehr bedauerlicher Weise nicht zu sagen.

Mit der Diskussion schloss dann auch der erste Tag. Zu dem ebenfalls sehr spannenden zweiten Tag, werde ich morgen noch was sagen. Ich glaube die Länge dieses Eintrags überschreitet ohnehin schon die Belastbarkeit eines „Monitorlesers“. Insgesamt war es auf jedenf Fall ein sehr spannender, anregender aber auch unterhaltsamer Tag. Eine Frage, welcher diese Tag für mich offen gelassen hat, war, ob es den prototypischen Sucher gibt? Das Wort „Zielgruppe“fiel keinmal – es gab nur den/die Suchenden. Vielleicht war dieser Aspekt aber auch für alle Anwesenden bereits geklärt, da sie jeweils ihren eigenen Kontext „mitbrachten“…

Noch ein kleiner Kommentar: Namen habe ich nur sehr bedingt erwähnt (soweit sie nicht im Programm stehen), da auf der Teilnehmerliste explizit steht, dass diese nur zum persönlichen Gebrauch genutzt werden darf…

Feb 202007
 

Heute irgendwann entdeckte ich den Beitrag Verbesserte Google-Suche: Digger beim MBI Blog. Nachdem ich vor kurzem Exalead etwas unter die Lupe genommen habe, fand ich den Beitrag sehr spannend. Nach einem ersten Test (Account nach wenigen Stunden bekommen) fand ich die Exalead-Variante schon besser, aber das ist natürlich nur ein Ersteindruck.

Als Pen&Paper-Rollenspieler* (One Thing You Didn’t Know About Me ;)) ist mein erster Suchbegriff ohnehin immer D&D [2] (ggf. wäre auch DnD für Dungeons and Dragons korrekt). Nunja, das Ampersand (kaufmännische und?) ist natürlich ungünstig, aber trotzdem war Exalead da insgesamt überzeugender.

*…und nein, PC-Rollenspiel hat nichts mit (Fantasy)-Rollenspiel im klassischem Sinne zu tun! 😉

Feb 172007
 

Part I

Vor einem Weilchen habe ich mir einen 2GB-USB-Stick gekauft. Der Plan war, dass dort ja alle meine kleinen portablen Programme Platz finden sollten und noch viel Luft für sonstige Dateien bliebe. Umso verwundertert dann, als der Platz erheblich früher ausgereizt war (sein sollte). Die Lösung: Clustersize. Aus welchem Grund auch immer, kommen USB-Sticks meist mit FAT16 formatiert in die Hände des Kunden. Wieso das ein Problem ist erklärt der Artikel File systems 101: FAT schön:

Every FAT-based disk is broken down into a number of clusters, each containing a number of 512-byte disk sectors. Most file systems do not deal directly with the disk sectors, as this would require significant overhead. Instead, sectors are grouped into clusters, which can be anywhere from 2,048 bytes in size to 32,768 bytes in size (4 to 64 clusters). As disks grow larger, the cluster size increases, and, thus, the more disk sectors that are used per cluster. Cluster size directly impacts the maximum size of a disk. For example, if you take a 512-MB disk using FAT16, which can have only a maximum of 65,536 clusters, you are required to use a cluster size of at least 8K (524,288,000 bytes / 65,536 clusters = 8K cluster size). Another example (FAT16: 1 GB disk – 1,048,576,000 bytes / 65,536 clusters = 16K cluster size).
[…]
Cluster waste
(Often called „slack“) A file is stored using clusters, not using the size of a disk sector. So, suppose you have a disk that is broken up into 32 KB clusters and you save a file that is 33 KB in size. This file will require two full clusters, or a total of 64 KB of disk space, resulting in 31 KB of wasted space, or slack.

Also wird bei einem 2GB-Stick mit Fat16 ziemlich was „verbraten“, gerade weil bei mir dann auch sehr, sehr viele kleine Dateien darunter sind. Also der einfach Tipp: Im Arbeitsplatz auf den USB-Stick (Laufwerk) rechtsklicken und Formatieren wählen. FAT32 wird automatisch vorgeschlagen. Wer besonders experimentierfreudig ist, der kann auch unter der Kommandozeile (Start > Ausführen > cmd) mit dem Befehl format die Clustersizes genauer justieren (format /? für die Optionen).

Part 2

Eine andere Sache, die mir noch zu USB-Sticks einfällt, ist das nervige Entfernen des Sticks über Hardware sicher entfernen. Ich finde leider den Artikel nicht mehr, in welchem beschrieben wurde, warum das im Grunde nicht nötig ist (bei Windows XP mit SP2), aber der Ansatz war folgender: Es ist möglich, dass für Wechsellaufwerke der Cache aktiviert wird, d.h. alles geht etwas schneller. Standarmäßig ist dies bei XP allerdings deaktivert, d.h. Dateien werden sofort auf den Stick geschrieben. Wenn man also alles gespeichert und geschlossen hat, dann kann man auch ohne die x nervigen Klicks getrost den Stick ziehen – geht man die Schritte, dann wird man natürlich mit der bekannten aufschlusreichen Meldung darauf hingewiesen, dass man noch etwas offen hat.

Wer den Cache übrigens bei sich aktivieren kann, der kann dies im Gerätemanager für das Laufwerk aktivieren (es muss also eingestöpselt sein). Der Weg ist dann:

[Windows-Taste + Pause] > Hardware > Gerätemanager > Laufwerke > deinUsbLaufwerk > [Alt + Enter] > Richtlinien > Für Leistung optimieren

Da steht übrigens auch, dass man dann Hardware sicher entfernen nutzen soll.

Part 3

Dies wird man wohl immer nur an seinem eigenen Rechner tun und dort erhält der Stick in der Regel den gleichen Laufwerksbuchstaben. Also kann man sich z.b. deveject holen (z.B. bei JSI) und die Datei in den Windows-Ordner packen (dann muss man keine Path-Variable anpassen/anlegen). Auf den Desktop noch eine Batchdate, z.B. usbEject.bat, anlegen (neue Textdatei und einfach txt auf bat ändern). Dann noch die Zeile deveject -EjectDrive:“K:“ hinein, speichern und nun geht das Auswerfen etwas fixer.

Hmm, ob das irgendwen interessiert, der jemals diesen Blog lesen könnte? 😀

Feb 172007
 

Vor zwei Tagen veröffentliche Tagesschau.de ein Interview mit Benjamin Greschbach (unabhängiger allgemeiner Studierendenausschuss der Universität Freiburg). Die Beteiligung am Boykott ist (waren, je nach Uni) einfach zu gering.

Soweit mir für Hamburg bekannt ist, ist das Prinzip des Boykotts recht simpel. Studierende überweisen die Gebühren (500 EUR) auf ein, von den Astas organisierten, Treuhandkonto. Beteiligt sich etwa ein Drittel der „Gebührenpflichtigen“, dann wird das Geld nicht überwiesen. Der Gedanke dabei ist, dass eine so große Zahl nicht (sinnvoll) vom Studium ausgeschlossen werden kann. Kommt die benötigte Zahl nicht zusammen, dann gilt der Boykott als gescheitert und es wird innerhalb der Regelfrist überwiesen. (Ein wenig ausführlicher ist dies unter www.gebuehrenboykott.de für die Verwaltungsgebühren beschrieben.)

Mir scheint das Konzept einfach wie funktional zu sein. Und begründet zudem. Wenn ich nämlich höre – und das sei ganz eindeutig als Hören-Sagen deklariert – dass für die HAW die zugewiesenen Mittel schon entsprechend der erwarteten Einnahmen gekürzt wurden, dann erwarte ich beinah noch eher eine Verschlechterung der Studienbedingungen. Das Interview untermauert diese Annahme:

Greschbach: Das glaube ich nicht. Wir haben recherchiert, was mit den Geldern wirklich gemacht wird. […] Manche Institute bei uns haben nach der Einführung der Studiengebühren sogar weniger Geld als vorher, weil das Land so viele Mittel gestrichen hat.

Auf der Seite der Behörde für Wissenschaft und Forschung auf Hamburg.de ist das PDF Studiengebühren in Hamburg – ein Beitrag zu einem besseren Studium zu finden. Einige Zitate daraus:

An den staatlichen Hamburger Hochschulen (Universität Hamburg, Hochschule für angewandte Wissenschaften, Technische Universität Hamburg-Harburg, HafenCity Universität, Hochschule für bildende Künste sowie Hochschule für Musik und Theater) werden von allen Studierenden […] ab dem Sommersemester 2007 Studiengebühren in Höhe von 500 Euro pro Semester erhoben. Die bisher erhobenen Gebühren für Langzeitstudierende und Studierende die außerhalb der Metropolregion gemeldet sind, entfallen damit.

mit dem Ziel

Mit diesem zusätzlichen Geld schaffen die Hochschulen bessere Studienbedingungen: Intensivere Betreuung (z.B. durch mehr Tutorien und kleinere Lerngruppen), eine bessere Infrastruktur (z. B. mit längeren Bibliotheksöffnungszeiten, mehr Büchern und mehr PC-Arbeitsplätzen) und eine verbesserte räumliche Ausstattung sollen zu einem schnelleren und erfolgreicheren Studium beitragen.

unter der (Selbst)verpflichtung

Die Hochschulen sind gesetzlich verpflichtet, die erzielten Gebühreneinnahmen vollständig für ihre Aufgaben in Studium und Lehre einzusetzen.

Das klingt prinzipiell ja alles sehr schön. Wenn ich aber dann (ein Beispiel) betrachte, dass ich seit Beginn des Studiums immer auch an der HAW drucken konnte, seit etwa zwei Monaten aber kein Drucker (nun, es war ohnehin immer nur einer) mehr im entsprechendem Raum steht, dann vermute ich doch, dass ich die 500 EUR dann u.a. bezahle, damit ich wieder dort drucken kann. Aus bereits angeführerter Hören-Sagen-Quelle hieß es auch, dass ein Limit von 200 Seiten/Monat eingeführt werden soll.
Ums klar zu sagen: ja, eine ganze Menge Leute haben es mit dem Drucken übertrieben. Zum Beispiel wurden Handouts für einen ganzen Kurs gedruckt, statt einmal zu drucken und dann zu kopieren. Praktisch ist eine Kopie billiger als ein Ausdruck, allerdings gibt es keinen gebührenfreien Kopierer (doch den gibt es, aber auf die Möglichkeit für seminarrelevante Dinge den Kopierer auf der Verwaltungsebene nutzen zu dürfen, wird man auch höchstens durch „Mund-zu-Mund-Propaganda“ hingewiesen).
Auf der anderen Seite steht aber auch, dass mittlerweile immer mehr Unterlagen (die Mehrzahl) als PDF bereitgestellt werden, d.h. 200 Seiten kommen da schnell zusammen, wenn man die Sachen in den Seminaren verfügbar haben will – das darf man doch als prinzipiell vernünftig annehmen.

Sollte es so kommen (warum eigentlich Zweifel haben?), dann erhielte man allein in diesem Bereich unter Strich weniger als bisher für einen Aufpreis von 500 EUR. Zugegeben, das Beispiel wirkt möglicherweise etwas banal. Andererseits habe ich gerade dieses Semester erstaunt festgestellt, wie viele Leute keinen Drucker zu Hause haben oder gar noch über Modem ins Internet gehen. Ist es eigentlich zynisch, wenn ich mich dann frage, ob wir 2008 dann alle unseren RFID-Ausweis mit gespeicherten Druck- und Downloadkontigenten bekommen?

Hier in Hamburg wurde jedenfalls eine eigenartige Variante des Gebühreneinzugs gewählt. Die Forderung wird erst irgendwann nach Beginn des Semesters zugestellt werden – hat man dann mehr Zeit um auf eine evtl. erfolgreichere Boykott-Aktionen zu reagieren? Oder kann man bei einem zweiten Bescheid (erster wäre der mit den Unterlagen fürs Semester) nochmal Verwaltungsgebühren zusätzlich verlangen?

Nun, wir werden ja sehen, ob der Boykott erfolgreich sein wird.

Sollte dies nicht der Fall sein, dann wäre vielleicht folgendes eine interessante Überlgegung (für Hamburg). Im oben genannten Papier gibt es einen langen Abschnitt zur Finanzierung der Studiengebühren. In Hamburg soll es dafür die Möglichkeit eines Darlehens geben. Dort heißt es:

Jede und jeder darlehensberechtigte Studierende erhält ein Studiendarlehen zu gleichen Konditionen. Es wird keine Differenzierung zwischen den Studiengängen geben, d.h. Studierende in Studiengängen mit vermeintlich schlechteren Berufschancen werden nicht benachteiligt. Außerdem wird das Darlehen elternunabhängig vergeben. Damit muss die Einkommenssituation der Eltern nicht aufwendig nachgewiesen und geprüft werden. Und es ist keinerlei Bürgschaft von Eltern oder Verwandten beizubringen, um ein Hamburger Studiendarlehen zu erhalten. Es gilt: Wer ein Studium an den staatlichen Hamburger Hochschulen absolviert, ist kreditwürdig.

Der Darlehen ist elterunabhängig, flexible (d.h. es können pro Semester maximal 500 EUR aufgenommen werden, aber auch weniger) und hat einen garantierten Zinshöchstsatz von 7,5%. Besonders interessant ist aber die Karenzphase von 24 Monaten nach Studienabschluss. Da heißt es nämlich

Keine Rückzahlung bei keinem oder geringem Einkommen
Wer – auch nach Ablauf der Karenzphase – (noch) kein Einkommen erzielt, muss auch keine Rückzahlung leisten. Mehr noch: Die Rückzahlungsplicht wird erst ab einem Nettojahreseinkommen von 12.720 Euro für Alleinstehende einsetzen. Und auch der Familienstand wird berücksichtigt: Eine Familie mit zwei Kindern – bei der die Darlehennehmerin oder der Darlehensnehmer Alleinverdiener/in ist – unterliegt erst ab 28.920 Euro Nettojahreseinkommen (2.410 Euro monatlich) der Rückzahlungsplicht.

Na, da brauch ich ja nur zwei Kinder und einen Anstellung als Bibliothekar (mal das Gehalt beim – ziemlich guten – Berufbild Bibliothkar [monster.de] zugrundegelegt)…

Hui, ich glaub der Beitrag ist an ein paar Stellen ein wenig zynisch oder ironisierend geraten 🙂

UPDATE 21.02.07: Interessant auch der Spieglartikel Studiengebühren werden zweckentfremdet (mit Gebührenkarte nach Ländern) und etwas weniger direkt der Artikel Alarm aus den FH-Bibliotheken auf oberpfalz.net [via netbib].

UPDATE 2 23.02.2007:  Keine Resignation [19.02.07] und Verspieltes Vertrauen [21.02.07] (jeweils Zeit-Online)

 

 

Feb 172007
 

Auf Archivalia bin ich gerade auf den Beitrag EU will Open Access unterstützen gestoßen. Die dort genannte Mitteilung der EU-Kommission (Mitteilung der Kommission an das Europäische Parlament, den Rat und den Europäischen Wirtschafts- und Sozialausschuss über wissenschaftliche Informationen im Digitalzeitalter: Zugang, Verbreitung und Bewahrung [COM(2007) 56 (vorläufig)]) findet man auch unter den Press Releases von Europa.eu (man kann dort auch die englische Version erhalten. Da es etwas „fummelig“ ist, hier die Direktlinks zu den PDFs: DE, EN).

Das Papier faßt, dem Titel entsprechend, die Bedingungen, Begründungen und Position für (oder wider bei den Verlagen) Open Access zusammen. Die Mitteilung schließt mit dem Satz:

Die Kommission fordert das Europäische Parlament und den Rat auf, über die relevanten Sachverhalte auf der Grundlage dieser Mitteilung zu beraten.

Ob des Titels ist dieser Satz ja beinah selbstverständlich. Jetzt müsst ich nur wissen, wie verbindliche eine solche Forderung ist…
Peter Suber kommentiert die Mitteillung unter der Newsmeldung The EC Communication on OA.

Auch habe ich mich gefragt, was nun aus der Petition for guaranteed public access to publicly-funded research results geworden ist. Mittlerweile sind dortimmerhin 21382 Unterschriften zusammengekommen (seit 17-01-2007). Auch dazu findet sich ein Zwischenstand bei Herrn Suber: 20,000+ signatures for OA presented to the EC. Wie dem PS zu entnehmen, macht es weiterhin Sinn die Petition zu unterschreiben (sofern nicht schon geschehen).

(Die Links zu den OA-News von Peter Suber sind Direktlinks zu den Beiträgen. Bei fast 400 KB der  Seite kann es aber etwas dauern, bis zum richtigen Punkt gesprungen wird.)

Feb 152007
 

Seitdem ich einen Festplattenrekorder habe, werden einige Sendungen erst ein ganzes Weilchen nach Ausstrahlung angeschaut. Eine davon, und jene wird zufälliger Weise heute Nacht (morgen)  wiederholt, ist:

Fr, 16. Feb um 01:45 auf Arte:
RFID – Die smarte Revolution: Wie ein Chip die Welt verändert (Dokumentation von Henning Burk)

Der Link führt zur Arte-Seite zur Sendung. Mir hat die Dokumentation gut gefallen und die Darstellung der RFID-Bibliothek München (Pasing + RFID bei Google bringt mehr; alternativ auch bei netbib einiges dazu). Das das soweit gediehen ist, ist mir bisher irgendwie entgangen.

Wer auf Bilder und Ton verzichten kann, der kann auch hier kurz den Abschnitt zur Bibliothek nachlesen:

„[…] Je weiter die Reichweite für die gefunkten Daten sein soll, desto größer muss auch die Antenne werden. Eine geringe Reichweite von 2m genügt allerdings schon, um Betriebe wie die Münchener Stadtbibliotheken vollständig zu automatisieren. Seit 2006 kann man hier Bücher jederzeit zurückgeben, auch wenn die Bibliothek schon geschlossen ist. Das System erkennt sie an ihren Tags und die steuern die Bücher automatisch ins jeweilige Körbchen. 5 Mio. Euro kostet die Investition in das größte europäische RFID-Projekt der Bibliotheksbranche. Sie wurde notwendig um weitere Bibliotheksschließungen zu vermeiden. Jetzt kann reichlich Personal eingespart werden. Der Kunde verbucht das Ausleihen und Zurückgeben selbst. Er legt seine Bücher auf ein Lesegerät, einzeln oder im Pult, und sofort sind alle von der Datenbank erfaßt. Hinzu kommt eine verbesserte Sicherung der Bestände – ein Nebeneffekt der RFID-Technologie. Diebe haben in den neuen Bibliotheken keine Chance, die Kontrolle am Ausgang funktioniert hunderprozentig. […] „

Feb 122007
 

OpenCollab ist ein OpenSource-Projektmanagementsystem. Das macht einen wirklich guten Ersteindruck.

„activeCollab is an easy to use, web based, open source collaboration and project management tool. Set up an environment where you, your team and your clients can collaborate on active projects using a set of simple, functional tools. 100% free!“

Installieren muss man es auf seinem eigenen Webserver, aber das geht in einer Minute von der Hand. Wer es schnell mal testen will, der sei auf die Installationsanleitung für den Uniformserver (wirklich geniale USB-fähige Version eines Apache-/PHP/MySQL-Servers mit PHPMyAdmin, Perl etc., welche ich seit langer Zeit für solche Dinge einsetze) verwiesen.

Edit: Wo ich gerade noch durch die Kommentare dort scrolle, fällt mir ein Problem ein, dass ich zu Beginn mit PHPMyAdmin unter dem Uniformserver hatte: Die deutschen Sprachdateien (sollte man Deutsch wollen) fehlen und entsprechend wird ein Fehler produziert. Die Sprachdateien gibt es hier (direkt: german-iso-8859-15.inc.php; german-utf-8.inc.php). Die Dateien müssen nach x:\uniformserver\diskw\home\admin\www\phpMyAdmin\lang

Feb 122007
 

Jane Hart („Learning & Performance Technologist“) hat mit ihrer Directory of Free E-Learning Tools eine sehr interessante Übersicht über freie E-Learning Tools aufgebaut. Schön finde ich auch ihre Übersicht Choosing and Using Free E-Learning Tools, bei der (recht) übersichtlich dargestellt wird, wann was sinnvoll eingesetzt wird (Word, Wikis, Blogs, Foren, Podcasts…). Da kann man viel interessantes finden…

Rein auf Web 2-nullige Anwendungen ist die Best Web 2.0 Software of 2006-Übersicht von Dion Hinchcliffe auch schön (Verweise darauf gab’s aber schon in diversen Blogs).

So, ich werd jetzt mal ein wenig das Soho Office (und all die anderen schönen Sachen dort) testen – soweit ist der Writer schon ziemlich beeindruckend. Mal sehen, ob ich rausfinde, wie man da nun ein Inhaltsverzeichnis generieren läßt…