Blogs, Netz, E-Books. Aktuelle Anmerkungen.

Ben Kaden / @bkaden

Wie die Frequenz, in der in diesem Weblog Beiträge hineingestellt werden, zeigt, ist die Form eines solchen Begleitmediums selbst zu einem Seminar „Elektronisches Publizieren“ weniger optimal, als man zunächst vielleicht meint.

Es gibt verschiedene Gründe dafür und jeder ist akzeptabel. In der Hauptsache hakelt es es bei der Ressource Zeit. Der Dozent (also ich) schreibt, bloggt und kumuliert, wenn überhaupt, eher noch auf anderen Plattformen. Gerade Tumblr erweist sich für flüchtige Zwischendurchhinweise als erstaunlich tauglich. (vgl. zum Thema auch diesen Beitrag im LIBREAS-Weblog) Die Studierenden als Hauptzielgruppe dagegen schreiben Bachelor-Arbeiten, manche bereits Bewerbungen und hoffentlich alle den einen Text, den der Dozent ihnen als prüfungsrelevante Leistung abverlangt. Da bleibt für ein Zusatzengagement auf dieser Plattform wenig Spielraum.

Dass das Medium Weblog im Lebensalltag und auch im Social-Web-Alltag von Studierenden der Bibliothekswissenschaft eine nachgeordnete Rolle spielt – und zwar im Schnitt vermutlich eine weitaus kleinere als das Medium des gedruckten Buches – ist noch aus anderem Anlass so erstaunlich wie nachvollziehbar. Insgesamt scheint es nämlich, als hätten Blogs etwa zu dem Zeitpunkt, zu dem die Tageszeitungen in ihren Online-Formaten begannen, Gastblogger einzuladen, ihren Höhepunkt als Medienform überschritten. Das Medium Blog ist nicht mehr neu. Es ist eines von einer Reihe von Standardanwendungen im Web und für die aktuelle Bachelorgeneration so selbstverständlich und reizvoll wie eine Textverarbeitungssoftware für den Desktop. Die großen Netz-Debatten finden in Blogs ihr Echo, werden dagegen aber nur sehr selten von diesen wirklich angeregt. Die Leitpresse widmet Internet-Themen mittlerweile soviel Aufmerksamkeit, dass es zuweilen schon einen Tick zuviel ist.

Seit der Professionalisierung des Bloggens stehen also die Postings der zuvor vor allem dem wilden Denken und queren Schreiben verpflichteten Amateurblogger in Konkurrenz zu oft weitaus eingängigeren und handwerklich besser gezimmerten Texten. Ein großer Teil der Blogelite rutschte sogar gleich weiter auf diese Plattformen und damit in den bodenständigen Online-Journalismus. Einige wenige und sehr populäre Weblogs schafften ebenfalls den Schritt zu einer Marke und einem Modell, das wenigstens kleine Einnahmen generiert. Refinanzierungswerkzeuge wie Flattr rechneten sich dagegen für die Masse kaum. Schließlich wanderte auch noch die Aufmerksamkeit des Publikums zu den kürzeren, schnelleren Verweisweismedien ab. Und sogar das der eigenen Peers.

In einem vielzitierten Kommentar analysiert die (u.a.) Bloggerin Suw Charman-Anderson diese Entwicklung am eigenen Beispiel:

„I wonder too if my lack of blog writing is related to a lack of blog reading. My RSS reader became so clogged that I feared it, wouldn’t open it, and ultimately, abandoned it. And then Twitter and now Zite arrived to provide me with random rewards for clicking and swiping, showing me stuff that I had no idea I wanted to read. Instead of following the writings of a small cadre of smart, lovely people whom I am proud to call my friends, I read random crap off the internet that some algorithm thinks I might be interested in, or that is recommended by the people I follow on Twitter.“ (Quelle)

Das Rezeptionsverhalten im Social Web folgt dem Prinzip der schnellen Sprünge, wobei erstaunlich ist, wie schnell sich die eigene Navigationspraxis daran anpasst und man bisweilen enttäuscht auf den Zite-Stream blickt, weil in der vergangenen halben Stunde nichts von Relevanz hineingetröpfelt ist. Das Web produziert selbstverständlich unfassbare Mengen an Inhalten. Aber je tiefer man hineinwühlt und sich selbst ein Rezeptionsprofil erarbeitet, desto ernüchterter ist man oft angesichts der Oberflächlichkeit und des Anteils an Rauschen und Redundanz. Nur in seltenen Fällen schaffen es Blogs wirklich, ihre Stärken, nämlich Schnellligkeit und Expertise, überzeugend auszuspielen. Wahrscheinlich war dies bereits immer so. Aber heute fällt es doch mehr auf, da die massenmedialen Multiplikatoren hier ihrer Rolle gerecht werden – wenn es solide läuft. Und wenn es nicht solide läuft, entdeckt man beim Quertreiben durch das Web recht bald, bei welchem Blogger welcher Onlineredakteur den jeweiligen Impuls für seinen Artikel entdeckt hat.

So bleibt am Ende die Lektüre einer gedruckten Kulturzeitschrift häufig ersprießlicher, als ein Nachmittag in der Blogosphäre. Und da mir dieses Gefühl so vertraut ist, kann ich den Studierenden auch nicht verübeln, dass sie sich für ihren Informationsbedarf anderen Kanälen zuwenden.

Abgesehen davon erscheint die Webnutzung nach den Snowden-Enthüllungen bekanntlich auch aus anderen Gründen zunehmend belastet und suspekt. Ein fast erschreckend geerdeter Sascha Lobo schreibt heute geläutert im Feuilleton der Frankfurter Allgemeinen Zeitung von der digitalen Kränkung des Menschen, die natürlich vor allem im üblichen Selbstüberhöhungsstil der digitalen Avantgarde (von gestern) als Kränkung des eigenen Weboptimismus interpretiert wird:

„Die positiven Versprechungen des Internets, Demokratisierung, soziale Vernetzung, ein digitaler Freigarten der Bildung und Kultur – sie waren ohnehin immer nur Möglichkeiten. Mit dem Netz hatte sich der bisher vielfältigste, zugänglichste Möglichkeitsraum aufgetan, stets schwang die Utopie einer besseren Welt mit. Daran hat sich wenig geändert – technisch. Die fast vollständige Durchdringung der digitalen Sphäre durch Spähapparate aber hat den famosen Jahrtausendmarkt der Möglichkeiten in ein Spielfeld von Gnaden der NSA verwandelt. Denn die Überwachung ist nur Mittel zum Zweck der Kontrolle, der Machtausübung. Die vierte, digitale Kränkung der Menschheit: Was so viele für ein Instrument der Freiheit hielten, wird aufs Effektivste für das exakte Gegenteil benutzt.“

Dabei hätte die Vorhut der Netzkultur die grundsätzlich Janusköpfigkeit technischer Innovationen, die Gefahr einer Ideologisierung von Technologien sowie das jedem utopischen Traum eingeschriebene Desillusionierungspotential schon aus der Geschichte des 20. Jahrhunderts ableiten können und eigentlich müssen. Man muss dafür nicht einmal im Jahrbuch für Kommunismusforschung nachlesen. Schon die Wikipedia ist diesbezüglich zureichend.

In der taz versucht Maximilian Probst dagegen eine theoretisch grundierte Auseinandersetzung mit den Kontrollprinzipien der Digitalität und schlussfolgert:

„Sobald ich etwas ins Netz stelle, stelle ich es einer Bewertung, Prüfung und Beurteilung anheim, die meistens die binäre Struktur reproduzieren, auf der die Digitalisierung beruht: hot or not, Daumen rauf, Daumen runter, retweeten oder lassen, ein Vorgang, der anschließend beziffert wird und sich auswerten lässt und zwar auf einer doppelten Ebene. Einmal ist es das Individuum, was für jeden Tweet, jeden Post, jeden Kommentar durchs Feedback eine Zensur erhält und damit nie der Schule entwächst, weil sie in die Gesellschaft eingesickert ist. Zum anderen wird jede Information auch von den Betreibern der sozialen Netzwerke selbst klassifiziert, berechnet, verwertet. Big Data, das Rechnen mit dem gewaltigen Informationsmaterial des Internets, schafft und zentriert ein Wissen über die Menschen, das sich selbst wieder perfekt zur Lenkung und Steuerung des Menschen verwenden lässt.

Man könnte das aufdröseln und von einer Kontrolle auf vier Ebenen sprechen. Unterste Ebene: das Individuum kontrolliert sich selbst. Zweite Ebene: das sich selbst kontrollierende Individuum kontrolliert andere Individuen. Dritte Ebene: Die Technologie-Betreiber kontrollieren die sich gegenseitig kontrollierenden Individuen. Da ist es fast schon egal, dass es noch eine vierte Ebene gibt, einen Hyperüberwacher, die NSA, die Geheimdienste, die alles, selbst noch die Betreiber und Besitzer technologischer Geräte und Netze überwachen und kontrollieren.“

Es ist also spürbar ungemütlich geworden im Web. Aber eventuell ist auch das nur eine Frage der Gewöhnung. Denn bisher sieht man neben aller Empörung nur sehr wenige konkrete Schritte Richtung Enthaltsamkeit oder Ausstieg. Denn dies käme mit sozialer Isolation gleich beziehungsweise ist häufig sogar unmöglich.

Einen positiven Effekt dieser kalten Erkenntnisdusche gibt es allerdings schon: die unkritische Innovationshörigkeit gegenüber allem Digitalen dürfte erst einmal dahin sein und kein Industrievertreter kann – hoffentlich – wenigstens in der näheren Zukunft glaubhaft verkünden, dass sein Produkt, sein Geschäftsmodell und seine Technologie alternativlos und überhaupt synonym mit der Zukunft seien.

Das gilt auch für das elektronische Publizieren, das Ende des Buches und den Siegeszug des E-Books. Derzeit geht man davon aus, dass sich (in  Nordamerika) E-Books bei einem Anteil von 25 % am Buchmarkt stabilisieren werden. Die Wachstumskurve scheint sich jedenfalls abzuflachen und beispielsweise in Kanada schrumpfte im Jahr 2013 der Anteil der Verkäufe sogar. (Quelle zu diesen Angaben)

Bekanntlich sind Prognosen ein wackliges Unterfangen und meine häufiger formulierte These (Vermutung), dass in digitalen Hypertextumgebungen andere Textformen interessanter und zukunftsträchtiger sind, als emulierte Printtexte (vgl. dazu auch hier) kann sich durchaus als verkehrt erweisen. Die beiden Hauptgrößen im Geschäft des elektronischen Publizierens, die Anbieter und die Abnehmer, erweisen sich bei tieferer Differenzierung als schwer berechenbare Größen. Die Musikindustrie, die einen erheblichen Digitalisierungsvorsprung hatte, ist strukturgemäß kein ideales Benchmark und selbst in ihr hat der Absatz der dominanten Analogform, die Schallplatte, derzeit höhere Wachstumsraten als die E-Books aufzuweisen, während die Zahl der verkauften Downloads, offensichtlich dank der boomenden Streaming-Angebote, sinkt.

Im Gegensatz zur Schallplatte hat das Buch nun sogar noch einen zentralen Vorteil: Es benötigt keine zusätzliche Wiedergabetechnologie (bei Tageslicht). Für den Verleger Gerhard Steidl ist es daher eine geradezu perfekte Angelegenheit, wie er in einem aktuellen Interview in der WELT beschreibt:

„Dennoch haben Sie kürzlich in einer Rede von einem „Kulturkrieg“ gesprochen, der angezettelt werde, um die analoge und die digitale Welt gegeneinander auszuspielen.

Ich meinte damit die Hard- und Software-Industrie, die alles daransetzt, ihre Produkte zu verkaufen. Auf den ersten Blick ist ein digitales Buch billiger, aber Aufbewahrung und Updates kosten Geld, noch dazu kann man es kaum mit anderen teilen. Ein Buch dagegen verursacht nie wieder Folgekosten. Bücher sind so genial wie Bananen, die perfekte Verpackung zur Aufbewahrung wird mitgeliefert, man braucht keine Hilfsmittel, um sie zu konsumieren.“

Selbstverständlich stellen sich auch hier sofort eine Reihe von Einwänden auf, denn es fließt in der Argumentation so manches zusammen, was nicht ganz zusammen passt. Aber da diese Dekonstruktion eine dankbare Eröffnung für die nächste Seminarsitzung darstellt, will ich darauf an dieser Stelle nicht weiter eingehen.

(Berlin, 13.01.2014)

codeX statt e-book? Anmerkungen zu einem Vorschlag von Ed Finn und Joey Eschrich

von Ben Kaden

„Neurological effects, different types of media, totally new reading habits—just a few reasons why e-reading is a fundamentally different experience than curling up with a dead-tree book. Print books are a highly refined technology that isn’t going anywhere soon, but there are ways in which the digital is superior to the old-fangled, and vice versa: They’re horses of different colors.“

beschreiben Ed Finn und Joey Eschrich in einem rasanten Text auf Slate und galoppieren mit diesem Ritt über die Rossbreiten der Textabbildung auf das Problem zu, dass das Wort „book“ auch als Metapher für elektronische Texte nicht unbedingt das beste sprachliche Vehikel ist. Das ist nicht ganz neu, denn beispielsweise in einem Beitrag aus der Zeitschrift Buch und Bibliothek aus dem Sommer 2008 findet man folgende, für Diskussion weitgehend folgenlos gebliebene Aussage:

„Das book in „E-Book“ ist nur ein kurzes Wort, erzwingt aber eine folgenreiche Verengung der Wahrnehmung. Während journal [wie in e-journal] auf die Erscheinungshäufigkeit rekurriert und daher auch in elektronischen Räumen eine gewisse Berechtigung findet, ist das book in einer äußeren Form begründet, die sich in elektronischen Kommunikationsräumen nicht findet.“ (Ben Kaden: Das ewig alte Medium. In: BuB, 7/8 2008, S. 562f. ; PDF der Ausgabe)

Die Autoren auf Slate schlagen als alternative und treffendere Bezeichnung Codex vor. Die Brücke zeigt zur dieser etwas ungewöhnlich erscheinenden Wahl zeigt sich aus der Verbindung zu Code. Das De/Kodieren ist nämlich das Zentralelement des Lesens im Digitalen:

„The things we’ll be reading in the future will not only involve a lot of programming; they’ll also require readers to decode complex, multilayered experiences and encode their own ideas as contributions in a variety of creative ways. Since standard printed books are technically codices, we propose (with significantly more trepidation) to distinguish our variant with one of those annoying midword capitals: codeX, to remind us that these new things involve experience, experimentation, expostulation … you know, all those X things.“

Dieser Ausblick auf eine American Post-Bookhistory X ist ziemlich ernst gemeint. Ob sie auch breitentauglich sein kann, wird sich zeigen. Vielleicht ist es ja auch eine typische kontinentaleuropäische Skepsis, die dem Teilen der Begeisterung über die Variante codeX, die mit einer gewohnten neuweltlichen Aufbruchsemphase zum Ende des Textes verkündet wird, im Weg steht:

„From social reading platforms like Medium to digital pop-up books like 2012’s Between Page and Screen, we’re already building the future of reading, and there’s no going back. So let’s agree on a new term and stop pretending these utterly new ways of reading are anything like the singular and lovely experience of thumbing through a printed book.“

Im inhaltlichen Kern stimme ich dem erwartungsgemäß für E-Texte völlig zu. Das „there’s no going back“ halte ich dagegen für unsinnig, denn nur weil  Ed Finn und Joey Eschrich sich nicht mehr länger als 15 Minuten mit einem Text zu befassen in der Lage sind (wie sie eingangs beschreiben), muss das kein Standardwert für den Rest der Lesekultur sein. Vielmehr hätten Sie gerade auf der Frankfurter Buchmesse die friedliche Koexistenz diverser Lesepraxen leicht zur Kenntnis nehmen können. Mindestens so unpassend wie die Verwendung der Buch-Metapher für Digital- bzw. Hypertexte erscheint angesichts vielfältiger Zugänge zu Text das Bedürfnis mit flotter Rhetorik seine eigenen Claims als einzig sinnvoll verkaufen zu wollen. Ein neuer Ausdruck wäre sicher schön. Aber codeX erscheint auch mit dem Kodierungs-Bezug bestenfalls als Markenbezeichnung brauchbar.

Die Zeitung als Schleusenwart und ein Märchen aus Greifswald

Ein Kommentar von Ben Kaden

„[…] so gilt in ganz Deutschland (und in der Welt?): Geredet wird über das, was in der Zeitung steht. Die zahllosen Foren, Blogs oder Kommentare im weltweiten Netz sind oft lediglich Abziehbilder jener Berichte, welche die Printmedien gedruckt haben – entweder weil die Zeitungen sie ohnehin einfach ins Netz stellen oder weil sich andere darauf beziehen.“

behauptet der FAZ-Redakteur Reinhard Müller in einem Leitartikel in der Montagsausgabe eben der Frankfurter Allgemeinen Zeitung. Für das (informelle) elektronische Publizieren in den interaktionsgerichteten Medien würde dies bedeuten, dass es genau der klassische Zeitungsjournalismus ist, der die Agenda setzt. Allerdings ist das ja auch seine Aufgabe. Immerhin wird Reinhard Müller dafür bezahlt, sich so zu seinem Metier zu äußern, der Kommentator zum Beitrag auf faz.net dagegen mutmaßlich nicht. Von ihm eine identische Professionalität zu erwarten, wäre absurd. Unklar und eigentlich auch unprofessionell ist es, wenn der FAZ-Redakteur aus diesem natürlichen Kompetenzgefälle einen Vorwurf strickt.

Nun stimmt der Aspekt des Agenda-Settings zweifellos für dieses Posting. Die Frage ist allerdings, ob diese Richtung zwangsläufig derart einbahnstraßenhaft sein muss. Reinhard Müller navigiert mit seinem „oft“ erwartbar bequem im Ungefähren und wahrscheinlich in der Tat auf der für ihn richtigen Seite. Andererseits beschrieb Stefan Niggemeier fast zeitgleich in der gleichen Zeitung, wie sich der Impuls auch in umgekehrter Richtung seinen Weg bahnt:

„Wer sich für die alltäglichen Gedanken und Erlebnisse zum Beispiel von Boris Becker interessiert, kann diese zwar auch gleich selbst auf Twitter verfolgen, und wer sich nicht dafür interessiert, wird das vermutlich auch dann nicht tun, wenn sie später in der Zeitung stehen. Aber Journalisten erbringen immerhin die Dienstleistung, aus der gewaltigen Zahl von Nichtigkeiten diejenigen herauszufiltern, die Potential haben. Twitternachrichten sind ein Rohstoff, aus dem sich Dramen machen lassen.“

Wer die Frankfurter Allgemeine Zeitung oder auch andere Titel aus dem Spektrum der so genannten Qualitätszeitungen liest, weiß natürlich, dass nicht nur die BILD sehr gern Online-First-Inhalte aus allen möglichen Quellen auswertet, zusammenträgt und eine Story daraus macht. Gerade bei so genannten „Developing Stories“ kommt keine Redaktion bei der Berichterstattung ohne das Dauermonitoring Sozialer Internetnetzwerke aus.

Insofern macht es sich Reinhard Müller schon sehr einfach mit seinem digitalen Weltbild, wobei er offensichtlich vor allem eine Art Angriff auf das Modell der deutschen Huffington Post (und den öffentlich-rechtlichen Rundfunk) fährt. Dabei erachtet er es für notwendig, die eigene Form des Journalismus gegenüber allem Digitalen mit Nachdruck aufzuwerten, um damit die Rolle als „Schleusenwärter im Informationszeitalter“ abzusichern. Dass er den angestaubten Begriff des „Informationszeitalters“ (Hochzeit ca. 1997) und den sehr traditionellen Nischenberuf des Schleusenwärters herausholt, um die Bedeutung der Zeitung im fortschreitenden 21. Jahrhundert zu beschreiben, verleiht dem Text eine Ausstrahlung, die dem Anliegen der Argumentation nicht unbedingt zuträglich ist.

Darüberhinaus ist die in den Artikel eingebettete These, dass guter Journalismus von der Druckausgabe abhängt und das Internet per se eine rechtloses Tummelplatz der Unkultur darstellt, ebenfalls etwas, was man im Jahr 2013 nicht auf der Titelseite eines Mediums erwartet hätte, das mit Aktualität und Reflexion sein Geld verdient. Wenn der Artikel dann auf faz.net erscheint, segelt er bereits nah am Selbstwiderspruch und kann eigentlich nur noch als – ziemlich ungelenke – Provokation verstanden werden.

Natürlich sind Zeitungen bzw. auch Zeitschriften Filter. Und im Internet gibt es zahllose Beispiele dafür, wie sich diese Filterfunktion problemlos in digitale Kommunikationsräume übertragen lässt. Natürlich haben Menschen eine andere Beziehung zum Papier als zum Screen. Das ändert nichts daran, dass sich auch auf dem Papier sehr vieles abgebildet findet, dessen intellektuelle Höhenlinie sich nur geringfügig vom durchschnittlichen Normallnull auf Twitter abhebt. Die inhaltliche Qualität ist nicht unmittelbar an das Material seiner Wiedergabe gekoppelt. Es ist nicht nachvollziehbar, wieso also Reinhard Müller auf diesen Aspekt derart abzielt. Denn selbst mit viel Fantasie lässt sich keine Zielgruppe bestimmen, die für eine solche unsinnige Kopplung anfällig wäre. Schon gar nicht unter der Leserschaft der FAZ.

Das Hauptproblem jedoch übergeht Reinhard Müller bei seiner Spiegelfechterei, die wie aus einem anderen Web-Jahrhundert anmutet. Dass Problem für die Zeitungen ist keines der journalistischen Qualität. Sondern eines des Absatzes. Ob man den jedoch dadurch rettet, dass man sich wie ein Marktschreier aufführt, der nicht nur den (vermeintlichen) Konkurrenten vorwirft, er würde Obst aus zweiter Hand verkaufen, sondern dessen Kunden auch noch fehlende Etikette vorwirft, ist eine Frage, die man hoffentlich auch in den Redaktionsräumen der FAZ überdenkt. Wenn die Frankfurter Allgemeine Zeitung als relevant erachtet wird, wird sie als Produkt verkaufbar. Wenn ihre Kunden die Printausgabe als die von ihnen gewünschte Form ansehen und den Preis für angemessen halten, dann werden sie das Papier auch erwerben. Relevanz und Preis sind gemeinhin die Stellschrauben, an denen man justieren kann. Die Argumentation des Leitartikels arbeitet dagegen mit Märchen und wenig stichhaltigen Behauptungen über das bzw. ein paar naiven Ressentiments zum „Netz“, was auch immer das in dieser abstrakten Fassung sein mag.

Schließlich noch eine Anmerkung zu Reinhard Müllers fabelhafter Eröffnung:

„Ein wahres Märchen aus der alten Welt: In Greifswald waren kürzlich offenbar alle Exemplare dieser Zeitung ausverkauft. Die Hansestadt hatte nämlich die Staatsrechtslehrer auf ihrer Jahrestagung zu Gast, und offenbar wollten die etwa 200 versammelten Professoren und Privatdozenten – trotz Abonnements und mobiler und fester Internetanschlüsse – auf ihre tägliche gedruckte Stammlektüre nicht verzichten.“

Wer häufiger in ostdeutschen Klein- und Mittelstädten, zu denen auch Greifswald gehört, unterwegs ist, der weiß, dass sich die dortigen Zeitschriftenhändler nicht wie ihre Kollegen zum Beispiel im Rhein-Main-Gebiet mit 50er Stapeln der FAZ ausstatten. Denn sowohl statistisch wie auch aus der Alltagserfahrung belegbar lesen die Ostdeutschen im Vergleich weniger Zeitung also auch weniger Print und noch weniger eine Tageszeitung, die EUR 2,20 pro Ausgabe kostet. Die Händler bestellen sich also generell eine Menge nach dem durchschnittlich zu erwartenden Verkauf. Selbst in der Universitätsstadt Greifswald liegen daher nicht allzu viele Exemplare parat, obwohl sich der kleine Zeitungsladen am Bahnhof redlich müht. Es braucht daher nicht einmal 200 Staatsrechtler, sondern vielleicht (optimistisch geschätzt) 15 bis 20 bis zum Ausverkauf. Und ich habe schon Läden in Mecklenburg-Vorpommern erlebt, bei dem ein einzelner durchreisender Tourist ausreichte, um der FAZ für diesen Tag ein „vergriffen“ anzuheften.

Das Buch als bequemes Handelsgut, am Ursprung von Amazon

Da wir im Seminar auch das Thema Amazon und seine Rolle auf dem Markt des E-Publishing beleuchten wollen, empfiehlt auch ein Blick auf die Genese dieser Zentralfigur des E-Book-Marktes. Sicher wäre es schön, das in der vergangenen Woche erschienene Buch von Brad Stone über den Allesverkäufer, so das maßgebliche Titelstichwort, nach entsprechenden Stellen auszuwerten. Die Besprechung von Thomas Thiel in der Frankfurter Allgemeinen Zeitung stellt schon einmal einen Aspekt zum Unternehmensgründer Jeff Bezos heraus:

„Dass sein Aufstieg mit dem Buch begann, ist kein Ausdruck von Bibliophilie. Bezos wollte schon immer alles verkaufen. Frei von Verfallsdaten und technischen Fehlern schien ihm das Buch einfach der bequemste Gegenstand. Als ihm Anfang der neunziger Jahre die Wachstumsquoten des Internets vorlagen, gab er seinen hochdotierten Posten als Hedgefonds-Manager auf und zog in Seattle eine Garagenfirma auf.“ (Hervorhebung von mir)

Diese Waren-orientierte Sicht deckt sich übrigens ganz gut mit einer Aussage des ehemaligen Vorstandsvorsitzenden der Bertelsmann AG, der zur Übernahme dieses Postens 2008 – zugleich in gewisser Weise der zeitliche Höhepunkt der hysterischen Ausbrüche in der E-Book-Debatte – ziemlich sachlich meinte: „Das Buch ist ein Produkt, und als solches ist es zu verkaufen.“ (vgl. eine Annotation dazu aus dem Mai 2008)

Das Amazon freilich weitaus mehr wurde als ein hocheffektive Buchveräußerungsmaschine, zeigt offensichtlich auch das Buch von Brad Stone, von dem Thomas Thiel in seinem Fazit schreibt:

„Am Ende erliegt er dem Charme des Arrivierten und nennt Amazon das „betörendste Unternehmen“ der Welt.“

Thomas Thiel (15.10.2013): Verleger muss man jagen wie Gazellen. In: Frankfurter Allgemeine Zeitung / faz.net.

Die Leipziger Lerche als E-Publikation

Manchmal ist es sehr erstaunlich, wie sich die Dinge ganz unabhängig voreinander plötzlich passend zueinander fügen. Denn wie abgestimmt zu unserem Seminar-Auftakt erscheint die Leipziger Lerche, deren aktuelle Ausgabe ich auf dem Fenster vor dem Hörsaal entdecken durfte, nun auch als PDF-Publikation (Download). Im Weblog zur Zeitschrift findet sich heute ein entsprechender Hinweis.

Und auch inhaltlich dockt die Ausgabe mir ihrem Schwerpunkt Besser digital?! wunderbar am Themenfeld des Seminars an. Ich empfehle also allen TeilnehmerInnen nachdrücklich die Lektüre. Von E-Readern über das Leistungsschutzrecht bis hin zum Social Reading werden eine ganze Reihe von Aspekten angesprochen, die wir nach dem Brainstorming auch auf der Tafel hatten.

Übrigens hatte ich in der Sitzung zwar erwähnt, dass ich auf der Frankfurter Buchmesse zum Thema Social Reading – de facto jedoch nur am Rande – diskutieren durfte. (Mein Name fehlt in der Liste, weil ich kurzfristig für meine LIBREAS-Kollegin einsprang.) Den Literaturhinweis zum Thema habe ich aber unterschlagen. Hier reiche ich ihn nach: Dominique Pleimling veröffentlichte vor gut einem Jahr in der Schwerpunktausgabe Zukunft des Publizierens von Aus Politik und Zeitgeschichte einen Überblicksartikel zu diesem Phänomen: Social Reading – Lesen im digitalen Zeitalter. Aus diesem lassen sich hervorragend eine ganze Reihe von Detailfragen für die weitere Diskussion im Seminar ableiten. Und ich denke, wir werden das auch tun.

Das Seminar Electronic Publishing an der HTWK im Wintersemester 2013/14

Mit dem Wintersemester 2013/2014 startet auch eine neue Runde des Seminars Electronic Publishing an der HTWK-Leipzig. Das ist Anlass genug, dieses Weblog wieder etwas zu beleben und das Seminar begleitende Materialien, Überlegungen und Hinweis an dieser Stelle zu posten.

Einige kurze Anmerkungen zum Ablauf. Die Veranstaltung findet jeden Freitag von 13:45 bis 17:00 statt. In jeder Sitzung werden (mindestens) zwei Themen aus dem Feld des elektronischen Publizierens in Wechselwirkung mit dem Bibliothekswesen und der Gesellschaft kurz vorgestellt und hoffentlich gründlich diskutiert. Die Leitkategorien sind:

– Medienformen
– Mediennutzung
– Medienmärkte
– Bibliotheken

In der ersten Sitzung (18.10.2013) haben wir dazu eine breite Palette von relevanten Unterthemen von E-Book-Formaten über Fragen des Urheberrechts bis hin zu Social-Media-Effekten auf die Rezeption von Medieninhalten herausgearbeitet.

Alle TeilnehmerInnen werden gebeten, sich bis zu diesem Termin (25.10.2013) mindestens ein Thema zur Bearbeitung herausgesucht und sich im offenen Koordinationsdokument (Link folgt) eingetragen zu haben.

Zwei Studenten der HTWK haben in diesem Weblog über den Sommer hinweg eine umfangreiche Materialsammlung zu aktuellen Diskussionen und Entwicklungen des Themenfelds angelegt. Es ist naheliegend, diese bei einer entsprechenden Recherche zu berücksichtigen.

Das E-Publishing Projekt

 

Das Projekt verlief über einen Zeitraum von 10 Wochen im Sommersemester 2013 an der HTWK Leipzig. Es wurden in jeder Woche 10 relevante Artikel zum Thema E-Publishing vorgestellt, neutral zusammengefasst, kategorisiert, mit Schlagwörtern versehen und in diesem Weblog gepostet. Die Artikel sind der Tagespresse und der buchhändlerischen Presse entnommen. Zu jeder Woche wurde ein Trendbericht verfasst, der das Geschehen kommentiert.

Nach einem abschließenden Vergleich der Inhalte, Schlagwörter und Kategorien lässt sich Folgendes feststellen:

 

Wiederkehrende Themen sind die Veränderungen im Printjournalismus, die Situation auf dem E-Book-Markt, Urheberrecht und Datenschutz.

 

Die am meisten vergebenen Kategorien sind Technik (63x) und Gesellschaft (58x) gefolgt von Buchhandel (39x) und Wirtschaft (30x). Deutlich weniger vergeben wurden die Kategorien Kunst (15x) und Politik (14x).

 

Bei der Schlagwortvergabe fällt auf, dass die Eigennamen der „Global Player“ Amazon (9x) und Google (8x) häufig genannt sind sowie die Schlagwörter E-Book (23x) und Umsatz (16x) sehr oft vergeben wurden, letzteres hat sicherlich auch mit der Wahl der Presse mit buchhändlerischem Hintergrund zu tun . In diesem Projekt wurde frei indexiert.

 

Das Projekt sollte die Teilnehmer dazu befähigen eine systematische Recherche, Sichtung und Bewertung relevanter Literatur zu vollziehen sowie ein themenspezifisches Erschließungsvokabular zu entwickeln. Die Literatur wurde in einer Free-Version des Verwaltungsprogramms „Citavi“ aufgenommen und die so entstandene wöchentliche Artikelliste wurde dann im Weblog veröffentlicht. Jeder einzelne Abstract ist objektiv verfasst worden, im Gegensatz zu den Trendberichten, die sehr subjektiv sind.

Besonders vor dem Hintergrund der Berufswahl des Bibliothekars, sind wir nunmehr davon überzeugt, dass das Projekt mit all seinen Herausforderungen (Recherche, Sichtung, Bewertung) einen sehr guten Einblick in die Praxis gegeben hat und wir danken Ben für die Unterstützung und Anregung zu diesem Projekt.