Filter und Leser

von | Mai 23, 2016

Müssen Verlage sich eigentlich um Filter kümmern? Oder reicht es, wenn sie weiterhin viele tolle neue Bücher produzieren? Ein Problem könnte sein, dass von dieser Frage eigentlich nur das Attribut „viele“ relevant ist. Die Rekordmeldungen über neue Bücher, die jedes Jahr zur Frankfurter Buchmesse durchgereicht werden, unterstreichen das immer wieder gern. Um bei der bloßen Anzahl den Überblick zu behalten, benötigen wir Filter, also eine Kombination aus Kategorien, nach denen sortiert und selektiert wird. Denn wir verfügen nicht über unendlich große Aufmerksamkeitsressourcen, um auch nur die großartigen Titel unter den tausenden Novitäten überhaupt zur Kenntnis nehmen zu können. Unterscheidungen und Unterscheidbarkeit werden folglich durch Filter hergestellt, die tatsächlich nichts anderes sind als Algorithmen. Wichtig wird nun, dass nicht nur die Rezeption der Bücher, des Contents etc. eine algorithmische Physiognomie trainiert, sondern dass diese für die Seite der Produktion mittlerweile genauso wichtig geworden ist. Denn wir filtern nicht nur rezeptiv, sondern eben auch produzierend. Es werden Filter entwickelt und die werden wiederum gefiltert oder es werden Gegenfilter eingesetzt, also solche, die den Verlust ausgleichen sollen, den andere Filter möglicherweise bewirkt haben. Produktion und Rezeption buchförmiger, essayistischer und ähnlicher Texte, also der gesamte Kommunikationsprozess der Literaturvermittlung konstituiert sich als ein Ökosystem aus Filtern.

Wir sind ein Teil dessen, was wir produzieren und rezipieren. Doch die schiere Menge der Texte verlangt nach einer algorithmischen Skalierung, wie sie nur von Rechnern und nicht länger von Menschen vorgenommen werden kann. Selbst wenn man über einen magischen Filter verfügte, der alles beiseite schafft, was nicht vollkommen auf ein Individuum abgestimmt ist, bleibt noch zu viel übrig, als dass man daüber den Überblick behalten könnte. Also konstruieren wir Kalküle der Personalisierung. Diese Kalküle haben die Aufgabe, Wissensbestände über uns selbst zu akkumulieren. In solche Akkumulationen oder auch Konstruktionen finden wir uns nicht mehr wieder, sondern werden von ihnen bei Konfrontation nur noch überrascht, da Quantitäten als Qualitäten ausgegeben werden, die nicht notwendig etwas mit den Qualitäten gemein haben, die wir uns sozial oder kognitiv erschließen. Die Streams und Timelines, die wir ständig konsultieren, formen, was wir sehen und wissen. Was auf diese Weise gelesen wird, ist immer schon kuratiert.

Diese Algorithmen erweitern nicht Aufmerksamkeit und Aufnahmefähigkeit, sondern fordern sie. Für die Konstrukteure dieser Filter besitzt die Ressource Aufmerksamkeit nämlich einen ungeheuren Wert. Zumal sich diese Ressource bislang gut ausbeuten lässt, ohne denjenigen, die da ausgebeutet werden, einen Tauschwert zurückgeben zu müssen. Indem wir klicken und scrollen, arbeiten wir für Facebook, Google, Apple, Twitter usw. Kostenlos. Das könnte man auch umdrehen: Diejenigen, die ihre Inhalte verbreitet sehen wollen, müssten dann an die zahlen, die diese Inhalte sehen, hören, lesen wollen. Denn die Leser sind nicht nur diejenigen, die beeinflusst werden, sondern tatsächlich auch die, die selbst Einfluss üben: auf andere, auf mehr Leser. Das kann man als einen eigenen Wert betrachten. Einige Wege in diese Richtung, in der Leser bezahlt werden dafür, dass sie lesen, kann man bereits beobachten etwa im Herantasten der Verlagsbranche an die Welt der sogenannten Buchblogger. Doch so weit würde derzeit wohl niemand gehen, zumindest nicht aus der Perspektive der Verlage oder der Werbeindustrie.

Wie sich aber die Verhältnisse drehen lassen, kann man nicht nur ahnen, wenn man die sich verändernde Kommunikation im Literaturmarkt beobachtet oder die nicht wirklich abzuschätzenden, also nicht wieder einzufangenden Self-Publisher. Google hat es mit AdSense längst vorgemacht. Das Geld, das Google damit verdient, kommt schließlich nicht von denjenigen, die schon immer Werbung eingesetzt haben, sondern von zahllosen Annoncierern, die das zuvor noch nie gemacht haben und jetzt dazu schlicht die Möglichkeit haben, ohne großen Aufwand, ohne weitere Mittler. Dahinter steht keine Umverteilung, sondern ein komplett neuer Markt.

Und dahinter steht nur eine Antwort von vielen auf die Umwälzungen, die eine Gesellschaft erlebt, deren kulturelles Zentrum nicht mehr vom Buch und seinen Autoritäten dominiert wird, sondern die sich über Visualisierungen vor dem Bildschirm findet. Dabei handelt es sich um einen Prozess, der noch längst nicht an sein Ende gekommen ist. Für den Umgang mit Texten wurde über einen langen Zeitraum ein hochdifferenziertes Ökosystem aus Paratexten und anderen – also auch sozialen – Strukturen geschaffen, das es in Bezug statische und bewegte Bilder noch nicht gibt. Beispielsweise gibt es für Filme noch kein Äquivalent zu einer Volltextsuche. Was aber eben nicht heißt, dass Google nicht längst daran arbeitet. Wenn es eine ähnliche komplexe Palette an Werkzeugen auch für bewegte Bilder und dann mehr noch für dreidimensionale Visualisierungen gibt, wird sich unsere Kultur in ähnlich grundlegender Weise verändert haben wie sie es durch die beweglichen Lettern Gutenbergs getan hat. Dann lesen wir die Dinge nicht mehr und schauen sie auch nicht einfach nur empfangend an, sondern sichten und skalieren.

Eine solche Kulturtechnik des Sichtens und Skalierens hat nicht mehr viel gemein mit der dominanten Autorität von Autoren in Texten. Statt dessen werden Kopien, Versionen und Kontexte hergestellt. Und je mehr Versionen geschaffen werden, desto mehr Möglichkeiten gibt es für weitere Versionen. Mit Texten war und ist das relativ einfach zu machen. Mit Bilder, zumal mit Filmen ist das schon etwas ganz anderes. Das wird sich u.a. durch Virtual Reality 2.0 (VR) ändern. Das Modell der Assemblage, in Texten leidlich erprobt, in Bezug auf Soundmaterial auch Remix genannt, kann in VR auch visualisiert stattfinden. Tatsächlich sind diese Filterungen ja Prozesse der De- und dann wieder Rekontextualisierung. Dinge werden unter der Bedingung exponentieller Kombinierbarkeit aus ihrer ersten Umgebung gelöst und in eine andere verpflanzt. Also genau das, was Literatur mit Wörtern und Buchstaben seit jeher macht. Nimmt man das als literarische oder auch nur textuelle Strategie, konvertiert und erweitert in visuelle mediale Prozesse, kann man dann auch gleich anfangen zu fragen, was damit für die Literatur oder eher noch für den Journalismus anzufangen wäre.

Denn tatsächlich haben diese Prozesse unmittelbar Auswirkungen auf alles, was Journalisten tun. Information hat – auch im Internet – ihre vorrangige Bedeutung verloren. Informationen können wir uns jederzeit und überall holen und sie zugleich auch noch selbst produzieren. Wichtiger werden Erfahrungen, Jetztzeit, Gegenwärtigkeit. Diese Erfahrungen können Journalisten kuratieren, sie müssen sie beobachten und analysieren. Entscheidend wird die Kombination von Überblick und Vogelperspektive auf der einen und dem involvierten Mittendrin auf der anderen Seite. Den Leuten, die wir um der lieben Konvention willen und für die bessere Verständlichkeit Leser nennen, die Möglichkeit eigener Erfahrung zu geben, anstatt sie abzufüttern und zu formatieren, kann neue Formen des Verstehens komplexer Zusammenhänge eröffnen.

  • Show Comments

Your email address will not be published. Required fields are marked *

comment *

  • name *

  • email *

  • website *

*

Ads

You May Also Like

In Zukunft wird die Zukunft dunkel

Die Schwebebahn vom Hildesheimer Hauptbahnhof zur Domäne Marienburg sollte schon im Jahr 2064 fertiggestellt ...

Interactive Novel – Ein Konzept

Wer kennt sie nicht? Die Abenteuer-Bücher aus der Kindheit mit der Möglichkeit nach jedem ...

Share This