B UCHBESPRECHUNGEN
ESSAY Klaus Beck/Wolfgang Schweiger/Werner Wirth (Hrsg.): Gute Seiten – schlechte Seiten. Qualität in der Onlinekommunikation. – München: Verlag Reinhard Fischer 2004 (= Reihe: Internet Research; Bd. 15), 356 Seiten, Eur 22,–. Maren Hartmann: Technologies and Utopias. The cyberflâneur and the experience of »being online«. – München: Verlag Reinhard Fischer 2004 (= Reihe: Internet Research; Bd. 18), 298 Seiten, Eur 22,–. Jan Schmidt: Der virtuelle lokale Raum. Zur Institutionalisierung lokalbezogener Online-Nutzungsepisoden. – München: Verlag Reinhard Fischer 2005 (= Reihe: Internet Research; Bd. 19), 308 Seiten, Eur 22,–. Daniel Schneider/Sebastian Sperling/Geraldine Schell/Katharina Hemmer/Ramiro Glauer/Daniel Silberhorn: Instant Messaging – Neue Räume im Cyberspace. Nutzertypen, Gebrauchsweisen, Motive, Regeln. – München: Verlag Reinhard Fischer 2005 (= Reihe: Internet Research; Bd. 20), 180 Seiten, Eur 20,–. Steven Geyer: Der deutsche Onlinejournalismus am 11. September. Die Terroranschläge als Schlüsselereignis für das junge Nachrichtenmedium. – München: Verlag Reinhard Fischer 2004 (= Reihe: Internet Research; Bd. 21), 185 Seiten, Eur 20,–. Die deutsche Internet- und Onlineforschung hat es nicht leicht. Nicht nur, dass man sich hierzulande nach wie vor den wenn auch präziseren, dafür aber viel zu sperrigen Begriff der »computervermittelten Kommunikation« leistet. Nein, auch die Publikationsmöglichkeiten sind nicht gerade üppig. Die etablierten Fachzeitschriften, auch die ›Publizistik‹, erklären sich je nach Thema schon mal für nicht zuständig; andere (speziellere) Fachzeitschriften für die journalistik- oder kommunikationswissenschaftliche Sicht auf das Internet fehlen. So ist die von Patrick Rössler herausgegebene und von dem aus Klaus Beck, Joachim Höflich, Klaus Kamps, Friedrich Krotz, Wolfgang Schweiger und Werner Wirth bestehenden Editorial Board unterstützte Buchreihe »Internet Research« eine sinnvolle Institution. Zeit, sich einigen aktuellen Bänden aus dieser Reihe im Überblick zu widmen. Die Restrukturierung des Raumes im Internet, insbesondere des lokalen Raumes, steht im Mittelpunkt des Bandes Nr. 19 der Reihe. »Der virtuelle lokale Raum« von Jan Schmidt, gleichzeitig die Dissertationsschrift des Autors, tritt dabei Raumlosigkeitsthesen über das Internet entgegen. Schmidt vertritt die These, dass sich im globalen Medium Internet auch das Lokale durch entsprechende Strukturen widerspiegele, auch der Nahraum von entscheidender Bedeutung sei. Mit seinem Analyserahmen entwirft der Autor ein Modell der Institutionalisierung eben jenes virtuellen lokalen Raums, das die einzelnen lokalen Akteure und Nutzungsepisoden zu vereinen sucht. Wie der Autor anschaulich und an vielen Beispielen aufzeigt, ist die Nutzung des Internets in hohem Maße abhängig vom realen Raum, sei es in Fragen der Verteilung von technischer Infrastruktur, dem Einfluss von Staaten auf Regulierung und Kontrolle des Netzes oder aber der heterogenen Zugänglichkeit des Internets an verschiedenen Orten. So bilden sich im Netz Erwartungshaltungen heraus, erfolgen Restrukturierungsprozesse auch in Bezug auf den lokalen Raum, die zur Lokalisierung des Internets beitragen. Schmidt stellt hier Institutionalisierungsprozesse und Netzwerkbildungen als die treibenden Kräfte heraus. All diese Aspekte verwebt Schmidt zu seinem Modell, in dem die soziale Aneignung und nicht das technisch Mögliche die Nutzung bestimmt. »Die technischen Eigenschaften des Internets ziehen nicht
Buchbesprechungen
235
quasi-deterministisch soziale Konsequenzen nach sich und sind nicht per se entstrukturierend. Sie entfalten ihre Wirkungen immer in spezifischen Nutzungskontexten, die Technologien in den Dienst von sozialem Handeln stellen.« (S. 88) Vor allem die Bereiche des E-Government, der E-Democracy und des E-Business werden von Jan Schmidt auf ihre derzeitige Umsetzung auf der Lokalebene und mögliche Entwicklungen hin untersucht. Schmidt stellt hier die Beispiele von Portalen, orientiert am passiven Rezipienten, und Community-Networks, angewiesen auf den aktiven Teilnehmer, gegenüber. Einen Grund für die aktuelle Dominanz der passiv-orientierten Portale sieht er in der fehlenden Integration des partizipatorischen Ansatzes der Community-Networks durch die örtlichen Verwaltungen. Der Neuigkeitswert des Buches bemisst sich vor allem an der gezielten Betrachtung der Restrukturierung des Lokalen im globalen Internet. Der vorgestellte Analyserahmen erscheint schlüssig. Seine Stärken hat das Buch von Jan Schmidt in den Fallbeschreibungen. Auch wenn diese aufgrund ihres Lokalbezuges nicht repräsentativ sind, so sind sie doch ein lebhaftes Dokument aus der »Jugendzeit« des Internets. Besonders die Fallstudie über die Bayrischen Bürgernetze ist hier hervorzuheben. Der Rückgriff auf den Analyserahmen erfolgt in den Fallstudien zwar nicht immer in dem Ausmaß, wie es vielleicht wünschenswert gewesen wäre, zeigt aber die Anwendbarkeit des von Jan Schmidt entworfenen Modells auf. Band 20 der Reihe (»Instant Messaging – Neue Räume im Cyberspace«) stellt die Ergebnisse eines halbjährigen Forschungsprojektes über diese relativ neue Kommunikationsmöglichkeit im Internet vor. Insgesamt sechs Autoren waren an der Erstellung der Monographie beteiligt – ein Umstand der sich beim Lesen leider teilweise negativ niederschlägt, schwankt doch auch die sprachliche Qualität der Kapitel. Bereits das zweite Kapitel, in dem die Eigenschaften und Besonderheiten des Instant Messaging vorgestellt werden, macht dies deutlich. Ohne entsprechendes Vorwissen dürfte es schwer fallen, aus der Beschreibung des Instant Messaging ein klares Bild über diese Kommunikationsform zu entwickeln. Eine stärkere Visualisierung, vor allem in Form von Screenshots, wäre hilfreich gewesen. Unglücklich ist auch manche Formulierung: Passagen, die nach Definitionen klingen, geben letztendlich nur Banales wieder, z. B.: »Instant Messaging ist eine auf dem Internet basierende Kommunikationsform, d. h. ihr liegt das Internet-Protokoll TCP/IP zu Grunde.« (S. 20) Gehaltvoll zeigen sich hingegen die empirischen Kapitel. Vor allem die Daten aus den rund 10.000 Web-Befragungen helfen dabei, ein klares Bild der Nutzung von Instant Messaging zu erhalten. Die Integration von Textpassagen aus Interviews und Gruppengesprächen in die Argumentationskette ist gut gelungen und schlüssig. Die Entwicklung von sieben Nutzertypen zeigt sich als sehr aufschlussreich und auch die Daten zum Zusammenhang zwischen beispielsweise der Nutzungsintensität beim Instant Messaging und bei anderen Online-Aktivitäten oder den Motiven für die Nutzung sind erhellend. Im Kapitel »Rahmen und Regeln in der Instant Messaging Kommunikation« greifen die Autoren auf die Rahmenanalyse Goffmans zurück. Jedoch kann die Argumentation, warum sich bestimmte Verhaltensregeln beim Instant Messaging herausbilden, hier nicht überzeugen. Ein stärkerer Rückgriff auf Goffmans Arbeiten zur Interaktion sowie eine Verknüpfung mit den Kapiteln 8 und 9 im Buch, die sich mit Identität und Beziehungen im Instant Messaging beschäftigen, hätten schlüssigere Antworten liefern können. An dieser Stelle zeigt sich ein weiterer Nachteil der vielen Autoren: Eigentlich im Zusammenhang zu betrachtende Themenbereiche werden separiert und in verschiedenen Kapiteln beinahe losgelöst voneinander betrachtet, was den möglichen Erkenntnisgewinn an manchen Stellen mindert. Die Betrachtung des Instant Messaging als Methode für qualitative Interviews in der Sozialforschung ist aufschlussreich, auch wenn sie sich aufgrund der hohen Anforderungen an den Interviewer wohl nur einen Nischenplatz erkämpfen wird. »Mehr noch als im Offline-Kontext wird vom Interviewer Einfühlungsvermögen verlangt, zudem fordert der kurze und prägnante Kommunikationsstil schnelle und flexible Reaktionen, um den Kommunikationsfluss aufrecht zu erhalten.« (S. 164) Abschließend ziehen die Autoren das Fazit, dass es sich beim Instant Messaging um ein Nebenbei-Medium, ein »leichtes« Medium handele, das vor allem zur Pflege bestehender Beziehungen geeignet sei. Insgesamt betrachtet handelt es sich bei dem Band um ein empfehlenswertes Buch, das gut und umfassend in die Thematik Instant Messaging einführt.
236
Buchbesprechungen
In Band 21 der Reihe untersucht Steven Geyer die Auswirkungen der Terroranschläge am 11. September 2001 auf den deutschen Onlinejournalismus. Die Studie basiert auf seiner Diplomarbeit an der Universität Leipzig. Geyer sieht in den Terroranschlägen ein Schlüsselereignis, das den Onlinejournalismus nachhaltig geprägt habe. Der Ansatz des Schlüsselereignisses nach Hespelein und Neuberger ergänze dabei andere Modelle der Medienevolution. Extremereignisse wie die Terroranschläge am 11. September oder der Untergang der Titanic böten die Möglichkeit, das Potenzial neuer Medien praktisch und unter großer Aufmerksamkeit der Öffentlichkeit zu testen. Im Rückblick könnten durch Schlüsselereignisse Entwicklungsschübe neuer Medien besser erklärt werden. Geyer nutzt bei seiner Untersuchung mehrere Methoden. Zum einen konnte er auf eine Screenshot-Sammlung zurückgreifen, die Christoph Neuberger am 9.11.2001 und den Tagen danach angefertigt hat. Darin sind Artikel aus den wichtigsten deutschsprachigen und zwei amerikanischen Onlinemagazinen dokumentiert. Die Sammlung hat Geyer mit Hilfe einer Inhaltsanalyse ausgewertet. Außerdem hat der Diplom-Journalist insgesamt 18 Leitfadeninterviews durchgeführt und qualitativ analysiert. Seine Interviewpartner waren bis auf eine Ausnahme deutsche Onlinejournalisten, wobei er sich auf Redakteure von ›Spiegel Online‹ konzentrierte, da das Magazin ein Vorbild unter den deutschen onlinejournalistischen Angeboten sei. Nachdem Geyer in das Konzept der »Schlüsselereignisse« eingeführt hat, versucht er, die von ihm erwarteten Effekte auf den Onlinejournalismus nachzuweisen. Er unterteilt dabei Wirkungen auf Nutzer- und Anbieterseite sowie auf die Medienspezifik des Onlinejournalismus. Zum Beispiel habe sich das Nutzerverhalten nach 9/11 dahingehend verändert, dass verstärkt nachrichtenorientierte Angebote genutzt worden seien. Geyer kann dies aber wegen fehlender empirischer Studien nur mit Indizien belegen. Deutlich interessanter wird die Arbeit beim Blick auf die Macher onlinejournalistischer Angebote, da die Leitfadeninterviews einen interessanten Einblick in deren Arbeit bieten. Geyer stellt fest, dass die Redaktionen zum großen Teil nicht auf das Extremereignis 9/11 vorbereitet waren. So seien einige Angebote der verstärkten Nutzung nach den Anschlägen technisch nicht gewachsen gewesen. Auch in der redaktionellen Organisation hätte in Teilen zunächst Chaos geherrscht. Allerdings hätten sich schnell neue redaktionelle Programme, also Handlungsabläufe eingeprägt. Diese seien zum Teil institutionalisiert und bei späteren Extremereignissen wie dem dritten Irakkrieg erfolgreich angewendet worden. Lesenswert ist auch die Analyse der Screenshots. Geyer kann nachweisen, dass die Onlineredaktionen am 11. September zunächst vor allem auf Schnelligkeit setzten. Dadurch seien aber auch Falschmeldungen verbreitet worden. Auch die Quellentransparenz habe unter der chaotischen Meldungslage gelitten. Gravierende Veränderungen an der Medienspezifik des Onlinejournalismus kann Geyer bei seiner Inhaltsanalyse und den Leitfadeninterviews nicht ermitteln. Auffällig sei lediglich, dass am 11.9. verstärkt Videos verwendet wurden. Außerdem habe sich die Form des Dossiers durchgesetzt, in der viele zu einem Thema passende Artikel zusammengefasst seien. Vor allem die Dokumentation der Abläufe und Entwicklungen in den Onlineredaktionen nach 9/11 ist die Stärke der Studie. Leider wird dieser Wert durch die schlechte Qualität der abgedruckten Screenshots geschmälert. Viele Beispiele lassen sich nur mühsam oder gar nicht nachvollziehen. Band 18 der Reihe ist ihre bislang erste Monographie, die komplett in englischer Sprache erschienen ist. Doch das tut dem Buch »Technologies and Utopias – The cyberflâneur and the experience of ›being online‹« keinen Abbruch, es ist durchweg leicht verständlich und flüssig zu lesen. Die Abhandlung basiert auf der Doktorarbeit von Maren Hartmann, die inzwischen als wissenschaftliche Mitarbeiterin an der Universität Bremen arbeitet. Maren Hartmann möchte mit dem Buch einen »Status Quo« des Abstraktums Cyberspace ausloten. Damit macht sie an der richtigen Stelle halt. Utopien werden lediglich ex post betrachtet, neue werden nicht aufgestellt. Die Autorin sagt im vorliegenden Buch nicht, was sein könnte, sondern lediglich, was war und ist – und stolpert so nicht über die Fallstricke wüster Spekulation, wie es andere vor ihr getan haben. Maren Hartmann interessiert der technische Rahmen nicht, sie nähert sich dem Cyberspace auf kulturwissenschaftliche Art und Weise, sieht den Inhalt als »kulturelle Form der Technik«. Sie zeigt und untersucht Metaphern, die verschiedene Nutzertypen beschreiben. Laut ihrer Auffassung bedeutet
Buchbesprechungen
237
jede Metapher einen anderen Status des Zustandes »being online«. Die von ihr betrachteten Nutzertypen sind der »Cyberflâneur« (beziehungsweise die »Cyberflâneuse«), das »Webgrrl«, der »Cyberpunk«, der »Netizen«, der »Cybernaut« und der »Surfer«. Um das zu leisten, hat sie ihr Buch in zwei Teile gegliedert. Ein Teil ist die kurze, aber informative Sammlung von bereits existierenden Theorien und deren Kritik sowie die Erklärung der Methode. Darauf baut im zweiten Teil ihre Typologisierung des Users auf. Dieser Zweiteilung bleibt sie auch in der Mikrogliederung des zweiten Teiles treu. Stets begleiten gelungene historische Ursprungserklärungen der jeweiligen Metaphern der Nutzertypen die einzelnen Abschnitte. Hartmann nähert sich dem visuellen Medium Internet über die Textualität. Das spiegelt sich leider auch bei den Abbildungen wider: Diese sind selten, teils unmotiviert und oft kaum erkennbar. Als Kulturstudie handelt es sich um ein Stück qualitativer Forschung, genauer gesagt um die Methode der »Virtual Archeology«. Maren Hartmann wendet sich damit bewusst von einer quasi-ethnographischen Methode ab, nimmt also nicht teil und beobachtet auch nicht. Sie zieht ihre Schlüsse anhand von »Fossilien«, die sie bei ihren Patrouillen im Internet findet. So will sie vom Einzelnen auf das Ganze schließen. Die Stärken einer solchen Methode sind klar: Die Distanz zwischen Forscher und Beobachtetem bleibt gewahrt, der Forscher greift nicht in das zu beobachtende Feld ein und provoziert auch keine Reaktionen. Klar sind aber auch die Schwächen. Man ist auf Bruchstücke angewiesen, Ursachen für die Metaphern zeigen sich schwer, man stellt lediglich fest, dass es sie gibt. Diese Beschreibung gelingt Maren Hartmann. Ausgehend von der Idee des Flanierens als Leitmotiv liefert sie in knapp zwei Dritteln des Buches eine umfassende Darstellung der von ihr erkannten Usertypen. Dabei geht sie mit einem teils feministischen Ansatz vor, stellt etwa dem »Cyberflâneur« die »Cyberflâneuse« und dem »Cyberpunk« das »Webgrrl« an die Seite. Hoch informativ ist das Doppelkapitel »Cyberflâneur/Cyberflâneuse«. Gelungen erklärt Maren Hartmann den Ursprung des »flâneurs« (als umherwandernden Dandy) und die Besonderheit der »flâneuse« (Frauen konnten nur eingeschränkt ziellos flanieren – außer sie waren Prostituierte). Leider erschließt sich nur schwer die Notwendigkeit, analog zum »Cyberflâneur« die »Cyberflâneuse« zu postulieren. Sie stellt schlicht und ergreifend die Weiterentwicklung des »Cyberflâneurs« dar, kaum den »Counterpart«. Verwirrend wird die Typologisierung durch die postfeministische Ergänzung Hartmanns: Die »Cyberflâneuse« müsse nicht unbedingt weiblich sein, ja das Geschlecht spiele keine Rolle. Warum die Evolution des Online-Flaneurs dann ausgerechnet die weibliche Form des »Cyberflâneurs« ist, bleibt unklar. Der Qualität der kulturgeschichtlichen Herleitung der Idee des »Cyberflâneurs« tut dies aber keinen Abbruch. Ebenfalls informativ ist die dezidierte Darstellung des Usertypus »Webgrrl«. Herleitung und Darstellung des momentanen (Ende 2004) Standes lassen kaum Fragen offen. Ähnliches lässt sich über das Kapitel »Cyberpunk« oder die zielführende Unterscheidung zwischen »Digital Citizen« und »Netizen« in Kapitel 10 sagen. Die in einem folgenden Kapitel formulierte »Surfer«-Analyse scheint hingegen etwas erzwungen und nachgeschoben. Natürlich darf der »Surfer« als vermutlich größte User-Gruppe nicht fehlen, jedoch durchbricht er klar das Muster der Typologie. Handelt es sich ansonsten eher um emittierende User (Hartmann analysiert ja »archäologisch« die »Fossilien«, also publizierte Spuren), ist der »Surfer«, noch viel stärker als der »Cybernaut«, ein eher »konsumierender« Charakter. Er ist größtenteils Empfänger und tut sich in dieser Einordnung schwer. Zusammenfassend lässt sich sagen, dass die kulturgeschichtliche Näherung an eine bereits existierende metaphorische Nutzer-Typisierung gelungen ist. Natürlich ist eine solche Typisierung nie erschöpfend und auch nicht trennscharf, jedoch bietet dieses Buch trotz einiger streitbarer Punkte eine geleitete Annäherung an den abstrakten Cyberspace. Band 15 stellt in der Reihe eine weitere Ausnahme dar, weil es sich um keine Monographie, sondern um einen Sammelband handelt. Den 17 Beiträgen der 356-seitigen Publikation »Gute Seiten – schlechte Seiten. Qualität in der Onlinekommunikation« liegen etwa zur Hälfte Vorträge einer Tagung der DGPuK-Fachgruppe »Computervermittelte Kommunikation« aus dem November 2003 zu Grunde. Darüber hinaus haben die Herausgeber weitere Autoren zu Beiträgen eingeladen. Der Sammelband widmet sich der Qualität der Onlinekommunikation sowohl theoretisch als auch empirisch und versammelt eine Bandbreite ganz unterschiedlicher Themen in vier Teilen. Im ersten Teil geht es zunächst aus verschiedenen Perspektiven um den Qualitätsbegriff sowie die Herausarbeitung wesentlicher Qualitätsdimensionen bzw. -kriterien im Onlinejournalismus. Andreas
238
Buchbesprechungen
Vlašic´ zeigt den normativen Gehalt von publizistischer Qualität auf und argumentiert, dass es daher in modernen, pluralistischen Gesellschaften keine endgültige Definition von Qualitätskriterien geben könne, sondern sich diese an den Verfahren demokratischer Konsensbildung orientieren müssten. Christoph Neuberger liefert einen zentralen Beitrag in dem Sammelband. Er gibt zunächst einen Überblick über die Entwicklung und den Stand der kommunikationswissenschaftlichen Qualitätsdiskussion und arbeitet dann Qualitätsdimensionen für den Onlinejournalismus heraus. Thorsten Quandt sieht Qualitätskriterien als Konstrukt, das sich zwischen ökonomischen und publizistischen Möglichkeiten und Erfordernissen bildet. Er analysiert diesen Konstruktionsprozess auf einer Makro-, Meso- und Mikroebene am Beispiel des Onlinejournalismus. Bernhard Debatin zeigt aus medienethischer Perspektive, dass die Grundnormen des Journalismus im Onlinejournalismus zwar ihre Gültigkeit behalten, jedoch aufgrund besonderer internetspezifischer Anforderungen zu erweitern sind. Der zweite Teil widmet sich der Qualitätsbeurteilung sowohl durch Anbieter als auch Nutzer von Onlinemedien. Unterschiede zwischen diesen Perspektiven untersuchen Urs Dahinden, Piotr Kaminski und Raoul Niederreuther in einer exemplarischen empirischen Studie, die mehr oder weniger auf dem Uses-and-Gratifications-Ansatz basiert. Anhand des Vergleichs zwischen den Ergebnissen einer Inhaltsanalyse der Online-Angebote von fünf Zeitungen und einer quasi-experimentellen Befragung kommen sie zu dem Ergebnis, dass onlinespezifische Kriterien von geringerer, klassische journalistische Qualitätskriterien dagegen von größerer Bedeutung sind. Patrick Rössler geht vom dynamischtransaktionalen Ansatz aus. Danach stelle Qualität eine Eigenschaft der Beziehung zwischen Angebot und Nutzer dar. Folgerichtig kombiniert er in einer explorativen Fallstudie Inhaltsanalyse und Nutzer-Experiment, um eine integrierte Qualitätseinschätzung sowohl von Angebots- als auch von Nutzerseite zu ermöglichen. Sabine Trepte geht der Frage der Bewertung von Qualitätskriterien der Internetwirtschaft nach. Um die Bewertung der Qualität kommerzieller Internetseiten zu ermöglichen, schlägt sie das Markenbewertungsmodell »E-Brand Equity Six« vor. Baltas Seibold geht der Frage nach, welche Qualitätskriterien für Nutzer aus Entwicklungsländern im Gegensatz zu Industrieländern von Bedeutung sind und entwickelt eine unspezifische Checkliste für die Gestaltung von Online-Inhalten für Nutzer aus Entwicklungsländern. Andreas Werner fügt zu Recht noch die Perspektive der werbetreibenden Wirtschaft hinzu und zeigt knapp Kriterien und Verfahren der Messung von Werbeträgerqualität auf. Im dritten Teil geht es um die Qualitätssicherung in der Onlinekommunikation. Christof Barth trägt anhand von Beispielen aus empirischen Studien zusammen, welche Änderungen sich bei der Qualitätssicherung in den redaktionellen Abläufen ergeben haben. Michael Brüggemann entwickelt auf der Basis einer internationalen Expertenbefragung einen Kriterienkatalog für crossmediale Qualität. Er geht davon aus, dass Crossmedia-Strategien neben Synergieeffekten auch zu gesteigerter journalistischer Qualität führen können. Anhand einer vergleichenden Inhaltsanalyse der Unternehmensberichterstattung von Print und Online untersucht Annette Brandl verschiedene Qualitätsaspekte. Dabei zeigen sich nur geringe Unterschiede. Nina Hautzinger widmet sich Angeboten zur Gesundheitskommunikation und diskutiert verschiedene Strategien zur Qualitätssicherung. Martin Welker beschäftigt sich mit Qualitätswettbewerben für Internetangebote. Nach einer kurzen Beschreibung und kommunikationswissenschaftlichen Einordnung stellt er tabellarisch vier Wettbewerbe dar und versucht anhand eines regional begrenzten Wettbewerbs für kommunale Online-Angebote die Wirkungen aufzuzeigen. Der letzte Teil des Sammelbands geht Qualitätskriterien für computervermittelte Organisationskommunikation nach. Nicht ganz wissenschaftlich beschäftigt sich Doris Gutting anhand eines »Erfahrungsberichts« mit den praktischen Erkenntnissen bei der Qualitätssicherung digitaler Medien in der Stakeholder-Kommunikation. Alexander Würfel und Michael Jäckel stellen erste Ergebnisse ihrer Forschung zu den Erfahrungen von Beschäftigten mit IuK-Technologien und deren Auswirkungen auf die Kommunikationsqualität vor und Berit Baeßler und Susanne Kinnebrock richten ihren Blick auf pädagogische, medienspezifische und journalistische Qualitätskriterien internetbasierter E-LearningSysteme. Insgesamt haben die Herausgeber eine breite Palette unterschiedlicher Aspekte zum Thema Qualität in der Onlinekommunikation zusammengetragen. Genauso unterschiedlich ist auch der Wert der Beiträge. Je nach Erkenntnisinteresse wird der Leser aber durchaus fündig: Insbesondere die einleitenden theoretischen Beiträge ermöglichen interessante Überblicke, während viele empirische Beiträge auf-
Buchbesprechungen
239
grund ihres Fallstudiencharakters oder ihres sehr spezifischen Themas nur begrenzte Erkenntnisse bieten. Wer sich mit Qualität im Internet beschäftigt, sollte dennoch einen Blick in diesen Band werfen. Zusammenfassend lässt sich feststellen: Die jüngsten Bände der Reihe »Internet Research« zeugen von guter bis sehr guter Qualität. Die Themen sind aktuell und relevant; die Forschungen sind solide. Allerdings sollte an dieser Stelle trotz der einleitenden Bemerkungen die Frage erlaubt sein, ob aus jeder Studie gleich eine Monographie hervorgehen muss. Manche Studien könnten, in etwas komprimierterer Form in einer Fachzeitschrift veröffentlicht, für die Scientific Community von noch größerem Wert sein. Auf der anderen Seite – siehe oben – fehlt in Deutschland für Beiträge dieser Art offenbar die Fachpublikation. Eine Anregung? MARCEL MACHILL, Dortmund/Leipzig
Isabel Maurer Queipo/Nanette Rißler-Pipka (Hrsg.): Spannungswechsel. Mediale Zäsuren zwischen den Medienumbrüchen 1900/2000. – Bielefeld: Transcript Verlag 2005 (= Reihe: Medienumbrüche; Bd. 8), 218 Seiten, Eur 23,80. Die bisherige Forschung zeigte: Immer wieder verdichten sich einschneidende Medienveränderungen auf bestimmte Epochen, Jahrzehnte, in einigen Fällen sogar Jahre. So befasste sich Hans Ulrich Gumbrecht in einer umfangreichen Publikation mit dem Jahr 1926 als Schlüsseljahr der Moderne. Diese zeitlichen Verdichtungen umfassender Veränderungen werden mit dem Begriff Zäsur beschrieben. Ein grundlegender medienübergreifender Wandel von Angeboten und Funktionen schlägt sich auch in der Verwendung der Metaphorik des Umbruchs oder des Einschnitts (Waldenfels) nieder. Der vorliegende Sammelband wählt eine andere Perspektive. Er widmet sich nicht wie etwa Gumbrecht den medienübergreifenden Zäsuren, sondern versucht medieninterne Veränderungen zu rekonstruieren. Bereits in der Einleitung konstatiert Nanette Rißler-Pipka, dass es nicht ausreiche, vor allem die von Historikern als markant gewerteten Medienumbrüche um 1900 und 2000 zu betrachten. Aus Rißler-Pipkas Sicht ist es vielmehr notwendig, die unscheinbaren medialen Zäsuren in den Blick zu nehmen. Ziel sei »ein enger geknüpftes Netz, das abseits einer Bedeutungshierarchie auch die scheinbar marginalen Veränderungen auffängt« (S. 7). Dieses Konzept klingt zunächst vielversprechend, doch die Bedeutung dieser marginalen Veränderungen wird in den einzelnen Beiträgen des Bandes häufig nicht ausreichend verdeutlicht. Stattdessen verharren viele der Autoren auf
dem für den Leser nicht immer ersichtlichen »Vorteil eines dynamischen Beobachterstandpunktes« (S. 8) unterschiedlicher Teildisziplinen wie etwa Kunstwissenschaft oder Informatik. Auch der Zäsurenbegriff selbst wird in den Beiträgen sehr unterschiedlich gefasst. So kommt es etwa zu Analogiebildungen zwischen 1900 und 2000, wenn die Parallelen zwischen »Fantomas« und »Kill Bill« untersucht werden (Isabel Maurer Queipo). Ausgangspunkt der von den Herausgeberinnen intendierten Vernetzung von Veränderungen bildet ein weit gefasster Medienbegriff, der es auch erlaubt, Entwicklungen der Mode (Marijana Erstic) oder des Möbel- und Mediendesigns von Charles und Ray Eames (Annette Geiger) zu thematisieren. »Bei den ausgewählten Themenbereichen handelt es sich entweder um eine Zäsur im Rahmen einer technischen Weiterentwicklung (vgl. Tonfilm, Fernsehen, Radio, Telefon, e-mail/sms oder elektronisches Löschen) oder um eine Veränderung innerhalb eines Gebiets, die mit einem Medienumbruch in Zusammenhang steht.« (S. 12) Zwar avanciert Mediengeschichte in diesem Vorgehen zur allgemeinen Kulturgeschichte, verliert aber gleichzeitig an eigener Kontur. Zwischen einzelnen Beiträgen des Sammelbandes zeigen sich thematische Parallelen – etwa hinsichtlich der Integration von visueller hin zu visuell-sprachlicher Vermittlung (Joseph Garncarz zur »Tagesschau« und Marion Tendam zum Übergang vom Stummfilm zum Tonfilm). Tanja Schwan bringt in ihrem Beitrag literarische und künstlerische Beispiele historischer Avantgarde in einen Dialog, der sich u. a. mit den Veränderungen weiblicher Selbstdarstellung befasst. In einigen Beiträgen fehlt ein Fazit aus den dar-
240
Buchbesprechungen
gestellten Einzelbeobachtungen und Reflexionen. Eine Schlussbemerkung hätte eine Symbiose aus den vielfältigen Einzelanalysen und Beobachterperspektiven herstellen können. Stattdessen wird der Leser bereits in der Einleitung dazu aufgefordert, selbst Verknüpfungen zwischen den Reflexionen der Beiträge herzustellen (S. 15). Wären die Herausgeber selbst dieser Aufgabe nachgekommen, hätte sich der Erklärungswert des Bandes für die Mediengeschichte deutlich erhöht. JOAN KRISTIN BLEICHER, Hamburg
Kerstin Goldbeck: Gute Unterhaltung, schlechte Unterhaltung. Die Fernsehkritik und das Populäre. – Bielefeld: Transcript Verlag 2004 (= Reihe: Cultural Studies; Bd. 7), 360 Seiten, Eur 26,80. Öffentliche Kulturkritik und latenter Kulturpessimismus verfügen über eine weitaus längere Tradition als die wissenschaftlich distanzierte Auseinandersetzung mit populärkulturellen Medienangeboten. Während sich das Bildungsbürgertum mental distanziert von den anspruchslosen Vergnügungen diverser Mehrheiten in modernen Gesellschaften, beschäftigt sich die Medien- und Kommunikationswissenschaft in jüngster Zeit systematisch mit den Qualitäten medienvermittelten Vergnügens. Kerstin Goldbeck geht in ihrer Dissertation der Frage nach, ob sich in der Fernsehkritik Erkenntnisse aus den Cultural Studies in Bezug auf die kontext-abhängige, aktive und bedürfnisorientierte Mediennutzung des Publikums niedergeschlagen haben. Das Ergebnis ist wenig erbauend: »Es stellt sich […] die Frage, ob es nicht für die Kritik der bürgerlich orientierten Feuilletons an der Zeit wäre, die Zuschauer und die Zuschauerinnen besser kennen zu lernen.« (S. 335) Wäre dem bereits heute so, müsste die Kritik Kritik an herrschenden Ideologien und Machtverhältnissen auf der mikro- und der makropolitischen Ebene, also am Kontext, mit einbeziehen. In einem ersten Teil stellt die Autorin eine theoretische Skizzierung der Cultural Studies sowie einige zentrale Studien aus diesem Ansatz zur Analyse populärkultureller Texte vor. Im Exkurs »Was ist Unterhaltung?« zeigt sich, dass bereits die Unterhaltungsforschung die enge Beziehung zwischen menschlichem Leben, Alltagserfahrung
und Unterhaltungskonsum aufgezeigt hat. Unterhaltung als menschlicher Unterhalt! Der zweite Teil befasst sich mit John Fiske und seiner Rolle in den Cultural Studies. »Populäre Texte« sind nach ihm Orte der gesellschaftlichen und kulturellen Machtkämpfe, und sein Diskursbegriff dient als Grundlage für die empirische Arbeit von Kerstin Goldbeck. Und es ist dann auch die Diskursanalyse, die das Buch so lesenswert macht. Die Autorin führt mit großer Akribie durch den Diskurs der Fernsehkritik von »Gute Zeiten, schlechte Zeiten«, aus dem Genre der Seifen-Opern, und von »Wer wird Millionär?«, aus dem Genre der Quizzes. Sie legt die Analyseschritte (S. 183ff.) sowie die Diskurs- und Argumentationsstränge offen. Das Materialobjekt liefern Artikel zu den genannten Sendungen aus der ›Frankfurter Allgemeinen Zeitung‹ und der ›Süddeutschen Zeitung‹. Die Schwerpunkte der Analyse werden nach Maßgabe der untersuchten Artikel gesetzt und konzentrieren sich auf die Produktion, auf die Handlung, auf die Darsteller und auf die Zuschauer bei der Seifenoper. Beim Quiz sind es das Konzept, die Produzenten, der Quizmaster (Günther Jauch), die Kandidaten und wiederum die Zuschauer. Da Seifenopern und Quizsendungen mit zweierlei Ellen gemessen werden, leidet die Kunst der Bewertung durch Kritiker an einer gewissen Einäugigkeit. So ereifern diese sich bei »Gute Zeiten, schlechte Zeiten« über die Realitätsferne. Dafür genügt das einfache Abfragen von Fakten bereits einem gewissen Bildungsanspruch. Die Kritik vertritt auch weiterhin eine längst obsolet gewordene strikte Trennung von Information und Unterhaltung. Für das Vergnügen des Publikums wird in den Kritiken kein Verständnis aufgebracht (S. 330). Die Gleichung ist einfach: Soaps = schlechte Unterhaltung, Quizshows = gute Unterhaltung (S. 331). Populäre Fernsehformate haben nach wie vor eine große Chance, in der Kritik abgewertet zu werden. Publikumsferne, Erhabenheit und Abgehobensein dominieren. Maßstäbe der Kritik unterscheiden sich in hohem Maße von den Kriterien der Cultural Studies. Möglicherweise ist dies eine Generationenfrage. Die Publikation von Kerstin Goldbeck basiert auf einer Dissertation, die sie an der Universität Göttingen eingereicht hat. Das erklärt die relativ häufigen Redundanzen. Dennoch möchte ich den Band als Lehrbuch und Modell für Diskursanalysen empfehlen.
LOUIS BOSSHART, Freiburg (Schweiz)
Buchbesprechungen Christian von Coelln: Zur Medienöffentlichkeit der Dritten Gewalt. Rechtliche Aspekte des Zugangs der Medien zur Rechtsprechung im Verfassungsstaat des Grundgesetzes. – Tübingen: Mohr Siebeck 2005 (= Reihe: Jus Publicum; Bd. 138), 576 Seiten, Eur 124,–. Die von Herbert Bethge betreute juristische Habilitationsschrift gibt einen umfassenden Überblick über die Rechtsgrundlagen, die die Zugänglichkeit der Rechtsprechung für Medienvertreter regeln. Im Zentrum der Darstellung stehen die Möglichkeiten und Grenzen des Zugangs zu Gerichtsverhandlungen für das Publikum im Allgemeinen und Medienvertreter im Besonderen. Außerdem thematisiert von Coelln die Veröffentlichung von Gerichtsentscheidungen, Auskunftsansprüche und Akteneinsichtsrechte der Medien sowie Aufgaben und Schranken der Öffentlichkeitsarbeit der Justiz. Verfassungsdogmatisch überzeugend vertritt von Coelln die grundlegende Auffassung, die Zugänglichkeit von Gerichtsverhandlungen für Medienvertreter sei vom Schutzumfang der Medienfreiheit umfasst. Anders als vom Bundesverfassungsgericht in seiner neueren Rechtsprechung vertreten, sei dieser Schutz nicht allein an der allgemeinen Informationsfreiheit zu messen. Ob dieses Plädoyer das Bundesverfassungsgericht zu einer Änderung seiner Position veranlasst, bleibt abzuwarten. Wünschenswert wäre es. Einen erheblichen Teil seiner Arbeit widmet von Coelln der Prüfung der Verfassungskonformität des gesetzlichen Verbots von Rundfunk-, Ton- und Filmaufnahmen in Gerichtsverhandlungen (§ 169 Satz 2 Gerichtsverfassungsgesetz). Ausführlich und gut begründet argumentiert er, die Vorschrift verstoße gegen das Grundrecht der Medienfreiheiten, weil sie die Berichterstattung über Gerichtsverfahren stärker behindere, als dies zum Schutz berechtigter gegenläufiger Interessen geboten sei. Im Ergebnis ist die verfassungspolitische Bedeutung dieser Argumentation zwar größer als ihre Relevanz für die journalistische Praxis, solange der Gesetzgeber die Vorschrift nicht ändert, deren Verfassungskonformität das Bundesverfassungsgericht erst im Jahre 2001 bestätigt hat. Dennoch ist die Monographie auch als Nachschlagewerk für den journalistischen Praktiker sehr gut geeignet. Sie gibt fundierte Auskunft zu vielen Rechtsfragen, die für die Gerichtsberichterstattung von Bedeutung sind. Das gilt für die Reservierung von »Presseplätzen« in Gerichtssä-
241
len und die Zulassung von Journalisten zu nichtöffentlichen Gerichtsverhandlungen ebenso wie für Fernsehaufnahmen außerhalb der Verhandlung sowie die Anfertigung von (Presse-)Fotos im Gerichtsgebäude und im Sitzungssaal vor, während und nach der Verhandlung. Dem Bundesverwaltungsgericht folgend entwickelt von Coelln aus dem Demokratie- und Rechtsstaatsprinzip den Grundsatz, dass die Gerichte verpflichtet sind, ihre Judikate zu veröffentlichen. Folgerichtig erstreckt er den presserechtlichen Auskunftsanspruch auf das Recht der Medien, von den Gerichten (anonymisierte) Urteilsabschriften zu verlangen. Von praktischer Bedeutung für die (Gerichts-)Berichterstattung sind schließlich die Informationen zum Recht auf Akteneinsicht nach den Prozessordnungen. Rechtsprechung und Literatur bis Ende 2003 sind umfassend eingearbeitet. Die Habilitationsschrift eignet sich deshalb auch zum Einstieg in eine vertiefte Prüfung von Einzelfragen zum Verhältnis von Justiz und Öffentlichkeit.
UDO BRANAHL, Dortmund
Udo Branahl: Justizberichterstattung. Eine Einführung. – Wiesbaden: VS Verlag für Sozialwissenschaften 2005, 348 Seiten, Eur 29,90. Holger Weimann/Norbert Leppert/Frauke Höbermann: Gerichtsreporter. Praxis der Berichterstattung. – Berlin: ZV Zeitungs-Verlag Service 2005, 344 Seiten, Eur 29,90. Nahezu zeitgleich sind 2005 zwei Werke erschienen, die das Spektrum zum journalistisch oftmals nicht ganz einfach umzusetzenden Thema »Gerichtsberichte« bereichern: »Justizberichterstattung – Eine Einführung« von Udo Branahl und »Gerichtsreporter – Praxis der Berichterstattung« vom Autorentrio Holger Weimann, Norbert Leppert und Frauke Höbermann. So ähnlich diese beiden Bücher vom Titel scheinen, so unterschiedlich sind sie vom Inhalt und von der Struktur. Das Buch von Udo Branahl, Jurist und Professor für Medienrecht am Institut für Journalistik der Universität Dortmund, beleuchtet das schwierige Berichterstattungsfeld »Justiz« in erster Linie aus dem Blickwinkel des Juristen und Forschers, ohne dabei aber die journalistische Komponente aus den Augen zu verlieren. Ausge-
242
Buchbesprechungen
hend von den Zielen der Justizberichterstattung widmet er seinen ersten großen Themenblock einer Darstellung der Justiz mit deren Aufgaben und ihrer Organisation. Aufgezeigt werden die unterschiedlichen Zweige der Gerichtsbarkeit, Zusammensetzung und Verfahrensweise der jeweiligen Gerichte und die möglichen Prozessbeteiligten. Eher akademisch aufbereitet, aber deswegen nicht weniger informativ, sind die Kapitel »Gestaltung der Justizberichterstattung«, wobei die Ausführungen zum Aufbau und zur Systematik juristischer Texte den Leser mit vielen interessanten Aspekten aus dem Innenleben der geschriebenen »Jurisprudenz« vertraut machen, sowie »Formen und Typen der Justizberichterstattung«, in dem sich lesenswerte Passagen zur Funktion von Kritik und Kontrolle durch die Gerichtsberichterstattung finden. Dem Anspruch des Verfassers, juristisch nicht vorgebildeten Lesern Grundkenntnisse zur Verfügung zu stellen, die für eine sachgerechte Berichterstattung über die Justiz hilfreich sein können, wird auch das umfangreichste Kapitel »Die Verfahrensarten im Einzelnen« inhaltlich voll gerecht. Unterschiede und Gemeinsamkeiten der Justizarbeit in den unterschiedlichen Gerichtszweigen werden plastisch dargelegt, informativ sind die jeweils den Einzelbereichen angegliederten »Hinweise für die Berichterstattung«. In sprachlicher Hinsicht aber wird der juristisch nicht vorgebildete Leser an einigen Stellen Probleme mit dem Text haben, der sehr komplex ist und dessen Fluss zudem wegen zahlreicher Verweise auf Paragraphen und Gesetze ein wenig leidet. Wer aber mit der juristischen Materie einigermaßen vertraut ist, der findet hier in geraffter Form wichtige Informationen zu dem, was auch ein Anliegen des Verfassers ist: nämlich dass Justiz mehr ist als Strafjustiz und eine umfassendere Berichterstattung verdient. Dem wird der Verfasser gerecht, indem er auch Zuständigkeiten und Abläufe abseits der von Strafprozessen dominierten Gerichtsberichterstattung praxisnah darstellt. Abgerundet wird das Thema »Justizberichterstattung« durch einen umfangreichen Tabellenteil am Ende des Buches, dem für die Hintergrundinformation zum justiziellen Geschehen viele nützliche Hinweise zu entnehmen sind. Geht das Buch von Branahl, dem man seine Entstehungsgeschichte – studentische Mitwirkung an Lehrveranstaltungen zur Gerichtsberichterstattung – an einigen Stellen anmerkt, phasenweise von eher akademischen Ansätzen
aus, so führt der »Gerichtsreporter« des Verfassertrios Weimann/Leppert/Höbermann den Leser stärker in die journalistische Praxis der Gerichtsberichterstattung. Dabei erfährt man sowohl zum juristischen Rüstzeug wie auch zur handwerklichen Seite des Schreibens viel Wesentliches und Nützliches in angemessener und verständlicher Form. Ausgehend vom publizistischen Auftrag und dem journalistischen Selbstverständnis bei der Gerichtsberichterstattung werden in erster Linie praktische Fragen der Berichterstattung zu Straf- und Zivilprozessen behandelt. Gerade für Neulinge in der Gerichtsberichterstattung – aber auch für alte Hasen, die oftmals bei Beginn ihrer Tätigkeiten als Gerichtsberichterstatter ins kalte Wasser geworfen worden sind – werden praktische Hinweise zu vielen zunächst journalistischen Facetten aus der Alltagsarbeit des Gerichtsreporters gegeben: Vorbereitung eines Gerichtstermins, Kontakt mit dem Pressesprecher, Vorsicht: Juristendeutsch, Terminauswahl, Prozess-Service bei größeren Gerichten. Fortgesetzt werden diese Handreichungen dann mit für die Praxis wichtigen und informativen Ausführungen zu juristischen Fachbegriffen und ihrer »Übersetzung« für die Leser, Erläuterungen zu Gerichtszweigen und Besetzung von Gerichten, Instanzensystem und Rechtsmitteln sowie zu besonderen Verfahrensarten. Auch dank der Sprache der Verfasser, die sich in erster Linie an den juristisch »unbeleckten« Journalisten richtet, sind der Informationsgehalt und damit der praktische Nutzen hoch. Dieser Eindruck wird auch nicht dadurch getrübt, dass der eine Verfasser an einigen Stellen nicht gemerkt zu haben scheint, was ein anderer schon geschrieben hat. Der umfangreichste Teil des »Gerichtsreporters« gilt der Berichterstattung über Strafverfahren. Dabei werden in den juristischen Passagen nicht nur äußerst hilfreiche Informationen zum Ablauf der Hauptverhandlung, zu den Beteiligten, zu Sanktionen und Rechtsmitteln gegeben, sondern es fließen auch viele Informationen zu dem Journalisten meistens unbekannten Begriffen ein, mit denen man als Zuhörer im Gerichtssaal zunächst eher weniger anzufangen vermag. Die für den journalistischen Prozessbeobachter wichtigen Punkte und Abläufe einer Hauptverhandlung werden, garniert mit einigen Tipps und Tricks aus der langjährigen Berufserfahrung eines Gerichtsberichterstatters, ebenso praxisnah dargestellt wie die unterschiedlichen journalistischen Darstellungsformen zum Gerichtsbericht.
Buchbesprechungen Komplettiert werden die Ausführungen zum Strafprozess durch für die praktische Arbeit enorm wichtige und zur Vermeidung von Komplikationen bedeutsame Ausführungen zum allgemeinen Persönlichkeitsrecht sowie mit Hinweisen auf die berufsethische Seite und die rechtlichen Risiken (und bei Missachtung der journalistischen Sorgfalt möglicherweise damit verbundene Folgen) der Gerichtsberichterstattung. Wichtige Basisinformationen enthalten schließlich die beiden Kapitel zum in der Praxis der Gerichtsberichterstattung eher vernachlässigten Zivilprozess sowie diverse Anhänge im Wesentlichen mit Hintergrundfakten zum Strafprozess. Sowohl die »Justizberichterstattung« wie auch der »Gerichtsreporter« bereichern das Spektrum der Literatur zur Gerichtsberichterstattung. Der Leser kann diese beiden Werke in unterschiedlicher Hinsicht nutzen: Will er sich als Neuling Informationen über das Handwerk der Gerichtsberichterstattung verschaffen oder vorhandene Basiskenntnisse vertiefen, dann bietet der »Gerichtsreporter« das Gewünschte. Wem es eher darum geht, sich über die Vermittlung von umfangreichen Basisinformationen zum Thema Gerichtsberichterstattung hinaus interessante Hintergrundinformationen zu verschaffen, und wen auch kommunikationswissenschaftliche und soziologische Ansätze zum Thema interessieren, der ist mit dem Buch von Udo Branahl bestens bedient. KURT BRAUN, Olsberg
Gernot Gehrke (Hrsg.): Datenschutz und -sicherheit im Internet. Handlungsvorschläge und Gestaltungsmöglichkeiten. – München: kopaed 2005 (= Schriftenreihe Medienkompetenz des Landes Nordrhein-Westfalen; Bd. 2), 152 Seiten, Eur 14,80. Dass nationale Gesetze die Autonomie des einzelnen Netzbürgers (»netizen«) bei der Nutzung des Internets nie hinreichend sicherstellen konnten, hat sich mittlerweile herumgesprochen. Noch immer aber werden Datenschutz und -sicherheit häufig allein als zwei Seiten einer Medaille verstanden, was sie nur zum Teil sind. Der hier angezeigte Dokumentationsband nimmt einige notwendige Klarstellungen in diesem Bereich vor. Er enthält die Beiträge zu einem vom
243
Europäischen Zentrum für Medienkompetenz im Auftrag der nordrhein-westfälischen Staatskanzlei im Dezember 2004 veranstalteten Workshop zu diesem Thema. Die Autorinnen und Autoren kommen sowohl aus der anwendungsnahen Forschung als auch aus den Beratungs- und Kontrollinstanzen, die mit diesen Fragen täglich umzugehen haben: dem Bundesamt für die Sicherheit in der Informationstechnik und der Datenschutzaufsichtsbehörde im bevölkerungsreichsten Land Nordrhein-Westfalen. Nach einem einleitenden Beitrag von Firoz Kaderali, der die zahlreichen Facetten der aktuellen Diskussion über die Sicherheit im Internet beleuchtet, die von der SPAM-Woge über Spoofing und verschiedene Malware-Funktionen bis hin zu den entsprechenden Gegenmaßnahmen reichen, widmen sich Jörg Schwenk und Sebastian Gajek dem Phänomen des Phishing, bei dem sorglose Surfer mit immer trickreicheren Strategien dazu veranlasst werden, ihre Daten Unbefugten zu offenbaren, die sich als seriöse Geschäftspartner im Netz (vor allem Banken) ausgeben. Hier helfen keine Sicherungsmaßnahmen auf dem Übermittlungsweg mehr, weil durch Fälschungen die Mensch-Maschine-Schnittstelle kompromittiert wird. Über die Schwierigkeiten, einen Verhaltenskodex für das Internet zu formulieren, berichtet Dirk Häger. Er weist auf das Grunddilemma hin, dass darin besteht, dass das Internet keine heile Welt, gleichzeitig aber so wertvoll als Informationsquelle ist, dass kaum eine Organisation (Behörde, Unternehmen) ohne sie auskommt. Häger plädiert mit guten Argumenten dafür, dass Rechner mit sensitiven Informationen (z. B. Patientendaten) von vornherein nicht ans Internet angeschlossen werden dürfen. In einem lesenswerten Beitrag untersucht Karin Schuler Perspektiven der Internet-Sicherheit aus der Sicht der Nutzer. Sie betont deren differenzierte Sicherheitsbedürfnisse und stellt den Mangel an altersangemessenen Bildungsangeboten in den Vordergrund. Claus Ulmer erläutert die beträchtlichen Anstrengungen, die die Deutsche Telekom im Bereich des Datenschutzes unternimmt. Aus gutem Grund hat dieser Konzern die Unternehmenssicherheit und den Datenschutz organisatorisch voneinander getrennt, weil durchaus Interessenkonflikte möglich sind. Das interne Datenschutz-Audit bei der Telekom hat Modellcharakter auch für andere Großunternehmen. Thomas Faber beschreibt die Perspektiven
244
Buchbesprechungen
der Geschäftsprozesssicherheit aus Sicht der mittelständischen Wirtschaft und betont die Notwendigkeit der anhaltenden Bewusstseinsbildung in Sachen IT-Sicherheit. Dabei betont er den prozesshaften Charakter der Erstellung von Sicherheitskonzepten, die mehr sein sollten als einmal abzuhakende Pflichtübungen. Große Bedeutung auch für andere Bundesländer hat die von ihm hervorgehobene Entwicklung von Unterrichtsmaterialien. Bettina Sokol, die nordrhein-westfälische Landesbeauftragte für Datenschutz und Informationsfreiheit, beantwortet im Folgenden die Frage: »Worauf es jetzt ankommt – Die Zukunft von Datenschutz«. Dabei lenkt sie den Blick auf die Grundrechtsqualität des Datenschutzes und unterstreicht die Bedeutung von System- und Selbstdatenschutz. Datenminimierung und Datenschutz durch Technik sind weitere wesentliche Stichworte in diesem Zusammenhang. Gernot Gehrke beschließt die Dokumentation mit einem Beitrag zu der zentralen Frage, ob Schutz und Sicherheit im Internet in einem antagonistischen oder symbiotischen Verhältnis zueinander stehen. Gerade die von ihm untersuchten Aktivitäten der Europäischen Union auf diesem Sektor – etwa bei dem Stichwort »Vorratsdatenspeicherung« – lassen erhebliche Zweifel daran aufkommen, dass bestimmte Maßnahmen zur Erhöhung der »Sicherheit« im Internet dem Datenschutz zuträglich sind oder ihn nicht vielmehr zunehmend konterkarieren. Der Wert des Bandes für die Praxis wird weiter gesteigert durch eine abschließende Sammlung von Projekten und Institutionen, die sich mit den diskutierten Themen auseinandersetzen.
ALEXANDER DIX, Berlin
Caja Thimm (Hrsg.): Netz-Bildung. Lehren und Lernen mit neuen Medien in Wissenschaft und Wirtschaft. – Frankfurt am Main etc.: Peter Lang 2005 (= Reihe: Bonner Beiträge zur Medienwissenschaft; Bd. 5), 252 Seiten, Eur 45,50. In seinem »Szenario 2005« hatte der Expertenkreis »Hochschulentwicklung durch neue Medien« vor fünf Jahren prognostiziert, dass heute weltweit bereits mehr als 50 Prozent aller Studierenden virtuelle Studienangebote nutzen würden. Die aktuelle Bestandsaufnahme »E-Learning in Tertiary Education: Where Do We Stand?« der OECD (2005) zeigt dagegen, dass an
19 ausgewählten Hochschulen weltweit weniger als fünf Prozent aller Lehrveranstaltungen echte E-Learning-Angebote sind. Zwar ist das Internet an Hochschulen heute alltäglich, doch eine durchgreifende Virtualisierung der Lehre hat offensichtlich nicht stattgefunden. Nach Hype und Ernüchterung befinden wir uns nun in einer Phase der kritisch-reflektierten organisatorischen, technischen und pädagogischen Weiterentwicklung: Immer mehr Universitäten beginnen, E-Learning-Aktivitäten zentral zu koordinieren, Kompetenzzentren zur Förderung der mediengestützten Lehre einzurichten und multifunktionale Lernplattformen bereitzustellen. Lokal produzierte netzfähige Lerneinheiten wie z. B. interaktive Übungen oder Video-Lektionen sollen im Sinne der Nachhaltigkeit durch Standardisierung, Auszeichnung mit Meta-Daten und Archivierung global verfügbar gemacht werden und flexibel einsetzbar sein. Der Sammelband »Netz-Bildung« der Bonner Kommunikations- und Medienwissenschaftlerin Caja Thimm passt in die aktuelle Phase der nüchternen und oft mühsamen Weiterentwicklung. Er versammelt zehn Aufsätze, die weder durch Visionen noch durch Grundsatzkritik geprägt sind und auch nicht auf eine systematisch-analytische Theoriearbeit abzielen, wie die teilweise sehr kurzen Literaturverzeichnisse zeigen. Stattdessen geht es vor allem um Praxiserfahrungen mit E-Learning-Realitäten: Im ersten Beitrag befasst sich der Marburger Sprachwissenschaftler Jürgen Handke mit der neuen Rolle des Hochschullehrers beim Blended-Learning. Er berichtet von seinen positiven Erfahrungen mit dem »Virtuellen Linguistischen Campus« (www.linguistics-online.de), der es Studierenden erlaubt, sich mit Online-Modulen so gut auf die Präsenzsitzungen vorzubereiten, dass diese für Diskussionen und gezielte Vertiefungen genutzt werden können. Die Trierer Medienwissenschaftlerinnen Amelie Druckwitz und Monika Leuenhagen beschäftigen sich mit der nutzerfreundlichen Gestaltung von E-Learning-Angeboten. Sie liefern einen Autorenleitfaden zur Aufbereitung von OnlineLerntexten und erläutern die Anwendung am Beispiel von »AMACE« (Applied Media and Communication Studies E-Learning System: www.amace.de). Der Göttinger Sozialwissenschaftler Ralf Stockmann informiert über ELearning aus Sicht der Nutzenden am Beispiel von Erfahrungen mit dem Open-Source-Lernmanagement-System »Stud.IP« (www.studip.
Buchbesprechungen de). Er beschreibt unter anderem, welche Arten von bildlichen Selbstdarstellungen die Studierenden auf der Plattform nutzen und wie Studierende bereits mit der Immatrikulation an das E-Learning herangeführt werden können. Klaus Forster, Sabine Stiemerling und Thomas Knieper vom Institut für Kommunikationswissenschaft und Medienforschung der LMU München präsentieren Forschungsergebnisse, die zeigen, unter welchen Bedingungen animierte Informationsgrafiken einfachen Standbildern vorzuziehen sind. Der Heidelberger Psychologe Jörg Zumbach gibt einen literaturbasierten Überblick über E-Learning-Trends in Unternehmen. Die Herausgeberin Caja Thimm und Peter Fauser, Unternehmensberater und Trainer, beschreiben anhand von zwei Umfragen die Bedingungen und Anforderungen von Remote Leadership im Sinne einer Führung von räumlich verstreuten, virtuellen Teams. Bernd Wischer von der Hochschule Bremen schildert das Projekt »J.O.E.« (Journalistic Online Education: www.journalistic-online-education.de), das unter anderem eine Ausbildung in der virtuellen Lehrredaktion beinhaltet. Felicitas Haas und Bernhard Schröder stellen aus dem Verbundprojekt »MiLCA« (Medienintensive Lehrmodule in der Computerlinguistik-Ausbildung) das Modul »Gesprochene Sprache« vor (www.ikp.uni-bonn.de/dt/forsch/phonetik/milca/). Der Sozialwirt Hans-Ullrich Mühlenfeld beschreibt den Internet-Einsatz im »Methodenlehre-Baukasten« (www.methodenlehre-baukasten.de), einem Online-Angebot für die sozialwissenschaftliche Statistik- und Methodenausbildung. Im letzten Beitrag des Bandes präsentiert Caja Thimm ein Beispiel für praktische Medienausbildung, nämlich die Entwicklung und Umsetzung des Online-Magazins »www.untermstrich.net« durch eine studentische Redaktion, die sich alle zwei Wochen zur Face-to-Face-Redaktionssitzung trifft und zwischendurch per E-Mail kommuniziert. Dass die Autorin diese Lernform als »Online-Lernen« etikettiert, verdeutlicht die Perspektivenvielfalt des Bandes. Die lockere Aufsatzsammlung ist gut lesbar, sehr projektbezogen, teilweise empirisch, oft auch anekdotisch. Eine anregende Lektüre für diejenigen, die sich selbst im E-Learning engagieren oder dies planen und Einblicke in andere Projekte gewinnen möchten. Auffällig ist, dass ein Versprechen des E-Learning, nämlich der
245
grenz- und kulturüberschreitende Austausch, überhaupt keinen Niederschlag findet.
NICOLA DÖRING, Ilmenau
Fritz Plasser (Hrsg.): Politische Kommunikation in Österreich. Ein praxisnahes Handbuch. – Wien: WUV-Universitätsverlag 2004 (= Schriftenreihe des Zentrums für Angewandte Politikforschung; Bd. 29), 501 Seiten, Eur 36,–. Die politische Kommunikationsforschung hat sich in den letzten Jahren zunehmend ausdifferenziert, und es sind mehrfach Bemühungen unternommen worden, das sehr heterogene Forschungsgebiet zu systematisieren und in Handbüchern übersichtlich zusammenzufassen (vgl. v. a. den Rezensionsessay in Publizistik, 49. Jg., S. 368ff.). Der von Fritz Plasser herausgegebene Band »Politische Kommunikation in Österreich« reiht sich in diesen Trend ein. Er ist aber weit mehr. Und vor allem: Der Band ist ein längst überfälliges Buch. Denn die bisherigen Bände berücksichtigen die österreichische Situation so gut wie gar nicht, obgleich eine Fülle an Daten vorhanden ist und sich die österreichische Situation in etlichen Bereichen von der deutschen unterscheidet. Mit dem Handbuch von Plasser werden erstmals Daten zur politischen Kommunikation in Österreich in einer umfassenden Darstellung zusammengetragen und durch neue, erstmals hier veröffentlichte Befunde ergänzt. Das Buch gliedert sich in sieben Kapitel und beginnt mit einer Darstellung des österreichischen Medienmarkts, die durch Längsschnittvergleiche von Nutzungsdaten ergänzt wird. Das zweite Kapitel liefert Daten zur politischen Kommunikation im Internet (Parlamentskommunikation, Parteienkommunikation und virtueller Wahlprozess), gefolgt von Daten zur Politikberichterstattung. In diesem Kapitel findet sich auch ein Abschnitt zur geschlechtsspezifischen Repräsentation von Politikerinnen und Politikern im Fernsehen – und damit ein gendersensibler Zugang zum Thema, der in deutschen Einführungen und Handbüchern bislang fehlt. Im vierten Kapitel wird auf Basis neuer Untersuchungen die Rolle der politischen Journalistinnen und Journalisten beleuchtet, ihr Rollenverständnis, ihre Einschätzung zu journalistischen
246
Buchbesprechungen
Standards und den sich wandelnden Anforderungen an den Beruf. Abermals auf Daten einer aktuellen Studie basieren die Ausführungen im darauf folgenden Kapitel zum »Spannungs- und Frustrationsverhältnis« zwischen politischem Journalismus und politischer Öffentlichkeitsarbeit. Plasser und seine Mitarbeiter kommen zu dem Schluss, dass jedwede Darstellung, die dies nicht als wechselseitiges, interessengeleitetes Abhängigkeitsverhältnis thematisiert, ob der taktischen Dimension des Beziehungsmanagements, das gezielte Interventionen, subtiles Druckausüben, das Lancieren von Gerüchten etc. umfasst, an der Realität der journalistischen Praxis vorbeigeht. Die letzten beiden Kapitel beschäftigen sich mit der Öffentlichkeitsarbeit der einflussreichen österreichischen Interessenvertretungen sowie jener der politischen Parteien (inklusive Wahlkampfkommunikation). Wenngleich das Handbuch von Plasser und seinen Mitarbeitern zu all den angeführten Aspekten politischer Kommunikation eine Fülle an Daten präsentiert, ist es aber weit mehr als eine einfache Bestandsaufnahme. Das Datenmaterial wird, wo immer möglich, in Längsschnittvergleichen präsentiert, der Wandel politischer Kommunikationskultur herausgearbeitet, und es werden Vergleiche zu anderen Ländern – vor allem zu den USA und Deutschland – gezogen. Zudem werden in leicht lesbarer Form theoretische Konzepte der politischen Kommunikation vergleichend gegenübergestellt und diskutiert. Jedes Kapitel referiert und kommentiert den gegenwärtigen Forschungsstand. Damit ist der Band auch eine gut lesbare Einführung in den aktuellen Stand der Theoriebildung zur politischen Kommunikation. Die aufgearbeitete Literatur ist umfangreich und lässt kaum Auslassungen erkennen. Bei einem derart hohen Anspruch, möglichst umfassend zu dokumentieren, kann es allerdings nicht ausbleiben, dass die eine oder andere Studie (wie etwa die Mediennutzungsstudie von Margit Böck, 1998) dann doch unberücksichtigt bleibt. Der Wert des Handbuchs kann alles in allem aber nicht hoch genug eingeschätzt werden. Der Band von Plasser und seinen Mitarbeitern ist ein absolutes Muss für alle an der politischen Kommunikationsforschung Interessierten und – das lässt sich jetzt bereits sagen – ein Handbuch, das zu den Standardwerken des Fachs gehören wird. Zu hoffen ist auch, dass dieser Band bei den deutschen Fachkolleginnen und -kollegen endlich eine stärkere Berücksichtigung österreichi-
scher Forschung zur politischen Kommunikation bewirkt. JOHANNA DORER, Wien
Adrian Hadland (Hrsg.): Changing the Fourth Estate. Essays on South African Journalism. – Kapstadt: HSRC Press 2005, 247 Seiten, ZAR 140,–. Dass die Medien auch im Südafrika der Post-Apartheid-Ära als die vierte Gewalt angesehen werden, ist grundsätzlich nichts Neues. Selbst unter den Bedingungen der Rassentrennung gab es trotz allmächtiger Zensurgesetze eine alle Bevölkerungsgruppen übergreifende kritische Presse, die einen entscheidenden Anteil am Erfolg der Demokratiebewegung und deren Lichtgestalt Nelson Mandela hatte. Den Arbeitsund Existenzbedingungen der Medien im neuen, demokratisch unter Führung des ANC regierten Südafrika geht der vorliegende, vom Human Science Research Council (HSRC) veröffentlichte Sammelband nach. Zu Wort kommen ohne Ausnahme Spezialisten der Profession: Chefredakteure, Journalismusprofessoren, Zeitungsherausgeber, Rundfunkbeiräte, Radio- und Fernsehschaffende. In 22 Kapiteln wird die gesamte Bandbreite der Medienarbeit in Südafrika beschrieben. Das Spektrum reicht z. B. vom Nachrichtenschreiben (Tony Weaver), investigativem Journalismus (Mzilikazi wa Afrika), Reiseberichterstattung (Carol Lazar) und Sportreportagen (Rodney Hartman) über Presserecht (Jacques Louw), Medienethik (George Claasen) und Radioreportagen (Pippa Green) bis hin zum Status des öffentlich-rechtlichen Fernsehens (Ruth Teer-Tomaselli), Journalismus und Internet (Arrie Rossouw), den Medien im Rahmen der gesellschaftlichen Transformation Südafrikas (Rehana Rossouw) und der Reflexion über die Zukunft des Nachrichtenwesens im Zeitalter von SMS und Weblogs (Irwin Manoim). Einen erfrischend unkonventionellen Beitrag liefert Jonathan Shapiro (aka »Zaffiro«) mit seinen Ausführungen zur Kunst der politischen Karikatur, welche nicht zuletzt durch ihn selbst in Südafrika einen hervorragenden Ruf genießt. Alle Beiträge überzeugen einerseits durch ihre zielgerichtete journalistische Innenperspektive, anderseits durch ihr Hauptaugenmerk auf die soziale und identitätsstiftende Funktion der Medien in der unter enormem Transformationsdruck stehenden Gesellschaft Südafrikas. Ent-
Buchbesprechungen standen ist ein gelungener Einblick in die Wirklichkeit des südafrikanischen Medienbetriebes, einer professionalisierten Lebenswelt und der Anforderung, in einer stark fragmentierten multiethnischen Gesellschaft und einer mit Demokratie experimentierenden Politik auch weiterhin wirksam die Vierte Kraft zu bleiben.
MICHAEL ECKARDT, Stellenbosch/Göttingen
Gerhard Paul: Der Bilderkrieg. Inszenierungen, Bilder und Perspektiven der »Operation Irakische Freiheit«. – Göttingen: Wallstein Verlag 2005, 237 Seiten, Eur 24,–. Der Band liefert einen Überblick über die visuelle Inszenierung des Irakkriegs von 2003 im Fernsehen. Gerhard Paul sieht den Irakkrieg als Bilderkrieg. In keinem Krieg zuvor seien Bilder in dieser Deutlichkeit zu Waffen mit entscheidender Bedeutung für Sieg oder Niederlage geworden. In zehn Kapiteln untersucht der Autor die Rolle von Bildern in den Rechtfertigungsbemühungen der Vorkriegsphase, die vielfältigen Maßnahmen der USA zur Informationskontrolle während der Kampfhandlungen, die Gegeninszenierungsstrategien durch das arabische Fernsehen, teilweise aber auch durch europäische Kanäle, das Scheitern der Informationspolitik in Abu Ghraib und schließlich die Eskalation des Bilderkriegs in Form von für die Medien inszenierten Hinrichtungen von US-Gefangenen. Paul trägt Material aus dem Internet, internationalen Medien und Expertenurteilen zusammen, aus denen er die Strategien der Kriegsparteien (in erster Linie die Informationspolitik der USA) sowie die daraus resultierenden Bilder rekonstruiert. Als Besonderheit des Irakkrieges 2003 hebt Paul hervor, dass er von Anfang an »auf seine televisuelle Darstellung hin inszeniert wurde« (S. 8). Der Krieg sollte als schnelle und opferlose Befreiungsaktion erscheinen. Dieses Ziel wurde allerdings im Verlauf des Konflikts immer weniger erreicht. Obgleich eingangs eine Fragestellung formuliert wurde (Welche Bilder des Krieges lässt die Fernsehberichterstattung beim Publikum entstehen?), entwickelt Paul keinen theoretischen Rahmen, der die Analyse von Strategien und Bildern anleiten könnte. Die Darstellung erweckt daher über weite Strecken den Eindruck einer relativ unsystematisch zusammengetragenen Sammlung
247
von Beobachtungen und Einschätzungen, die zumindest den aufmerksamen Zeitungslesern bereits bekannt sein dürften. Die Ausführungen halten aber auch einige Highlights bereit – so etwa überall dort, wo Paul durch differenzierte Analysen der Entstehungsbedingungen zeigen kann, dass ein Bild nicht durch zufällige Augenzeugenschaft eines Reporters entstanden ist, sondern Resultat strategischer Planung der Kriegsparteien ist. Die Untersuchung lässt keinen systematischen methodischen Zugriff für die Beantwortung der Forschungsfragen erkennen. Von einem Band über den »Bilderkrieg« hätte man erwartet, einiges zu Verfahren der Bildanalyse zu erfahren. Der Band vermittelt jedoch lediglich Befunde, zu denen ein unsystematisch und ohne bestimmtes Instrumentarium vorgehender Beobachter in den meisten Fällen auch gekommen wäre. Der Versuch, die Realität hinter der Inszenierung zu entdecken, erfordert natürlich keinen wissenschaftlichen Ansatz, sondern lediglich eine sensible »Dekodierung« des Dargestellten. Den Befunden merkt man allerdings die mangelnde theoretische und methodische Fundierung an. Sie führen kaum über Einzelbeobachtungen hinaus. Muster und Zusammenhänge werden nur in Ausnahmefällen identifiziert. Erkenntnisfortschritt vermisst man außerdem dann besonders schmerzhaft, wenn gut abgehangene kommunikationswissenschaftliche Lehrsätze als neue Befunde dargestellt werden: »Der Krieg, wie ihn der Zuschauer sieht, ist ein mediales Produkt, das mit dessen Wirklichkeit nichts oder nur wenig zu tun haben muss.« (S. 14)
CHRISTIANE EILDERS, Augsburg/Hamburg
Hanko Bommert/Andrea Voß-Frick: Fakten und Images: Interviews im dualen System des deutschen Fernsehens. – Münster etc.: LIT-Verlag 2005 (= Reihe: Medienpsychologie; Bd. 5), 184 Seiten, Eur 18,90. Interview, Moderation und Reportage sind zweifellos die wichtigsten Formen des journalistischen Handwerks. Ungeachtet ihrer Bedeutung, die sie im journalistischen Alltag und in einschlägigen Werken zur journalistischen Praxis haben, sind empirische Studien zur Rezeption dieser Formen selten. Deshalb ist es besonders wichtig, Publikationen, die diese Lücken schließen kön-
248
Buchbesprechungen
nen, Aufmerksamkeit zu schenken. Das gilt auch für das Buch von Bommert und Voß-Frick, in dem systematisch untersucht wird, wie Interviews aufgenommen werden. In ihrer empirischen Studie wurden 280 Personen Interviews vorgespielt. Aus einer ursprünglichen Stichprobe von 591 Interviews aus dem Zeitraum November 2002 bis Mai 2003 wurden zufällig 60 Interviews ausgewählt, die den Befragten präsentiert wurden. Es sind je zur Hälfte Interviews aus öffentlich-rechtlichen und privaten Anstalten. Eine zusätzliche Variante bestand darin, die 60 Interviews mit oder ohne Anmoderation zu präsentieren. Es handelt sich ausschließlich um Sachinterviews mit Politikern und Experten. Um die Wahrnehmung und Beurteilung der Interviews zu messen, verwenden die Verfasser 66 Items. Eine Faktorenanalyse dieser Items führt auf vier Faktoren, die zusammen 47 Prozent der Varianz erklären: Faktor 1: destruktiver Befragter, Faktor 2: zielorientierte Interviewführung, Faktor 3: inkompetenter Interviewer und Faktor 4: Interesse der Empfänger am Thema. Zusätzlich werden 16 Items zur Bewertung der Interviews verwendet. Für sie erbringt eine Faktorenanalyse zwei Faktoren, die 60 Prozent der Varianz erklären: Faktor 1: Informationsnutzen des Interviews für die Empfänger und Faktor 2: Präsentationsqualität des Interviews. Es wird nun untersucht, welche soziodemographischen Merkmale und welche Persönlichkeitsmerkmale der Empfänger in welchem Ausmaß die Wahrnehmung und Beurteilung der Interviews beeinflussen. Für diese sechs Dimensionen der Rezeption von Interviews können hier nur wenige Ergebnisse zitiert werden. Die Persönlichkeitsmerkmale der Befragten haben so gut wie keinen Effekt auf eine der sechs Dimensionen. Den stärksten Einfluss auf die Präsentationsqualität, die Zufriedenheit mit den Befragten, mit dem Umgang der Gesprächspartner untereinander, der optischen Aufmachung und auch der inhaltlichen Aufbereitung des Themas hat die Wahrnehmung des Befragten als »destruktiv«. Die zweitstärksten Effekte hat die zielorientierte Gesprächsstrukturierung, gefolgt von der Kompetenz des Interviewers. Der Informationsnutzen des Interviews hängt vor allem von dem Interesse der Empfänger an dem Thema ab, gefolgt von der Wahrnehmung des Befragten als destruktiv und der zielorientierten Gesprächs-
führung durch den Interviewer. Somit ergibt sich der erstaunliche Befund, dass die Qualitäten des Interviewers beeinträchtigt werden durch das Verhalten des Befragten, z. B. indem er ausweicht, das Interview als Plattform für seine Interessen ansieht oder zu lange spricht. Entsprechend werden Interviews mit Politikern beträchtlich schlechter beurteilt als solche mit Experten. Die Gesamtbeurteilung der Interviews variiert geringfügig mit den soziodemographischen Merkmalen: Frauen sind signifikant zufriedener mit dem Interviewer, dem Befragten und dem Interview. Personen im Alter von 23 bis 30 Jahren beurteilen die Interviews durchgängig besser als alle anderen Altersgruppen; die schlechtesten Urteile geben Befragte an, die über 51 Jahre alt sind. Bei der Schulbildung gibt es einen U-förmigen Zusammenhang, denn das mittlere Bildungsniveau (Abitur) beurteilt die Interviews besser als jene mit Haupt- oder Realschulabschluss und jene mit Hochschulabschluss. Untersucht wurde ferner, wie sich die Anmoderation auf die Bewertung der Interviews auswirkt. Hier zeigt sich, dass Interviews mit und ohne Anmoderation insgesamt als gleichermaßen zufrieden stellend beurteilt werden. Jedoch werden für einzelne Merkmale Interviews mit Anmoderation positiver beurteilt, z. B. hat man solche Interviews häufiger »gerne« gesehen, sie waren verständlicher und haben mehr zum Verständnis des Themas beigetragen. Verblüffend ist schließlich folgender Befund: »Ein bedeutsamer Vorsprung öffentlich-rechtlicher Sender in der Informationskompetenz, wie er sowohl von diesen Sendern selbst reklamiert wird, als diesen auch von der überwiegenden Mehrheit der Zuschauer a priori attestiert wird, lässt sich also auf der Basis der Bewertungen des konkreten TV-Materials nicht belegen.« (S. 141) Die Studie von Bommert und Voß-Frick erbringt eine Fülle wichtiger Ergebnisse für die Rezeption von Sachinterviews. Sie zeichnet sich durch ein sehr sorgfältiges methodisches Vorgehen und eine sehr abgewogene Interpretation der Ergebnisse aus. Für den praktischen Journalismus wäre es allerdings nützlich gewesen, Beispiele für positiv und negativ beurteilte Interviews in Auszügen darzustellen. Gleichwohl ist dies eine sehr empfehlenswerte Studie.
JÜRGEN FRIEDRICHS, Köln
Buchbesprechungen Matthias Thiele: Flucht, Asyl und Einwanderung im Fernsehen. – Konstanz: UVK 2005, 321 Seiten, Eur 34,–. Der Titel »Flucht, Asyl und Einwanderung im Fernsehen« weckt hohe Erwartungen, gehören doch Analysen der Fernsehinhalte zum wichtigen Thema Migration zu den ausgesprochenen Raritäten. Die Studie ist als Diskursanalyse angelegt; es soll die Struktur der »dominanten (hegemonialen) Kollektivsymbole« herausgearbeitet werden, die im Fernsehen in den 1990er Jahren programmübergreifend eingesetzt wurden. Eine erfreuliche Besonderheit der Arbeit ist, dass sie sowohl dem Informationsteil als auch dem Unterhaltungsprogramm gewidmet ist. Im Zentrum stehen die Themen »Flucht« und »Asyl«. Das dritte Thema des Titels, die »Einwanderung«, wird nur bei der Analyse des Informationsteils berücksichtigt – und zwar in solchen Sendungen, die Flucht und Asyl mit dem allgemeinen Thema Einwanderung vermischen. Im ersten Teil werden das Nachrichten-, Dokumentar- und Live-Fernsehen mit den Genres Nachrichten, Magazine, Reportagen und PolitTalkshows untersucht. Aus der großen Fülle von sehr anschaulich interpretierten und gleichzeitig sehr kritisch kommentierten Ergebnissen seien hier einige grob skizziert. Flüchtlinge und Einwanderer werden weiterhin in der Kollektivsymbolik von Bedrohungsszenarien präsentiert (finstere Masse, gefährliche Flut, Ansturm, Kostenund Problemverursacher u. ä.). Einen weiteren Schwerpunkt bilden die »normalistischen Debatten um ›Grenzwerte‹« um die Zahl der Einwanderer, um Schmerz- und Belastungsgrenzen. Das Feindbild der »Asylanten« wird durch die neuen Feindbilder der »Illegalen« und »Schlepper«/ »Schleuser« abgelöst. Dem alten Symbol des »vollen Bootes« wird das Bild von der »Armada der Armen« zur Seite gestellt, bei dem Hilfsbedürftigkeit zu Bedrohung umgekehrt wird. Die europäischen Außengrenzen (»Festung Europa«) als Orte hoher Kriminalität und Devianz (z. B. Prostitution), die »repressive Institution« Bundesgrenzschutz und schließlich der Frauenhandel üben eine »Faszination« auf die Fernsehberichterstatter aus, die Art ihrer Darstellung legitimiert eine restriktive und inhumane Flüchtlings- und Migrationspolitik. Wer ein ähnliches Negativbild in der Fernsehunterhaltung erwartet hat, wird eines besseren belehrt. Die sehr anschaulich beschriebenen fik-
249
tionalen Filme – Krimis und krimiähnliche Filme, Komödien und Tragikomödien, allesamt vom öffentlich-rechtlichen Fernsehen ausgestrahlt – bilden so etwas wie einen aufklärerischen Gegenpol zur Fernsehberichterstattung: Fast alle Filme weisen sozialkritisch auf Alltagsrassismus, auf Flüchtlingselend und -ohnmacht, auf die Ausbeutung »illegaler« Arbeitskräfte, auf Unverhältnismäßigkeiten im Polizeieinsatz oder auf eine inhumane Asyl- und Flüchtlingspolitik hin. Der Befund dieser gekonnten qualitativen Analysen zu Inhalt und Ästhetik der Fernsehfilme zeichnet eine wichtige neue und auch überraschende Facette zur bisher bekannten Darstellung von Migranten in den deutschen Mainstream-Medien. Aus sozialwissenschaftlicher Sicht lässt die Studie eine Reihe von Wünschen offen. Da sie nicht als systematische Analyse angelegt ist, bestehen Zweifel an der Verallgemeinerungsfähigkeit ihrer Ergebnisse. So bleibt die empirische Basis unscharf; die Auswahlkriterien der untersuchten Sendungen – welcher Zeitraum, welche Sender – werden ebenso wenig mitgeteilt wie die Anzahl der untersuchten Sendungen. Wenn Kollektivsymbole als »dominant« oder »hegemonial« vorgestellt werden, fehlen genauere quantitative Angaben und Belege, so dass unklar bleibt, ob und eventuell wie stark die herausgearbeiteten Bilder von anderen oder auch gegenläufigen Tendenzen durchkreuzt werden. Des Weiteren tritt die Analyse mit hohen Ansprüchen an: Sie versteht sich als »eine Form der ›Intervention‹ […], die nicht nur darauf zielt, das durch das Fernsehen produzierte […] soziokulturelle Wissen zu beschreiben und zu erklären, sondern auch in Frage zu stellen und zu verändern« (S. 12). De facto beschränkt sie sich allerdings auf eine sehr kritische, aber »sendungsimmanent«-beschreibende Bestandsaufnahme. Die Fragen nach dem »Warum sieht die Fernsehwirklichkeit so und nicht anders aus?«, »Wie sollte sie idealiter aussehen?«, »Wo kann man ansetzen, um Verbesserungen zu erreichen?« werden gar nicht oder nur andeutungsweise behandelt. Schließlich fordert auch der normative Rahmen für die kritische Hinterfragung der Ergebnisse zu einem Kommentar heraus. Er wird nicht explizit gemacht, lässt sich aber aus den durchgehend wertbesetzten Formulierungen erschließen. Etwas pointiert formuliert: Hinter den Bewertungen steckt die Utopie einer Welt ohne Grenzen mit schrankenloser Freizügigkeit – ein huma-
250
Buchbesprechungen
nitärer Wunschtraum, den sich leider keine Gesellschaft realiter leisten kann, die Migranten anzieht. Diese Einwände ändern nichts daran, dass Matthias Thiele eine intelligente und anregende Untersuchung vorgelegt hat – anregend hoffentlich auch in dem Sinne, dass sie weitere Forschungen zu diesem wichtigen Feld stimuliert.
RAINER GEIßLER, Siegen
Albert Ernst: Wechselwirkung. Textinhalt und typografische Gestaltung. – Würzburg: Königshausen & Neumann 2005, 287 Seiten, Eur 39,80. Die wesentlichen Arbeiten, mit denen ein Grafiker in seinem Berufsalltag zu tun hat, sind die immer wieder neue gestalterische Anordnung von Bild und Text auf einer Fläche. Kein Wunder, dass dabei die intensive Auseinandersetzung mit der Typografie eine Hauptrolle spielen sollte. War der Begriff Typografie in den 1980er Jahren noch mit Buchdruckerkunst umschrieben und das Lehrangebot an Gestaltungshochschulen eher marginal besetzt, so änderte sich das im Verlauf der 90er Jahre erheblich. Bis heute gibt es kaum noch eine Hochschule für Design, wo nicht mindestens eine Professorenstelle sich der typografischen Gestaltung widmet. In weiten Teilen der Gesellschaft bleibt der Begriff Typografie jedoch ein Fremdwort. Obwohl wir im Alltag von typografischen Erscheinungsformen massenhaft umgeben sind, wird von vielen die typografische Gestaltung, wenn überhaupt, eher unterbewusst wahrgenommen. Die Buchstaben des Alphabets, diese »26 schwarzen Tänzer«, wie Hans Magnus Enzensberger sie in seinem Gedicht »Altes Medium« nennt, sind das universelle Zeichensystem schlechthin. Aus diesen Zeichen lassen sich Worte, Sätze und Texte kombinieren, die Sinn und Inhalte vermitteln zum sozialen und kulturellen Selbstverständnis der Menschen untereinander. Wenn sich der Gestalter nicht zum Dekorateur degradieren lassen will, so bietet sich im weiten Feld der Typografie eine Vielfalt von Möglichkeiten an, vom Inhalt heraus die Form zu entwerfen. Wissenschaftlich fundiert und praxisnah schreibt der Autor Albert Ernst nicht nur von diesen Möglichkeiten, sondern auch von Textinhalt und typografischer Gestaltung, deren An-
mutungsqualitäten und Wechselwirkungen in Bezug zur Wahrnehmung. Als diplomierter Designer und Dozent weiß der Autor, wovon er spricht, wenn er den aktuellen Forschungsstand darstellt und im Textzusammenhang inhaltsgerechte und inhaltsbetonende Typografie verdeutlicht. Er unterteilt sinnvoll und zum besseren Verständnis Alltags-, Lese-, Werbe- und künstlerische Typografie. Seine Recherchearbeit ist ausführlich, alle wichtigen Fachleute kommen zu Wort, und eine ausgesuchte Fülle beispielhafter Abbildungen ergänzen seine Ausführungen treffend. Überzeugend belegt er, dass Typografie nicht nur dem gestalterischen Aufräumen zur besseren Lesbarkeit dient, sondern dass inhaltsgerechte Typografie auch künstlerisch, illustrativ und inszeniert daherkommen kann und somit Gestaltung und Inhalt untrennbar zueinander in Beziehung stehen. Kritisch analysiert und beschreibt er typografische Erscheinungsformen am Beispiel von Büchern, Zeitungen, Zeitschriften, Anzeigen etc. und stellt die Frage: »Warum gibt es eigentlich keine Typografiekritik?« Den gestalterischen Mitteln über die Makrotypografie bis zur Detailtypografie wie auch den Rahmenbedingungen der typografischen Gestaltung sind ausführliche und für die Praxis hilfreiche Kapitel gewidmet, abgerundet mit einem Glossar, das Fachbegriffe erklärt. Auch wenn die Sprache ein wenig leidet, bedingt durch das wissenschaftliche Korsett, ist das Buch eine wichtige Publikation, in Theorie und Praxis, zum Stand des aktuellen Diskurses in der Typografie. Der sorgfältig gestaltete und hergestellte Band, der Text- und Bildebene funktional und auf hohem ästhetischen Niveau miteinander kombiniert, gehört nicht nur in die Hände von Fachleuten und Studenten, auch dem interessierten Laien bietet er eine Fülle spannender Informationen. UWE GÖBELS, Bielefeld/München
Thomas W. Duschlbauer: medium.macht.manipulation. Aspekte zu Medien, Kultur und Psychologie. – Wien: Braumüller 2005 (= edition PKW; Bd. 1), 110 Seiten, Eur 19,90. Fragen einer Auseinandersetzung mit Medien und Macht haben in den letzten Jahren innerhalb der Kommunikations- und Medienwissenschaft dankenswerterweise wieder an Relevanz
Buchbesprechungen gewonnen. Insofern steht die Veröffentlichung von Thomas Duschlbauer in einem gewissen ›Trend‹ wissenschaftlicher Auseinandersetzung – und man ist gespannt, welche Aussagen in der von ihm eingeforderten »psychologischen Perspektive« (S. 8) möglich sind. Zu dieser Erwartung trägt sicherlich bei, dass gerade im Umfeld der Cultural Studies verschiedene jüngere Arbeiten vorgelegt wurden, die eine solche ›psychologische Perspektive‹ mit einer sowohl ›soziologischen‹ als auch ›kulturanalytischen‹ verbinden und dabei in Bezug auf Medien(kultur) zu hoch spannenden Ansätzen kommen. Diese Erwartung – weiter gesteigert von Klappentext, Vorwort und Einleitung – wird leider mit dem Buch von rund 100 Seiten nachhaltig enttäuscht. Bei näherem Blick entpuppt sich die Veröffentlichung nämlich gerade nicht als Versuch, »für die Medientheorie neue […] Perspektiven zu eröffnen« (S. 8), sondern als ein Konglomerat einführender Darstellungen in sehr unterschiedliche Theoretiker, die sich sicherlich alle darin treffen, sich auch mit Medien und Kommunikation auseinander gesetzt zu haben: Den Einstieg bildet eine Beschäftigung mit Freud und Jung, es geht weiter mit Wittgenstein und Watzlawick, dann folgen Lacan und i ek, Deleuze und Sontag, Adorno und Bourdieu sowie Chomski und Postman. Welche Theoretiker jeweils in welchem Kapitel zusammen behandelt werden, ist mal nahe liegender (Freud und Jung beispielsweise), mal kaum nachzuvollziehen (Deleuze und Sontag). Die nur schwer zu erschließende Kapitelstruktur wäre möglicherweise ein kleinerer Kritikpunkt an dem Buch. Was aber noch ratloser macht, ist, dass die Auseinandersetzung mit den einzelnen Theorien (und deren kommunikations- und medientheoretischem Gehalt) häufig sehr oberflächlich bleibt. Wenn dieses Buch aber keine differenzierte Auseinandersetzung mit bestehenden Theorien ist, so könnte man erwarten, dass es eine eigenständige Theorieentwicklung auf Basis vorliegender Konzepte wäre. Aber auch hier wird man eher enttäuscht. Was die verschiedenen Kapitel miteinander verbindet, ist gerade nicht die Entwicklung einer eigenständigen Theorie(perspektive). Vielmehr ist es eine wertende Grundhaltung, wenn beispielsweise von »spießige[n] Bildungsbürger[n]« (S. 15) oder von Events als einem »Aufbauschen eines Themas« (S. 41) die Rede ist. Gekoppelt wird diese wertende Haltung mit einem eher undifferenzierten Verständnis gegenwärtiger Phänomene der Me-
251
dienkultur (beispielsweise in Bezug auf Flashmobs oder die Kommerzialisierung von Jugendkultur), das zumindest teilweise darauf beruht, dass kaum empirische Forschung zu den jeweiligen Feldern zu Rate gezogen wird. Insgesamt zeigt das Buch deswegen einmal mehr: Die Kommunikations- und Medienwissenschaft sollte sich besser durch eine eigenständige Theoriebildung profilieren, als verschiedenste Anleihen zu machen, die sich in kommunikations- und medienwissenschaftlicher Perspektive nicht zusammenfügen. Die Leistung des Buchs von Duschlbauer ist, dass es genau darauf hinweist und aufmerksam macht: dass eine solche Theorieperspektive kritisch und grundlegend sein sollte und ›Theorien mittlerer Reichweite‹ da nicht genügen. Ein Theorieentwurf in diesem Sinne ist die Publikation aber ebenso wenig wie eine Einführung in die genannten Theoretiker.
ANDREAS HEPP, Bremen
Oliver Gehrs: Der Spiegel-Komplex. Wie Stefan Aust das Blatt für sich wendete. – München: Droemer 2005, 335 Seiten, Eur 19,90. Wenn es stimmt, dass ein Kerl eine Meinung und ein Journalist eine These haben muss, dann ist Oliver Gehrs ein ganzer Kerl und ein Journalist mit einer starken These: »Der ›Spiegel‹ und Stefan Aust haben sich verändert, seit sie zueinander fanden. Der ›Spiegel‹ ist erfolgreich, aber er hat weniger Macht.« Stefan Aust, der 59-Jährige, ist seit Ende 1994 Chefredakteur des Nachrichtenmagazins aus Hamburg, Oliver Gehrs, der 37-Jährige, hat zwischen 1999 und 2001 in Berlin für den ›Spiegel‹ mit Schwerpunkt Medien gearbeitet. Gehrs sagt, er wollte dann gehen, andere sagen, er sei von Aust gegangen worden. Vom schwierigen Verhältnis sollte man wissen, denn den »Spiegel-Komplex« durchzieht ein Strich: Wie Aust das Blatt für sich wendete, wie aus dem, der »sich als Journalist wie kein zweiter um die Demokratie in diesem Land verdient gemacht hat«, ein Mächtiger unter Mächtigen geworden ist. Ein wankelmütiger Journalist der Bosse. Gehrs will über seine Autorität des erlebten Mittendrin eine Nahaufnahme, eine Arbeitsbiografie vorlegen – eine Biografie will er. Er respektiert die Privatperson Aust, umgekehrt er den Journalisten zu düpieren, zu demaskieren beab-
252
Buchbesprechungen
sichtigt. Nicht den ganzen, beileibe nicht, nur den ›Spiegel‹-Chefredakteur Aust möchte er treffen. Aust ist seit vier Jahrzehnten Journalist und darüber ein Chronist der Bundesrepublik geworden. Der Mann aus Stade war dort, wo die Reibepunkte waren: die Auseinandersetzung mit der Nazi-Generation, die 68er, die Apo, die RAF, die Anti-Atomkraftbewegung, das Aufkommen der Grünen, der fortgesetzte Kampf gegen Franz Josef Strauß, das Ende der DDR, das rot-grüne Projekt. Aust wird von der Geschichte erst bewegt, um sie dann mit zu bewegen – bewegen zu können, weil seine Hebel immer länger werden: Schülerzeitung, ›Konkret‹, ›St. Pauli Nachrichten‹, das Fernsehmagazin ›Panorama‹. Aust schreibt, filmt, er ackert, er deckt auf (Filbinger, der Nazi-Richter!), er kommt von links, ohne ein linker Dogmatiker zu sein. Aktion geht vor Agitation. Aust will Schlagzeilen, die brennen, Geschichten, die aufregen, Zahlen, die befriedigen, kurz: Kampf, Kapital und Karriere. Gehrs’ temporeiches Buch hat hier seine stärksten Momente, wenn der Text pointiert, ja hellsichtig die Wegmarken des Landes mit den journalistischen Leistungen von Stefan Aust verknüpft. Mit seiner Verve, seinem ausgeprägten Willen zur Recherche, dem Instinkt des Blattmachers und Story-Tellers fällt Aust bei Rudolf Augstein auf; erst soll er ›Spiegel-TV‹ aufbauen (was glänzend gelingt), dann wird Aust Chefredakteur des ›Spiegel‹ unter dem Herausgeber Augstein. Von da an ging’s bergab, würde Gehrs sagen. Ein im Grunde »unpolitischer Chefredakteur« hält die Auflage über der Ein-Millionen-Marke und gibt die Einflussgröße ›Spiegel‹ dafür preis. Vom dritten, dem eigentlichen »Spiegel-Komplex« an wirken die Kapitel zurechtgelegt, die zusammengetragenen Belege und Beweise suggestiv arrangiert, müssen die anonymisierten Aussagen und Quellen – je nach Standpunkt des Lesers – glaubwürdig oder fragwürdig erscheinen. Was relevant wäre: eine analytische Auseinandersetzung mit dem ›Spiegel‹ und seinen publizistischen Möglichkeiten in heutigen Medienzeiten. Kann ein einziges Magazin noch über die Einhaltung des Reinheitsgebotes für Politik, Wirtschaft und Gesellschaft wachen, ist das Augstein’sche Diktum vom »Sturmgeschütz der Demokratie« noch drin? Tatsächlich ist der ›Spiegel‹ von der ›Süddeutschen Zeitung‹ als das Leitmedium für Journalisten abgelöst worden. Oliver Gehrs bleibt beim »intimen Blick hinter die Kulissen des ›Spiegel‹« im Schlüsselloch zu Austs Arbeitszimmer stecken. Er dimmt seine
Beobachtungen auf interessant bis amüsant herunter. Die letzten vielleicht hundert Seiten sind schlechter ›Spiegel‹-Stil: Einem eins mitgeben, weil man nicht wirklich an ihn herankommt. Semper aliquid haeret. Oder im Gehrs-Sound: »Es ist also irgend etwas schief gelaufen in Austs Amtszeit. Im ›Spiegel‹ selbst sind kritische Stimmen verstummt, er ist innen hohl.«
JOACHIM HUBER, Berlin
Klaus Arnold/Christoph Neuberger (Hrsg.): Alte Medien – neue Medien. Theorieperspektiven, Medienprofile, Einsatzfelder. Festschrift für Jan Tonnemacher. – Wiesbaden: VS Verlag für Sozialwissenschaften (= Reihe: Public Relations), 377 Seiten, Eur 34,90. Festschriften stellen bekanntlich eine besonders anspruchsvolle Form eines Publikationsvorhabens dar. Festschriften wollen – könnte man meinen – mit Umsicht bewusst konzipiert und sorgfältig realisiert werden. Leider ist bei der vorliegenden Schrift nun aber einiges schief gegangen. Warum? Da ermöglicht ein Verlag einem seiner Buchreihenherausgeber das Erscheinen seiner Festschrift in eben der vom ihm mit herausgegebenen Reihe. Nun ja. Zwar gehören in diese mit »Public Relations« bezeichnete Buchreihe wohl Beiträge zu bzw. über Public Relations, aber … das ist ja der Fall, denn in dieser Festschrift wendet sich immerhin ein Beitrag explizit dem Bereich PR zu. Grob in vier Buchkapitelteile umbrochen werden dann Beiträge zu vielen Themen präsentiert, und zwar unter den Kapitelüberschriften »Theorieperspektiven«, »Medienprofile«, »Einsatzfelder« und »Misszellen – Biographisches – Bibliographie«. Lassen wir den letzten Teil einmal beiseite, so bietet uns diese Einteilung keine sichere Orientierungshilfe. Zum Glück aber finden wir in allen drei Bereichen des Bandes altbekannte Dinge und innovative Beiträge von Gewicht. Im Teil »Theorieperspektiven« gehört der Beitrag von Christoph Neuberger zu den guten Lesefrüchten. Er setzt sich auf einer breiten theoretischen Basis mit der Selbstthematisierung »neuer« Medien, vor allem dem Internet, im medialen Diskurs auseinander. Metaanalysen können interessante Erklärungen für die soziale Form der Institutionalisierung von Medien lie-
Buchbesprechungen fern. Im gleichen Teil des Bandes rechnet Klaus Merten mit klarem Blick auf die wissenschaftliche bzw. ökonomische Konkurrenz ab: Er geißelt Werk und Wirken eines gewissen Roland Schatz. Darüber konnten wir an anderer Stelle schon einmal etwas lesen. Im zweiten großen Teil des Bandes finden wir zahlreiche Reflexionen über die Medienentwicklung, Überlegungen dazu, warum einiges anders kam, als es prognostiziert wurde, und wie es hätte werden können, wenn ein bestimmtes Medium nun nicht gekommen wäre und so weiter. Als anregend und innovativ in diesem Teil des Buches ist der Beitrag von Walter Hömberg und Manuel Bödiker zu nennen: Die Autoren befassen sich mit Kommunikations- und Medienmuseen und machen damit auf ein interessantes Phänomen in der modernen Ausstellungslandschaft aufmerksam – und damit auch auf das Problem, wie eigentlich Kommunikation darbzw. ausgestellt werden kann. Und im dritten Teil des Bandes finden wir dann eine recht bunte Mischung an weiteren Themen, für die man sich auch interessieren kann. Als lesenwert sei hier nur der Beitrag von Christian Mihr hervorgehoben. Er befasst sich, unter Beizug theoretischer Überlegungen, mit dem sozialen Wandel und dem Medienwandel in Lateinamerika und arbeitet spezifische Entwicklungsmuster zwischen den OECD-Staaten und den so genannten Entwicklungsländern heraus. Fazit: In Titelwahl, Bandstruktur und Textauswahl vermag diese Festschrift nicht zu überzeugen. Neben zweifellos innovativen wie auch anregenden Beiträgen finden wir wenig Neues. Eine »Festschrift für Jan Tonnemacher« hätte durchaus fokussiert und profiliert angelegt werden können. OTFRIED JARREN, Zürich
Peter Brummund: Bahnhofsbuchhandel. Von der Versorgung mit Reiseliteralien zum Premiumhandel für Zeitungen und Zeitschriften. – München: K. G. Saur 2005 (= Reihe: Dortmunder Beiträge zur Zeitungsforschung; Bd. 61), 95 Seiten, Eur 24,–. Nicht nur Kommunikationswissenschaftler, die von einer Tagung zur nächsten mit der Bahn unterwegs sind und sich für die Reise mit Tageszeitung und aktueller Lektüre versorgen, kennen
253
sie: die Bahnhofsbuchhandlung. Sie steht synonym für ein breites Angebot an nationaler wie internationaler Presse, das auch Very-Special-Interest-Titel umfasst, die der normale Presseeinzelhandel in der Regel nicht bereithält – und das auch sonn- und feiertags. Peter Brummund hat diesem speziellen Absatzweg eine Monographie gewidmet, mit der er einen wissenschaftlich bislang nur wenig bearbeiteten Gegenstandsbereich in seinen Blick nimmt – pünktlich zum 100-jährigen Bestehen des Verbandes Deutscher Bahnhofsbuchhändler. Herausgekommen ist aber keine Verbandsgeschichte, sondern eine Branchenbetrachtung. Brummunds Blick richtet sich dabei nur in geringem Maße auf die Vergangenheit, die er kursorisch an Beispielen einzelner Bahnhofsbuchhändler abhandelt. Vielmehr geht es ihm um eine Bestandsaufnahme und Problemanalyse der aktuellen Situation im Bahnhofsbuchhandel, die er u. a. geprägt sieht von Konzentrationstendenzen in der Branche, den Herausforderungen, die sich aus der Privatisierung der ehemaligen Bundesbahn ergeben, sowie allgemeinen Trends im Einzelhandel. Seine Ableitungen daraus bündelt Brummund in seinem abschließenden Kapitel zu einer Strategie, mit der der Bahnhofsbuchhandel seiner Meinung nach auf die Herausforderungen reagieren und sich für die Zukunft aufstellen kann. Wie bei seiner in der gleichen Reihe erschienenen Monographie zum Absatzweg über den Pressegroßhandel betrachtet der gelernte Betriebswirt den Bahnhofsbuchhandel in erster Linie aus unternehmerischer Sicht, ohne allerdings politische oder rechtliche Implikationen außer Acht zu lassen. Seine Darstellung des Spannungsfeldes der Interessen von Bahnhofsbuchhandel, Verlagen und Deutscher Bahn ist auch für den Außenstehenden aufschlussreich. Brummunds großer Vorteil ist, dass er die Vertriebsbranche als langjähriger Praktiker in verschiedenen Positionen sehr gut kennt. Die Arbeit zeichnet sich daher durch vielfältige und konkrete Zahlen und Informationen aus dem Innenleben der Branche aus, für die er u. a. auf die privaten Archive einzelner Bahnhofsbuchhändler zurückgreifen konnte. Dass Brummund als Eigentümer eines Nationalvertriebs selbst Interesse am Erhalt des Absatzweges Bahnhofsbuchhandel haben muss, sollte erwähnt werden, wertet seine wissenschaftliche Arbeit aber nicht ab.
BERND KLAMMER, Münster
254
Buchbesprechungen
Peter Filzmaier/Fritz Plasser: Politik auf amerikanisch. Wahlen und politischer Wettbewerb in den USA. – Wien: Manzsche Verlags- und Universitätsbuchhandlung 2005, 328 Seiten, Eur 48,–. Dieses Buch liegt in der Hand wie die vielen amerikanischen Einführungen in das politische System, die für die Standardkurse am College geschrieben werden. Großformatig, mit kräftigem Einband und selbst das Titelbild kommt sehr bunt und amerikanisch (Flagge, Capitol, Lincoln) daher. Aber auch der Inhalt präsentiert sich übersichtlich, mit vielen Tabellen, wichtigen Literaturverweisen und elektronischen Fundstellen. Diese übersichtlich geschriebenen Lehrbücher sind ein wesentliches Rückgrat des leistungsfähigen US-Hochschulsystems. Hält dieser Titel den Vergleich aus? Versprochen wird eine Auseinandersetzung mit der angeblichen »Amerikanisierung« europäischer Wahlkämpfe. Überhaupt stellen die Autoren den Auftrag in den Mittelpunkt, unter die Oberfläche stereotyper Bilder amerikanischer Wahlkämpfe vorzudringen. Meist gehen bei uns die Kenntnisse kaum über die pittoreske Seite hinaus: Shows der Spitzenkandidaten, negative Werbespots und die berühmten TV-Debatten. Die sind übrigens wirklich Debatten, in den USA gibt es keine »Duelle«. Die Darstellung ist in acht Kapitel eingeteilt, wobei der Einstieg mit einer Darstellung »politischer Wettbewerbsfaktoren« erfolgt, es geht hier um allgemeine Rahmenbedingungen, Verfassungsrecht, Wahlsystem und politische Geographie. Die sechs nachfolgenden Kapitel widmen sich Einzelaspekten: Wahlkampffinanzierung, Meinungsmacher/Political Consultants, Bedeutung des Internets, Präsidentschaftswahlkämpfe, Kongresswahlkämpfe, Wahlanalysen. Das abschließende, zusammenfassende und dimensionierende Kapitel diskutiert Grundfragen des politischen Wettbewerbs. Dabei wird auf das Wahlverhalten in einer gespaltenen Nation eingegangen, in der religiös-moralische und sozioökonomische Faktoren zunehmend Trennlinien schaffen. Das sind die richtigen Schwerpunkte, wobei auch neueste Trends eingefangen werden. Die Darstellung erfolgt faktenorientiert, oft begleitet von Tabellen und Zahlen, umfängliche Quellenverweise machen deutlich, dass der aktuelle Forschungsstand eingearbeitet ist. Hier liegt die unbestreitbare Stärke des Buchs. Aber auch seine (geringe) Schwäche. Denn manche Infor-
mationen gehen in einem Überangebot von Zahlen unter, widerstrebende Angaben werden nicht immer plausibel erklärt. Manche Tabellen sind schwer lesbar, so fehlt bei denen zur Parteienfinanzierung mitunter die Währung (Dollar). Vermisst habe ich eine systematische vergleichende Übersicht zur angesprochenen Amerikanisierungs-These, also zu Ähnlichkeiten bzw. Differenzen in den Wahlkämpfen Mitteleuropas. Sie ziehen sich durch die Gesamtstudie, sind aber an keinem Ort geschlossen dargestellt. Jenseits dieser kleinen Irritationen handelt es sich aber um eine kompetente Darstellung mit differenzierten Beurteilungen, die oft auf der kritischen Seite stehen, immer aber aus US-Quellen abgesichert sind (die Autoren pflegen enge wissenschaftliche Kontakte zu Universitäten der US-Hauptstadt). In der Summe handelt es sich teilweise bereits um eine Forschungsstudie und nur teilweise noch um ein Lehrbuch – aber beides auf hohem Niveau.
HANS J. KLEINSTEUBER, Hamburg
Volker Gehrau/Helena Bilandzic/Jens Woelke (Hrsg.): Rezeptionsstrategien und Rezeptionsmodalitäten. – München: Verlag Reinhard Fischer 2005 (= Reihe: Rezeptionsforschung; Bd. 7), 252 Seiten, Eur 22,–. Die seit den 1990er Jahren verstärkt stattfindende Mediennutzungs- und auch die Rezeptionsforschung sind in vielerlei Hinsicht bis heute ein Torso geblieben. Nicht zuletzt unter dem Druck der Medienhersteller/-veranstalter mit ihrer engen Perspektive, die sich mit dem Diktum von Ien Ang als »desperately seeking the audience« beschreiben lässt, haben sie beide empirisch viele Einzelergebnisse erarbeitet, es ist hier aber keine haltbare breitere Theoretisierung geglückt. Mit dem neu vorgelegten Band der DGPuK-Fachgruppe Rezeptionsforschung von ihrer Jahrestagung in Salzburg 2004 zeichnet sich ab, dass derzeit insbesondere im Bereich der Nutzungsforschung ein neuer und Erfolg versprechender Theoretisierungsschritt in Arbeit ist. »Wir glauben, dass Rezeptionsstrategien […] ein geeigneter Ansatz sein könnten, die Überlegungen und Befunde einer Rezeptions-, Aneignungs- und Wirkungsforschung zu integrieren«, so dementsprechend auch die einleitenden Bemerkungen der Tagungsmitveranstalter Jens Woelke und In-
Buchbesprechungen grid Paus-Hasebrink (S. 9). In der Anthologie findet sich eine Reihe von Beiträgen namhafter Nutzungsforscher, die an dieser neuen Theorieorientierung mitarbeiten. Vermutlich wollen potenzielle Leser zunächst einmal wissen, um was es dabei geht und was man sich unter Rezeptionsmodalitäten und Rezeptionsstrategien eigentlich genau vorzustellen hat. Diese Frage ist aber schwierig zu beantworten. Denn sowohl die Sache selbst, also die Theorie, die die Mediennutzungsforscher suchen, als auch die Begriffe, die sie dafür verwenden, sind noch recht disparat. Nutzungsmuster und Rezeptionsdimensionen, Rezeptionsstrategien und -modalitäten, -modi und -typen, die Nutzerund die Medienhandlungstypen nicht zu vergessen, bevölkern die Aufsätze, und viele dieser Begriffe werden auf unterschiedliche Weise benutzt. Die Empfehlung des Rezensenten ist es deshalb, das Buch von hinten zu lesen. Denn auch die Herausgeber haben dieses Problem bemerkt und den verschriftlichten Tagungsbeiträgen deshalb einen Text hinzugefügt, der den Stand der Dinge ordnet, und der deshalb ausgesprochen hilfreich ist: In einem abschließenden Beitrag versuchen Uwe Hasebrink und Ingrid Paus-Hasebrink, die Vielfalt in eine handhabbare Form zu bringen, die dem Rezensenten einiges an Arbeit abnimmt. »Ausgangspunkt der meisten einschlägigen Untersuchungen ist zunächst das Anliegen, bestimmte Merkmale von Rezeptionsprozessen zu identifizieren, anhand derer sich diese unterscheiden lassen.« (S. 236) Dabei geht es aber eigentlich nicht um die Charakterisierung von Rezeptionsprozessen, sondern um die empirisch begründete Bildung von Nutzungstypologien. Genauer ausgedrückt darum, die verwirrende Vielfalt von beobachtbaren individuellen Nutzungsweisen und damit verbundenen Rezeptionserwartungen zu typologisieren, wobei eben ganz unterschiedliche Merkmale von Nutzung und Rezeption als Typologisierungsbasis verwendet werden. Wie sich diese Begriffe dann unterscheiden, wird, sofern das derzeit schon möglich ist, in diesem abschließenden Beitrag dargelegt. Die Beiträge kreisen also darum, medienbezogenes Handeln durch als wesentlich angenommene Kernmerkmale zu charakterisieren und so empirisch typische Muster dieses Handelns zu gewinnen, die dann als Basis für weitere Theoretisierungen dienen können. Das drückt sich beispielsweise in der Verwendung des schon in den
255
1990er Jahren entwickelten Konzepts der Nutzungsmuster aus, will aber zumindest vom Anspruch her auch den Handlungssinn und die Handlungskontexte, mindestens aber die Rezeptionserwartungen und -absichten berücksichtigen und nimmt damit auch die Rezeption in den Blick. Nach dem einleitenden Text folgen in dem Band deshalb zunächst unter dem Titel der theoretischen Ansätze vier Aufsätze, die sich mit dem Konstrukt der räumlichen Präsenz und der »Suspension of Disbelief« beschäftigen, mit Rezeptionsmodalitäten als Bewusstseinsform auseinandersetzen und Rezeption zwischen Routine und Widerstand diskutieren. Es folgt ein zweiter Teil, der eine Verbindung zwischen Theorie und Praxis herstellen will. Die dort versammelten Aufsätze beschäftigen sich mit dem Thema der Verwechselung von Realität und Fiktion, mit der Herleitung von Modi der Medienrezeption und mit methodischen Fragen. Im dritten Teil schließlich, dem ausführlichsten, werden empirische Studien vorgestellt. Dabei werden verschiedene Medien berücksichtigt und verschiedene Ebenen von Nutzungs-, Auswahl- und Rezeptionsprozessen behandelt. Nicht alle der hier versammelten Texte fügen sich der Dramaturgie einer Orientierung an den Kernbegriffen der Modalität und der Strategie, sind aber trotzdem interessant: Beispielsweise entwickeln Daniel Hajok und Antje Richter ein konstruktivistisch orientiertes Rezeptionsmodell, das einer genaueren Beachtung wert zu sein scheint. Wer den Stand der Nutzungsforschung von heute im Blick behalten will, sollte also den vorliegenden Band lesen. Eine Theorie der Mediennutzung lässt sich hier in Ansätzen erkennen. Die Forschungsrichtung ist auch deshalb zukunftsträchtig, weil in diesem Rahmen alte Gräben zwischen hier quantitativ und dort qualitativ punktuell zugeschüttet zu sein scheinen, weil hier primär empirisch interessierte MainstreamKommunikationswissenschaftler und eher theoretisch orientierte Kulturwissenschaftler einen Dialog begonnen haben. Ob sich allerdings die dann doch sehr weit reichende Hoffnung, die Woelke und Paus-Hasebrink im ersten Beitrag formulieren, tatsächlich erfüllt, muss offen bleiben. Vermutlich wird der Rezeptionsprozess selbst, der ja letztlich auf Verstehensprozesse rekurriert, durch solche Typisierungsschritte allein nicht theoretisch verstanden werden können. Aber die Theoretisierung der Mediennutzung ist sowohl als Antwort auf eigene spezifische Fragen
256
Buchbesprechungen
wie auch als Voraussetzung für Rezeptionstheorien ein wichtiger nächster Schritt.
FRIEDRICH KROTZ, Erfurt
Thomas Bräutigam: Hörspiel-Lexikon. – Konstanz: UVK 2005, 540 Seiten, Eur 29,90. 1969 sah Hörspiel-Papst Heinz Schwitzke erstmals die Notwendigkeit, einen »Hörspiel-Führer« zu verfassen, um so Orientierung in der stetig wachsenden Radiokunst zu ermöglichen. Franz Hiesel wählte 1990 999 Hörspiele (»Repertoire 999«) aus, Thomas Bräutigam beschränkt sich in seinem »Hörspiel-Lexikon« nun auf rund 400 deutschsprachige »Originalhörspiele« (S. 10). Seine Auswahl ist streng: Rund 100.000 Hörspiele sollen zwischen 1924 und heute gesendet worden sein. Bräutigam hat vor allem jene Hörspiele ausgewählt, die durch Preise (Hörspielpreis der Kriegsblinden, Prix Italia etc.) ausgezeichnet oder besonders häufig gesendet wurden, Repertoire-Stücke also. Der Berliner Literatur- und Medienwissenschaftler schreibt den ausgewählten Hörspielen einen »repräsentativen Status« (S. 7) zu. Jedes Hörspiel wird sehr ausführlich auf (mindestens) einer Seite (vor allem inhaltlich) vorgestellt. Produktionsdaten (Sender, Regisseur, Sprecher) und unterschiedliche Realisationen werden angegeben. Die 400 Hörspieltitel sind (etwas gewöhnungsbedürftig) alphabetisch geordnet, von »Abendstunde im Spätherbst« bis »Zwielicht«. In einem fast 80-seitigen »biographischen Anhang« sind die Kurzbiografien der Autoren nochmals separat aufgeführt, dazwischen stehen (etwas verwirrend) auch die Daten einiger Regisseure und Sprecher. Schließlich gibt es Hinweise auf wichtige Hörspielliteratur. Bräutigam betont in seinem knappen Vorwort (S. 7-10), dass das »Lexikon historisch ausgerichtet« und das neuere Hörspiel »unterrepräsentiert« (S. 10) sei. In der Tat dominieren Hörspiele aus der Blütezeit des literarischen Hörspiels. Ilse Aichinger (5 Titel), Alfred Andersch (7), Manfred Bieler (5), Heinrich Böll (7), Günter Eich (18), Fred von Hoerschelmann (6), Marie Luise Kaschnitz (6), Dieter Wellershoff (6), Wolfgang Weyrauch (6) oder Erwin Wickert (5) sind stark präsent – und dies hängt nicht zuletzt damit zusammen, dass ihre Hörspiele in Buchform leicht zugänglich und nachlesbar sind. Für
die meisten ausgewählten Hörspiele kann Bräutigam einen Buchdruck nachweisen, auch für die gut vertretenen Neuen Hörspiele (Wondratschek, Kagel). Gerade einmal 50 der beschriebenen Hörspiele entstanden nach 1985 und der so folgenreichen Etablierung des Dualen Rundfunksystems. Bräutigams Lexikon ist ein sehr informativer Wegweiser durch ein riesiges Hörspiellabyrinth. Wünschenswert wären die Daten der Erstsendungen und Angaben zur Länge der Hörspiele gewesen. Perspektivisch wird die Hörspielforschung auch die akustischen Ästhetiken, die Spezifika der Regisseure sowie die Stile der Sprecher stärker berücksichtigen müssen. Das Hörspiel ist eine akustische Kunst, die Papierform (Manuskript, Buch) nur eine Vorstufe. Aber dies soll die Bedeutung des umfassend recherchierten und zuverlässigen »Hörspiel-Lexikons« nicht relativieren. HANS-JÜRGEN KRUG, Hamburg
Horst Pöttker: Abgewehrte Vergangenheit. Beiträge zur deutschen Erinnerung an den Nationalsozialismus. – Köln: Herbert von Halem Verlag 2005 (= Reihe: Öffentlichkeit und Geschichte; Bd. 1), 268 Seiten, Eur 28,–. The commentaries, interviews, speeches, and correspondence dating from 1988 to the present put together in this volume are meant to illuminate the nature of the public discourse about the Nazi past. They range widely – from a formal address by Philipp Jenninger on the occasion of the fiftieth anniversary of Kristallnacht that opens the subject to reviews of popular entertainment on television, the reception of »Tiefland« by the infamous Leni Riefenstahl and of »Hitler’s Willing Executioners« by the far less infamous Daniel Goldhagen, some observations on Nazi propaganda and life under that regime to a replay of the controversy within the DGPuK about the contemporary residues of this heritage. Taken together these pieces drive home two points: First, that Germans generally have been reluctant to own up that the horrors of the Hitler regime were perpetrated not just by a small group of fanatics and criminals, but were supported, willingly or under duress, by a majority of people both in Germany and in Austria as well; and, second, that a productive encounter with this past presupposes that those who lived
Buchbesprechungen through it will acknowledge their own personal involvement and share of responsibility. The first proposition strikes me as indisputable. Most Germans encountered by American occupiers, this reviewer among them, proclaimed themselves victims – of the Nazis, of the war, and of circumstances beyond their control. There was nothing approximating a revolution. Moreover, the purge conducted under the rubric of denazification turned out to be quite limited, a white-wash for many who had played along with the Nazis, whether out of conviction or opportunistically. It allowed for a good deal of continuity, especially during the early years of the Federal Republic, in the staffing of the major public institutions and industrial concerns, even the communication sector, which, for obvious reasons, came under special scrutiny. Persons implicated in the Nazi regime made their way back into positions from which they could exert influence. Pöttker cites stratagems used by many to keep such issues out of the public discourse to obscure a long-standing truth enunciated by David Hume when, some 250 years ago, he wrote that, if the many let themselves be governed by the few, it is because the power of all governments »from the most despotic and the most military [to] the most free and most popular [...] must be founded either on our opinion or on the presumed opinion of others« as they have nothing else to sustain them. This is not to deny that opinion can be manipulated. Indeed, this is precisely where the integral role played by communication specialists during the Third Reich emerges as a major issue. That issue has not gone away. Publizistik and politics are difficult to separate even today when one cannot any longer speak of direct Nazi influence. Still, personal connections built around institutes favored by leading politicians and funded by industry intrude into the academic appointment process and, although largely meritocratic, create a research tradition that makes it hard to break into from the outside. Scholarship in communication, to be sure, should take account of social need, but this demand still leaves open how these needs are defined. All too often communication studies conducted under the guise of fairness do nothing more than advance the agenda of a particular group. Widening the area of public discourse and promoting citizen participation would be more worthy goals. The main lesson to be drawn from the Nazi past is that citizens should not just vote but also accept
257
political responsibility instead of leaving things to their »betters«. The author’s second main point concerns the potential benefits of having those with positions under the Nazis acknowledge their past role, thus allowing posterity to draw the appropriate lessons. This conclusion seems sensible, but is impossible to document in retrospect. No matter how much one would have welcomed greater openness in the immediate aftermath of the war, so much time has gone by that the »confessions« so long resisted by many, unless revelatory of clearly criminal wrongdoing, have been reduced to symbolic gestures with few political and social consequences. The same goes for the many connections of the media and of institutes for media studies to the Nazi propaganda apparatus. This book, which does not pretend to be history, hardly fills this void. Its author means rather to provoke journalists and communication specialists into practicing critical self-examination of their responsibility to posterity.
KURT LANG, Seattle (WA)
Gerd Hallenberger/Jörg-Uwe Nieland (Hrsg.): Neue Kritik der Medienkritik. Werkanalyse, Nutzerservice, Sales Promotion oder Kulturkritik? – Köln: Herbert von Halem Verlag 2005 (= Reihe: edition medienpraxis; Bd. 2), 408 Seiten, Eur 24,–. Die Medienkritik befindet sich in der Krise: Medienkritische Strukturen, wie etwa die Medienseiten von Zeitungen, werden aufgegeben; Wirtschaftsthemen dominieren den Medienjournalismus und blenden kulturelle Kontexte aus; die Konzentration auf spektakuläre Einzelfälle verhindert die Betrachtung problematischer Zusammenhänge usw. Ausgehend von diesen und weiteren Problembeobachtungen konstatieren Gerd Hallenberger und Jörg-Uwe Nieland die »Notwendigkeit einer Reaktivierung der Debatte über Medienkritik« (S. 9), die sie mit dem Band »Neue Kritik der Medienkritik« anstoßen wollen. Aus unterschiedlichsten Perspektiven behandeln die Herausgeber sowie 21 weitere Autoren (keine Autorin!) aus Wissenschaft und Medien(kritik)praxis die Probleme und Potenziale der kritischen Auseinandersetzung mit Medien. Medienkritik erscheint als Medienjournalismus,
258
Buchbesprechungen
als Auszeichnung durch Preisverleihungen, als Aufgabe von Landesmedienanstalten und Selbstkontrolleinrichtungen, als Kultur- und Gesellschaftskritik, als Ziel einer Tagung, als Herausforderung für investigative Journalisten u. v. m. Die Gliederung des Bandes kann folglich nicht entlang ähnlicher begrifflicher Schwerpunkte verlaufen, sondern erfolgt in drei Abschnitten »vom Abstrakten zum Konkreten« (S. 16). Unter dem Schwerpunkt »Voraussetzungen« reflektieren fünf Texte über die Fragen, bei welchen gesellschaftlichen Instanzen die kritische Auseinandersetzung mit Medien positioniert sein sollte, mit welchen Gegenständen sie sich befasst und mit welchen Schwierigkeiten sie konfrontiert ist. Im Abschnitt »Institutionen« beschreiben sieben Autoren die Aufgaben und Arbeitsweisen (sowie gelegentlich die Schwierigkeiten) von medienkritischen Einrichtungen wie dem GrimmeInstitut, den Mainzer Tagen der Fernseh-Kritik, der Evangelischen Kirche, der KEK, von Selbstkontrollorganen und Landesmedienanstalten. Im dritten Teil des Bandes stehen die »Erfahrungen und Aussichten« von journalistischen Medienkritikern im Mittelpunkt. Sie berichten von den Problemen der medialen Selbstkritik, formulieren aber auch Möglichkeiten und Aufgaben für Journalisten, die zu einer wirkungsvollen Medienkritik führen könnten. Im selben Abschnitt finden sich außerdem Analysen von speziellen, bislang wenig behandelten Kategorien der Medienkritik, die unverbunden neben den »Erfahrungen und Aussichten« der Medienjournalisten stehen: Mediennutzung und -sozialisation als wichtige Rahmenbedingung der Medienkritik, Defizite der Medienberichterstattung von Nachrichtenagenturen, Kommunikationsguerilla als neue medienkritische Instanz, die Entwicklung der Medienkritik zum »Crititainment« sowie die Funktion von Medienkritik als Verbraucherschutz. Mit diesem Potpourri von Themen und Perspektiven weist die »Neue Kritik der Medienkritik« wenig Ähnlichkeit mit dem kurze Zeit vorher erschienenen Band von Ralph Weiß auf, der durch seinen fast identischen Titel »Zur Kritik der Medienkritik« wahrscheinlich für Verwechslungen sorgen wird (vgl. dazu auch die Rezension in Publizistik, 50. Jg, S. 267ff.). Während Weiß eine umfangreiche Studie präsentiert, die explizit auf die Thematisierung des Fernsehens in Printmedien fokussiert, wollen Hallenberger und Nieland »ein multiperspektivisches Beitrags-
panorama« entwerfen, »eine Textsammlung, die unterschiedlichste Zugänge, Horizonte und Antwortansätze repräsentiert« (S. 16). Das ist ihnen zweifellos gelungen. Sie erweitern den üblichen Blick auf das Thema Medienkritik, der sich in der Regel auf Medienjournalismus konzentriert und damit die nicht-journalistischen Instanzen der Medienkritik außer Acht lässt. Diese umfassende Perspektive hat allerdings ihren Preis. Denn trotz der formulierten Leitfragen verfolgen die Autoren keine gemeinsame Fragestellung und behandeln keinen gemeinsamen Gegenstand. Entsprechend kann das Fazit der Herausgeber vor allem auf die Vielfalt von Problemen und Lösungsmöglichkeiten verweisen. Insgesamt entsteht Erkenntnisgewinn daher eher aus einzelnen Beiträgen als aus der Lektüre des ganzen Bandes. Dann ist es unter Umständen auch weniger störend, dass die Texte des Sammelbandes unterschiedlichste Formate aufweisen, die von einer seitenlangen Aufzählung der Namen von Gästen (!) bei den Mainzer Tagen der Fernseh-Kritik bis zu einer umfang-, detailund fußnotenreichen Analyse der theoretischen Grundlagen und Aktivitäten der Kommunikationsguerilla reichen. Betrachtet man die Beiträge im Einzelnen, lernt man einige neue, instruktive Überlegungen kennen; man muss zugleich aber auch mit Hilfe des Autorenverzeichnisses diejenigen Texte identifizieren, die als Selbstdarstellungen medienkritischer Institutionen gelesen werden müssen.
MAJA MALIK, Hamburg/Münster
Susanne Kinnebrock: Anita Augspurg (18571943). Feministin und Pazifistin zwischen Journalismus und Politik. Eine kommunikationshistorische Biographie. – Herbolzheim: Centaurus Verlag 2005 (= Reihe: Frauen in Geschichte und Gesellschaft; Bd. 39), 683 Seiten, Eur 29,90. Die kommunikationshistorische Biographie über Anita Augspurg ist eine umfassende Studie zu einer zentralen Protagonistin der ersten Frauenbewegung, die auf der Folie aktueller theoretischer Diskussionen gleichzeitig kommunikationswissenschaftliche und historische Fragestellungen verfolgt. Im Mittelpunkt steht Augspurgs auf Öffentlichkeit bezogenes Handeln. Die interdisziplinäre Arbeit leistet einen Beitrag zur Ge-
Buchbesprechungen schichte und Entwicklung der massenmedialen sowie der Bewegungs-Öffentlichkeiten seit ca. 1890 und beleuchtet diese gleich in drei Phasen deutscher Geschichte: Kaiserreich, Weltkrieg, Weimarer Republik. Kinnebrock analysiert das publizistische Werk Augspurgs im Kontext seiner Zeit mit dem Ziel, Kommunikationsprozesse und die Funktionen Augspurgs darin zu beschreiben. Dazu greift sie die Leitdifferenz von Journalismus (informativ – nicht informativ bzw. aktuell – nicht aktuell) und die Leitdifferenz des Systems Politik (regieren – opponieren) auf. In einer Vielzahl von Rechercheschritten hat Kinnebrock das publizistische Werk Augspurgs sowie die Reaktionen auf ihre Tätigkeit rekonstruiert, so dass ihr trotz des fehlenden Nachlasses eine Vielzahl von Quellen zur Verfügung steht, um die handlungsleitenden Motive Augspurgs zu beschreiben. Auf dieser Basis zeigt sie, dass Augspurgs Handeln als Journalistin und Rednerin darauf gerichtet war, durch das Gewinnen der veröffentlichten Meinung politische Entscheidungen zu beeinflussen, und charakterisiert sie als politische Öffentlichkeitsarbeiterin. Gleichzeitig ergänzt die Biographie die Studie von Ulla Wischermann (»Frauenbewegungen und Öffentlichkeiten um 1900«), indem sie aufzeigt, wie eng die Verankerung in einer Bewegung (z. B. der für Frauenstimmrecht) und die Präsenz in der (massen-)medialen und politischen Öffentlichkeit miteinander verknüpft waren. Denn durch den Verlust der Basis im Deutschen Verband für Frauenstimmrecht ging auch der Zugang zur Bewegungsöffentlichkeit verloren, was zu einer geringeren Präsenz Augspurgs und ihrer Themen in der allgemeinen Öffentlichkeit führte. Ein großer Vorteil der Arbeit von Kinnebrock ist ihre Strukturiertheit: Während der Umfang auf den ersten Blick abschreckend wirkt, zeigt sich die Studie auf den zweiten Blick sehr zugänglich. Orientiert an Entwicklungen und Entscheidungen Augspurgs sowie an historischen Zäsuren wie dem Ersten Weltkrieg unterteilt Kinnebrock Augspurgs Leben in Phasen, denen sie je ein Kapitel widmet. Diese Kapitel weisen stets die gleiche Struktur auf: Geschildert werden die historischen Rahmenbedingungen (allgemein und auf die Frauenbewegung bezogen) und die biographische Entwicklung, den Schwerpunkt bildet die Analyse der politischen und journalistischen Tätigkeit, gefolgt von einem Zwischenresümee. Auffallend sind auch die sehr informativen Fußnoten, die eine Fundgrube v. a.
259
für biographische Informationen über z. T. kaum bekannte Zeitgenossinnen Augspurgs darstellen. Damit erreicht Kinnebrock auch ihr Ziel, die Arbeit für Interessenten aus verschiedenen Disziplinen leicht zugänglich zu machen. Zudem liest sich das Buch so gut, dass trotz des Umfangs nichts überflüssig wirkt.
MONIKA PATER, Hamburg
Klaus Spachmann: Wirtschaftsjournalismus in der Presse. Theorie und Empirie. – Konstanz: UVK 2005 (Reihe: Medien und Märkte; Bd. 14), 417 Seiten, Eur 39,–. Klaus Spachmanns in Hohenheim entstandene Dissertation widmet sich zwei hochrelevanten Zielen. Einerseits sollen Wege zu einer Theorie des Wirtschaftsjournalismus aufgezeigt werden. Andererseits unternimmt der Autor den Versuch, anhand einer Befragung von Wirtschaftsjournalisten die recht disparate Befundlage zu verbessern. Zu Beginn der Arbeit fasst Spachmann den Stand der deutschen Theoriediskussion zusammen (internationale Befunde werden ausgeblendet). Ferner zeigt er die historische Entwicklung des Wirtschaftsjournalismus auf und widmet sich organisatorischen Rahmenbedingungen. Obwohl die einzelnen Abschnitte unvermittelt aufeinander folgen, kann der Autor die Notwendigkeit zur weiteren Forschung darlegen. Für die theoretische Untersuchung des Wirtschaftsjournalismus wählt Klaus Spachmann Luhmanns Theorie sozialer Systeme, womit er sich im Mainstream der deutschen Journalismusforschung bewegt. Anstrengend erscheint in diesem Zusammenhang, dass zunächst über weite Strecken (S. 93-138) bereits bekannte Erkenntnisse referiert werden. Seine eigenen Ideen präsentiert der Autor dem Leser erst nach einer überintensiven Auseinandersetzung mit Luhmann’schem Gedankengut. Diese sind aber durchaus nachvollziehbar: Wirtschaftsjournalismus wird schlüssig als eigenständiges System identifiziert und gegenüber seiner Umwelt abgegrenzt. Ferner leitet der Autor aus den verschiedenen Thematisierungsleistungen des Systems (Berichterstattung aus dem, für das und innerhalb des Wirtschaftssystems) eine funktionale Bestimmung ab und entwickelt griffige Idealtypen des Wirtschaftsjournalismus. Am Ende der theoreti-
260
Buchbesprechungen
schen Diskussion kommt aber auch Spachmann nicht umhin, das bekannte Problem der empirischen Erforschung systemtheoretischer Ideen dadurch zu umgehen, dass – sozusagen durch die Hintertür – der Akteursbegriff doch wieder recht knapp in die Betrachtung einführt wird. Spätestens im Anschluss an die theoretische Analyse wird klar, dass das Thema der Arbeit sehr weit gefasst wird. Statt den Leser direkt auf die eigene Untersuchung vorzubereiten, diskutiert Spachmann über 40 Seiten hinweg die wenigen Befunde zu Wirtschaftsmagazinen, zur Veränderung des Finanzjournalismus und zum Wirtschaftsjournalismus als Beruf, wobei nur Letzteres in Ansätzen auf die eigene Studie hinführt. Umso erfrischender ist die nachfolgende Primärstudie. Zwar sind die systemtheoretischen Ansätze nur noch rudimentär zu erkennen. Anhand zweier getrennter Befragungen von Wirtschaftsressortleitern (bzw. -verantwortlichen) und Wirtschaftsredakteuren in den Mantelredaktionen regionaler Tageszeitungen kann der Autor jedoch anschaulich gravierende Veränderungen im Wirtschaftsjournalismus aufzeigen. Die bei einer postalischen Befragung erwartbaren Ausfälle halten sich in Grenzen. Ferner sind die Fragebögen so konstruiert, dass sie zumindest eingeschränkt Vergleiche mit älteren Studien zulassen. Dass Klaus Spachmann stets die Grenzen der eigenen Untersuchung thematisiert, rundet den positiven Eindruck dieses Teils ab. Nach den Ergebnissen der Studie sind weite Teile der vorherrschenden Kritik am Wirtschaftsjournalismus zu relativieren: Wirtschaftsjournalisten sind formal zunehmend besser qualifiziert als früher und in übergreifende redaktionelle Zusammenhänge eingebunden. Das Publikum und insbesondere wirtschaftliche Laien spielen eine weitaus wichtigere Rolle in den strategischen Überlegungen von Verantwortlichen und Redakteuren, als bislang gemeinhin vermutet wurde. Klaus Spachmanns Dissertation liefert einen weiteren interessanten Beitrag zur Erforschung des Wirtschaftsjournalismus in Deutschland. Allerdings hätte ein schlankerer Theorieteil, eine kürzere Bestandsaufnahme, eine präzisere Darlegung der Fragestellungen und eine stärkere inhaltliche Verdichtung zu mehr Klarheit und Lesefreundlichkeit beitragen können. Weniger wäre hier sicher mehr gewesen.
OLIVER QUIRING, München
Brigitte Hipfl/Elisabeth Klaus/Uta Scheer (Hrsg.): Identitätsräume. Nation, Körper und Geschlecht in den Medien. Eine Topografie. – Bielefeld: Transcript Verlag 2004 (= Reihe: Cultural Studies; Bd. 6), 372 Seiten, Eur 26,80. Während die deutschsprachige Kommunikationswissenschaft Medien vor allem unter dem Aspekt ihrer Funktion für das soziale System betrachtet, zeigt sich in den Geistes-, Sozial- und Kulturwissenschaften in den letzten Jahren ein »spatial turn« zur Analyse der Räume, in denen gesellschaftliche Veränderungen zu verorten sind, die immer neue Identitätskonzepte hervorbringen. Der Sammelband greift diese in den Cultural Studies entwickelte Konzeption der Identitätsräume auf und thematisiert die Rolle der Medien bei ihrer Konstruktion. Identitätsräume als Orte der (Re-)Produktion und Repräsentation von Subjekten sind durch Grenzziehungen gekennzeichnet – biologische und geografische, die in den Diskursen über Ethnie und Gender immer wieder neu ausgehandelt werden – besonders über Medien. Einen mit diesem Paradigma verbundenen »spatial turn« in der Kommunikationswissenschaft skizziert Brigitte Hipfl mit einem fundierten Rückgriff auf andere Forschungsbereiche, insbesondere Kulturgeografie und Psychoanalyse. Sie und ihre Mit-Herausgeberinnen verweisen auf ihren notwendigen »Mut zur Lücke« bei der international und interdisziplinär ausgerichteten Zusammenstellung der Aufsätze, die unterschiedliche theoretische und methodische Zugänge an Beispielen eindrücklich konturieren: von manipulativen Satellitenbildern im Irakkrieg über Geschlechterkonstruktionen in irischen Dance Halls der 1930er Jahre bis zur potentiellen Überwindung des Geschlechterdualismus im Cyberspace. Zwölf der insgesamt 16 Beiträge des Sammelbandes basieren auf zwei Fachtagungen 2002 in Österreich und Deutschland. Die Texte – zum Teil anschaulich illustriert – gliedern sich in drei mit Einführungen versehene Kapitel: In »Medien als Konstrukteure (trans)nationaler Identitätsräume« geht es um die Mechanismen der massenmedialen Vergeschlechtlichung und Nationalisierung und ihrer (De-) Konstruktion. »Körper im Genderregime der Massenmedien« fokussiert auf die biologistisch markierte nationalstaatliche und Geschlechterordnung, die Verfestigung ihrer Hierarchien und Möglichkeiten, diese aufzubrechen (Strategien: Geschlechterdifferenz abwechselnd ernst neh-
Buchbesprechungen men und außer Kraft setzen durch Repräsentationskritik und Dekonstruktion). In »Que(e)rräume: Trans, Homo, Hetero« wird versucht, neue Identitätsräume jenseits normierter geschlechtlicher und sexueller Grenzziehungen zu erschließen. Mit diesem originellen Ansatz, der Medien als Konstrukteure von Identitätsräumen begreift, erhält die Kommunikationswissenschaft nicht nur wichtige theoretische Impulse für die Erklärung aktueller technischer und gesellschaftlicher Veränderungen, sondern auch Perspektiven für politische Interventionen, Medien zur Verringerung sozialer Ungleichheiten zu nutzen. In Zeiten rasanten technischen Wandels und zunehmender gesellschaftlicher Polarisierungen können die emanzipatorischen Implikationen dieses »intellektuellen Projektes« nicht hoch genug geschätzt werden. BÄRBEL RÖBEN, Attendorn
Roger Silverstone (Hrsg.): Media, Technology and Everyday Life in Europe. From Information to Communication. – Aldershot, Burlington (VT): Ashgate 2005, 233 Seiten, GBP 49,95/USD 94,95. Innovation in den Informations- und Kommunikationstechnologien (IKT), verstanden nicht allein als technologischer und ökonomischer Prozess, sondern vor allem auch als ein sozialer, stellt die Ausgangsüberlegung für die von Roger Silverstone herausgegebene Anthologie dar. Diese aus dem von der EU geförderten Research and Training Network EMTEL hervorgehende Publikation untersucht die Informationsgesellschaft in Europa an der Schnittstelle sozialer und technologisch-ökonomischer Realitäten und deren Dynamiken. Damit richtet sich das Interesse auf den Punkt, an dem sich diese Entwicklungsprozesse entweder kristallisieren oder konträr verlaufen, was in dem einen oder anderen Fall zur Akzeptanz oder Verneinung der jeweiligen Technologie durch die Nutzer führt. Indem der Sammelband auf der »Folie des Alltäglichen« (S. 2f.) nach der Nützlichkeit und Nutzerfreundlichkeit spezifischer Technologien fragt, wird ein konsequenter Bottom-up-Ansatz verfolgt, der den
261
Praktiken und Erfahrungen »gewöhnlicher Menschen« (S. 3) nachspürt, diese analysiert und im Hinblick auf deren Implikationen für die Politikund Technologieentwicklung in Europa auswertet (S. 195ff.). Weder die Debatte um eine einheitliche Theorie noch umfangreich angelegte quantitative komparative Forschung würden der gewählten Perspektive Rechnung tragen. Die besondere Bedeutung liegt vielmehr in der kaleidoskopartigen Entschleierung sozialer Aspekte der polymorphen europäischen Informationsgesellschaft. Diese werden anhand von zwei Problemzusammenhängen aufgefächert: Kees Brants und Valerie Frissen (S. 21ff.) widmen sich dem Spannungsfeld, das auf den Annahmen beruht, IKT hätten einerseits das Potenzial zur »Inklusion« sämtlicher Gesellschaftsmitglieder und würden andererseits den Rahmen für neue »Exklusion« schaffen. Auf Basis der insgesamt ambivalenten Ergebnisse zu diesem Untersuchungsgegenstand, die von Myria Georgiou zur Integration ethnischer Minoritäten durch neue Medien (S. 33ff.), von Bart Cammaerts zur Rolle von IKT für soziale Bewegungen (S. 53ff.) und von Dorothée Durieux zur Teilnahme von Arbeitslosen und Behinderten durch IKT am sozio-ökonomischen Leben (S. 73ff.) vorgelegt worden sind, haben beide Autoren einen multi-dimensionalen Ansatz entwickelt, der für eine stärkere Einbeziehung kontextueller und erfahrungsbasierter Parameter plädiert. Das zweite Spannungsfeld bewegt sich zwischen der utopischen Vorstellung, die IKT mit Lebensqualität gleichsetzt und deren spiegelbildlicher Umkehrung ins Dystopische. Stellvertretend ist der Aufsatz von Maren Hartmann zu nennen, der – am Beispiel der so genannten »Web Generation« (S. 141ff.) – illustriert, dass das beschriebene Verhältnis ebenfalls komplexer und uneindeutiger ist als angenommen. Instruktiv für die sozial- und kommunikationswissenschaftliche europäische Forschung sind vor allem die dokumentierten methodischen Diskussionen (S. 181ff.), die solche anderer europäischer Projekte (s. AIM Project) ergänzen und von quantitativen Studien (s. z. B. das Publikationsprojekt von Soumitra Dutta et al.) selbst ergänzt werden.
KAREN K. ROSENWERTH, Bonn
262
Buchbesprechungen
Mark Eisenegger: Reputation in der Mediengesellschaft. Konstitution – Issue Monitoring – Issue Management. – Wiesbaden: VS Verlag für Wissenschaften 2005, 226 Seiten, Eur 24,90. Ziel dieser bei Kurt Imhoff (Zürich) entstandenen Dissertation ist die These, dass medienvermittelte Kommunikation zum vorherrschenden Mechanismus der Reputationskonstitution avanciert. Traditionelle Reputationsroutinen etwa in der Wissenschaft würden sich zunehmend an der Logik medialer Reputationskonstitutionen ausrichten. Diese starke These entfaltet und illustriert Eisenegger folgerichtig am Beispiel ökonomischer Organisationen. Die vorläufige Begriffsbestimmung zeigt Reputation als eine partikuläre Größe, die nur einem begrenzten Kreis von Akteuren zukommt. Reputation ist eine öffentlich vermittelte Form der Anerkennung. Eisenegger zeigt die Logik der Reputationskonstitution in verschiedenen Teilsystemen auf – das ist innovativ. Durch die Gegenüberstellung von Reputation und Vertrauen, Identität und Macht sowie eine Bildung von Reputationstypen gewinnt das Buch einen facettenreichen Begriff. Für die Reputationskonstitution ökonomischer Organisationen entwickelt Eisenegger einen interessanten Reputationsindex, der sich aus der Summe positiver und negativer medialer Bewertungen bilden lässt. Untersucht werden 15.000 Medienbeiträge aus zehn schweizerischen Leitmedien. Der Index lässt sich sowohl für Personen wie auch Organisationen ermitteln und im Zeitverlauf abbilden – so lassen sich Krisenverläufe ganz praktisch transparent machen. Issue Management, also die Früherkennung und Frühwarnung, Gestaltung, Steuerung sowie Vermittlung von Informationsangeboten einer Organisation an die Öffentlichkeit, versucht unvermeidlich auftretende Diskontinuitäten von Ereignissen in der Umwelt zu antizipieren. Die Hauptfunktion des Issue Management ist, nicht zu überraschen. Man will orientieren! Issue Monitoring dient dabei der Analyse öffentlicher Kommunikation und ihrer Reputationsdynamik. Die erkenntnisleitende Frage richtet sich auf Ereigniskarrieren, etwa im Verhältnis von Medienpolitik, Wirtschaft und Wissenschaft. In der Medienanalyse wird mit rudimentären Typisierungen von Kommunikationsereignissen gearbeitet – ähnlich wie beim Framing. Eisenegger kommt zu interessanten Indikatoren, die aller-
dings etwas zu knapp erörtert werden. Deutlich wird jedoch, dass hier die Ziele von Issue Monitoring und Inhaltsanalyse partiell gleichgesetzt werden, allerdings mit unterschiedlichen Schwerpunkten. Das Frame-Konzept dient dazu, Relevanzstrukturen höherer Ordnung zu klassifizieren und im Zeitverlauf bzw. Wandel zu beobachten: Die Präsenz extramedialer Akteure, konkrete Verfahren, aber vor allem auch Skandale sind dabei ausschlaggebend. Für unterschiedliche Akteure ergeben sich im Zeitverlauf spezifische Reputationseffekte. Die vorliegende Arbeit ist originell und beruht wesentlich auf deutschen Quellen (Monographien). Sie ist theoretisch fundiert und kann erklären, wie Vertrauen bzw. Reputation entsteht, aber auch zerfällt. Das Buch hält seine nicht unkluge Systematik durch. Für den an PR-Forschung interessierten Leser ist das Buch ebenso nützlich wie für den Praktiker: Es verbindet Diskussionsstränge effektiv, was die Anschlussfähigkeit für weitere (empirische) Analysen stärkt.
GEORG RUHRMANN, Jena
Lutz M. Hagen: Konjunkturnachrichten, Konjunkturklima und Konjunktur. Wie sich die Wirtschaftsberichterstattung der Massenmedien, Stimmungen der Bevölkerung und die aktuelle Wirtschaftslage wechselseitig beeinflussen – eine transaktionale Analyse. – Köln: Herbert von Halem Verlag 2005, 432 Seiten, Eur 31,–. Zu den sträflich vernachlässigten Forschungsfeldern der Kommunikationswissenschaft zählt weiterhin der Wirtschaftsjournalismus. Vielfach untersucht wurde, wie wirtschaftliches Handeln die Medien und ihre Märkte beeinflusst – die umgekehrte Frage, »wie medienvermittelte Information ökonomisches Handeln prägt«, wie also beispielsweise »die Medien über Konjunktur berichten und welche Ursachen und Folgen das hat«, wurde dagegen kaum je gestellt. Der Dresdener Kommunikationsforscher Lutz M. Hagen hat diese Forschungslücke jetzt mit seiner Habilitationsschrift ein Stück weit geschlossen. Die transaktionale Analyse untersucht für den Zeitraum von 1992 bis 1997 in Deutschland, »wie sich die Wirtschaftsberichterstattung der Massenmedien, Stimmungen der Bevölkerung und die aktuelle Wirtschaftslage wechselseitig beeinflusst haben«. Gegenstand der quantitati-
Buchbesprechungen ven Inhaltsanalyse waren alle überregionalen Medien, die sich mit Politik und Wirtschaft befassen – wobei sich die Untersuchung allerdings auf die Überschriften, Vorspänne und Anmoderationen beschränkt. Aus Hagens Sicht ist dies unproblematisch, weil diese Beschränkung es erlaube, »den im Rezeptionsprozess einflussreichsten Teil von Nachrichten« zu erfassen. Außerdem berücksichtigt die Forschungsarbeit lediglich verbale Medieninhalte, weil sich diese »ungleich leichter als Bilder inhaltsanalytisch in Urteile auf einer einheitlichen Skala transformieren« lassen – was methodisch sicherlich zutrifft, aber letztlich halt doch einer Kapitulation der Kommunikationswissenschaft vor der »Macht der Bilder« gleichkommt, die sich offenbar weiterhin verlässlicher intersubjektiv überprüfbarer Codierung entziehen. Wenig überraschend ist das Hauptergebnis der Untersuchung. Danach prägen »die Medien die Urteile stark, die in der Bevölkerung über die Wirtschaftslage herrschen«. Die Medienberichterstattung wirke sich »direkt auf die Konjunktur« und sogar »auf die Prognose der eigenen finanziellen Situation in den Privathaushalten« aus. Spannender sind die Detail-Einschätzungen. So konnte Hagen in der TV-Berichterstattung einen »starken Negativismus« ausmachen, der ihm angesichts der insgesamt starken Medienwirkungen auf das Konjunkturklima »problematisch« erscheint. Dieser Negativismus korrespondiere mit einer »sozialoptischen Täuschung«: Die Bevölkerung nehme »die gesamtwirtschaftliche Situation im Vergleich zur persönlichen Lage stets negativ verzerrt« wahr. Ferner wird der ›Bild‹-Zeitung ein starker Einfluss auf das Konsumklima in Deutschland zugeschrieben. Wer annimmt, Wirtschaftsberichterstattung gehöre nicht zum Kerngeschäft der Boulevard-Presse, irrt sich gewaltig: Das reichweitenstärkste deutsche Printmedium veröffentlicht in drei von vier Ausgaben mindestens einen Beitrag zur Wirtschaftslage, und »die Zahl der Titelblöcke mit Urteilen über die nationale gesamtwirtschaftliche Entwicklung« liegt in der Straßenverkaufs-Zeitung lediglich knapp hinter der ›FAZ‹: Stiefmütterlich wurden Konjunkturnachrichten dagegen vom Fernsehen behandelt: Hagen zufolge enthielt die 20 Uhr-Ausgabe der ›Tagesschau‹ durchschnittlich nur in jeder fünften bis sechsten Ausgabe einen Beitrag, der seinen Aufgreifkriterien entsprach. So differenziert und methodisch versiert die
263
Studie auch angelegt sein mag: Medienpraktiker und interessierte Experten aus der Wirtschaftsund Finanzwelt werden daraus nur noch begrenzt Honig saugen wollen. Dafür sind die in den Jahren von 1992 bis 1997 erhobenen Daten einfach zu alt – und das ist angesichts der rasanten Entwicklung, in der sich Medienangebote verändern und das Internet gerade im Bereich der Finanzkommunikation zum Leitmedium geworden ist, wohl das eigentliche Problem der Studie. Einmal mehr hechelt die wissenschaftliche Analyse der Realität hinterher, die längst eine ganz andere geworden ist. Interessanter, weil zeitnaher sind da schon die Versuche des Forschungsinstituts Media Tenor, mit Hilfe von Inhaltsanalysen der jeweils aktuellen Wirtschaftsberichterstattung in den wichtigsten Leitmedien die jeweiligen Schwankungen des Ifo-Geschäftsklima-Index vorherzusagen (vgl. Medien-Tenor, 12. Jg., S. 116ff.). Dies ist dem Institut bisher meist gelungen. Dieser Forschungserfolg deutet wiederum darauf hin, dass das Kern-Ergebnis von Hagens Untersuchung wohl weiterhin Gültigkeit beanspruchen darf: Trotz aller Veränderungen in der medialen Wirtschaftsberichterstattung beeinflusst diese stark, wie die Wirtschaftssubjekte die Konjunkturentwicklung wahrnehmen – und dann eben, zumal als Konsumenten, auch dementsprechend handeln. STEPHAN RUß-MOHL, Lugano
Peter Winterhoff-Spurk: Kalte Herzen. Wie das Fernsehen unseren Charakter formt. – Stuttgart: Klett-Cotta 2005, 271 Seiten, Eur 19,50. Drittmittelforschung mit ihren verwertbaren Marktanteilen, Zielgruppen und Teilöffentlichkeiten lässt uns häufig kalt, weil sie den Interessen der Fernsehanstalten als Auftraggeber nicht widersprechen darf. Wenn Marktforschung sich an Investoren richtet, die ihre Gewinnziele erreichen müssen, dann treffen Überblickswerke wie das hier zu besprechende eher auf unser Interesse. Hier suchen wir Gründe für unser Verhalten, selbst wenn wir uns darüber im Klaren sind, dass diese sehr schwer zu finden sind. In diesem Fall werden unsere Hoffnungen teilweise enttäuscht, aber nicht ganz. Der Psychologe WinterhoffSpurk will keinen wissenschaftlichen Text verfassen, sondern einen Appell an uns richten mit dem Ziel, unser Verhalten dem Fernsehen gegen-
264
Buchbesprechungen
über zu verändern. Nicht eben wenig. Nun, wissenschaftlich ist das Buch kaum. Dies rechtfertigt es allerdings nicht, dort, wo überhaupt Literaturangaben stehen, diese weithin ohne Seitenangaben zu machen. Hier und da wirkt das Buch in seinen 15 Kapiteln schlampig geschrieben. Seinen Anhaltspunkt findet Winterhoff-Spurk im Hauff ’schen Märchen »Das kalte Herz«. Dieses Anknüpfen an die Literatur der Romantik zieht Kritik an der Industriegesellschaft und der postindustriellen Gesellschaft nach sich. Sie erscheint hier vor allem als »Erlebnisgesellschaft«. Winterhoff-Spurk reflektiert mit dem Gegensatz von frommer protestantischer Innerlichkeit und dem Öffentlichkeitsgebot der Demokratie. Hier muss die für kommerzielle Zwecke instrumentalisierte »Gefühlsarbeit« geleistet werden. Es geht um »Oberflächenhandeln« und Anpassung. Als vorherrschender Typ wird der »Histrio« gesehen. Das ist in der römischen Antike ein männlicher Tänzer, Schauspieler oder Musiker. Er ist nicht nur ein guter Darsteller, sondern auch leicht erregbar, aggressiv, halsstarrig, verführerisch und geprägt von sexuellen Problemen. Er neigt zu Abhängigkeitstendenzen, zum Egozentrismus und zu emotionaler Labilität. Und zwar bei Zuschauern und Darstellern. Er ist nach Winterhoff-Spurk kein Produkt des Fernsehens, sondern der modernen Gesellschaft. Allerdings verstärkt das Fernsehen seine Eigenschaften. Die moderne Gesellschaft fordert den »flexiblen Menschen« (Richard Sennett). Mit dieser Forderung können nur Menschen fertig werden, die in der frühkindlichen Entwicklung genügend Sicherheit gewonnen haben. Bei den meisten herrscht allerdings »Bindungsunsicherheit«. Winterhoff-Spurk geht ausführlich auf das bestens bekannte Starsystem (Film, Fernsehen, Rockmusik) ein. An den Beispielen von Marlene Dietrich und Leni Riefenstahl versucht er zu zeigen, wohin die Bindungsunsicherheit führen kann. Zur Anpassung an den nationalsozialistischen Zeitgeist einmal, zum Vamp in Hollywood das andere Mal. Nach Winterhoff-Spurk herrschen zwischen den Stars und ihren Fans und Groupies parasoziale, also keine wirklichen, Verständnis hervorrufenden und Sicherheit gebenden Beziehungen, sondern deren medialer Ersatz. Aber beide Seiten merken es kaum noch. Medienfiguren sind perfekte Freunde, »verlässlich, diskret und unkritisch« (S. 95). Das macht ihre Attraktivität aus. So werden sie virtuelle Meinungsführer. Auf sei-
nem Weg von Marlene Dietrich und Leni Riefenstahl zu Bill Clinton, einem klassischen Histrio, und damit zur Politik, streift Winterhoff-Spurk so geläufige Thesen wie die folgenden: Individualisierung (S. 28), Identitätsschwäche (S. 80), Exitations-Transfer-Theorie (S. 132), Angstlust (S. 134), Cultivation (S. 142), »The medium is the message.« (S. 143), Reizüberflutung (S. 146), Wissens-Illusion (S. 151), Mainstreaming (S. 153), Video-Malaise (S. 156), Rampage Killing (S. 159), Werthereffekt (S. 162), Wissenskluft-Hypothese (S. 184), Third-Person-Effect (S. 197) usf. Dieses alles hat seine Bedeutung für die Wirksamkeit des Fernsehens. Hier wird es ein wenig unsystematisch skizziert. Winterhoff-Spurk nimmt sich ausführlich das (doch ziemlich bekannte) Fernsehverhalten der Menschen vor und bedient sich dabei mit Erfolg bei den hinlänglich diskutierten Sinus-Milieus. Er greift die alte, aus den 1970er Jahren stammende These vom Fernsehen als dem heimlichen Erzieher auf. Fernsehen erziehe zur Oberflächlichkeit und kultiviere Einstellungen und Meinungen. Es dränge sich die Nähe zum Histrio auf. »Sein Denken […] ist egozentrisch, oberflächlich, intuitiv, wenig strukturiert und impressionistisch.« (S. 157) Fernsehen führt nach Winterhoff-Spurk zur Regression, also zum Rückfall auf eine Entwicklungsstufe, die eigentlich schon durchlaufen war. Bei Postman war das der bekannte Kind-Erwachsene. Wenn dies alles nicht sehr neu ist, führt die Anwendung dieser Thesen vom immer bindungsloser werdenden Individualisten, der sich doch so sehr nach Stabilität, Sicherheit und Geborgenheit sehnt, auf die Politik zu einigermaßen interessanten Überlegungen. Dabei orientiert sich Winterhoff-Spurk gewiss auch an der Person Bill Clintons (alkoholkranker Stiefvater, Held in einem kranken Familiensystem, Verdrängung, keine Einsicht in die Auswirkungen der Kindheitserfahrungen, regelmäßige Wutausbrüche, Heldenrolle, Selbstdemontage, sexuell ungebremstes Verhalten, kaum Problemeinsicht) (S. 212). In diesem Szenario ist der Wahlbürger allenfalls ein Fan von Politikern, »ein politisch desinteressierter, gesellschaftlich nicht engagierter, an seinen Arbeitgeber emotional nicht gebundener, psychisch labiler, egoistischer, vor allem mit seiner Inszenierung beschäftigter und an Events interessierter Single« (S. 239). »Der Kandidat muss noch mehr aufzuweisen haben: Dramatisierung der eigenen Person, thea-
Buchbesprechungen tralisches Verhalten, übertriebener Ausdruck von Gefühlen, andauerndes Verlangen nach Aufregung, Anerkennung durch andere, Aktivitäten, bei denen die betreffende Person im Mittelpunkt der Aufmerksamkeit steht, oberflächliche und labile Affektivität, eine Tendenz zu aggressivem Verhalten, Eigensinn und egozentrisches Verhalten – wir treffen auf einen alten Bekannten. Es ist der Histrio.« (S. 218) Nach Richard Sennett käme es einem Selbstmord gleich, »wollte ein Politiker darauf beharren, dass man sein Privatleben aus dem Spiel lässt, wenn er sagen würde: Kümmert euch darum, ob ich gute Gesetze mache oder sie gut ausführe und was ich vorhabe, wenn ich im Amt bin« (S. 215). Stattdessen äße der französische Präsident bei einer Arbeiterfamilie zu Mittag, nachdem er ein paar Tage vorher die Lohnsteuer angehoben habe. Und wir glaubten, ein amerikanischer Präsident sei »natürlicher«, nur weil sich der Mann selber das Frühstück zubereite. Das Fernsehen ist für Winterhoff-Spurk der Verstärker der geschilderten gesellschaftlichen Fehlentwicklungen. Eine weitgehende, aber diskussionswürdige These.
WILFRIED SCHARF, Göttingen
Kristina Hopf: Jugendschutz im Fernsehen. Eine verfassungsrechtliche Prüfung der materiellen Jugendschutzbestimmungen. – Frankfurt am Main etc.: Peter Lang 2005 (= Reihe: Europäische Hochschulschriften – Reihe 2, Rechtswissenschaft; Bd. 4149), 317 Seiten, Eur 56,50. Kern der vorliegenden Dissertation von Kristina Hopf ist das Spannungsfeld zwischen der durch das Grundgesetz gesicherten Rundfunkfreiheit und ihren Einschränkungen durch den Jugendmedienschutz. »Wie weit die Einschränkung der Rundfunkfreiheit zugunsten des Jugendschutzes gehen kann, ist abhängig von der jeweiligen gesetzlichen Maßnahme und von den Umständen, unter denen sie erfolgt.« (S. 96) Diese Formulierung lässt anklingen, dass auch der hier diskutierte, 2003 verabschiedete Jugendmedienschutz-Staatsvertrag (JMStV) deutlich ein Kind seiner Zeit ist. Nach dem Schulmassaker in Erfurt Ende April 2002 wurde das Gesetz nur ein Jahr später in Kraft gesetzt und muss sich nun erst in der Praxis bewähren. Ein sehr deutlicher Hinweis auf die heiße Nadel, mit der der JMStV gestrickt wurde, ist die von Hopf zu Recht be-
265
mängelte, aus dem Rundfunk-Staatsvertrag (RStV) übernommene »Ungleichbehandlung bei Verstößen gegen die materiellen Jugendschutzregeln«: »Verstöße im öffentlich-rechtlichen Rundfunk bleiben auch weiterhin sanktionslos, während private Anbieter gem. § 24 Abs. 3 JMStV mit Geldbußen bis zu Eur 500.000,00 zu rechnen haben.« (S. 278f.) Hierfür fehle eine »verfassungsrechtliche Rechtfertigung« (S. 294). Hinzu kommen diverse Schwächen in den Formulierungen des Gesetzestextes durch wiederum auslegungsbedürftige Begriffe. Die Autorin verlässt die im Buchtitel angekündigte reine Rechtsprüfung der Frage, ob die Regelungen des JMStV verfassungsgemäß sind oder nicht, gerne – insbesondere mit Blick auf die Einrichtungen der Selbstkontrolle. Hopf stellt zwar fest, dass »durch den JMStV […] dem Grundsatz des Vorrangs der Selbstregulierung vor der Fremdregulierung durch das neue Aufsichtsmodell regulierter Selbstregulierung in besonderer Weise Rechnung getragen« wird (S. 289), mag dieser Neuerung aber wohl nicht wirklich trauen. Aufgrund der Fertigstellung ihrer Arbeit im Juni 2003 hatte sie zudem keine Gelegenheit, auf Praxiserfahrungen der Selbstkontrollen mit dem neuen JMStV oder der Aufsichtsbehörde KJM (Kommission für Jugendmedienschutz) mit einer durch sie anerkannten Selbstkontrolle zurückzugreifen. So projiziert sie in ihren Ausführungen zu »Einrichtungen der freiwilligen Selbstkontrolle« (S. 76f.) bestehende (Vor-)Urteile in deren zukünftige Arbeit, ohne strukturelle oder inhaltliche Änderungen durch die Selbstkontrollen – auch in Angleichung an die Vorgaben des JMStV – ausreichend zur Kenntnis zu nehmen bzw. den Planungsstand in den jeweiligen Einrichtungen zu erfragen. Die Einhaltung gesetzlicher Vorgaben, um überhaupt die Anerkennung durch die KJM erhalten zu können, z. B. die Unabhängigkeit der Prüfer, hätte aber auch von der inzwischen bei der KJM-Stabsstelle beschäftigten Autorin entsprechend differenziert diskutiert werden müssen. Wo die »Kontrolle und Aufsicht den bewährten Händen der Landesmedienanstalten zugunsten einer regulierten Selbstkontrolle entzogen wird« (S. 121), fordert Hopf denn flugs weitere »gesetzliche Vorgaben«, etwa zur stärkeren Verankerung der »20.00 Uhr-Grenze« im Fernsehen. Nicht nur hier legen ihre Ausführungen den Schluss nahe, dass sie die Position vertritt, die Arbeitsgrundlagen der Selbstkontrolleinrichtun-
266
Buchbesprechungen
gen müssten durch den JMStV und die Tätigkeit der KJM genauestens formuliert bzw. eingegrenzt werden. Was der Begriff »Selbstkontrolle« in seinem eigentlichen Sinn dann noch bedeuten soll und warum die privaten Anbieter diese noch finanzieren sollten, bleibt rätselhaft. Hopf beleuchtet viele Aspekte zwar durchaus intensiv, aber insbesondere aus dem speziellen Blickwinkel einer Aufsichtbehörde und kaum aus der Sicht etwa der Jugendmedienschutz-Praxis. Die Ausführungen zur »Bedeutung des Jugendschutzes im Fernsehen« bieten den dort Tätigen wohl nichts Neues, und Nicht-Juristen werden der sehr speziellen Ausgangsfrage dieses Buches für ihre Arbeit wenig abgewinnen können. OLAF SELG, Berlin
Jochen W. Wagner: Deutsche Wahlwerbekampagnen made in USA? Amerikanisierung oder Modernisierung bundesrepublikanischer Wahlkampagnen. – Wiesbaden: VS Verlag für Sozialwissenschaften 2005 (= Reihe: Forschung Politik), 462 Seiten, Eur 39,90. Seit fast 50 Jahren geistert ein Schlagwort durch die deutschen Medien, wenn es um politische Kommunikation geht: Amerikanisierung. Vor allem die Leitartikler der großen Qualitätsmedien beklagen meist pünktlich zum Wahlkampf, dieser sei noch inhaltsleerer als der letzte, dafür gebe es jetzt noch mehr Show, und Personen hätten die Programme wohl endgültig verdrängt. Die These von der Amerikanisierung deutscher Wahlkämpfe ist nach wie vor äußerst populär. In der Wissenschaft setzte in den 1980er Jahren eine Debatte darüber ein, vor allem im Vorfeld der Bundestagswahlen 1998 erschien eine Flut von Publikationen. Der Politikwissenschaftler Jochen W. Wagner hat in seiner Studie jetzt erstmals systematisch und umfassend untersucht, was an der Amerikanisierung deutscher Wahlkampagnen wirklich »dran« ist. Der Titel des Buches ist etwas verwirrend. Mit Wahlwerbekampagnen verbindet man ja zunächst nur die Parteienwerbung. Der Autor definiert allerdings auch die Medienarbeit als indirekte Werbeform, während er die bezahlte als direkte Werbung bezeichnet. Wagner untersucht anhand von vier Thesen, ob es sich bei den deutschen Kampagnen um einen Prozess der Ameri-
kanisierung, also der Übernahme von ganzen bzw. Teilen von US-Kampagnen, um einen modernisierungsbedingten, systeminternen Entwicklungsprozess oder um eine Globalisierung im Sinne einer Angleichung aller modernen Demokratien handelt. Auch geht er der Frage nach, ob es einen speziellen deutschen Sonderweg gibt. Schon der Vergleich der politischen und gesellschaftlichen Systeme der USA und Deutschlands zeigt, dass es hohe Hürden für Transferprozesse und 1:1-Übernahmen gibt. Vor allem die für die Kampagnen zentralen Wahlsysteme und -strukturen unterscheiden sich stark. Hier das Mehrheitswahlrecht, die Vorwahlen, die Konzentration auf wenige Schlüsselstaaten, die Kandidatenzentrierung und die vielfältigen Finanzierungsmöglichkeiten der Präsidentschaftswahlkämpfe, dort ein parteiendominiertes Nominierungs- und Entscheidungsverfahren mit staatlicher Kostenerstattung, speziellem Werbemix und Reglementierungen der TV-Werbung. Auch die politischen Kommunikationskulturen unterscheiden sich zum Teil deutlich. Die empirische Untersuchung vor allem der postmodernen Kampagnen seit 1990 bestätigt, dass keine Konvergenzen bestehen. Vielmehr ergänzen USKomponenten gelegentlich deutsche Kampagnen und initiieren oder beschleunigen Trends auf einer untergeordneten technisch-taktischen Ebene. So wirken deutsche Kampagnen auf den ersten Blick amerikanisch, sind es aber nicht. Auch der immer wieder als stark amerikanisiert bezeichnete SPD-Wahlkampf 1998 übernahm nur eine strategiebildende Maßnahme, die aus der Clinton-Kampagne bekannt war: die Auslagerung der Wahlkampfzentrale. Wagner kommt zu dem Schluss, dass der Amerikanisierungsthese jede Basis fehlt. Bei der Professionalisierung deutscher Kampagnen handelt es sich um eine systeminterne Modernisierung mit gelegentlichen, eher oberflächlichen Ideennahmen aus den USA, aber auch aus anderen modernen Demokratien Europas. Höherwertige, strategische Kampagnenelemente gelangen erst gar nicht in die nationalen (politischen, medialen, kulturellen und rechtlichen) Filtersysteme, um entsprechend adaptiert zu werden. Deutschland verfügt über eine eigene, stabile Kampagnenkultur. Dies bestätigen die Interviews mit deutschen und amerikanischen Wahlkampfexperten. Sie räumen auch mit dem Mythos vom »entpolitisierten Show-Wahlkampf« in den USA auf. Dieser sei absolut kein Ereignis à la Hollywood, sondern
Buchbesprechungen »knallhart politisch, zielbewusst und […] sehr viel stärker mobilisierend als der deutsche Wahlkampf«. Leider legt Wagner sein Augenmerk stark auf Aspekte wie die Länge und Zahl der Werbespots. Die Mediatisierung wird zu oberflächlich abgehandelt, eine echte Auseinandersetzung mit dem deutschen und amerikanischen Journalismus fehlt. Vor allem die zentrale Frage nach den inhaltlichen Entwicklungen des Wahlkampfs in den USA und Deutschland bleibt unbeantwortet oder erschöpft sich in ungenauen Allgemeinplätzen. Die These, dass nicht der deutsche Wahlkampf 1998, sondern die Berichterstattung darüber entpolitisiert war, hätte man gerne vertieft gesehen. FRANK SIEBEL, Berlin/Dortmund
Gerald Hosp: Medienökonomik. Medienkonzentration, Zensur und soziale Kosten des Journalismus. – Konstanz: UVK 2005 (= Reihe: Medien und Märkte; Bd. 15), 361 Seiten, Eur 34,–. Seit einigen Jahren erfahren Medienmärkte, Medienunternehmen und Medienprodukte in der wirtschaftswissenschaftlichen Literatur eine stärkere Beachtung. Neben einer Betriebswirtschaftslehre der Medien, die sich mit den einzelwirtschaftlichen Entscheidungen der Produzenten und Konsumenten der Medienwirtschaft beschäftigt und die spezifischen Probleme der Unternehmensordnung bei den privaten und öffentlichen Anbietern der Medienwirtschaft thematisiert, hat sich eine medienökonomische Forschung etabliert. Ihr Gegenstand ist die ökonomische Analyse der Bedingungen journalistischer Produktion, der Distribution und des Konsums von Medieninhalten und Trägermedien. An diesen medienökonomischen Literaturfundus knüpft Gerald Hosp in seiner Dissertation an. Ihn interessieren dabei allerdings weniger die medienökonomischen Denkmuster als solche. Sein Interesse richtet sich vielmehr auf jene Arbeiten, die das ökonomische Instrumentarium nutzen, um damit kommunikationswissenschaftliche und publizistische Fragestellungen zu untersuchen. Zur Kennzeichnung dieses Typs medienökonomischer Überlegungen wählt Hosp den Begriff »Medienökonomik«. Ziel seiner Arbeit ist es, einen repräsentativen Überblick zur medienökonomischen Literatur zu liefern und aufzuzeigen, welche Rolle die Ökonomie bei der
267
Betrachtung von Medien einnehmen kann und welche Rolle Medien in der Ökonomie spielen. Entsprechend dieser Zielsetzung gliedert sich die Arbeit in vier Teile. Gegenstand des ersten Teils ist die Vermittlung eines Überblicks zur medienökonomischen Literatur. Knapp skizziert werden dabei zunächst die Besonderheiten von Mediengütern und Medienmärkten, wie FirstCopy-Cost-Effekt, Externalitäten der Medienproduktion und die Verbundenheit von Rezipienten- und Anzeigenmärkten. Aus ökonomischer Perspektive kommen diese Überlegungen durchweg recht kursorisch und wenig differenziert daher; angesichts des begrenzten Stellenwerts dieser Aspekte im weiteren Verlauf der Arbeit ist dies aber durchaus zu verschmerzen. Weitaus problematischer ist dagegen die Vorgehensweise bei der Identifikation von »Phasen« bzw. »Kategorien« der Medienökonomik, wo ohne weitergehende Begründung »Medienökonomik als Industrieökonomie«, »Medienökonomik als Ergänzung der Modernen Politischen Ökonomie« und »Medienökonomik als institutionenökonomische Analyse« als die zentralen Konzepte definiert werden. Für ein besseres Verständnis des besonderen Stellenwertes gerade dieser Ansätze wären hier weitere Ausführungen wünschenswert gewesen. Alle drei Ansätze werden sodann jeweils kurz charakterisiert und thematische Schwerpunkte der dazugehörigen Literatur aufgezeigt. In den nachfolgenden drei Kapiteln wendet Hosp die medienökonomischen Konzepte auf ausgewählte kommunikationswissenschaftliche Fragestellungen an. So werden im zweiten Teil industrieökonomische Überlegungen für die Erklärung des Zusammenhangs zwischen Pressekonzentration und publizistischer Vielfalt und Qualität fruchtbar zu machen versucht. Als Qualitätsindikator dient dabei die Lesedauer. Auf der Basis von Datenmaterial zum schweizerischen Tageszeitungsmarkt stellt Hosp einen stark signifikanten, negativen Einfluss der Pressekonzentration auf die individuelle Lesedauer fest. Vermehrte Titelvielfalt führt dagegen zu einer höheren Zufriedenheit der Leser. Im Mittelpunkt des dritten Teils steht die Medienökonomik als Ergänzung der Politischen Ökonomie. Hosp wählt sie als Rahmen für die Analyse von Zensur. Dabei zeigt sich, dass in der ökonomischen Literatur das Thema Zensur kaum betrachtet wird; zu den Wirkungen von Zensur finden sich keine einheitlichen Aussagen. Im vierten Teil schließlich geht es um die Ökonomik des Journalismus.
268
Buchbesprechungen
Ausgehend von einem institutionenökonomischen Denkmodell werden Journalisten verstanden als Akteure, die Aufmerksamkeitsrenten generieren, indem sie darüber bestimmen, über was und wie berichtet wird. Die Anschlussfrage der sozialen Kosten des Journalismus wird diskutiert. Insgesamt stellt die Arbeit von Hosp einen gut lesbaren Überblick zu ausgewählten medienökonomischen Konzepten und ihrer Eignung zur Beantwortung kommunikationswissenschaftlicher Fragestellungen dar. Vor allem Leser aus dem Bereich der Publizistik- und Kommunikationswissenschaften erhalten einen komprimierten Überblick. Für den ökonomisch vorgebildeten Leser dürfte ganz überwiegend die theoretische Eindringtiefe nicht ausreichend sein. Dieses Problem lässt sich in einer Arbeit interdisziplinären Zuschnitts jedoch kaum vermeiden. Dies berücksichtigt, kann die Lektüre uneingeschränkt empfohlen werden.
INSA SJURTS, Hamburg
Sabine Gieschler/C. Wolfgang Müller: Seitenwechsel. Eine Studie zu der Frage, was Offene Kanäle den Menschen geben. – München: kopaed 2005 (= Schriftenreihe der LPR Hessen; Bd. 20), 365 Seiten, Eur 19,80. Der Start des Kabelpilotprojektes in Ludwigsburg im Januar 1984 brachte nicht nur das duale Rundfunksystem, das Nebeneinander von öffentlich-rechtlichem und privatem Rundfunk, sondern auch – gleichsam als Abfallprodukt – den Offenen Kanal. Abseits des öffentlichen Diskurses arbeiten und senden die »Kanalarbeiter« seither ohne messbare Beachtung. Durch die Schließung des Offenen Kanals im Saarland (Mai 2002) und das Ende des Offenen Kanals in Hamburg (Juli 2003) hat sich der Legitimationsdruck auf die rund 60 verbleibenden Projekte nun erhöht. In diesen Zusammenhang ist die vorgelegte Wirkungsstudie einzuordnen. In ihr geht es nicht, wie bei ähnlichen Arbeiten, um die Qualität des Programms, sondern um den Einfluss der Produktionsprozesse auf die Produzenten selbst und deren Zugewinn an Medienkompetenz. Welche Folgen hat der »Seitenwechsel«, so der irreführende Titel der Arbeit, der Rollentausch vom Fernsehzuschauer zum Fernsehmacher? Die umfangreiche Studie dokumentiert 32
narrative Interviews, die mit ausgesuchten Aktivisten der Offenen Kanäle in Fulda, Gießen, Kassel und Offenbach geführt wurden. Im Bemühen, den Lebenskontext der Befragten auszuleuchten, den biografischen Anteilen breiten Raum zu geben (sind diese Erfahrungen doch ein Schlüssel zur Person des Erzählenden), schießen die Autoren aber über das Ziel hinaus, d. h. die Gespräche werden zu ausufernd abgebildet. Beispielsweise erzählt der 22-jährige Murat Sivis anschaulich, wie ihm der Offene Kanal zur zweiten Heimat wurde, warum aber auch die »Kennenlerngeschichte« seiner türkischen Eltern in Kassel mit allen Facetten abgebildet wird, erschließt sich kaum. Taucht man in die Lebenswelt der Befragten ein, dann wird man hineingerissen in einen Strudel unterschiedlicher Motivlagen und Erwartungshaltungen. Da ist der filmende Dokumentarist, der regelmäßig die Gottesdienste seiner kleinen Glaubensgemeinschaft ablichtet, oder derjenige, der mit seiner Filmarbeit die Hoffnung auf eine berufliche Anerkennung und Orientierung im etablierten Fernsehen verbindet. Da sind die Schülerinnen, die eine eigene Film-Fantasiewelt gegen die Mainstream-Vergnügungen ihrer Mitschüler entwerfen, und der junge Kongolese im Exil, der über die Arbeit im Offenen Kanal die Chance zur Selbstbehauptung entdeckt. Was aber ist nun das Gemeinsame der dargelegten audiobiografischen Berichte? Die im Buch vorgelegte Typologie ist wenig luzide, d. h. von geringer analytischer Aussagekraft. Viel interessanter sind da schon die Antworten auf die erkenntnisleitende Frage nach den Langzeitwirkungen, also nach der erworbenen Medienkompetenz. Verweisen diese doch auf die medienpädagogische Bedeutung der Offenen Kanäle. Aber auch diese Ergebnisse sind, im Detail betrachtet, seltsam blass. Denn dass die Arbeit im Offenen Kanal das Selbstbewusstsein stärkt, dass der Verbraucherblick geschärft und das Selbstmanagement sowie der Umgang mit der Zeit gefördert werden, scheinen Selbstverständlichkeiten zu sein. Immerhin sind dies aber Implikationen eines objektiv medienpädagogischen Ansatzes, der den Aneignungsprozess in den Mittelpunkt stellt. Langfristig ist die Medienpädagogik ohnehin der einzige Ort, wo die Offenen Kanäle ihre Legitimität erlangen können.
KARL-HEINZ STAMM, Berlin
Buchbesprechungen Martin Ordolff: Fernsehjournalismus. – Konstanz: UVK 2005 (= Reihe: Praktischer Journalismus; Bd. 62), 412 Seiten, Eur 29,90. Die Konstanzer UVK Verlagsgesellschaft hat mit Martin Ordolffs »Fernsehjournalismus« einen weiteren Band der Reihe »Praktischer Journalismus« vorgelegt und damit seinem »ABC des Fernsehens« (Blaes/Heussen) ebenso Konkurrenz bereitet wie dem List’schen Klassiker »FernsehJournalismus« (Schult/Buchholz). Mit dem Herausgeber-Autor brachten elf weitere Autoren ihr praktisches Wissen in das Handbuch ein, das nach eigenem Bekunden eine Antwort auf das rasante Tempo des Wandels im Fernsehjournalismus geben will. »Digital Newsrooms«, Dokusoap und Videojournalismus führt die Einleitung zur Begründung an; im Vordergrund steht die »Vermittlung der Werkzeuge«. Ein Lehrbuch: Entsprechend gliedert es sich in »Grundlagen« mit »Bild«, »Ton«, »Schnitt«, »Recherche«, »Text«, »Interview«, »Sprechen fürs Fernsehen« mit Hilfestellung für die Rezeption, »Grafik«, »Musik« und »Moderation«, in »Nachrichten und Magazine«, u. a. mit Anmerkungen zu den »Digital Newsrooms«, was aufregender klingt, als es im Alltag ist. Bei der Nachrichtenauswahl lehnen sich die Autoren an gängige Muster an, ohne das übliche Angebot an Unglücken, Konflikten und Ritualen einmal zu hinterfragen. Es folgen »Längere Formate« u. a. mit Doku-Soap und DokuDrama, aber ohne das Erfolgsformat Talkshow mit seinen Möglichkeiten von der politischen Aktualität über Service bis zu den bekannten Niederungen; auch die große Unterhaltung und ihre kleinen Schwestern bieten Journalisten Chancen, bräuchten Kreativität. Im Teil »Neue Medien – Recht – Ausbildung« könnte eine weitere Auflage dieses ZDF-affinen Buchs ja in seiner Auflistung der akademischen Ausbildungsstätten dann die Mainzer Universität mit ihrem Publizistikinstitut und dem Journalistischen Seminar berücksichtigen – nebst den in den letzten Jahren wie Pilze aus dem Boden geschossenen Studiengängen an anderen Hochschulen. Vielleicht kann das Lehrbuch dann auch auf die vornehmlich schwarzen Fotos mit den kaum motivierten Motiven verzichten und mit einem attraktiveren und andeutungsweise synoptischen Umbruch dem mattscheibenverwöhnten Nachwuchs nahe bringen, wie man Bilder gestaltet. Das Handbuch enthält wortreich eine Fülle an Grundlagenwissen und verhilft dabei auch zur so notwendigen Sensibilisierung für die Komplexi-
269
tät des Mehrkanalmediums. In der Beobachtung aktueller Trends liegen Schwerpunkt und Vorzug. Das gilt von den künstlerisch-technischen Gestaltungsmöglichkeiten über die Formate bis zu medienpolitischen Ansätzen. So entsteht für angehende Fernsehjournalisten ein erkennbarer Bezugsrahmen, allerdings ohne Berücksichtigung der beherrschenden Wechselwirkungen des Programms mit den technischen, ökonomischen und rechtlichen Strukturen. Das mag an der unterschiedlichen Provenienz der Autoren liegen, auch am Konzept. Dieser fehlende Theoriebezug ist ein grundsätzliches Manko der Lehrbücher journalistischer Praxis. Fernsehprogramm ist Wirtschaftsgut und Botschaft, ist deshalb abhängig von seinem Auftrag und dessen Finanzierung, ist Quote, ist Qualität, irgendeine, ist immer Selektion und Manipulation, ist Eingriff, ist Trost und Trostlosigkeit, ist Veränderung des Realen… Der Journalist braucht mehr als Handwerk. Entwicklung von Problembewusstsein ist ihm schon in den Lehrjahren abgefordert.
TILMAN STEINER, Mainz/München
Thomas Meyer: Die Ironie Gottes. Religiotainment, Resakralisierung und die liberale Demokratie. – Wiesbaden: VS Verlag für Sozialwissenschaften 2005, 135 Seiten, Eur 14,90. Thomas Meyer ärgert sich darüber, dass die Kirchen in der Öffentlichkeit ethische und moralische Themen besetzen, den Freiraum der Vernunft und des politischen Liberalismus einschränken und damit auch noch Erfolg haben, weil sie das Repertoire der Medieninszenierung als Religiotainment perfekt handhaben. Der Dortmunder Politikwissenschaftler legt einen gut lesbaren, ansprechenden Gedankenanstoß mit wissenschaftlichem Niveau vor, der von der Beobachtung ausgeht, Anzeichen einer Resakralisierung des öffentlichen Raums durch das institutionalisierte Christentum festzustellen, obwohl die Überzeugungskraft der Religionen generell schwinde. Meyer kritisiert den von katholischer Seite erhobenen Anspruch, durch Bezüge auf christliche Anthropologien eine Definitionshoheit für Menschenwürde, Freiheit und gesellschaftliche Handlungsfelder zu reklamieren und damit eine Vormundschaft über das ganze säkulare Gemein-
270
Buchbesprechungen
wesen auszuüben. Auch das von protestantischer Seite vorgetragene, von Amerika inspirierte Konzept der Zivilreligion, dem zufolge die letzten Wertgrundlagen demokratischer Verfassungen stets religiöse Ursprünge haben müssten, machten die Sprecher der Religionen insgesamt zu Anwälten und Interpreten dessen, was politische Kultur beinhalte und wie sie konkret umzusetzen sei. Religionsbegriffe seien aber in keinem Falle als Begründung politischer und demokratischer Ordnungen in Anspruch zu nehmen, denn nicht die Religion habe aus sich heraus die Grundwerte der rechtsstaatlichen Demokratie hervorgebracht, sondern die Idee der rechtsstaatlichen Demokratie habe erst den politischen Gebrauch der Religionen zivilisiert. Meyers grundlegender Befund durchzieht alle vier Hauptkapitel des Buches: Politische Kultur als Überzeugungsfundament politischer Gemeinwesen muss und darf nicht religiös geprägt sein (S. 23). Die Lebensbedingungen eines aufgeklärten Gemeinwesens begründen die Logik der Zivilisierung, nicht aber religiöse Quellen, die allerdings als zivilisierte Religionen einen Beitrag zum Zusammenleben unterschiedlicher Religionen und Weltanschauungen liefern können. Dem »verblassenden Ruf der Aufklärung« will Meyer mit dem Kant’schen Prinzip der Mündigkeit, der Vernunftmoral des kategorischen Imperativs und dem toleranten Humanismus des »Lessing’schen Minimums« wieder aufhelfen. Dies bestehe darin, »im Verhältnis der Glaubensüberzeugungen zueinander und bei der Entscheidung der für alle verbindlichen politischen Fragen Wahrheitsüberzeugungen nicht als feste Gewissheiten gegen die Anderen in Stellung zu bringen« (S. 126). Nicht Kirchenkritik steht im Vordergrund dieses Buches, sondern die Sorge um einen Verlust der gesellschaftlichen Selbststeuerung, die weder durch die Abwehr von Fundamentalismen noch durch die Herausforderungen moralisch explosiver Fragestellungen nach Lebensgrenzen, Gentechnologie oder Sterbehilfe preisgegeben werden dürfe. Alles in allem ist Meyers Buch eine empfehlenswerte Veröffentlichung für Wissenschaftler, Politiker, Kirchenvertreter und alle, die sich mit Verantwortung an der Gestaltung des demokratischen Gemeinwesens in einer pluralistischen Gesellschaft beteiligen! Zwei Kritikpunkte bleiben: Die konstatierte Resakralisierung der Öffentlichkeit ist sicherlich nicht nur in strategische Operanden von Kirchenleitungen eingebettet, sondern in ein insgesamt zunehmend religionsinter-
essiertes und spiritualitätsfreundliches gesellschaftliches Umfeld. Irritierend bleibt der Titel, denn es geht nirgends in dem Buch um theologische Qualifikationen des Gottesbegriffs oder um eine wissenschaftliche Anknüpfung an den philosophischen Ironie-Diskurs.
RONALD UDEN, Erlangen
Philip Meyer: The Vanishing Newspaper. Saving Journalism in the Information Age. – Columbia (MO), London: University of Missouri Press 2004, 269 Seiten, Hardback: USD 49,95; Paperback: USD 24,95. Es ist schon lange kein Geheimnis mehr, dass die klassische Zeitung aus Papier weltweit ums Überleben kämpft. In den Durchhalteparolen von Verlegern und Zeitungsverbänden wird zwar gerne betont, dass Online-Enzyklopädien, Suchmaschinen und Weblogs eine ordentliche Qualitätszeitung wie die FAZ natürlich niemals werden ersetzen können. Aber wer in einige Statistiken jüngeren Datums schaut, gerät schnell ins Grübeln. »Journalism is in trouble«, konstatiert denn auch Philip Meyer in der Einleitung seines Buches. Nicht minder dramatisch, fast schon pathetisch liest sich die persönliche Bemerkung am Schluss: »Newspaper people are my friends. The message in these pages is an attempt to warn and empower them. I pray that it helps.« (S. 254) Dazwischen findet der Leser eine rund 250-seitige, teils mit Analogien und Anekdoten ausgeschmückte Analyse eines erfahrenen Zeitungsveteranen (Meyer war in den 1960er und -70er Jahren selbst Zeitungsreporter und lehrt seit vielen Jahren Journalismus an der University of North Carolina) über ein noch ziemlich verschwommenes Kapitel der journalistischen Zunft: die Zukunft der Presse. Die Vereinigten Staaten trifft das Postulat vom »Verschwinden der Zeitung« besonders hart: Noch in den 1960er Jahren nahmen vier von fünf US-Amerikanern täglich eine Zeitung in die Hand, heute sind es nur noch knapp die Hälfte. Sollte sich dieser Trend unvermindert fortsetzen, wird Meyers Schätzung zufolge im Jahr 2040 die letzte Zeitung von der Druckwalze laufen. Gewiss, wer die Rezeptur eines Allheilmittels zur Errettung der traditionellen Presse kennte, wäre ein gemachter Mann. Doch was Meyers Bauchla-
Buchbesprechungen den an Lösungen anzubieten hat, ist allenfalls ein Placebo – wenn auch ein gut konsumierbares. Den gängigen Pressetheorien, die am Informations- oder Nachrichtenwert ansetzen, stellt Meyer das so genannte »Influence Model« aus den 1970er Jahren entgegen, das auf Hal Jurgensmeyer, den früheren Vizepräsidenten von Knight Ridder, zurückgeht: »A newspaper, in the Jurgensmeyer model, produces two kinds of influence: societal influence, which is not for sale, and commercial influence, […] which is for sale. The beauty of this model is that it provides economic justification for excellence in journalism.« (S. 7) Zur Beweisführung spürt der Autor in den einzelnen Kapiteln dem Zusammenhang zwischen journalistischen Qualitätsfaktoren (»accuracy in reporting«, »credibility«, »readability«) und unternehmerischen Erfolgen nach. Als Konsequenz des »Influence Models« schlägt Meyer vor, die derzeit dominierenden Verlagsstrategien einfach umzukehren, nämlich in redaktionelle Infrastruktur zu investieren, den Einfluss zu steigern und so höhere Gewinne einzuheimsen. Eine ebenso blauäugig wie reizvoll klingende These, die allerdings eher bei Redakteuren als bei Private Equity Firmen Gehör finden dürfte. Was auch Publizistikwissenschaftlern weniger gefallen wird: »The Vanishing Newspaper« weist stellenweise methodische Schwächen auf. So basieren Meyers Ergebnisse ausschließlich auf Umfragen über Zeitungen aus dem Hause Knight Ridder. Daraus resultiert, dass die einflussreichsten und finanzstärksten Prestige-Blätter der USA wie ›New York Times‹ und ›Washington Post‹ unter den Tisch fallen. Außerdem, und das ist wahrscheinlich das größte Manko der Studie, werden lediglich Korrelationen zwischen Qualitätsfaktoren und Unternehmenserfolgen ermittelt; ausgeklammert werden dagegen Ursache-und-Wirkungs-Effekte. Dass Redaktionsvergrößerungen und finanzieller Erfolg einer Zeitung miteinander zusammenhängen, leuchtet ein. Was aber war zuerst da: der Erfolg oder die größeren Redaktionen? Das Buch des Journalismusprofessors aus Chapel Hill hat in der amerikanischen Verlagswelt Wellen geschlagen – nicht ganz zu Unrecht. Zweifellos handelt es sich um ein lesenwertes Werk, dem es nicht an denkwürdigen Passagen mangelt. Stellenweise fehlen jedoch statistische Beweise, welche die Einfluss-These empirisch hinreichend untermauern; darüber können auch die vielen Tabellen und Grafiken nicht hinwegtäuschen. Immerhin spricht aus Meyers Überle-
271
gungen der Idealismus eines weisen, wohl situierten Lehrstuhlinhabers, der auf eine fast 50-jährige journalistische Berufserfahrung zurückblicken kann. Und zugegeben: Ein Modell, demzufolge sich der Geschäftwert einer Zeitung nach ihrem sozialen Einfluss bemisst, hat auch heute noch seine Berechtigung – das gilt umso mehr in Zeiten von »unfriendly takeovers«. Doch wer von Meyer eine Zauberformel zur Sicherung einer vitalen Presselandschaft als Eckpfeiler demokratischer Systeme erwartet, wird enttäuscht sein. Das Damoklesschwert, das derzeit über dem gesamten Zeitungsmarkt schwebt, wird er nicht abwenden können. Was bleibt, ist die Hoffnung – und ein stilles Gebet.
STEPHAN ALEXANDER WEICHERT, Berlin
Klaus Goldhammer/Michael Lessig: Call Media – Mehrwertdienste in TV und Hörfunk. – München: Verlag Reinhard Fischer 2005 (= BLM-Schriftenreihe; Bd. 79), 219 Seiten, Eur 20,–. In Band 79 ihrer Schriftenreihe hat sich die Bayerische Landeszentrale für neue Medien dem Sujet »Call Media – Mehrwertdienste in TV und Hörfunk« zugewandt. Nachdem sich öffentlich umstrittene, wirtschaftlich aber äußerst erfolgreiche Anbieter (z. B. 9Live) hierzulande durchgesetzt hatten, erhielt die Unternehmensberatung Goldmedia Anfang 2004 den Auftrag, diesen Markt zu durchleuchten. Der 219-seitige Band gibt die einjährigen Recherchen mit dem Stand von Februar 2005 wieder. Gemäß der Aufgabenstellung begreifen die Autoren »Anrufmedien« als ökonomische Option im TV-Wettbewerb: Call-In-Sendungen, Votings und Beratungshotlines versprechen, die Abhängigkeit vor allem privater Rundfunk-Veranstalter vom Haupterlösbringer Werbeeinnahmen zu verringern. Die Betrachtung wirtschaftlicher Potenziale steht daher im Mittelpunkt der Analyse. Ästhetische, publizistische oder allgemein kommunikationswissenschaftliche Fragestellungen greift die Studie allenfalls am Rande auf. Das muss kein Nachteil sein; im Gegenteil liest sich die aus drei Hauptteilen bestehende Publikation als fundierte, allgemeinverständliche Einführung in das Thema. Nach einem Marktüberblick, der im Wesentlichen explikative
272
Buchbesprechungen
Funktion hat (Kapitel 3), wird der Bereich aus Sicht der Rundfunkanbieter (Kapitel 4) und der Mediennutzer (Kapitel 5) dargestellt. Das Buch schließt mit einem Ausblick auf (technologische) Entwicklungen. Unter »Call-In Media« verstehen die Autoren zahlreiche Angebote: Damit sind keineswegs nur telefonbasierte Dienste gemeint, sondern etwa auch »Fax-/Datenanwendungen« und »programmnahe Dienste«. Hier wird die Grenzziehung schwierig, wenn zwar Faxabrufe, SMS und Teletext erfasst sind, die gleichen Informationen als Internet- oder Mobile Content aber außen vor gelassen werden. Entsprechend der sehr breiten Herangehensweise beschränken sich die Anmerkungen zur konkreten Ausgestaltung der Angebote selbst auf allgemeine Ausführungen – die »Erfolgsfaktoren von Call Media« füllen zum Beispiel nur eine
knappe Seite. Interessant wäre hier eine weitergehende Problematisierung des Spannungsverhältnisses zwischen Erlös und Image gewesen, die über die Diskussion von minimalen Gestaltungsgrenzen hinaus geht und Aufschlüsse über Erfolg versprechende Angebotsstrategien neben den senderseitig herausgestellten Erfolgsbeispielen geben könnte. Dessen ungeachtet besticht die Studie durch ihre marktnahe Aufbereitung. Technische und regulatorische Aspekte werden gut dargestellt, und das Buch ist wertvoll für denjenigen, der etwas über das Erlösmodell, die Akteure im deutschen Markt und die grundlegenden Nutzungsformen erfahren will. Natürlich veraltet eine so stark deskriptive Studie schnell; das ist aber kein Fehler der Autoren, sondern liegt in der Natur der Sache. CHRISTIAN ZABEL, Köln