Über Medien, Web 2.0 und die meisten Artikel zu Publizistik- und Kommunikationswissenschaften

Ich wollte mir mal anschauen, wie erfolgreiche Firmen und Konzerne ihre Marketingabteilungen organisieren.

https://www.cbinsights.com/blog/saas-marketing-stack/

  1. Ausgangslage – Was hat zu Ihrem Bedarf geführt?
  2. Was sind Kommunikationsziele? Gilt es ein Produkt zu positionieren? Den CEO? Das Unternehmens-Image?
  3. Zielgruppen?
  4. Kommunikationssstrategie?
  5. Welches Medium erreicht meine Zielgruppe am besten?
  6. Stolpersteine auf den Weg dorthin?
  7. Zeitplan?
  8. Budget?
  9. Wie messe ich den Erfolg / mit welchen Metriken?

Mit wem soll ich Details klären?

Budget/Preis?

Was sind die wertvollsten PR Assets?

Was sind die Ziele?

Konzept für Gesamtkommunikation bereits vorhanden?

Was steht im Vordergrund der PR? Nur Außenkommunkationen? Interne Kommunikation? Beides?

Quellensammlung:

theprcoach.com

https://www.aufgesang.de/blog/wie-gestaltet-man-ein-briefing-fur-agenturen-11413

https://www.quora.com/What-items-should-you-cover-in-a-kick-off-meeting-with-a-new-PR-firm

http://www.lange-pr.de/checkbr.pdf

http://www.thegoodpitch.com/wp-content/uploads/2011/09/BriefinganAgency.pdf

http://www.free-pr-advice.co.uk/briefingaprcompany.htm

https://www.aufgesang.de/blog/wie-gestaltet-man-ein-briefing-fur-agenturen-11413

Wenn ich einmal drinnen bin in der Arbeit, vergesse ich gerne die Welt um mich. Deshalb hatte ich in der Vergangenheit Schwierigkeiten, nicht Geschäftstermine zu versäumen. Mit Outlook wollte ich standardmäßig E-Mail-Reminder einrichten. Das ist aber bei Outlook leider nur individuell bei Terminerstellung möglich. Da wir in der Arbeit Office 365 nutzen, gibt es aber mit dem Automatisierungstool Microsoft Flow einen Workaround.

  • Auf office.com einsteigen und in der Übersicht auf den Flow Button klicken.
  • Oben „Ohne Vorlage erstellen“
  • „Hunderte Connectoren oder Trigger suchen
  • Outlook Kalender eintippen
  • Office 365 wenn ein Termin bald startet

  • Seinen gewünschten Kalender auswählen
  • „Erweiterte Optionen anzeigen“ klicken und die Minuten angeben, wie viel im Voraus der Trigger für einen Termin starten soll. Ich habe zB 45 eingegeben, also eine Dreiviertelstunde vor dem Termin werde ich per Mail daran erinnert.
  • „+ Neuer Schritt“ und „Aktion hinzufügen“
  • Office 365 Outlook – E-Mail senden
  • Ich habe folgenden Dynamischen Inhalt eingefügt und bekomme damit Betreff und Adresse des Termins anzeigt

(Start- und Endzeit kann man sich anzeigen lassen, ist aber leider in einem schwer lesbaren Format geschrieben und bei mir wird die Angabe um eine 1 Stunde verstellt anzeigt – ich vermute mal, das hat mit Zeitzonen-Einstellungen zu tun)

  • Flow speichern
Sprache ist das Haus des Seins.

Martin Heidegger

Ein guter Journalist macht sich mit keiner Sache gemein, auch nicht mit einer guten.

Hajo Friedrichs

 

Die österreichische PR-Szene ist nicht auf Höhe der Zeit, das erlebe ich immer wieder. Wie viele PR-Profis optimieren ihre Texte für Suchmaschinen? Wie viele Agenturen und Unternehmen verfassen aufwendige Newsletter, messen aber nicht, wie diese bei der Zielgruppe ankommen? Und das in einer Branche, die sich laufend damit beschäftigt, wie Erfolg der eigenen Arbeit besser messbar wird.

Ich möchte hier zeigen, wie das beim Newsletter mit Mailchimp und Google Analytics einfach möglich ist. Und habe dazu ein paar einfache Fragen beantwortet:

  1. Wie viele Leute kommen durch die Newsletter-Kampagne auf die eigene Webseite?
  2. Wie entwickeln sich diese User weiter? Springen Sie ab? Oder schauen Sie sich noch andere Seite an? („beyond the click tracking“)
  3. Sind es immer dieselben Newsletter-Empfänger, die auf die Webseite finden, sprich wiederkehrende User, oder sind das immer unterschiedliche Leute?
  4. Wie viele von den neuen Subscribern klickt?

 

  1. Wie viele Leute kommen durch die Newsletter-Kampagne auf die eigene Webseite?

Diese Frage lässt sich zwar auch mit den Reportings von Mailchimp beantworten, aber Google Analytics bietet darüber hinaus auch die Möglichkeit sich anzusehen, wohin die User danach gewandert sind. Zuerst muss das Setup in Mailchimp aufgesetzt werden, in dem in der Mail-Kampagne ein Stichwort für Google Analytics vergeben wird. (siehe hier die Hilfe von Mailchimp für Details.)

Das Gehe zu Google Analytics. Unter Acquisition -> auf Campaigns -> all Campaigns -> sekundäre Dimension Medium auswählen -> Liste enthält geklickten Sessions.

 

2. Wie entwickeln sich diese User weiter? Springen Sie ab? Oder schauen Sie sich noch andere Seite an? („beyond the click tracking“)

Auch das lässt sich mit Google Analytics schnell beantworten. Dazu auf Audience ->  User Flow -> Und auf die aktuelle Mail-Kampagne klicken.

 

3. Sind es immer dieselben Newsletter-Empfänger, die auf die Webseite finden, sprich wiederkehrende User, oder auch neue User?

Dazu Session beim Kategoriepunkt User Flow im Google Dashboard auswählen und Returing Users sowie New Users auswählen.

 

Anmerkungen

By the way, in Google sieht man oft Referral Spam. Hier oder hier wird erklärt, wie der sich entfernen lässt.

 

 

 

„Es reicht nicht mehr, Menschen über große Erzählungen und Inszenierungen zu verzaubern“, so steht es schon im Vorwort des neuen Buches „Brand Experience“ geschrieben. Der Herausgeber Andreas Baetzgen verweist indem auch auf die wachsende Rolle der Erlebnisökonomie, in der sich der Erlebnisnutzen von Produkten und Dienstleistungen zu einem eigenen öknomischen Gut entwickelt. Gute Nachrichten für Marketer und deren Stellung im Unternehmen, aber wie lässt sich das Markenerlebnis wirklich optimieren? Mit dieser Frage beschäftigen sich im Buch 30 Praktiker in insgesamt 20 Beiträgen. Sie zeigen, wie Unternehmen den Kunden entlang der gesamten Customer Journey begleiten und begeistern und wie die enorm gestiegene Zahl an Consumer Touch Points (CTP) systematisch und strategisch gemanaget wird.

index

Mir gefällt am Buch, dass es nach der Einführung inhaltlich gleich mit „Analyse“ losgeht und damit auch deren Wichtigkeit betont wird. Ich sehe da nämlich schon einiges an Nachholbedarf bei Kommunikationsstragen und insbesondere bei PR-Tätige. Das Kapitel gibt jedenfalls einen schönen Überblick über die Möglichkeiten und Vorgehensweisen beim Messen und Steuern von Kundenerlebnissen. Die Praxisbeispiele der Autoren sind besonders interessant. Rainer Balensiefer, Christine Knackfuss und Oliver Mauthe zeigen etwa in ihrem Beitrag auf, wie ein Kaffeehersteller ein wenig befriedigendes Premium-Kundenerlebnis mittels Datenaggretion, Analyse und anschließendem Aktionplan verbessert. Gut gefallen hat mir auch der Beitrag von Nils Wollny, der einen Überblick gibt, wie Nutzer anhand ihrer Clickstreams segementiert und dadurch effektiver angesprochen werden. Am Beispiel des Contentportals „Curved“ zeigt er schön auf, wie Menschen auf die Webseite kommen und wie sich deren Nutzungsverhalten dann weiterentwickelt.

Im Allgemeinen bietet das Buch vor allem einen Überblick über neue Entwicklungen, Methoden und Techniken im Brand Experience Marketing. Es ist aber kein Leitfaden, mit dem sich ein Marketer ganz gezielt hinsetzen und seine Strategie Punkt für Punkt optimieren könnte. Der Sammelband ist daher vor allem für Marken- und Kommunikationsstrategen interessant, die für oder mit Großunternehmen im B2C-Sektor arbeiten und nach fundierte Inputs für die Optimierung des Kundenerlebnisses suchen.

„Brand Experience. An jedem Touchpoint auf den Punkt begeistern“ erschien im November 2015 und ist nunmehr das dritte Handbuch für Marken- und Kommunikationsstrategen von Andreas Baetzgen, Professor für Strategische Kommunikation und Branding an der Hochschule der Medien in Stuttgart. Das Buch ist unter diesem Link bestellbar. Ich danke dem Schäffer-Poeschel Verlag für die Zusendung eines Rezensionsexemplars.

Ich habe die Fotografie für mich entdeckt. Lange war mein Smartphone auch meine Kamera, aber die Fotos sind  zum Wegschmeißen. Beruflich ist es für mich auch relevant, dass ich einerseits weiß wie gute Fotos zustande kommen und andererseits selbst gute Fotos von Events und Portraits schießen kann. Eine Kamera muss also her und zwar eine, die offen für mehr Ambitionen ist. Nur welche?

Sehr geholfen hat mir dieser Artikel auf Techradar. Obwohl ich grundsätzlich eher die Marke Canon als Nikon schätze, scheint Nikon bei Kameras für ambitionierte Anfänger besser aufgestellt. Was auch ganz klar ist: Fotografie ist ein teures Hobby. Man braucht nicht nur den Body sondern eben auch die passenden Objektive. Bei diesem Thema hat mir dieser Artikel sehr gut weitergeholfen. Der Artikel sagt, 3 Objektive braucht jeder Fotograf.

Nach langem hin und her habe ich mich für die Nikon D5500 entschieden und bin schon fleißig am Foto machen, mit zusätzlichem Sigma Weitwinkelobjektiv (10-20mm f3.8) für Wanderungen und Landschaftsfotografie und ein Festbrennweiten-Objektiv von Nikkor (50mm 1:1,8G) für Portraits.

Übrigens: Anfangs wollte ich mir eine gebrauchte Ausrüstung zulegen, aber auf Willhaben gibt es da nur Preise, die bei über 70% vom aktuellen Neukaufpreis liegen. Sorry, aber das ist es dann nicht wert.

Wer mir bei der Entwicklung meiner Fotografie-Künste zusehen will, einfach mal auf meiner flickr-Page vorbeischauen.

 

Innovative Hochschulen gesucht

„Ja, so findet zum Beispiel an vielen Hochschulen gerade ein Paradigmenwechsel statt. Dort wird allmählich erkannt, dass es nichts bringt, nur die Theorie zu lehren und den Studierenden zu sagen, dass ihre beruflichen Aussichten schlecht sind. Stattdessen wird zunehmend darauf gesetzt, Studierende konkret zu fördern. Natürlich sind wir jetzt nicht alle Unternehmerjournalisten, aber wir werden nicht weiterkommen, wenn nur gejammert wird.“

Carolin Neumann, Geschäftsführerin Vocer Innovation Medialab, hofft im Interview mit „Lousy Pennies“, dass es zukünftig mehr Unterstützung für innovative Jungjournalisten gibt. Ich meine: Gute Hochschulen fördern wissenschaftliche Skills, die auch in der Privatwirtschaft nützlich sind.

Politik und Fernsehen sind heute zwei untrennbare Bestandteile einer modernen Demokratie. Das Fernsehen spielt eine zentrale Rolle in der heutigen Gesellschaft. Das geht auch an der Politik nicht spurlos vorbei. Denn ohne Darstellungsfähigkeit ist heute keine Politik mehr zu machen. Ich habe mich in einer Forschungsarbeit aus Kommunikationswissenschaft mit der Frage beschäftigt, ob und wie das Fernsehen das Meinungsbild der Bevölkerung prägt. Die Arbeit besteht aus einem umfangreichen theoretischen Teil und einem empirischen Teil. Die Ergebnisse der Umfrage zeigen:

  • Es gibt bemerkbare Unterschiede zwischen Viel- und Wenigseher in der Zufriedenheit mit der Politik. Die Umfrageergebnisse sind allerdings ein Trend und nicht signifikant.
  • Printmedien werden am häufigsten für die politische Information genutzt werden.
  • Politische Sendungen im ORF werden politischen Sendungen im Privatfernsehen bevorzugt.

Im theoretischen Teil wurden unter anderem die Videomalaise-These und der Negativismus im Fernsehen angesprochen. In beiden Ansätzen wird davon ausgegangen, dass Fernsehen ein negatives Bild von Politik vermittelt und dieses vom Zuschauer übernommen wird. Daraus zieht man den Schluss, dass Vielseher ein negativeres Bild von Politik haben als Wenigseher. Sowohl Thomas Meyer als auch Peter Filzmaier schreiben, dass es zu den problematischen Konsequenzen der politischen Inszenierung zählt, dass die Darstellungskompetenz und das strategische Themenmanagement zu den wichtigsten Erfolgskriterien geworden sind. Das führt dazu, dass inhaltliche Informationen auf der Strecke bleiben. Hans Karl Rupp und Andrea Gourd prägten 1997 den Begriff der „Telekratie“. Sie glauben, dass die „Medienherrschaft“ unter ökonomischer Art den Einzelnen konditioniert. Das Fernsehen hat die Fähigkeit, Distanzen und Ausdehnungen zu überwinden. Dadurch entsteht eine Desorientierung des Einzelnen und durch die Wirkungslosigkeit der Reaktionen des Rezipienten, gleiten diese in die Fremdbestimmung. Diese Theorie ist aber sehr umstritten. So zeigt sich auch in meiner Forschungsarbeit, dass die Glaubwürdigkeit des Fernsehens gering ist. Sind die Zuschauer kritisch eingestellt, kann das Fernsehen gar nicht so eine allumfassenden Einfluss entwickeln.

Die Konsonanz-Theorie
Die Allmacht des Fernsehens und der Medien überhaupt wird stark angezweifelt und wurde lange Zeit überschätzt. So zeigt die Konsonanz-Theorie auf, dass Menschen Medien selektiv, interpretativ (also subjektiv) und behaltend nützen. Weitere Forschungen zeigen, dass sehr wohl persönliche Kontakte und Meinungen von „Opinion Leaders“ für Menschen eine wichtige Rolle spielen und dass Medien auch nicht unabhängig von der Gesellschaft agieren können. Auch Heidemarie Schumacher konstatiert, dass mit dem Uses and Gratification Approach, die These vom manipulierten Zuschauer relativiert werden muss. Der Rezipient wird hier als aktiv beschrieben, der sich die Medieninhalte für seine individuelle Befriedigung aussucht. Daher können massenmediale Inhalte eine Person nicht beeinflussen, wenn die vermittelten Inhalte keinen Sinn oder Nutzen haben. Nur wenn der Person etwas relevant erscheint, hat die Nachricht auch die Chance zur Beeinflussung. Was von der Allmacht der Medien bleibt, wird in der Agenda-Setting-Hypothese beschrieben. Sie behauptet, dass Medien zwar nicht so sehr beeinflussen was wir denken, aber sehr wohl, worüber wir nachdenken. Die Dinge, die uns wichtig sind, werden von den Medien vorgegeben. Und tatsächlich haben Untersuchungen gezeigt, dass Themen die hohe Priorität in den Medien genießen, auch eine hohe Priorität bei den Rezipienten haben. Die Themen werden sozusagen von den Medien strukturiert. Allerdings gilt die Agenda-Setting-Hypothese nur mit Einschränkungen. Klaus von Beyme hat festgestellt, dass häufig die Thematisierung noch immer von Parteien, Regierungen und sozialen Bewegungen ausgeht. Dagegen sind die Medien gestalterisch, wenn es um „symbolische Politik“ und „Entlarvung von Skandalen“ geht.

Die Macht des Fernsehens
Trotzdem, Fernsehen hat zwar keine beherrschende Stellung, aber eine große politische Macht – auch wenn durch das divergente und vielfältige Angebot der Fernsehsender ein Integrationsverlust konstatierbar ist. Wenn aber das Fernsehen einen so großen Einfluss hat, unterstützt oder schädigt es das politische demokratische System? So kann man davon ausgehen, dass das Fernsehen durch seinen Negativismus zur Politikverdrossenheit beiträgt. 1976 wurde die These von der „Videomalaise“ des Politikwissenschaftlers Michael J. Robinson populär. Er vertrat die Ansicht, dass das Fernsehen negative Politikberichterstattung bevorzugt und dadurch die Menschen von der Politik entfernt. Aus dieser Überlegung heraus kann man darauf schließen, dass Vielseher ein negativeres Bild von Politik haben, als Wenigseher. Gegen diese These spricht, dass immer wieder auch der gegenteilige Zusammenhang festgestellt wurde. Auch wird darauf verwiesen, dass Vielkanalseher (Personen die mehrere unterschiedliche Kanäle nutzen, also sechs oder mehr Sender) mehr Informationssendungen sehen als Wenigkanalseher. Vielkanalseher verbringen außerdem fast doppelt so viel Zeit vor dem Fernseher, wie Wenigkanalseher. Allerdings zeigt sich, dass gerade eine große Nutzung von Information im Fernsehen zu einem besonders negativen Bild von Politik führen kann.

Problem des Negativismus
Patzelt sieht im „Negativismus“ der massenmedialen Berichterstattung ein „Sonderproblem“. Da Massenmedien zwar meist relativ neutral berichten, aber ganz klar negative über positive Berichterstattung überwiegt. Das führt dazu, dass der Einzelne seine eigene Lage wesentlich positiver einschätzt, als die allgemeine Lage. Schuld an der schlechten allgemeinen Lage wird dann der Politik gegeben. Daher kann behauptet werden, dass Vielseher, die häufiger mit der negativ orientierten Berichterstattung konfrontiert sind, auch unzufriedener mit der Politik sind. Es verwundert nicht, dass Politiker alles tun, um im Fernsehen in einem möglichst positiv Licht zu erscheinen bzw. der politische Gegner in einem negativen. Wie sehr verändert das Fernsehen und seine Darstellungsform die Politik? Man kann durchaus den Eindruck gewinnen, dass sich Politik nur mehr auf die Inszenierung konzentriert und sich den Spielregeln der Medien unterwerfen muss.

Inszenierung der Politik im Fernsehen
Peter Filzmaier schreibt, dass es zu den problematischen Konsequenzen der politischen Inszenierung zählt, dass die Darstellungskompetenz und das strategische Themenmanagement zu den wichtigsten Erfolgskriterien geworden sind. Das führt dazu, dass inhaltliche Informationen auf der Strecke bleiben. Thomas Meyer stellt wiederum fest, dass der Bezug zur Wirklichkeit verloren geht. Es gibt eine „Scheinpolitik“ oder „Scheinereignissen“. Was zählt sind Bildbotschaften, wie zum Beispiel Gesten, Symbole und ähnliches. Andererseits hat die Politik keine andere Wahl, als sich unterhaltsam und medienwirksam in Szene zu stellen. Prisching meint wiederum, dass es die Gegenwartspolitik mit einer Gesellschaft zu tun hat, die vorrangig Vergnügen, Witz, Ironie und Spiel sehen möchte. Dagegen wird aber festgehalten, dass auch unterhaltende Sendungen in hohem Maße informieren können. Durch die spannenden Darstellungen können auch politisch uninteressiertere Personen für Politik gewonnen werden. Dadurch können solche Sendungen einen integrativen Nutzen für das demokratische System haben. Voraussetzung dafür ist aber eine große fachliche Kompetenz der verantwortlichen Journalisten. Die Dependenzthese geht wiederum davon aus, dass die Medien so mächtig sind, dass Politik in ihre Abhängigkeit geraten ist. Fakt ist, dass Politiker Medienpräsenz zeigen müssen und auf der Vermittelungsleistung der Medien angewiesen sind. Die Instrumentalisierungsthese ist das Gegenstück zur Dependenzthese. Sie besagt, dass Politiker die Medien instrumentalisieren können, um ihre Botschaften zu verbreiten. Dies gelingt ihnen, indem sie sich professionell auf die Erwartungen der Medien einstellen und ihnen fertige „Erzeugnisse“ liefern. In der Praxis kann man davon ausgehen, nie einen dieser beiden Extremsituationen in reiner Form anzutreffen. Vielmehr wird es immer ein Wechselspiel zwischen Medien und Politik geben, zwischen beeinflussen und beeinflusst werden.

Gesamte Forschungsarbeit hier.

Alltägliche Beobachtung

Alltägliches Beobachten dient der Orientierung der Menschen in der Welt. Sie ist eher selektiv und unreflektiert. Das heißt, wir stehen der Welt mit einem gewissen Vormuster gegenüber. Wir beobachten und beurteilen mehr oder weniger unbewusst. Z.B. wenn wir fremde Menschen begegnen: Wie sehen sie aus? Wie verhalten sie sich? Wir beobachten sie und formen uns daraus ein Bild dieses Menschen.

 Wissenschaftliche Beobachtung

Wissenschaftliche Beobachtung versucht natürlich nach objektiven Kriterien vorzugehen. Eine Beobachtung ist dann wissenschaftlich, wenn:

  1. es einem Forschungszweck dient
  2. systematisch geplant
  3. systematisch aufgezeichnet
  4. es wiederholten Kontrollen hinsichtlich der Gültigkeit, Zuverlässigkeit und Genauigkeit unterworfen wird

Exkurs:

Gültigkeit = Validität: Das Messinstrument misst genau das, was es vorgibt zu messen

Zuverlässigkeit = Reliabilität: Das Messinstrument misst unter gleichen Bedingungen, immer wieder das Gleiche

Genauigkeit = Es dürfen sich keine Fehler einschleichen

Doppelcharakter sozialwiss. Beobachtung

Quantitativ orientierte Beobachtung

Quantitative Studien unterscheiden sich von qualitativen in erster Linie durch die wissenschaftstheoretische Grundposition (normativ-ontologische Theorien vs. empirisch-analytische Theorien), den Status von Hypothese sowie dem Methodenverständnis und die Trennung von Entdeckungs- und Begründungszusammenhang und die Theorienprüfung folgen. Soziale Realität wird als objektiv und mittels kontrollierter Methoden erfassbar angesehen. Empirische Forschung soll theoriegeleitete Daten über die soziale Realität sammeln, wobei diese Daten den Kriterien der Reliabilität, der Validität sowie der Repräsentativität und der intersubjektiven Überprüfbarkeit zu genügen haben und in erster Linie der Prüfung der vorangestellten Theorien und Hypothesen dienen. Forscher haben den Status unabhängiger wissenschaftlicher Beobachter, welche die soziale Realität von außen erfassen sollen.

Diese Ansprüche äußern sich in der Entwicklung strukturierter Beobachtungsschemata, und in einer Forschungspraxis, die der Forderung nach intersubjektiver Überprüfbarkeit durch die personelle Trennung von Forscher und Feldarbeiter sowie der Erhebung großer Fallzahlen gerecht zu werden versucht.

Zentraler Kritikpunkt gegen die quantitative Sozialforschung sind der durch die Theorie stark begrenzte Erfahrungsbereich und dass die Beschäftigung mit der Methode den eigentlichen Gegenstand überlagert.

 Die qualitative Beobachtung

Zentral Annnahme in der qualitative Methode, dass soziale Akteure Objekten Bedeutungen zuschreiben, und sich somit nicht starr nach Normen und Regeln verhalten, sondern soziale Situationen interpretieren und so prozeßhaft soziale Wirklichkeit konstituieren.

Forschungsprinzipien sind:

  • Offenheit: Der Untersuchungsgegenstand und nicht vorab entwickelte Theorien und Hypothesen bestimmen die Forschung.
  • Prozesscharakter von Gegenstand und Forschung: Die sozialen Akteure schaffen Wirklichkeit, indem sie diese dauernd interpretieren und neu aushandeln.
  • Reflexivität: Es werden keine vorab aus der Theorie abgeleiteten Hypothesen geprüft, sondern im laufenden Forschungsprozess generiert, modifiziert und verallgemeinert.
  • Problemorientierung: Die Formulierung und Auswahl der Forschungsfrage resultiert aus dem vom Forscher wahrgenommenen gesellschaftlichen Problemen.

Für qualitativ teilnehmende Beobachtungsstudien bedeutet dies den Verzicht auf vorab konstruierte Beobachtungsschemata, standardisierte Verfahrensweisen und –regeln und die Teilnahme der Forscher in dem natürlichen Lebensumfeld der Untersuchten.

 Beobachtungsfeld

Der Bereich, in dem eine Beobachtung stattfinden soll, bezeichnet man als Beobachtungsfeld. Es handelt sich dabei nicht nur um das räumliche Umfeld, sondern auch um den soziale Bereich, den Zeitpunkt und die Rahmenbedingungen der Untersuchung.

 Formen der Beobachtung

Die folgende Aufzählung und Beschreibung der verschiedenen Beobachtungsformen soll einen Überblick über die verschiedenen Möglichkeiten, die die wissenschaftliche Beobachtung bietet, geben.

Feld- vs. Laborbeobachtung

Beobachtungen in natürlichen sozialen Situationen werden als Feldbeobachtungen und Beobachtungen in künstlich/experimentell erzeugten Situationen als Laborbeobachtung bezeichnet. Bei der Laborbeobachtung stellt sich die Frage, ob die so erhaltenen Ergebnisse Aussagen über das entsprechende Verhalten sich auf die Realität übertragen lassen. Bestimmte Situationen können jedoch kontrolliert nicht hervorgerufen werden.

Vorteile der Laborbeobachtung sind allerdings die leichtere Wiederholbarkeit im Vergleich zur Feldbeobachtung und somit eine leichtere Überprüfbarkeit, und es kann gezielter, genauer und kontrollierter beobachtet werden.

 Teilnehmende vs. nicht-teilnehmende Beobachtung

Bei der teilnehmenden bzw. nicht-teilnehmenden Beobachtung unterscheidet man, ob der Wissenschaftler selbst ein Teil der zu beobachtenden Situation ist oder die Verhaltensabläufe als Unbeteiligter beobachtet. Die nicht-teilnehmende Beobachtung zeichnet sich dadurch aus, dass der Beobachter von außen, ablaufenden sozialen Ereignisse registriert.
Die teilnehmende Beobachtung ist dadurch charakterisiert, dass der Beobachter selbst eine im Beobachtungsfeld definierte Rolle übernimmt und sich den anderen Handelnden dieser Rolle entsprechend verhält, ohne von ihnen als Beobachter mit einem wissenschaftlichen Interesse erkannt zu werden.

Hoher vs. geringer Partizipationsgrad

Nimmt der Forscher bei der Beobachtung eine soziale Rolle ein, kann diese entweder aktiv oder passiv sein. Aktiv ist sie, wenn der Forscher bestimmte Situationen provoziert oder herbeiführt. Hierbei spricht man von einem hohen Partizipationsgrad bzw. von einer aktiv-teilnehmenden Beobachtung.
Im Gegensatz dazu kann der Forscher aber auch eine passive Rolle einnehmen, so z.B. als Mitglied der Gruppe. Beobachtet er nur den Verlauf der Dinge und nimmt selbst keinen Einfluss auf das Geschehen, so ist sein Partizipationsgrad niedrig bzw. es liegt eine passiv-teilnehmende Beobachtung vor.

Strukturierte vs. unstrukturierte Beobachtung

Strukturierte und unstrukturierte Beobachtungen unterscheiden sich in dem Grad ihrer Differenziertheit. Dabei beachtet der Forscher bei der unstrukturierten Beobachtung relativ grobe Kategorien sozialen Verhaltens. Je differenzierter diese Kategorien werden, desto strukturierter wird die Beobachtung.

 Offene vs. verdeckte Beobachtung

Bei der offenen Beobachtung ist dem Beobachteten bewusst, dass ein Wissenschaftler anwesend ist, der ihn in der vorliegenden Situation beobachtet. Für den Forscher bedeutet dies, dass er sich freier und offener im Feld bewegen kann, im Gegensatz zur verdeckten Beobachtung. Verzerrungen und Probleme können auftreten, wenn sich der Beobachtete in dieser ungewohnten Situation anders verhält, als es normalerweise der Fall wäre.

Bei der verdeckten Beobachtung weiß keiner der Beobachteten, das sich in Forscher in Gruppe befindet. Dadurch soll erreicht werden, dass sie sich so natürlich und ungestört wie möglich fühlen.

Die große Quantifizierung unserer Lebenswelt startet. Überall sind Daten vorhanden und mit neuen Tools lassen die sich auch sehr schnell und elegant aufbereiten. Datenjournalismus ist ein geflügeltes Wort geworden und für Redaktionen genauso interessant wie für PR-Tätige. Denn Öffentlichkeitsarbeit muss immer möglichst anschaulich Inhalte transportieren, sowohl in der internen als auch in der externen Kommunikation. Klarerweise lassen sich etwa die hervorragenden Umsatzentwicklungen des Kunden besser mit einer Infografik veranschaulichen als rein mit Text. Journalisten freut es meist auch, gleich ein Bild zu haben und übernehmen dann eher die Meldung. Mitarbeiter schauen sich wiederum im Mitarbeiterblog oder Magazin eher eine Grafik an, als dass sie Texte lesen.

infografic

Infografik erstellt mit infogr.am.

Das mit Abstand coolste und ausgefeilteste Tool ist hier infogr.am. Gesehen habe ich das erstmals bei Dominik Leitner. Spielereien sind damit super einfach möglich. Über Ulrike Langer habe ich das Open Source Tool Datawrapper kennengelernt. Damit lassen sich schnell einfache Grafiken erstellen. Interessant ist dieses deutsche Start-up allemal, wobei die Praxisbeispiele von Datawrapper in der „Chart Gallery“ (noch) wenig ansprechend sind. Hoffentlich tut sich da noch was, ansonsten ist wohl infogr.am immer die erste Wahl. Datawrapper wurde übrigens für das deutsche Bildungswerk der Zeitungen gebaut, das wiederum zum Bundesverband deutscher Zeitungsverleger gehört. Die Voraussetzungen wären also da, einen journalistisch wirklich überzeugenden Workflow und Output zu kreieren. Über Luca Hammer und seinem Blognetz-Projekt bin ich auf Gephi gestoßen. Mit diesem Tool lassen sich Netzwerken und komplexe Systeme visualisieren. Ich weiß zwar noch nicht genau, wie man das außeruniversitär einsetzen kann, aber spannend ist es auf jeden Fall.

Fazit: Am besten gefällt mir infogr.am, spezielle Netzwerkvisualierungen sind mit Gephi möglich und Datawrapper hat ein großes Potential für den Datenjournalismus.