Markt- & Sozialforschung

In einer idealen Welt fällen Unternehmen, Organisationen und Individuen rationale Entscheidungen auf Grund einer 100% korrekten Datengrundlage. Wir leben jedoch nicht in einer idealen Welt, daher brauchen wir die Methoden der Sozialwissenschaften, Markt- und Meinungsforschung um die bestmögliche Entscheidungsgrundlage auf Grund qualitativer und quantitativer Daten liefern zu können.

Hier sollen im Laufe der nächsten Zeit näher auf den Prozess der Markt- und Sozialforschung eingangen, aber auch einzelne Erhebungs- und Analyse-Methoden erläutert werden.

Forschung

Grundlagen:

(folgt)

Datenerhebung:

Primär- vs. Sekundärdaten

Bei Daten wird prinzipiell zwischen Primär- und Sekundärdaten unterschieden. Primärdaten werden speziell zum Zweck der anstehenden Untersuchung direkt erhoben. Bei Sekundärdaten greift man auf intern oder extern vorhande Datensätze (z.B. amtliche Statistiken, sozialwissenschaftliche Datensätze) zurück, die ursprünglich zu anderen Untersuchungszwecken erhoben wurde. Primärdaten haben den Vorteil einer höheren Aussagekraft, sind aber mit wesentlich höheren Kosten verbunden. Sekundärdaten sind zudem meist nicht mehr aktuell. Denkbar ist auch eine kombinierte Verwendung.

Erhebung von Primärdaten

Hat man sich zur Erhebung von Primärdaten entschlossen, stehen einem drei verschiedene Möglichkeiten zur Verfügung:

  • Befragung (ich ordne hierunter auch das Panel ein)
  • Experiment (stellt eine Hybridform aus Befragung und Beobachtung dar)
  • Beobachtung

Qualiative Befragungsmethoden

Hier beschränke ich mich auf eine einfache Aufzählung, die zu einem späteren Zeitpunkt nochmals ausgeweitet wird:

  • Tiefeninterview
  • Gruppendiskussion (Face2Face oder Internet-gestützt)

Quantitative Befragungsmethoden

Quantitative Befragungsmethoden haben den Vorteil, dass sie vergleichbare Daten liefern. Durch die Standardisierung der Befragung wird die quantitative Analyse mit Hilfe statistischer Methoden möglich. Zu diesen Befragungsmethoden gehören:

  • Standardisierte mündliche Befragung (Face2Face)
  • Standardisierte schriftliche Befragung
  • Standardisierte telefonische Befragung (meist Computer-unterstützt: CATI (Computer Assisted Telephone Interviewing)
  • Online-Befragung

Experiment

Bei Experiment denkt man meist an kleine weiße Mäuse, die mit Stromstößen durch ein Labyrinth gejagt werden. So schlimm wird mit Probanden in der Sozial- und Marktforschung jedoch nicht umgesprungen (Sieht man von Experimenten wie dem Milgram- oder Stanford-Prison-Experiment mal ab, die beide sehr viel Stress auslösten).
Unterschieden wird in zwei Kategorien:

  • Laborexperiment
  • Feldexperiment

Laborexperimente haben den Vorteil, dass sich der Stimulus gezielt setzen lässt, während man die Bedingungen kontrolliert, d.h. andere Einflüsse dritter Variablen kontrollieren kann. Ziel ist es, die Wirkung eines bestimmten Stimulus nachzuweisen. Gehen wir von folgender Szene bei den Simpsons aus: Lisa hat einen Stein und behauptet, dieser würde vor Tigern schützen, da ja offensichtlich keine Tiger zu sehen seien. Wir haben hierbei das Treatment „Stein“ (X) und die Beobachtung (O), dass keine Tiger vorhanden sind. Das „Experiment ist folgermaßen aufgebaut:

X O

Lässt sich daraus wirklich schließen, dass Steine vor Tigern schützen? Eine Aussage über den Effekt lässt sich nicht wirklich tätigen, da kein Vergleich zu einer Kontrollgruppe stattfindet. Selbst wenn der Messung X eine vorherige Erhebung der abhängigen Variablen vorrausgeht, ist ein kausaler Zusammenhang nicht wirklich nachweisbar. Schematisch sähe dies wie folgt aus:

O1 X O2

Diekmann führ hierbei das bekannte Beispiel des Schnupfens auf, der behandelt 7 Tage dauert und unbehandelt eine Woche. X stellt hierbei ein Medikament dar. Bei dieser Art der Untersuchung lässt sich jedoch keine Aussage über die Wirksamkeit treffen. Man muss eine Vergleichs- bzw. Kontrollgruppe heranziehen.

Experimentalgruppe: X O1
Kontrollgruppe: O2

Ein weiterer wichtiger Faktor ist die zufällige Zuweisung der Probanden zu Versuchs- und Kontrollgruppe. Möchte man die Wirksamkeit einer bestimmten Maßnahme testen, wie z.B. die Teilnahme an einem bestimmten Seminar zur Steigerung der Kundenorientierung. Die Mitarbeiter der Versuchsgruppe könnten schon von vornherein kundenorientierter gewesen sein, somit würde das Ergebnis verzerrt. Eine Lösung für dieses Problem stellt die Randomisierung des Pretest-Posttest Control Group Design dar:

Experimentalgruppe: R | O1 X O2
Kontrollgruppe: R | O3 O4

Hier wird zusätzlich noch eine Vorhermessung eingeführt, um eine Entwicklung nachweisen zu können. Jedoch besteht die Gefahr eines Reifungsprozesses bzw. von Lerneffekten. Um auch dies letztendlich zu kontrollieren, greif man auf das Solomon Vier-Gruppen-Design zurück:

R | O1 X O2
R | O3 O4
R | X O5
R | O6

Es werden Effekte des Messintrumentes kontrolliert und es findet zusätzlich eine Mehrfachmessung des Treatments statt.

Anwendung von Laborexperimenten in der Marktforschung:

  • Produkttests: z.B. Blindverkostung (Pepsi vs. Coke)
  • Verpackungstests
  • Blickaufzeichnung bei Anzeigentests
  • Werbewirksamkeit: Erfassung der Einstellung zu Produkt vor und nach Werbe-Exposition
  • Testmarktsimulation

Skalierung und Messung:

Skalierung

Variablen haben unterschiedliche Ausprägungen und je nach Art dieser Ausprägung unterschiedliche Skalierungen. Unterschieden wird hierbei zwischen nicht-metrischen und metrischen Skalenniveaus:

nicht-metrisch:

  • nominale Skalierung
  • ordinale Skalierung

metrisch:

  • Intervallskalierung
  • Ratioskalierung

Von oben nach unten in dieser Auflistung nimmt der mathematische Gehalt d.h. die statistische Aussagekraft zu. Bei der ordinalen Skala werden die jeweiligen Ausprägungen in Kategorien klassifiziert. Ein klassisches Beispiel wäre die Unterteilung in Mann und Frau. Einzige Auswertungsmöglichkeit stellen hierbei Häufigkeiten dar.
Bei ordinalskalierten Variablen lässt sich eine Rangfolge bilden, z.B. bei Schulabschlüssen, d.h. Hauptschulabschluss < Mittlere Reife < Abitur. Eine wirkliche Aussage über die Distanz zwischen den Ausprägungen lässt sich nicht treffen. Jedoch lassen sich mit Medianangaben und Quantilen genauere statistische Aussagen treffen, als bei nominalskalierten Variablen. Die Intervallskalierung geht von einem einheitlichen bzw. konstanten Maßeinheit aus, jedoch lässt sich nicht sagen, dass Ausprägung X ein vielfaches von Ausprägung Y ist. Ein Beispiel hierfür ist die Celsius-Temperaturskala mit einem willkürlich gewählten Nullpunkt. Die Aussage, dass 10°C doppelt so warm seien wie 5°C ist nicht zulässig.
Dies ist eine Eigenschaft, die der Ratioskalierung zukommt. Hierbei haben wir eine Skalierung mit einem natürlichen Nullpunkt. Beispiele hierfür sind das Einkommen, die Größe in cm oder das Alter einer Person. Es können Aussagen über Verhältnisse angegeben werden, z.B. dass Person X doppelt soviel verdient wie Person Y.

Die großen Drei – Gütekriterien

In der Realität leider oft vernachlässigt, sollten alle Erhebungen unter bestmöglicher Einhaltung der drei Gütekriterien Objektivität, Reliabilität und Validität durchgeführt werden.

Objektivität Reliabilität Validität
Objektivität bedeutet hierbei, dass die Ergebnisse der Untersuchung in keinster Weise durch den Durchführenden beeinflusst werden.

Durchführungsobjektivität: Bei der Erhebung der Daten gibt es keine bewusste oder unbewusste Manipulation.

Auswertungsobjektivität: Bei der Analyse der Daten gibt es keine bewusste oder unbewusste Manipulation.

Interpretationsobjektivität: Die Interpretation der Ergebnisse findet ohne bewusste Verzerrung statt.

Die Reliabilität bezieht sich auf die formale Genauigkeit der Messung. Unter Konstanthaltung der Messbedingungen müssen die Ergebnisse daher reproduzierbar sein. Ist dies nicht der Fall, so kann es sein, dass sich die Bedingungen veändert haben, dass das Messinstrument bzw. dessen Präzison zu wünschen übrig lässt oder die Merkmalskonstanz mangelhaft ist. Hierbei soll gegeben sein, dass das gewählte Instrument das misst, was es messen soll.

Interne Validität: Die Varianz innerhalb der AV ist nur auf die Veränderung des Stimulus zurückzuführen und nicht auf Störfaktoren (Diese gilt es weitestgehend zu eliminieren).

Externe Validität: Die Ergebnisse der Messung sind repräsentativ und generalisierbar.

Datenauswertung:

Ein kurzer Überblick über mir vertraute Verfahren zur Analyse quantitativer Daten.

bivariate Verfahren:

  • Kreuztabellenanalyse
  • Korrelationsanalyse
  • Bivariate lineare Regressionsanalyse

multivariate Verfahren:

  • Multivariate lineare Regressionsanalyse (OLS)
  • Binäre Entscheidungsmodelle (Logit-/Probit-Regression)
  • Ordinale Probit-Regressionsmodelle
  • Varianzanalysen (ANOVA/MANOVA)
  • Faktoranalyse
  • Clusteranalyse
  • Conjointanalyse

Kausalität:

(folgt)

Weiterführende Literatur: