A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
wirtschaftslexikon wirtschaftslexikon
 
Wirtschaftslexikon Wirtschaftslexikon

 

wirtschaftslexikon online lexikon wirtschaftslexikon
   
 
     
wirtschaftslexikon    
   
    betriebswirtschaft
     
 
x

Faktorenanalyse


Inhaltsübersicht
I. Die Vorgehensweise im Grundsätzlichen
II. Der Ablauf im Einzelnen
III. Die Bedeutung für das Marketing

I. Die Vorgehensweise im Grundsätzlichen


1. Zielsetzung und historische Entwicklung


Die Faktorenanalyse ist eines der ältesten multivariaten  Datenanalyseverfahren. Sie hat ihren Ursprung in der Psychologie: Man versuchte dort schon Ende des 19., Anfang des 20. Jahrhunderts, im Zuge der Messung der »Intelligenz«, diese möglichst auf einen einzigen Faktor, den sog. »Generalfaktor« im Sinne Spearman\'s zurückzuführen (Spearman, C. 1904). Später wurde zu der Vorstellung von »multiplen Faktoren« (Thurstone, L. L. 1931) übergegangen. Damit konnte als – auch heute noch maßgebliche – Grundidee des Verfahrens angesehen werden, eine Vielzahl von gegebenen (»manifesten«) Größen, auf der Basis der empirischen Korrelationen zwischen ihnen, auf einige wenige dahinter stehende – »latente« – Faktoren zurückzuführen. Allerdings hat sich im Laufe der Zeit eine Vielzahl von Varianten entwickelt, sodass man heute im Grunde von einer ganzen Gruppe von Verfahren, mit dem eben genannten gemeinsamen Ziel, sprechen muss. Dies bezieht sich auf das zugrunde liegende »Modell«; darauf wird unter 1.3. noch näher eingegangen. Denn die Modellvorstellungen sind nicht unabhängig von der Rechentechnik; hier haben sich durch die Entwicklung der Hauptkomponentenmethode (Hotelling, H. 1933) besonders große Fortschritte ergeben. Andere Erweiterungen, auch im Zusammenhang damit, bezogen sich auf die Richtung, in der »faktorisiert« wird; darauf ist unter I.2. einzugehen. Abschließend, als »Resümee«, werden einige Hinweise auf die Voraussetzungen gegeben und die Ablaufschritte genannt. Hier muss allerdings noch darauf hingewiesen werden, dass die ganze bisher skizzierte Entwicklung im Grunde rein »deskriptiv« war; eine wahrscheinlichkeitstheoretische Fundierung vollzog sich erst später (Lawley, D. N./Maxwell, A. E. 1963). Noch später kam es dann zur Entwicklung der sog. konfirmatorischen Faktorenanalyse, die wiederum eine der Wurzeln der Kausalanalyse bildet. Insofern handelt es sich bei der hier erörterten »Faktorenanalyse« um ein exploratives Verfahren. Das erklärt auch, warum es um diese in neuerer Zeit in der Literatur relativ still geworden ist. Als neuere umfassende Spezial-Darstellungen sind etwa zu nennen – deutschsprachig – Revenstorf (Revenstorf, D. 1976 und Revenstorf, D. 1980) sowie – englischsprachig – Harman (Harman, H. H. 1976); vgl. aber auch die relativ ausführlichen Erörterungen in z.B. Johnson (Johnson, J. D. 1992) und Tabachnik (Tabachnik, B. G./Fidell, L. S. 1989).

2. Die »Faktorisierung« der Datenmatrix


Die Datenmatrix für die gegebenen (»beobachteten«) Werte, X, wird heute im Allgemeinen (speziell im Unterschied zu manchen – insbesondere älteren – Darstellungen der Faktorenanalyse) so definiert, dass in den Spalten die Variablen (hier: von 1 über j bis n) und in den Zeilen die »Cases« oder »Objekte« etc. (hier über i bis m) angeordnet werden. Das allgemeine Matrix-Element xij bezeichnet also die Messung der j-ten Variabeln am i-ten Objekt. Geht man, wie meist üblich, davon aus, dass dies Personen (etwa bei einer Befragung im Rahmen der Marktforschung) sind, so hat man den Normalfall der R-Analyse. Diese Bezeichnung rührt daher, dass rechnerischer Ausgangspunkt, gemäß der obigen Definition, die Korrelationen zwischen den gegebenen Variablen, also die – bivariaten – Bravais-Pearsons\'schen Koeffizienten r(jj), sein können. »Faktorisiert« wird dann die KorrelationsmatrixR. Da es sich dabei um eine quadratische und symmetrische Matrix handelt, benötigt man als Daten-Input im Grunde nur die – obere oder untere – »Dreiecksmatrix«.
Als Sonderfall der R-Analyse lässt sich denken, dass neben der Variablen (z.B. Produkt-Eigenschaften) auch noch die Produkte (z.B. als »Marken«) eine Rolle spielen. Wird dies, wie üblich, an Personen (z.B. Befragten) ermittelt, so führt das im Grund zur »drei-modalen Faktorenanalyse«. Darauf soll hier verzichtet werden (vgl. zu einer neueren Betrachtung der Problematik und der verschiedenen Möglichkeiten Krolack-Schwerdt (Krolack-Schwerdt, S. 1991), zumal eine Rückführung auf die übliche »Two-Way-Matrix« mittels Durchschnittsbildung über die Personen möglich ist. »Faktorisiert« würde dann zwar hier genauso die übliche (n x n-Variablen-)Korrelationsmatrix; die Darstellung im Raum könnte sich aber auf die Produkte beziehen – was für die »Produktpositionierung« bzw. »Marktmodelle« (s. dazu unter III.) wichtig ist.
Stephenson (Stephenson, W. 1935; Stephenson, W. 1936) hat auf die Möglichkeit einer »umgekehrten« Faktorenanalyse hingewiesen: die Faktorisierung in Richtung auf die Personen (statt auf die Variablen). Hier würde also die transponierte (und nicht »invertierte«) Datenmatrix verwendet; bei der Korrelationsmatrix würde es sich um die Korrelationen zwischen Personen – die quasi eine Art »Ähnlichkeit« von Personen bezeichnen – handeln. Bei dieser sog. Q-Analyse würden also gemeinsame Dimensionen in Bezug auf die Personen, also eine Art »Personentypen« gewonnen. Dies ist aber eine Fragestellung, die mit der Clusteranalyse derzeit wohl besser angegangen werden kann. Insofern wird dieser Normalfall der Q-Analyse heute eher selten angewandt. Von größerer Bedeutung im Rahmen der »Produktpositionierung« (s. dazu unter III.) könnte der Sonderfall sein, bei dem wiederum die Personen durch Produkte ersetzt werden, dann aber auch in Richtung auf diese »faktorisiert« wird (die zugrunde liegende Korrelationsmatrix also die Korrelationen zwischen Produkten enthält).

3. Die »Modelle« der Faktorenanalyse


Im Folgenden soll – im Hinblick auf die normale R-Analyse – davon ausgegangen werden, dass man nicht schon die Korrelationsmatrix zugrunde legt, sondern – etwas weiter zurück – die Datenmatrix, allerdings nicht in der ursprünglichen, sondern in der standardisierten Form, mit zij = (xij  – x¯j)/sj (mit x¯ als arithmetischem Mittel und s als Standardabweichung), also Z (mit den Dimensionen m x n). Die erwähnte Rechentechnik der Hauptkomponentenmethode besteht nun darin, den Satz der n miteinander korrelierten Variablen in einen genauso großen Satz von unkorrelierten – d.h. »orthogonalen« – Faktoren (bzw. eben »Hauptkomponenten«) zu transformieren, unter der Nebenbedingung, dass die von ihnen jeweils »erklärte« Varianz maximiert wird (der 2. Faktor also möglichst viel der nach Extraktion des 1. Faktors noch verbliebenen »Restvarianz« erklärt usw.). Formal:
zj = aj1f1 + aj2f2 + ? ajrfr(1)
Dabei steht zj für die Variablen j in standardisierter Form (Harman, H. H. 1976). Diese werden gedacht als Linearkombination der neuen (unkorrelierten) Komponenten f (hier mit r = n). Die die Transformation bewirkenden Koeffizienten aj heißen Faktorenladungen (»factor loadings«). Bezieht man auch noch die einzelnen Elemente i ein und bezeichnet die Ausprägung der jeweiligen Faktoren auf ihnen als Faktorenwerte (»factor scores«), so gelangt man zur Matrizenschreibweise:
Z\' = AF\'(2a)
oder Z = F A\'(2b)
Zum »Modell« im Sinne der Faktorenanalyse – im Folgenden Hauptkomponentenmodell genannt – wird die Methode erst, wenn eine Reduktion auf weniger Faktoren als ursprüngliche Variablen erfolgt: r < n. (Die Multiplikation der Matrix der Faktorenladungen mit der der Faktorenwerte reproduziert also in diesem Fall nicht mehr die Matrix der standardisierten Beobachtungswerte; s. dazu auch unter II.4.).
Das »Faktorenmodell« geht dagegen von vornherein davon aus, dass die gemeinsamen (»common«) Faktoren nur einen Teil der gesamten Varianz erklären; der unerklärte Rest entfällt auf »Einzelrestfaktoren« (»unique factors«):
zj = aj1f1 + aj2f2 + ? ajrfr + Σbjuj(3)
(wie oben, aber mit r < n und bj der Ladung der unique factors uj). In Matrizenschreibweise:
Z\' = AF\' + BU\'(4a)
bzw.
Z = FA\' + UB\'(4b)
Das sog. Fundamentaltheorem der Faktorenanalyse;
R = AA\'(5)
besagt, dass die Matrix der Faktorenladungen, multipliziert mit ihrer Transpose, die ursprüngliche Korrelationsmatrix reproduziert. Im Falle der expliziten Berücksichtigung von »Einzelrestfaktoren« kann damit die Hauptdiagonale nicht, wie bei einer normalen Korrelationsmatrix, gleich 1 sein. Vielmehr ergibt sich ein niedrigerer Wert; er wird als »Kommunalität« h bezeichnet. Formal ist hj2 definiert als Summe der quadrierten Faktorenladungen einer Variablen (über alle Faktoren). Eine solche »reduzierte Korrelationsmatrix« sollte entsprechend als Rh geschrieben werden. (Die obige Gleichung hat also im Grunde die Form: RU = AA\'!) Letztlich bedeutet dies, dass praktisch die beiden Modelle sich dadurch unterscheiden, ob in der Ausgangs-Korrelationsmatrix 1 in der Hauptdiagonalen steht oder nicht. Oder anders: Im Falle des »Faktorenmodells« muss als erster Schritt die Kommunalitätenschätzung erfolgen.
Auf weitere Modelle der Faktorenanalyse soll hier nur hingewiesen werden: die sog. kanonische Faktorenanalyse (Rao, C. R. 1955) und die Alpha-Faktorenanalyse (Kaiser, H. F./Caffrey, J. 1965). Beide haben zunächst gemeinsam, dass sie auf dem klassischen »Faktorenmodell« beruhen und den Stichprobencharakter der Daten betonen. Während jedoch Erstere – insofern in Richtung auf wahrscheinlichkeitstheoretische Fundierung und konfirmatorische Faktorenanalyse – nach den »wahren« Parametern in der Grundgesamtheit fragt, stellt Letztere – stärker einem psychologischen Denkansatz folgend – mehr auf die Variablen als »Stichprobe« und damit deren Generalisierbarkeit, mit Konsequenzen für die Faktorenextraktion, ab.
Noch wieder anders geht ein weiteres Modell, die Image-Analyse, vor. Dieses auf Guttman zurückgehende Verfahren beruht darauf, dass eine Aufspaltung jeder Variablen in zwei Teile erfolgt: Der erste, eben das »Image«, beinhaltet den, der völlig durch die anderen Variablen bestimmt wird (und durch multiple Regression berechnet wird); der Rest – das »Anti-Image« – ist der von den anderen Variablen unabhängige Teil. Im weiteren Verlauf werden dann nur die »Image«-Werte weiterverarbeitet (Guttman, L. 1953). Insofern basiert das Verfahren einerseits durchaus auf dem »Faktorenmodell«. Der Unterschied liegt darin, dass die aus den »Images resultierenden Kommunalitäten zugrunde gelegt werden. Es kann deshalb andererseits zusammen mit dem Modell der »Hauptkomponenten« gerade dem »Faktorenmodell« gegenübergestellt werden: »Images und Hauptkomponenten lassen sich immer berechnen, sie sind Transformationen der Daten« (Revenstorf, D. 1980).

4. Resümee: Voraussetzungen und Ablaufschritte


Gewisse Voraussetzungen ergeben sich zwingend aus dem vorstehend dargestellten Vorgehen:

1.

lineare Additivität: Die Beziehungen der Variablen sind linear; die Faktoren wirken additiv zusammen.
Es existiert jedoch auch das Konzept einer nicht-linearen Faktorenanalyse. (Vgl. dazu etwa – überblickartig – Köhle, D. 1974.)

2.

Die Daten sind metrisch.
Allerdings ist darauf hinzuweisen, dass auch aus nominal- und ordinalskalierten Daten Koeffizienten berechnet werden können, die denen aus metrischen ähneln. Zumindest also dann, wenn man sich auf die Extraktion und Interpretation von Faktoren beschränkt, d.h. als Daten-Input nur eine Korrelationsmatrix benötigt, ist formal auch mit solchen Koeffizienten die Vornahme von Berechnungen möglich.


Weitere oft genannte Voraussetzungen erscheinen zumindest für die Faktorenanalyse in der hier diskutierten Form als optional: Multivariate Normalverteilung ist letztlich nur bei wahrscheinlichkeitstheoretischen Tests unverzichtbar; ähnlich gilt inhaltlich das Vorliegen einer Zufalls-Stichprobe zwar in jedem Falle als wünschenswert, als zwingend dagegen nur bei konfirmatorischer – statt, wie hier, mehr explorativer – Interpretation.
Im allgemeinen Falle kann man vier Ablaufschritte der »eigentlichen« Faktorenanalyse (also abgesehen von der – meist erforderlichen – »Vorbehandlung« der Daten in Bezug auf das Problem der »Ausreißer«, »fehlenden Werte« usw.!) unterscheiden:

1.

Kommunalitätenschätzung,

2.

Faktorenextraktion,

3.

Faktorenrotation,

4.

Berechnung von Faktorenwerten.


II. Der Ablauf im Einzelnen


1. Kommunalitätenschätzung


Das Problem der Kommunalitätenschätzung ergibt sich, wie dargelegt, überhaupt nur dann, wenn vom »Faktorenmodell« ausgegangen wird. Die ansonsten für die Hauptdiagonale der Korrelationsmatrix anzunehmende 1 (die Korrelation einer Variablen mit sich selbst) ist dann durch andere Werte zu ersetzen. Allein dafür gibt es eine ganze Reihe von Verfahren. Wichtig davon sind einerseits die Wahl des (absolut) höchsten Koeffizienten in der betreffenden Zeile oder andererseits die Verwendung des multiplen Bestimmtheitsmaßes der jeweiligen Variablen in Bezug auf alle anderen. Hinsichtlich solcherart geschätzter Werte können dann auch – heute vielfach benutzt! – iterative Verfahren angewandt werden: Die Faktorenextraktion beginnt mit den geschätzten Kommunalitäten in der Hauptdiagonalen. Wie dargelegt, ergeben sich – via »Fundamentaltheorem« – aus den Faktorenladungen neue Kommunalitätenschätzungen. Es beginnt ein weiterer Iterationszyklus, mit Einsatz dieser in die ursprüngliche Korrelationsmatrix, usw. Die Iteration endet, wenn entweder eine vorher festgelegte Zahl von Schritten vollzogen ist oder die Differenz zwischen ursprünglichen und resultierenden Kommunalitäten eine bestimmte Größe nicht übersteigt.

2. Faktorenextraktion


Die Faktorenextraktion bildet den eigentlichen rechnerischen Kern der Faktorenanalyse (da ja, wie mehrfach erwähnt, die Kommunalitätenschätzung bei Verwendung des »Hauptkomponentenmodells« entfällt). Sie ist aufwendig und erfordert den Einsatz von Computern. Die gängigen Datenanalyseprogramme enthalten entsprechende Routinen, sodass auf die Durchrechnung eines Beispiels hier verzichtet werden kann (Hüttner, M. 1979). Nur der Rechengang sei kurz skizziert:
Ausgangspunkt ist, wie erwähnt, die Korrelationsmatrix R. Da, wie ebenfalls bereits erwähnt, »orthogonale« Faktoren so extrahiert werden sollen, dass die von ihnen jeweils erklärte Varianz maximiert wird, handelt es sich um die Maximierung einer Funktion unter Nebenbedingungen. Im Wege der Differenzialrechnung unter Verwendung der Lagrange-Multiplikatoren λi resultiert dann das klassische »Eigenwertproblem«, mit der »charakteristischen Gleichung«:
| R – λI | = 0(6)
den Eigenvektoren für die einzelnen Eigenwerte:
Rv = λv(7)
und endlich der kompletten Eigenstruktur:
RV = VL(8)
Die Koeffizientenmatrix V sagt jedoch inhaltlich wenig aus; es interessieren vielmehr die Korrelationen der extrahierten Faktoren mit den ursprünglichen Variablen, die – wie erwähnt – »Faktorenladungen«. Ihre Matrix A ergibt sich durch Multiplikation von V mit den Quadratwurzeln der Eigenwerte:
A = VL1/2 (9)
Das eigentliche – inhaltliche – Problem dabei stellt dar, wie viele Faktoren – aus den ursprünglich gleich vielen Hauptkomponenten wie Variablen – »beizubehalten« sind. In der Praxis verwendet man dafür meist Faustregeln. Die verbreitetste davon ist (zum sog. Scree-Test – mit Abbildung – vgl. Backhaus, K./Erichson, B./Plinke, W. et al. 1990) das sog. Kaiser-Kriterium: Es sind nur so lange Faktoren zu extrahieren, wie deren Eigenwerte > 1 sind. Das leuchtet unmittelbar ein: Durch die Standardisierung ist die Varianz einer Variablen 1; ein »Faktor«, der gerade nur so viel bzw. sogar weniger als die ursprüngliche Variable zur Varianzerklärung beiträgt, hat also wenig Bedeutung. Die bei Hüttner angeführten beiden Beispiele zeigen die Bedeutung, aber auch Problematik dieses Vorgehens (Hüttner, M. 1989).
Die Faktorenextraktion liefert im Allgemeinen einen Satz von neuen Variablen (oder »Variaten«), eben die Faktoren, die formal statistisch voneinander unabhängig – »orthogonal« – , inhaltlich aber unbestimmt sind. Es bedarf also der Interpretation. Diese wird jedoch dadurch erschwert, dass zumeist die extrahierten Faktoren im Grunde arbiträr, willkürlich sind: Sie können ohne Verstoß gegen die mathematisch-statistischen Grundlagen in andere transformiert werden. Diese Transformation in eine Lösung, die die Interpretation erleichtert, ist Aufgabe der Faktorenrotation.

3. Faktorenrotation


Das grundlegende Prinzip hat Thurstone beschrieben: die Einfachstruktur (Thurstone, L. L. 1931; Thurstone, L. L. 1947). (Er hat auch eine Reihe von Kriterien für das Vorliegen einer solchen angegeben – z.B., dass jede Zeile der Faktor[ladungs]matrix mindestens eine 0 haben muss.) Es läuft darauf hinaus, dass durch die Drehung der Koordinatenachsen die Koordinatenwerte der Variablenpunkte – im zweidimensionalen Falle – nahe an eben diese Achsen gebracht werden. Mit anderen Worten und allgemeiner: Die »Ladungsstruktur« soll so aussehen, dass die Ladungen einzelner Variabler auf einem Faktor möglichst hoch, auf den anderen dagegen möglichst niedrig sind. Dadurch werden im Ergebnis die Faktoren durch einige wenige Variablen »beschrieben« und somit interpretierbar. Damit ist schon gesagt, dass die Rotation zunächst visuell (oder »geometrisch«) geschehen kann: Aufgrund der Inspektion des Punkteschwarmes wird eine Rotation vorgenommen; zeigt sich, dass die »Einfachstruktur« noch nicht hinreichend gegeben ist, die Punkte also noch nicht nahe genug an den Koordinatenachsen liegen, muss eine weitere Rotation erfolgen, usw. Heute geschieht die Rotation im Allgemeinen auf analytischem Wege. Umstritten ist jedoch der dabei anzuwendende Algorithmus. Dies gilt noch stärker für die grundsätzliche Frage, ob die ursprünglich orthogonalen Faktoren beibehalten werden sollen, also eine rechtwinklige Rotation erfolgt, oder das Konzept der »Einfachstruktur« erfordert, sie ohne Rücksicht auf die Unabhängigkeit der Faktoren anzustreben, also ggf. eine schiefwinklige Rotation vorzunehmen. Die Entscheidung für die schiefwinklige –  oblique – Rotation wird dadurch erschwert, dass nicht nur, wie dies auch bei der orthogonalen der Fall ist, eine ganze Reihe verschiedener Lösungsansätze (z.B.: Oblimax, Oblimin usw.) vorliegt, sondern auch innerhalb eines Ansatzes diverse Lösungen möglich sind. Für die schiefwinklige Rotation spricht, dass eigentlich kaum Anhaltspunkte dafür vorliegen, dass das »wirkliche Leben« tatsächlich »orthogonal« ist. Gegen sie ist anzuführen, dass damit »der Willkür zusätzlich noch Tür und Tor geöffnet wird (Tschopp, A. 1991). Auch hat man es dann mit zusätzlichen Matrizen zu tun: Neben die bereits bekannte Matrix A (jetzt Faktorenmuster – »factor pattern« – tritt die Matrix S der Faktorenstruktur (»factor structure«); sie ergibt sich aus Ersterer durch deren Nachmultiplikation mit der Matrix C, der Interkorrelation der Faktoren (»factor correlation«): AC = S.
Für die rechtwinklige – orthogonale – Rotation gibt es, wie erwähnt, ebenfalls verschiedene Algorithmen. Die wohl bekanntesten sind:

1.

Quartimax: Hierbei wird eine »Vereinfachung« – im Sinne von Thurstone – der Zeilen angestrebt. Das bedeutet, dass im Extrem jede Variable nur auf einem Faktor lädt. Die Konsequenz ist im Allgemeinen, dass der erste Faktor eher einen »Generalfaktor – mit mehreren hohen Variablen-Ladungen – darstellt, die weiteren dagegen nur Untergruppen von Variablen oder eben nur jeweils eine davon enthalten.

2.

Varimax: Im Gegensatz zu Quartimax zielt die Varimax-Rotation auf die Vereinfachung der Spalten. Wegen dieser Vereinfachung der Spalten und damit der Faktoren – in Richtung auf 1 oder 0 – wird im Allgemeinen eine deutlichere Ladungsstruktur erreicht und damit die Interpretation erleichtert.

3.

Equamax: Wie schon der Name sagt, stellt diese Methode den Versuch eines Kompromisses zwischen Quartimax und Varimax dar: Die Ausrichtung erfolgt nicht auf entweder die Zeilen oder die Spalten, sondern gleichermaßen auf beides.


Erfahrungen auch des Verf. zeigen, dass die Unterschiede im Allgemeinen gering sind. Das gilt selbst bei Einbezug der Oblimin-Rotation, zumindest der »gemäßigt schiefwinkligen«, und ebenfalls für die Kombination mit den verschiedenen Extraktionsmethoden. Für die Praxis kann deshalb, unter Bezugnahme auf Kaiser, der ein sehr viel komplizierteres »Second Generation Little Jiffy« vorschlägt, folgendes Vorgehen empfohlen werden (Kaiser, H. F. 1970).

1.

Faktorenextraktion nach dem »Hauptkomponentenmodell» (unter Beibehalten von »Faktoren« mit Eigenwerten > 1),

2.

Varimax-Rotation.


Mit der Extraktion und Rotation der Faktoren endete früher zumeist der Rechengang; es folgte »nur noch« die Interpretation. Sie geschah auf der Basis der Faktorladungen (die ja, wie erwähnt, die Korrelation der gewonnenen Faktoren mit den ursprünglichen Variablen angeben). Zur Benennung der Faktoren – im Raum: »Dimensionen« – wurden dazu die (positiv oder negativ!) bei einem Faktor »hoch« ladenden Variablen herangezogen. Die Entscheidung, was als »hoch« angesehen wird, erfolgt meist mehr oder weniger willkürlich bzw. mit Faustregeln – »gängige Praktik«, wie Tschopp (Tschopp, A. 1991, S. 53) es bezeichnet, scheint in der Tat »Variablen mit Faktorladungen > 30 zur Interpretation beizuziehen«.

4. Die Berechnung von Faktorenwerten


Heute geht man vielfach noch einen Schritt weiter und ordnet den einzelnen Cases »Werte« (factor scores) zu. Diese resultieren, gewissermaßen in einer Drehung des ursprünglichen Problems, aus der Multiplikation der (standardisierten) Beobachtungswerte mit den gewonnenen Faktorladungen. Formal: Lautete gemäß oben die Ausgangsgleichung:
Z\' = AF\'(2a)
so folgt daraus für die Faktorenwerte:
F\' = A-1Z\'(10)
Die exakte Berechnung ist aber nur möglich, wenn mittels der Hauptkomponentenmethode alle Faktoren extrahiert und beibehalten werden; nur dann existiert eine Inverse der Matrix der Faktorenladungen. Wie dargelegt ist dies aber in der Regel nicht der Fall; es widerspräche dem Sinn der Faktorenanalyse. Dann kann nur eine Schätzung erfolgen. Dafür wurden im Laufe der Zeit mehrere Vorschläge ausgearbeitet. Via Regression kann beispielsweise eine Ermittlung wie folgt geschehen:
F\' = Z B(11)
mit
B = R-1A(12)

III. Die Bedeutung für das Marketing


Die Bedeutung der (explorativen) Faktorenanalyse für das Marketing lässt sich in drei großen Gebieten zusammenfassen:

1.

Das historisch älteste Anwendungsgebiet ist – mehr methodisch – die Reduktion der Vielzahl von Variablen auf einige wenige, diese kennzeichnende Dimensionen. Mit der Gewinnung solcher grundlegender Dimensionen und ihrer Interpretation wurde also die Aufgabe als beendet angesehen. Sachlich handelte es sich dabei z.B. um »Werthaltungen« und ihre grundsätzlichen Dimensionen, die Beseitigung von Redundanzen in Fragebogen bzw. Tests (in Bezug auf die verschiedenen »Items«) oder Produkteigenschaften. Hinsichtlich Letzterer seien zwei Beispiele genannt:
(a) Die Auswertung einer Studie über das Arzneimittel »Bactrim« (in einer vom Infratest-Forschungsservice 1974 herausgegebenen Broschüre – eine entsprechende Veröffentlichung, aber mit anderen Beispielen, wurde im Vorwort als »Nachfolger eines wissenschaftlichen Bestsellers bezeichnet« – ; s. auch das ausführliche Referat über die faktorenanalytische Auswertung bei Hüttner (Hüttner, M. 1978) und
(b) eine empirische Studie für Butter und Kaffee (Weinberg, P. 1976; s. das Referat darüber bei Hüttner, M. 1979).

2.

Die Berechnung von Faktorenwerten für die einzelnen Elemente ermöglicht – ganz abgesehen von der bloßen Datenreduktion (anstelle der ursprünglichen Variablenwerte) – deren Positionierung im Raum. Damit wird auch ihre Verteilung bzw. »Zusammenballung« deutlich. Statt dieser nur mehr visuellen Darstellung kann ein weiteres analytisches Vorgehen erfolgen: die Zusammenfassung aufgrund der Faktorenwert-Ausprägungen zu Gruppen mittels der Clusteranalyse. Insofern wird die Faktorenanalyse zur Vorstufe für weitere Analysen: Der Einsatz multivariater Verfahren erfolgt im Verbund.

3.

Es ist ein altes Ziel der Marketingforschung, Produkte in einem »Marktmodell« darstellen zu können. Empirisch ist dies möglich geworden mittels multivariater Verfahren: zuerst mit der Diskriminanzanalyse, heute vielfach mittels der Multidimensionalen Skalierung. Die Faktorenanalyse ermöglicht eine solche »Produktpositionierung« ebenfalls: über die Produkte. Wie oben angedeutet kann dies sogar auf zwei Wegen geschehen: in einer normalen R-Analyse, indem zunächst über die Personen gemittelt wird; damit verbleiben Produkte – als Elemente – und Variablen; die »Faktorisierung« Letzterer ergibt die zugrunde liegenden Dimensionen; über die Faktorenwerte können die Produkte dann in diesen Dimensionen dargestellt werden. Ein Beispiel hierfür – allerdings ein nicht ganz vollständiges, insofern, als grafisch nur die Positionen in zwei von drei extrahierten Faktoren wiedergegeben sind – bringen, in großer Ausführlichkeit und Anschaulichkeit, Backhaus/Erichson/Plinke (Backhaus, K./Erichson, B./Plinke, W. et al. 1990). Die zweite Vorgehensweise ist von Böhler/Stölzel (Böhler, H./Stölzel, A. 1977) und auch vom Verfassser (Hüttner, M. 1979) herangezogen worden: Als Sonderfall der Q-Analyse wird, nach ebenfalls der Mittelung über die Personen, direkt in Richtung auf die Produkte faktorisiert. Wegen dieser Faktorisierungsrichtung – die Korrelationsmatrix enthält nun die Beziehungen zwischen Produkten – ergibt sich unmittelbar, ohne die Schätzung von Faktorenwerten, eine »Produktpositionierung« (im Beispiel des Verf. von fünf Benzinmarken im zweidimensionalen Raum). Allerdings ist hier die Interpretation schwieriger; über die Positionierung der Variablen mittels der Faktorenwerte können jedoch zusätzliche Anhaltspunkte dafür gewonnen werden.


Literatur:
Backhaus, K./Erichson, B./Plinke, W. : Multivariate Analysemethoden, 6. A., Berlin et al. 1990
Böhler, H./Stölzel, A. : Faktorenanalytische Positionierungsmodelle, in: Der Markt, 1977, S. 21 – 28
Guttmann, L. : Image Theory for the Structure of Quantitative Variates, in: Psychometrika, 1957, S. 277 – 296
Harman, H. H. : Modern Factor Analysis, 3rd ed., Chicago et al. 1976
Hotelling, H. : Analysis of a Complex of Statistical Variables into Principal Components, in: Journal of Educational Psychology, 1933, S. 417 – 441 u. 498 – 520
Hüttner, M. : Multivariate Methoden im Marketing, München 1978
Hüttner, M. : Informationen für Marketing-Entscheidungen, München 1979
Hüttner, M. : Grundzüge der Marktforschung, 4. A., Berlin et al. 1989
Jobson, J. D. : Applied Multivariate Data Analysis, Vol. III: Categorial and Multivariate Methods, New York et al. 1992
Kaiser, H. F. : A Second-Generation Little Jiffy, in: Psychometrika, 1970, S. 401 – 415
Kaiser, H. F./Caffrey, J. : Alpha Factor Analysis, in: Psychometrika, 1965, S. 1 – 14
Köhle, D. : Nichtlineare Faktorenmodelle: eine kritische Betrachtung, in: AI, 1974, S. 391 – 395
Krolack-Schwerdt, S. : Modelle der dreimodalen Faktoranalyse, Frankfurt a.M. 1991
Lawley, D. N./Maxwell, A. E. : Factor Analysis as a Statistical Method, 2nd ed., London 1991
Rao, C. R. : Estimation and Test of Significance in Factor Analysis, in: Psychometrika, 1955, S. 93 – 111
Revenstorf, D. : Lehrbuch der Faktorenanalyse, Stuttgart 1976
Revenstorf, D. : Faktorenanalyse, Stuttgart 1980
Spearman, C. : General Intelligence Objectively Determined and Measured, in: American Journal of Psychology, 1904, S. 201 – 293
Stephenson, W. : Correlating Persons Instead of Tests, in: Character and Personality, 1935, S. 17 – 24
Stephenson, W. : The Foundations of Psychometry: Four Factor Systems, in: Psychometrika, 1936, S. 195 – 209
Tabachnik, B. G./Fidell, L. S. : Using Multivariate Statistics, 2nd ed., New York 1989
Thurstone, L. L. : Multiple Factor Analysis, in: Psychological Review, 1931, S. 406 – 427
Thurstone, L. L. : Multiple Factor Analysis, Chicago 1947
Tschopp, A. : Modellhaftes Denken in der Soziologie, Bern 1991
Weinberg, P. : Produktspezifische Markentreue von Konsumenten, in: ZfbF, 1976, S. 276 – 297

 

 


 

<< vorhergehender Begriff
nächster Begriff >>
Faktoreinsatzfunktion
 
Faktorintensität