Semper Phone

Effortless
LEARNING

  • Improve effortlessly – just by living your life
  • Learn while waiting for your apps to load
  • Recommended by 5 universities
  • Community of over 1,000,000 learners
  • 50,000+ expert-made packs, or create your own
"One of the best learning apps" - CNET
  • Apple Play Store
  • Install Semper from the Play Store
Multivariate Verfahren Marburg 14/15

Multivariate Verfahren Marburg 14/15

Last update 

Lemmer MV

Items (160)

  • Grundidee Partialkorrelation

    Korrelation zwischen Regressionsresiduen

  • Scheinkorrelation

    Nach Kontrolle von Z verschwindet Zusammenhang zw. X u Y oder wird kleiner

  • Klassische Suppression (Partialkorrelation)

    Nach Kontrolle von Z wird Zusammenhang zw. X u Y größer

  • Negative Supression (Partialkorrelation)

    Nach Kontrolle von Z ändert Zusammenhang zw. X u Y sein Vorzeichen.

  • Venn-Diagramm

    Graphische Darstellung von Varianzanteilen.

  • Z als Supressorvariable (Partialkorrelation)

    Z ist hoch mit X und nahezu nicht mit Y korreliert (ODER UMGEKEHRT!)

  • Klassische Supression: Varianz bei Auspartialieren

    Teil der Varianz von X, der für die Vorhersage von Y irrelevant ist, wird unterdrückt!

  • Modellgleichung der multiplen Regression

    y=b0+b1*x1+....+e

  • b0 (Intercept)

    vorhergesagte Ausprägung in y, wenn alle Prädiktoren die Ausprägung 0 haben.

  • bi (slope)

    um wieviel Einheiten ändert sich der Kriteriumswert, wenn xi um eine Einheit ändert und all anderen x kontrolliert werden.

  • SPSS Output: (Konstante)

    ist immer intercept

  • SPSS Output: Variablen unter (Konstante)

    sind immer slopes

  • SPSS Output: Beta-Werte

    Standardisierte Regressionsgewichte

  • Unterschiede in der Berechnung stand. vs. unstand. Regr.Gewichte

    unstand= wie stand. nur ohne Standardabweichung y / Standardabweichung x

  • beta(mult.) = beta (einf.)

    Alle Prädiktorvariablen sind miteinander unkorreliert

  • beta (mult) < beta (einf.)

    Prädiktorvariablen sind unterein. korreliert. Kollinearität reduziert den eigenständigen Vorhersagebeitrag v. x auf y

  • beta (mult) > beta (einf)

    Kollinearität erhöht eigenständigen Vorhersagebeitrag von x auf y (klass. Supression)

  • Klassischer Supressionseffekt

    Wenn Regr.Gew. in MR größer als in 0ter Ordnung

  • Multipler Determinationskoeffizient R²

    Anteil d. Varianz v. Y, die durch alle Prädiktorvariablen gemeinsam aufgeklärt werden kann

  • Was entspricht der Multiple Determinationskoeff. R² (Varianzen)

    Quotienten aus der Varianz d. vorhergesagten und der Varianz der beobachteten Werte

  • Was entspricht der Multiple Determinationskoeff. R² (Korrelationen

    Quadrat der multiplen Korrelationen zwischen vorherges. und beobacht. Werten

  • Multipler Indeterminationskoeffzient

    Anteil d. unerklärten Varianz in Y (1-R²)

  • R²=0

    Jede Person erhält den selben vorhergesagten Wert (UV's hier ungeeignet)

  • R²=1

    alle beob. Werte stimmen mit allen vorherg. Werten überein (UV erklären gesamte Variation der AV)

  • Korrigiertes R²

    Durch system. Überschätzung der Stichprobe eingeführt (je weniger Personen und je mehr Variablen desto größer Überschätzung)

  • SPSS Output: F

    bedeutet: bei Stichprobe wird F-Verteilung angenommen

  • SPSS Output Sig. von "Regression"

    wenn mind. .001 dann ist R² ungleich 0 und somit gibt es mind. 1 Regressionsgewicht, welches signifikant ist

  • Änderung in R²

    Um wieviel erhöht sich Aufklärung durch Hinzunahme eines Prädiktors (nie negativ)

  • Inkrement von R² (oder Semipartialdetermination)

    zusätzliche Varianz, die durch Hinzunahme des Prädiktors aufgeklärt werden kann

  • Wieso Inkrement v. R² = Semipartialdetermination?

    R² kann auch als Summe von quadrierten Semipartialkorrelationen höherer Ordnung dargestellt werden

  • Rolle der Reihenfolge der Prädiktorenhinzunahme für R²

    irrelevant

  • Rolle der Reihenfolge der Präditkorenhinzunahme für Inkrement von R²

    Wichtig! Weil: Vorhersagebeitrag eines Präd. hängt auch von seinen Kollinearitäten mit anderen Präd. ab

  • Nützlichkeit (U) eines Prädiktors

    Varianz, die Präd. zusätzlich zu allen anderen Präd. aufklärt (WENN AN LETZTER STELLE AUFGENOMMEN!!!)

  • Klassische Supression in MR: Grundgedanke

    Supressorvariable erhöht Regressonsgewicht einer anderen Variablen, indem sie irrelevante Varianzanteile dieser unterdrückt

  • Negative Supression in MR: Grundgedanke

    beta-Gewicht ändert das Vorzeichen im Vgl. zu 0ter Ordnung durch Einschluss der Supressorvariable

  • Reziproke Supression in MR: Grundgedanke

    Durch anders gerichtete Kollineariät der Prädiktoren unterein. im Vgl. zu Korr. mit Y kommt es zu wechselseitigen Supressionseffekten

  • Multikollinearität: Begriffsbestimmung

    hohe multiple Korrelation eines Prädiktors X mit den anderen Prädiktoren

  • Multikollinearität: Konsequenzen für Schätzung d. Regressionsgew.

    unpräziser! Durch Vergrößerung der Standardfehler-> schwerer signifikant!

  • Multikollinearität: Konsequenzen für Höhe d. Regr.Gewichte und bivariate Korrel.

    geringe Regressionsgewichte, hohe (und sig.!) bivariate Korrelationen mit Y

  • Multikollinearität: Konsequenzen für aufgeklärte Varianz (R²)

    wird eingeschränkt

  • Diagnose von Multikollinearität

    Durch Toleranz (TOL) und Varianz-inflations-Faktor (VIF)

  • Toleranz (TOL)

    =1-R²; Vorsicht bei TOL <.10

  • Varianz-Inflations-Faktor (VIF)

    =1/TOL; Vorsicht bei VIF > 10

  • Achtung bei Kondundierung

    Sind X1 u. X2 stark miteinander konfundiert (ist X1 ohne X2 nicht mehr das was es sein sollte): Finger weg vom Auspartialisieren!

  • MR: b1 und b2 positiv und miteinander pos. korreliert. Was passiert bei ER nur mit X1?

    r wird größer

  • Hierarchische/sequentielle Regression: Grundgedankne

    MR: sequentieller Einschluss/Ausschluss von einzelnen Prädiktorvariablen oder -Blöcken

  • Hierarchische/sequentielle Regression: Ziel

    Inspektion d. Veränderung in R² oderFinden eines möglichst sparsamen Modells mit guter Vorhersagegüte

  • Hierarch./sequ. Regression: Varianten

    Vortwärts-Selektion, Rückwärts-Selektion, Schrittweise-Regression

  • Mediation: Grundgedanke

    Der Einfluss einer UV auf die AV wird über einen Mediator vermittelt

  • vollständige Mediation

    Konstanthaltung des Mediators= UV-AV-Zusammenhang=0

  • Indireker Effekt von X1 auf Y (Mediatioreffekt)

    Effekt, den UV auf AV über eine andere Variable hat.

  • Direkter Effekt von X1 auf Y

    Eigenständiger Effekt, den UV auf AV hat, ohne über andere Variable (bei vollst. Mediation=0)

  • Totaler Effekt von X1 auf Y

    Summe dir.+ind. Effekt= Einfluss UV auf AV in einfacher Regression

  • Schema von Baron % Kenny: Bedingung 1:

    X1 muss Y signifikant beeinflussen

  • Schema von Baron & Kenny: Bedingung 2

    X1 muss Mediator (X2) signifikant beeindlussen

  • Schema von Baron & Kenny: Bedingung 3

    Bei stat. Kontr. d. Einflusses v. X1 muss X2 Y signifikant beeinflussen

  • Schema von Baron & Kenny: Bedingung 4

    Bei stat. Kontr. d. Einflusses v. X2 ist der Einfluss von X1 a) nicht sign. von 0 verschieden (vollst. Med.) oder kleiner als vorher (part. Med.)

  • Sobel-Test: Test der H0

    H0= in der Population ist der indirekte Effekt = 0

  • Sobel-Test: Prüfgröße

    indirekter Effekt / Standardfehler (SE)

  • Sobel-Test: Kriterium

    ind. Effekt ist sign. wenn empirischer z-Wert größer oder gleich dem kritischen z-Wert auf alpha=0,5 (0,1) ist.

  • Sobel-Test: Probleme

    Normalverteilung vorausgesetzt, nicht robust ggü. Verletzungen, geringere Power

  • Bootstrapping-Methode: Test der H0

    H0= in der Population ist der indirekte Effekt = 0

  • Bootstrapping-Methode: Prinzip

    Stichporbenkennwerteverteilung für den indirekten Effekt wird empirisch generiert (Ziehen mit Zurücklegen, mind. 5000 mal)

  • Bootsrapping-Methode: Kriterium

    95 bzw 99% KI für den ind. Effekt beinhaltet NICHT die 0.

  • Kondunfierte Drittvariable

    Problem bei Mediation, wenn Mediator mit X und Y kondundiert ist.

  • X2 als Korrelat der wahren Mediatorvariable

    Problem bei Mediation

  • Mediation: Scheinkorrelation Effekt X1 auf X2 bzw. X2 auf Y

    Problem bei Mediation; Effekt von X1 auf X2/X2 auf Y ist Scheinkorrelation

  • Moderationseffekt Grundannahme

    Größe und/oder Richtuung des Einflusses v. X1 auf Y hängt von Ausprägung X2 ab

  • Moderation: Einflüsse v. X1 u. X2 auf Y

    NICHT rein additiv, sondern interagieren.

  • Repräsentation der Interaktion v. X1 u. X2 bei Moderation

    Gewicht der Produktvariable

  • Veränderte Interpretation v. b1 bei Moderation (dich.)

    Wenn X1 um eine Einheit steigt und X2=0 ist, dann steigt der vorhergesagte Wert um 1,5

  • Interpretation von b3 (dich.)

    Das Gewicht d. Produktterms nimmt mit jeder Einheit, die X2 steigt, um b3=1 zu (analog für Effekt v. X2)

  • inhaltliche Interpretation von b3 (dich.)

    Wert, um den der Unterschied zw. X1=0 und X1=1 bei X2=1 anders als bei X2=0 ist

  • b3, wenn X1=0;1 (Arbeiter, Manager) und X2=0;1 (nicht erf., erfolgr.)

    Wert, um den der Unterschied zwischen Arbeitern und Managern in erfolgreichen Firmen anders ist als in nicht erf.

  • Effektkodierung (dichotome Präd.)

    Kodierung der Prädiktoren mit -1 vs. 1

  • Effektkodierung: Parallelen zur ANOVA

    identische Ergebnisse, weil "unbedingte Haupteffekte" v. X1 u. X2 getestet werden

  • Interpretation d. Gewichte: Effektkodierung vs. Dummy

    In Effekt anders zu interpretieren!!!...aber anscheinend nicht wichtig

  • Typen zulässiger Prädiktoren für Regressionsanalyse

    kontinuierlicher (zB Intelligenz), dichotomer (männl.weibl.), polytomer (>2 Kategorien)

  • Prinzip der Kodierung polytomer kategor. Präd.

    Wenn c Anzahl d. Kategorien, dann c-1 Kodiervariablen

  • Prinzip d. Dummy-Kodierung 1 Prädiktor (polytom): Schritt 1

    Auswahl einer der c Kategorien als Referenzkategorie (D1=0, D2=0)

  • Prinzip d. Dummy-Kodierung 1 Prädiktor (polytom): Schritt 2

    1. Kodiervariable D1 bilden (Wert 1), alle anderen erhalten Wert 0

  • Prinzip d. Dummy-Kodierung 1 Prädiktor (polytom): Schritt 3

    2. Kodiervariable D2 bilden (Wert 1), alle anderen erhalten Wert 0

  • Prinzip d. Dummy-Kodierung 1 Prädiktor (polytom): Schritt 4

    Aufnahme in MR: D's ersetzen hierbei X's

  • Interpret. Intercept bei Dummy Kodierung 1 Prädiktor (polytom)

    Mittelwert der Referenzkategorie

  • Interpret. Regressionsgewicht von D1 bei Dummy Kodierung 1 Präd. (polytom)

    Mittelwertsunterschied zw. D1-Kategorie u. Referenzkategorie

  • Interpret. Regressionsgewicht von D1 bei Dummy Kodierung 1 Präd. (polytom)

    Mittelwertsunterschied zw. D2-Kategorie u. Referenzkategorie

  • Prinzip Effekt-Kodierung bei einem Prädiktor (polytom)

    Analog zu Effekt-Kodierung bei dichotomen Prädiktoren (anstatt 0=-1, anstatt D=E)

  • Intercept bei Effekt-Kodierung mit einem Prädiktor (polytom)

    bildet Gesamtmittelwert ab

  • Regressionsgewicht v. E1 bei Effekt-Kodierung mit einem Präd. (polytom)

    Differenz v. E1-Kategorie und Gesamtmittelwert

  • Regressionsgewicht v. E2 bei Effekt-Kodierung mit einem Präd. (polytom)

    Differenz v. E2-Kategorie und Gesamtmittelwert

  • Beispiel Moderatormodell mit 2 polytomen Prädiktoren

    X2 (Firma: erf., nicht erf.) moderiert den Zusammenhang zw. X1 (Status: Arb., TL, Man.) und Y (Arbeitszufriedenheit)

  • Beispiel Moderatormodell mit 2 polytomen Präd.: Kodierung bei Dummy-Kod.

    D1 u. D2 für X1, D3 für X2, D4 (=D1*D3), D5 (=D2*D3)

  • Interpretation Intercept: Beispiel Moderatormodell 2 polyt. Präd.

    b0= Emp. Mittelwert für Arbeiter in nicht erfolgreichen Firmen

  • Interpretation b1 (analog b2): Beispiel Moderatormodell 2 polyt. Präd.

    Emp. Mittelwertsunterschied zw. Teamleitern und Arbeitern in nicht erfolgreichen Firmen

  • Interpretation b3: Beispiel Moderatormodell 2 polyt. Präd.

    Empirischer Mittelwertsunterschied zwischen Arbeitern in erfolgreichen und nicht erfolgreichen Firmen

  • Interpretation b4 (b5 analog): Beispiel Moderatormodell 2 polyt. Präd.

    Wert, um den emp. Mittelwertsunterschied "TL-Arb.) in erfolgr. Firma anders ist als in einer nicht erfolgreichen

  • Effekt-Kodierung: Moderatormodell 2 polyt. Präd.

    Analog nur wieder mit -1 statt 0 und E statt D (Vgl. dann zu Gesamtmittelwert)

  • "Globaltest" der Interaktion (Ergebis stimmt mit 2faktor.ANOVA überein)

    Hierarch. Regression mit 2 Modellen, Inkrement von R² wird durch Aufnahme von Produktvariablen inspiziert.

  • Moderatormodelle mit 2 kontinuierlichen Präd.: Problem

    Interpretation v. b1 u. b2: Effekt, wenn der andere Präd. die Ausprägung 0 hat

  • Lösung für Problem bei Mod. mit 2 kontinuierl. Präd.

    Prädiktoren vor Produktbidung zentrieren oder standardisieren (2. ist besser)

  • b1(b2) bei Mod. mit 2 kontinuierl. Präd.

    Um wieviele Standardabw.Einh. ändert sich der vorherg. Kriteriumswert, wenn X1 um eine SDE zunimmt und X2=0.

  • b3 bei Mod. mit 2 kontinuierl. Präd.

    Wert, um den sich Effekt v. X1 ändert wenn X2 nicht mehr = 0 sondern um eine SDE steigt

  • SPSS Output bei Mod. mit 2 kont. Präd.

    ACHTUNG: Referenz immer nicht stand. Koeffizienten, da diese schon vor Produktbildung standardisiert worden sind!!!

  • Problematische Datenkonstruktion bei MR

    durch Multikollinearität, durch Ausreißer und einflussreiche Datenpunkte

  • Ebenenstruktur bei Hierarchischen Modellen

    Level 1: Individualebene (zB Intelligenz(, Level 2: Gruppenebene (zB Erfolg d. Firma)

  • HLM Problem 1: Gefahr einer unangemessenen Interpretation

    Drittvariable auf einem Lvl. sorgen für verdeckten oder anders gepolten Zusammenhang auf anderem Lvl.

  • Ökologischer Fehlschluss (Robinson Effekt)

    Ein Befundmuster wird fälschlicherw. als Zusammenhang auf Individ.ebene interpr., obwohl es ökol. Zusamm. auf Gruppeneb. geschuldet ist.

  • HLM Problem 2: Verletzung der Annahme unabhängiger Residuen

    AV-Werte sind bei HLM innerhalb der Lvl-2-Einheiten (zB innerhalb einer Firma) ähnlicher als zwischen den Lvl-2-Einheiten

  • Fixed (durchschn) Intercept (c00)->fester Effekt

    Summe Intercepts / Anzahl Lvl-2-Einheiten

  • Fixed Slope (durchschn) (c10)->fester Effekt

    Summe der Slopes / Anzahl Lvl-2-Einheiten

  • Random intercepts (u0i)->zufälliger Effekt

    u0i=b0i - c00 (Abweichung d. spez. Intercepts einer Lvl-2-Einh. i vom durchschn. Intercept

  • Random slopes (u1i)->zufälliger Effekt

    u1i=b1i - c10 (Abw. d. spez. slopes einer Lvl. 2- Einheit i vom durchschn. slope)

  • Level-1-Residuen (emi)

    emi= ymi- y^mi (Abweich. d. beob. Wertes einer Pers. m d. Lvl-2-Einh. i vom vorherg. Wert)

  • Gesamtmodell HLM

    ymi= fixed slope + fixed intercept * xmi + random intercept + random slope * xmi + Lvl-1-Res.

  • HLM Varianz der random intercepts

    Summe (random intercepts)² / Anzahl Lvl-2-Einh.

  • HLM Varianz der random slopes

    Summe (random slopes)² / Anzahl Lvl-2-Einh.

  • HLM Varianz d. Lvl-1-Residuen

    Summe (Lvl-1-Res.)² / Anzahl Lvl-2-Einheiten * Anzahl Personen (n)

  • Interpretation Varianz random intercepts

    In welchem Ausmaß unterscheiden sich intercepts d. LVl-2-Einheiten unerklärt.

  • Interpretation Varianz random slopes

    In welchem Ausmaß unterscheiden sich slopes d. Lvl-2-Einh. unerklärt

  • Interpretation Level-1-Residuen

    In welchem Ausmaß unterscheiden sich die Residuen d. Peronen innerhalb der Lvl-2-Einh.

  • HLM: Positive (negative) Kovarianz

    Je größer intercept einer Lvl-2-Einheit, desto größer (kleiner) ihr slope.

  • Unterschied HLM - Random Coefficients Modell auf Populationsebene

    Fester Teil: gleich; zufälliger Teil: 4 Parameter: Varianzen (random i, random s, lvl1-res.), Kovarianz zw. u0 und u1

  • HLM II: Level-2-Prädiktor Z

    bildet Merkmal d. L2-Einheiten ab (zB Wirtsch. Erfolg in Firmen)

  • Faktor

    latente Variable, deren Messung nicht möglich ist, nur Erschließung (bei FA-> UV)

  • Faktorwert

    geschätzte Ausprägung, die eine Person auf einem Faktor hat

  • Ladung

    Einfluss, den der latente Faktor auf das Antwortverhalten einer Person auf der manifesten Variable hat

  • Varianz-Kovarianz-Matrix (kurz: Kovarianz-Matrix)

    Datengrundlage bei konfirmatorischer FA; Varianzen Hauptdiag., darunter Kovarianzen

  • KFA vs. EFA

    strukturprüfendes vs strukturdeckendes Verfahren (a priori Konstruktion vs. Auswertung emp. Kriterien)

  • Ladungen in KFA

    sind Modellparameter (werden meist im nachhinein bestimmt und inspiziert)

  • Abfolge nach Konstruktion eines Messmodells (KFA)

    1. Schätzung d. Modellparameter, 2. Modellevaluation (wie gut passt es auf Daten?)

  • Modellparameter bei KFA

    Faktorladungen, Varianzen der u. Kovariationen zw. d. Faktoren u. Residualvariablen

  • zu schätzende Modellparameter q bei KFA

    Faktorladungen, Varianzen der u. Kovarianzen zw. den Faktoren, Varianzen d. Res.Var.

  • Anzahl m der Informationen

    Summe aller Varianzen u. Kovarianzen d. festen Variablen (=0,5*p*(p+1)

  • Notwendige (nicht hinreichende) Bedingung für Schätzung der Modellparameter

    m größer gleich q

  • Freiheitsgrade eines Modells (KFA)

    df = m - q (df darf nicht <0 sein)

  • Modelltheoretisch implizierte Varianz-Kovarianzmatrix

    Matrix mit rekonstruierten (Ko)Varianzen, d. manifesten Variablen, die bei Gültigkeit d. Modells zu erwarten wären

  • Prinzip d. Schätzung d. Modellparameter

    beobachtete Var-Kov-Matrix "S" soll minimal von modellth. impl. abweichen!

  • Anpassungsgüte bzw. "Overall Fit"

    Umso besser, je geringer Abweichung des modellth. impl. Modells zum beobachteten ist.

  • Varianz manifeste Variable

    =Varianz Faktor * Ladung² + Varianz Residualvariable

  • Kovarianz zw. manifesten Variablen die auf gleichen Faktor laden

    =Varianz Faktor * Ladung 1* Landung 2

  • Kovarianz zw. manifesten Variablen, die auf untersch. Faktor laden

    = Kovarianz (Faktor 1*Faktor2) * Ladung 1 * Ladung 2 = 0 (wenn Fktoren als unkorr. angenommen werden)

  • Wann ist Messmodell identifiziert

    Wenn es mgl. ist für jeden freien Modellparameter eindeutig einen Schätzer zu erhalten.

  • Statistische Identifikation (Bedingung für Identifikation)

    m größer gleich q

  • Normierung jedes Faktors (Bedingung für Identifikation)

    -> Maßeinheit eines jeden Faktors muss festgelegt sein

  • Statistisch unteridentifizierte Modelle

    df<0 Es ist keine eindeutige Bestimmung der freien Modellparameter möglich

  • Statistisch genau identifizierte Modelle

    df=0 Eindeutige Bestimmung d. freien Modellparam. mgl.-> Anpassungsgüte kann nicht evaluiert werden

  • Statistisch überidentifizierte Modelle

    df>0 Eindeutige Bestimmung d. freien Modellparam. mgl.-Y E kann von S abweichen. Ausmaß d. Abweich. = Güte d. Models

  • Zusätzliche Bedingung, wenn keine Kovar. zw. Faktoren

    Alle "Teilmodelle" müssen für sich selbst genommen statistisch identifiziert sein

  • Optionen zur stat. Identifikation d. Teilmodelle

    Zusätzliche Y einführen, jeweils 1 weiteren Parameter fixieren, Kovarianz zw. Faktoren zulassen

  • Iterative Schätzmethode ML (Maximum Likelihood)

    wird so geschätzt, dass Wahrscheinlichkeit d. beob. Daten maximal ist (multivar. Normalverteilung d. Daten vorausgesetzt)

  • Iterative Schätzmethode WLS (Weighted Least Squares)

    gewicht. Differenz zw. E u. S wird minimiert.

  • Iterative Schätzmethode ULS (Unweighted Least Squares)

    keine Verteilungsannahmen, dafür schwere inf.st. Absicherung und nicht invariant ggü Skalierung d. Variablen

  • chi²-Anpassungs-Test

    Testet Absolute Model Fit; H0 wird getestet, wenn nicht sign.-> GUTER FIT!

  • chi²-Anpassungs-Test: Ergebnisse

    Ergebnis kleiner gleich: 2*df-> gutes Modell; 3*df->akzeptables Modell

  • RMSEA (Root Mean Square Error of Approximation)

    Modell geeignet, wenn Approximationsfehler gering

  • RMSEA (Root Mean Square Error of Approximation): Ergebnisse

    gut: RMSEA < gleich 0.05, akzeptabel < gleich 0.08

  • CFI Comparative Fit Index: Idee

    Anpassungsgüte d. spez. Modells wird mit Unabhängigkeitsmodell als Baseline verglichen

  • CFI Comparative Fit Index: Kriterien

    CFI > gleich 0.97=gut, > gleich 0.95=akzeptabel

  • GFI (Goodness-of-Fit-Index): Kriterien

    GFI > gleich 0.95 = gut, > gleich 0.90= azeptabel

  • AGFI (Adjusted Goodness-of-Fit-Index): Kriterien

    AGFI> gleich 0.90 gut, AGFI > gleich 0.85 akzeptabel