Die Europäische Kommission hat kein Recht. Europäische Kommission: Begriff, Bedeutung und Entstehungsgeschichte. Europäische Kommission: Zusammensetzung und Organisation der Arbeit

Mit Korrelation derselbe Wert eines Attributs entspricht unterschiedlichen Werten des anderen. Zum Beispiel: Es gibt einen Zusammenhang zwischen Größe und Gewicht, zwischen der Häufigkeit bösartiger Neubildungen und dem Alter usw.

Es gibt 2 Methoden zur Berechnung des Korrelationskoeffizienten: die Methode der Quadrate (Pearson), die Methode der Ränge (Spearman).

Am genauesten ist die Methode der Quadrate (Pearson), bei der der Korrelationskoeffizient durch die Formel bestimmt wird: , wo

r xy ist der Korrelationskoeffizient zwischen den statistischen Reihen X und Y.

d x ist die Abweichung jeder Zahl der statistischen Reihe X von ihrem arithmetischen Mittel.

d y ist die Abweichung jeder Zahl der statistischen Reihe Y von ihrem arithmetischen Mittel.

Abhängig von der Stärke der Verbindung und ihrer Richtung kann der Korrelationskoeffizient zwischen 0 und 1 (-1) liegen. Ein Korrelationskoeffizient von 0 zeigt einen vollständigen Mangel an Verbindung an. Je näher das Niveau des Korrelationskoeffizienten bei 1 bzw. (-1) liegt, desto größer bzw. desto näher ist die damit gemessene Direkt- oder Rückkopplung. Bei einem Korrelationskoeffizienten von 1 oder (-1) ist die Verbindung vollständig, funktionsfähig.

Schema zur Abschätzung der Korrelationsstärke durch den Korrelationskoeffizienten

Stärke der Verbindung

Der Wert des Korrelationskoeffizienten, falls verfügbar

Direktverbindung (+)

Rückmeldung (-)

Keine Verbindung

Kommunikation ist klein (schwach)

von 0 bis +0,29

0 bis -0,29

Kommunikation durchschnittlich (moderat)

+0,3 bis +0,69

-0,3 bis -0,69

Kommunikation groß (stark)

+0,7 bis +0,99

-0,7 bis -0,99

Die Kommunikation ist abgeschlossen

(funktional)

Zur Berechnung des Korrelationskoeffizienten nach der Methode der Quadrate wird eine Tabelle mit 7 Spalten erstellt. Analysieren wir den Berechnungsprozess anhand eines Beispiels:

BESTIMMEN SIE DIE STÄRKE UND ART DER BEZIEHUNG ZWISCHEN

Es ist Zeit-

ness

Kropf

(v j )

D x= v XM X

D y= v jM j

D X D j

D X 2

D j 2

Σ -1345 ,0

Σ 13996 ,0

Σ 313 , 47

1. Bestimmen Sie den durchschnittlichen Jodgehalt in Wasser (in mg / l).

mg/l

2. Bestimmen Sie die durchschnittliche Kropfhäufigkeit in %.

3. Bestimme die Abweichung jedes V x von M x, d. h. d x .

201–138=63; 178–138=40 usw.

4. In ähnlicher Weise bestimmen wir die Abweichung jedes V y von M y, d. h. D

0,2–3,8=-3,6; 0,6–38=-3,2 usw.

5. Wir ermitteln die Produkte der Abweichungen. Das resultierende Produkt wird aufsummiert und erhalten.

6. Wir quadrieren d x und fassen die Ergebnisse zusammen, die wir erhalten.

7. In ähnlicher Weise quadrieren wir d y, fassen die Ergebnisse zusammen, die wir erhalten

8. Schließlich setzen wir alle erhaltenen Beträge in die Formel ein:

Um das Problem der Zuverlässigkeit des Korrelationskoeffizienten zu lösen, wird sein durchschnittlicher Fehler durch die Formel bestimmt:

(Wenn die Anzahl der Beobachtungen weniger als 30 beträgt, ist der Nenner n-1).

In unserem Beispiel

Der Wert des Korrelationskoeffizienten gilt als zuverlässig, wenn er mindestens dreimal höher ist als sein mittlerer Fehler.

In unserem Beispiel

Somit ist der Korrelationskoeffizient nicht zuverlässig, was es erforderlich macht, die Anzahl der Beobachtungen zu erhöhen.

Der Korrelationskoeffizient kann auf eine etwas weniger genaue, aber viel einfachere Weise bestimmt werden, die Rangmethode (Spearman).

Spearman-Methode: P=1-(6∑d 2 /n-(n 2 -1))

mache zwei Reihen von paarweise verglichenen Merkmalen, wobei die erste und die zweite Reihe mit x bzw. y bezeichnet werden. Stellen Sie gleichzeitig die erste Zeile des Attributs in absteigender oder aufsteigender Reihenfolge dar und stellen Sie die numerischen Werte der zweiten Zeile den Werten der ersten Zeile gegenüber, denen sie entsprechen

Der Wert des Merkmals in jeder der verglichenen Zeilen sollte durch eine fortlaufende Nummer (Rang) ersetzt werden. Ränge oder Zahlen geben die Positionen der Indikatoren (Werte) der ersten und zweiten Reihe an. Dabei Zahlenwerte des zweiten Attributs müssen die Ränge in derselben Reihenfolge vergeben werden, die bei der Verteilung auf die Werte des ersten Attributs angenommen wurde. Bei gleichen Werten des Attributs in der Reihe sollten die Ränge als Durchschnittszahl aus der Summe der Ordnungszahlen dieser Werte ermittelt werden

bestimme den Rangunterschied zwischen x und y (d): d = x - y

Quadrat der resultierenden Rangdifferenz (d 2)

erhalten Sie die Summe der Quadrate der Differenz (Σ d 2) und setzen Sie die erhaltenen Werte in die Formel ein:

Beispiel: Bestimmung der Richtung und Stärke des Zusammenhangs zwischen der Dienstzeit in Jahren und der Verletzungshäufigkeit nach der Rangmethode, wenn folgende Daten erhoben werden:

Begründung für die Methodenwahl: Zur Lösung des Problems kann nur das Rangkorrelationsverfahren gewählt werden, da die erste Zeile des Attributs "Berufserfahrung in Jahren" hat offene Optionen (Berufserfahrung bis zu 1 Jahr und 7 oder mehr Jahren), was es nicht erlaubt, eine genauere Methode - die Methode der Quadrate - zu verwenden, um eine Beziehung zwischen den herzustellen Eigenschaften verglichen.

Lösung. Die Reihenfolge der Berechnungen ist im Text beschrieben, die Ergebnisse sind in der Tabelle dargestellt. 2.

Tabelle 2

Berufserfahrung in Jahren

Anzahl der Verletzungen

Ordnungszahlen (Ränge)

Rangunterschied

Rangunterschied zum Quadrat

d(x-y)

D 2

Jede der Reihen gepaarter Zeichen ist mit "x" und mit "y" bezeichnet (Spalten 1-2).

Der Wert jedes Zeichens wird durch eine Rangnummer (Seriennummer) ersetzt. Die Reihenfolge der Rangverteilung in der Reihe „x“ ist wie folgt: Dem Mindestwert des Attributs (Erfahrung bis 1 Jahr) wird die fortlaufende Nummer „1“ zugewiesen, den nachfolgenden Varianten derselben Reihe des Attributs jeweils , in aufsteigender Reihenfolge der 2., 3., 4. und 5. Seriennummer - Ränge (siehe Spalte 3). Eine ähnliche Reihenfolge wird beobachtet, wenn Ränge auf das zweite Merkmal "y" (Spalte 4) verteilt werden. In den Fällen, in denen es mehrere Varianten gleicher Größe gibt (z. B. bei der Standardaufgabe sind dies 12 und 12 Verletzungen pro 100 Arbeiter mit einer Erfahrung von 3-4 Jahren und 5-6 Jahren), wird die Seriennummer angegeben durch die durchschnittliche Anzahl aus der Summe ihrer Seriennummern Diese Daten über die Anzahl der Verletzungen (12 Verletzungen) in der Rangliste sollten den 2. und 3. Platz einnehmen, also ist die durchschnittliche Anzahl von ihnen (2 + 3) / 2 = 2,5. ) sollten die gleichen Rangnummern verteilen - "2,5" (Spalte 4).

Rangdifferenz ermitteln d = (x - y) - (Spalte 5)

Quadrieren der Rangdifferenz (d 2) und Erhalten der Quadratsumme der Rangdifferenz Σ d 2 (Spalte 6).

Berechnen Sie den Rangkorrelationskoeffizienten mit der Formel:

wobei n die Anzahl der übereinstimmenden Optionspaare in Zeile "x" und Zeile "y" ist

Stufe 3. Finden der Beziehung zwischen den Daten

Lineare Korrelation

Die letzte Stufe der Aufgabe, die Beziehungen zwischen Phänomenen zu untersuchen, ist die Bewertung der Enge der Verbindung gemäß den Korrelationsindikatoren. Diese Phase ist sehr wichtig für die Identifizierung von Abhängigkeiten zwischen Faktor und resultierenden Zeichen und folglich für die Möglichkeit, das untersuchte Phänomen zu diagnostizieren und vorherzusagen.

Diagnose(aus dem Griechischen. Diagnoseerkennung) - Bestimmung des Wesens und der Merkmale des Zustands eines Objekts oder Phänomens auf der Grundlage seiner umfassenden Untersuchung.

Vorhersage(aus dem Griechischen. Prognose, Vorhersage) - jede bestimmte Vorhersage, Beurteilung des Zustands eines Phänomens in der Zukunft (Wettervorhersage, Wahlausgang usw.). Prognose ist eine wissenschaftlich fundierte Hypothese über den wahrscheinlichen zukünftigen Zustand des untersuchten Systems, Objekts oder Phänomens und Indikatoren, die diesen Zustand charakterisieren. Forecasting ist die Entwicklung einer Prognose, spezielle wissenschaftliche Studien zu bestimmten Aussichten für die Entwicklung eines Phänomens.

Erinnern Sie sich an die Definition der Korrelation:

Korrelation- Abhängigkeit zwischen Zufallsvariablen, ausgedrückt in der Tatsache, dass die Verteilung einer Variablen vom Wert einer anderen Variablen abhängt.

Korrelation wird nicht nur zwischen quantitativen, sondern auch qualitativen Merkmalen beobachtet. Existieren verschiedene Wege und Indikatoren zur Beurteilung der Bindungsdichte. Wir werden uns nur darauf konzentrieren linearer Paarkorrelationskoeffizient , die verwendet wird, wenn zwischen Zufallsvariablen eine lineare Beziehung besteht. In der Praxis wird es oft notwendig, den Grad der Verbindung zwischen Zufallsvariablen ungleicher Dimensionen zu bestimmen, daher ist es wünschenswert, eine dimensionslose Eigenschaft dieser Verbindung zu haben. Ein solches Merkmal (Maß der Verbindung) ist der Koeffizient der linearen Korrelation rxy, die durch die Formel bestimmt wird

Wo , .

Wenn Sie und bezeichnen, erhalten Sie den folgenden Ausdruck zur Berechnung des Korrelationskoeffizienten

.

Wenn wir das Konzept vorstellen normalisierte Abweichung , der die Abweichung der korrelierten Werte vom Mittelwert in Bruchteilen der Standardabweichung ausdrückt:



dann nimmt der Ausdruck für den Korrelationskoeffizienten die Form an

.

Wenn der Korrelationskoeffizient basierend auf den Endwerten der anfänglichen Zufallsvariablen aus der Berechnungstabelle berechnet wird, kann der Korrelationskoeffizient durch die Formel berechnet werden

.

Eigenschaften des linearen Korrelationskoeffizienten:

1). Der Korrelationskoeffizient ist eine dimensionslose Größe.

2). |R| 1€ oder .

3). , ein, b= const, - Der Wert des Korrelationskoeffizienten ändert sich nicht, wenn alle Werte der Zufallsvariablen X und Y mit einer Konstanten multipliziert (oder dividiert) werden.

4). , ein, b= const, - Der Wert des Korrelationskoeffizienten ändert sich nicht, wenn alle Werte der Zufallsvariablen X und Y um eine Konstante erhöht (oder verringert) werden.

5). Zwischen dem Korrelationskoeffizienten und dem Regressionskoeffizienten besteht ein Zusammenhang:

Die Werte der Korrelationskoeffizienten können wie folgt interpretiert werden:

Quantitative Kriterien zur Beurteilung der Kommunikationsdichte:

Für prognostische Zwecke Größen mit |r| > 0,7.

Der Korrelationskoeffizient lässt den Schluss zu, dass zwischen zwei Zufallsvariablen ein linearer Zusammenhang besteht, gibt aber nicht an, welche der Variablen eine Veränderung der anderen bewirkt. Tatsächlich kann eine Beziehung zwischen zwei Zufallsvariablen ohne kausale Beziehung zwischen den Variablen selbst bestehen, weil eine Änderung beider Zufallsvariablen kann durch eine Änderung (Einfluss) der dritten verursacht werden.

Korrelationskoeffizient rxy bezüglich der betrachteten Zufallsvariablen symmetrisch ist X Und Y. Das bedeutet, dass es für die Bestimmung des Korrelationskoeffizienten völlig gleichgültig ist, welche der Größen unabhängig und welche abhängig ist.

Bedeutung des Korrelationskoeffizienten

Auch für unabhängige Größen kann der Korrelationskoeffizient aufgrund zufälliger Streuung der Messergebnisse oder aufgrund einer kleinen Stichprobe von Zufallsvariablen ungleich Null sein. Daher sollte die Signifikanz des Korrelationskoeffizienten überprüft werden.

Die Signifikanz des linearen Korrelationskoeffizienten wird anhand von getestet Student's t-Test :

.

Wenn T > t kr(P, n-2), dann ist der lineare Korrelationskoeffizient signifikant und daher ist auch die statistische Beziehung signifikant X Und Y.

.

Zur Vereinfachung der Berechnungen wurden Wertetabellen der Vertrauensgrenzen der Korrelationskoeffizienten für eine unterschiedliche Anzahl von Freiheitsgraden erstellt. f = n–2 (zweiseitiger Test) und unterschiedliche Signifikanzniveaus A= 0,1; 0,05; 0,01 und 0,001. Es wird davon ausgegangen, dass die Korrelation signifikant ist, wenn der berechnete Korrelationskoeffizient den Wert der Vertrauensgrenze des Korrelationskoeffizienten für das Gegebene überschreitet F Und A.

Für groß N Und A= 0,01 kann der Wert der Vertrauensgrenze des Korrelationskoeffizienten mit der Näherungsformel berechnet werden

.

Bei Statistiken Korrelationskoeffizient (Englisch Korrelationskoeffizient) wird verwendet, um die Hypothese über die Existenz einer Beziehung zwischen zwei Zufallsvariablen zu testen, und ermöglicht Ihnen auch, ihre Stärke zu bewerten. In der Portfoliotheorie wird dieser Indikator normalerweise verwendet, um die Art und Stärke des Zusammenhangs zwischen der Rendite eines Wertpapiers (Vermögenswerts) und der Rendite eines Portfolios zu bestimmen. Wenn die Verteilung dieser Variablen normal oder nahezu normal ist, verwenden Sie Pearson-Korrelationskoeffizient, die nach folgender Formel berechnet wird:

Die Standardabweichung der Rendite der Aktien von Unternehmen A beträgt 0,6398, von Aktien von Unternehmen B 0,5241 und von Portfolio 0,5668. ( Sie können nachlesen, wie die Standardabweichung berechnet wird.)

Der Korrelationskoeffizient der Aktienrendite von Unternehmen A und der Portfoliorendite beträgt -0,864 und der von Unternehmen B - 0,816.

RA \u003d -0,313 / (0,6389 * 0,5668) \u003d -0,864

RB \u003d 0,242 / (0,5241 * 0,5668) \u003d 0,816

Daraus lässt sich schließen, dass eine ziemlich starke Beziehung zwischen der Portfoliorendite und der Rendite der Aktien von Unternehmen A und Unternehmen B besteht. Gleichzeitig zeigt die Rendite der Aktien von Unternehmen A eine multidirektionale Bewegung mit der Rendite des Portfolios , und die Rendite der Aktien von Unternehmen B zeigt eine einseitige Bewegung.

Korrelationskoeffizient

Korrelation- statistische Beziehung zwischen zwei oder mehr Zufallsvariablen (oder Variablen, die mit einigermaßen akzeptabler Genauigkeit als solche betrachtet werden können). Gleichzeitig führen Änderungen einer oder mehrerer dieser Größen zu einer systematischen Änderung der anderen oder anderen Größen. Ein mathematisches Maß für die Korrelation zweier Zufallsvariablen ist der Korrelationskoeffizient.

Die Korrelation kann positiv und negativ sein (es kann auch sein, dass kein statistischer Zusammenhang besteht – zB bei unabhängigen Zufallsvariablen). negative Korrelation - Korrelation, bei der eine Zunahme einer Variablen mit einer Abnahme einer anderen Variablen einhergeht, während der Korrelationskoeffizient negativ ist. positive Korrelation - eine Korrelation, bei der ein Anstieg einer Variablen mit einem Anstieg einer anderen Variablen einhergeht, während der Korrelationskoeffizient positiv ist.

Autokorrelation - statistischer Zusammenhang zwischen Zufallsvariablen aus derselben Reihe, aber mit einer Verschiebung aufgenommen, z. B. für einen Zufallsprozess - mit einer zeitlichen Verschiebung.

Lassen X,Y- zwei Zufallsvariablen, die auf demselben Wahrscheinlichkeitsraum definiert sind. Dann ist ihr Korrelationskoeffizient durch die Formel gegeben:

,

wobei cov Kovarianz bezeichnet und D Varianz oder gleichwertig ist,

,

wobei das Symbol für mathematische Erwartung steht.

Um eine solche Beziehung grafisch darzustellen, können Sie ein rechteckiges Koordinatensystem mit Achsen verwenden, die beiden Variablen entsprechen. Jedes Wertepaar ist mit einem bestimmten Symbol gekennzeichnet. Ein solches Diagramm wird als "Streudiagramm" bezeichnet.

Die Methode zur Berechnung des Korrelationskoeffizienten hängt von der Art der Skala ab, auf die sich die Variablen beziehen. Um also Variablen mit Intervall- und Mengenskalen zu messen, ist es notwendig, den Pearson-Korrelationskoeffizienten (Korrelation von Produktmomenten) zu verwenden. Wenn mindestens eine der beiden Variablen ordinal skaliert oder nicht normalverteilt ist, muss die Rangkorrelation nach Spearman oder τ (Tau) nach Kendal verwendet werden. Wenn eine der beiden Variablen dichotom ist, wird eine Punkt-Zwei-Reihen-Korrelation verwendet, und wenn beide Variablen dichotom sind, wird eine Vier-Felder-Korrelation verwendet. Die Berechnung des Korrelationskoeffizienten zwischen zwei nicht-dichotomen Variablen ist nur dann sinnvoll, wenn der Zusammenhang zwischen ihnen linear (unidirektional) ist.

Kendell-Korrelationskoeffizient

Wird verwendet, um gegenseitige Störungen zu messen.

Korrelationskoeffizient nach Spearman

Eigenschaften des Korrelationskoeffizienten

Wenn wir die Kovarianz als Skalarprodukt zweier Zufallsvariablen nehmen, dann ist die Norm der Zufallsvariablen gleich , und die Konsequenz der Cauchy-Bunyakovsky-Ungleichung wird sein: . , Wo . Außerdem sind in diesem Fall die Zeichen und k zusammenpassen: .

Korrelationsanalyse

Korrelationsanalyse- Methode zur Verarbeitung statistischer Daten, die darin besteht, die Koeffizienten zu untersuchen ( Korrelationen) zwischen Variablen. In diesem Fall werden die Korrelationskoeffizienten zwischen einem Paar oder mehreren Paaren von Merkmalen verglichen, um statistische Beziehungen zwischen ihnen herzustellen.

Ziel Korrelationsanalyse- Informationen über eine Variable mit Hilfe einer anderen Variable bereitstellen. In Fällen, in denen es möglich ist, das Ziel zu erreichen, sagen wir, dass die Variablen zueinander in Beziehung stehen. In der sehr Gesamtansicht Die Hypothese des Vorhandenseins einer Korrelation zu akzeptieren bedeutet, dass eine Änderung des Werts der Variablen A gleichzeitig mit einer proportionalen Änderung des Werts von B auftritt: Wenn beide Variablen zunehmen, dann Korrelation ist positiv wenn eine Variable zunimmt und die andere abnimmt, Korrelation ist negativ.

Die Korrelation spiegelt nur die lineare Abhängigkeit der Größen wider, nicht aber deren funktionalen Zusammenhang. Zum Beispiel, wenn wir den Korrelationskoeffizienten zwischen den Werten berechnen A = SichN(X) Und B = CÖS(X) , dann ist sie nahe Null, d.h. es besteht keine Abhängigkeit zwischen den Größen. Inzwischen sind die Größen A und B offensichtlich gesetzmäßig funktional verwandt SichN 2 (X) + CÖS 2 (X) = 1 .

Grenzen der Korrelationsanalyse

Diagramme der Verteilungen von Paaren (x,y) mit entsprechenden x- und y-Korrelationskoeffizienten für jedes von ihnen. Beachten Sie, dass der Korrelationskoeffizient einen linearen Zusammenhang widerspiegelt (obere Reihe), aber keine Beziehungskurve beschreibt (mittlere Reihe) und überhaupt nicht geeignet ist, komplexe, nichtlineare Zusammenhänge zu beschreiben (untere Reihe).

  1. Die Anwendung ist möglich, wenn eine ausreichende Anzahl von Fällen zu untersuchen ist: Für einen bestimmten Typ von Korrelationskoeffizienten reicht er von 25 bis 100 Beobachtungspaaren.
  2. Die zweite Einschränkung ergibt sich aus der Hypothese der Korrelationsanalyse, die beinhaltet lineare Abhängigkeit von Variablen. Wenn zuverlässig bekannt ist, dass die Abhängigkeit existiert, liefert die Korrelationsanalyse in vielen Fällen möglicherweise keine Ergebnisse, einfach weil die Abhängigkeit nicht linear ist (zum Beispiel als Parabel ausgedrückt).
  3. Die Tatsache der Korrelation allein gibt keinen Anlass zu der Behauptung, welche der Variablen Änderungen vorausgeht oder verursacht, oder dass die Variablen allgemein in kausalem Zusammenhang stehen, beispielsweise aufgrund der Wirkung eines dritten Faktors.

Anwendungsgebiet

Diese Methode der Verarbeitung statistischer Daten ist in den Wirtschafts- und Sozialwissenschaften (insbesondere in der Psychologie und Soziologie) sehr beliebt, obwohl der Anwendungsbereich der Korrelationskoeffizienten umfangreich ist: Qualitätskontrolle von Industrieprodukten, Metallurgie, Agrarchemie, Hydrobiologie, Biometrie und andere.

Die Popularität der Methode beruht auf zwei Punkten: Die Korrelationskoeffizienten sind relativ einfach zu berechnen, ihre Anwendung erfordert keine spezielle mathematische Ausbildung. In Kombination mit der einfachen Interpretation hat die einfache Anwendung des Koeffizienten zu seiner weit verbreiteten Verwendung im Bereich der statistischen Datenanalyse geführt.

Scheinkorrelation

Die oft verlockende Einfachheit einer Korrelationsstudie ermutigt den Forscher, falsche intuitive Schlussfolgerungen über das Vorhandensein einer kausalen Beziehung zwischen Merkmalspaaren zu ziehen, während die Korrelationskoeffizienten nur statistische Beziehungen herstellen.

In der modernen quantitativen Methodologie der Sozialwissenschaften hat man sich tatsächlich von Versuchen verabschiedet, kausale Beziehungen zwischen beobachteten Variablen durch empirische Methoden herzustellen. Wenn Forscher in den Sozialwissenschaften über die Herstellung von Beziehungen zwischen den von ihnen untersuchten Variablen sprechen, ist daher entweder eine allgemeine theoretische Annahme oder eine statistische Abhängigkeit impliziert.

siehe auch

Wikimedia-Stiftung. 2010 .

Sehen Sie, was der "Korrelationskoeffizient" in anderen Wörterbüchern ist:

    Korrelationskoeffizient- Mathematische Darstellung des Verwandtschaftsgrades zwischen zwei Messreihen. Ein Faktor von +1 weist auf eine starke positive Korrelation hin: Hohe Werte in einer Dimension (z. B. Körpergröße) korrelieren genau mit hohen Werten in einer anderen ... ... Große psychologische Enzyklopädie

    - ρ ist ein Maß für die Stärke einer linearen Beziehung zwischen den Zufallsvariablen X und Y: , wobei EX der Erwartungswert von X ist; DX Varianz X, EY mathematische Erwartung Y; DY-Varianz Y; 1 ≤ ρ ≤ 1. Sind X, Y linear zusammenhängend, so ist ρ = ± 1. Für… … Geologische Enzyklopädie

    Englisch Koeffizient, Korrelation; Deutsch Korrelationskoeffizient. Ein Maß für die Nähe einer Beziehung zwischen zwei oder mehr Variablen. Antinazi. Enzyklopädie der Soziologie, 2009 ... Enzyklopädie der Soziologie

    Korrelationskoeffizient- — Biotechnologiethemen EN Korrelationskoeffizient … Handbuch für technische Übersetzer

    Korrelationskoeffizient- (Korrelationskoeffizient) Der Korrelationskoeffizient ist ein statistisches Maß für die Abhängigkeit zweier Zufallsvariablen. Definition des Korrelationskoeffizienten, Arten von Korrelationskoeffizienten, Eigenschaften des Korrelationskoeffizienten, Berechnung und Anwendung ... ... Enzyklopädie des Investors

    Korrelationskoeffizient- 1.33. Korrelationskoeffizient Das Verhältnis der Kovarianz zweier Zufallsvariablen zum Produkt ihrer Standardabweichungen: Anmerkungen 1. Dieser Wert nimmt immer Werte von minus 1 bis plus 1 an, einschließlich Extremwerten. 2. Wenn zwei zufällig ... ... Wörterbuch-Nachschlagewerk von Begriffen der normativen und technischen Dokumentation

    KORRELATIONSKOEFFIZIENT- (Korrelationskoeffizient) ein Maß für die Assoziation einer Variablen mit einer anderen. Siehe Korrelation; von Pearson abgeleiteter Korrelationskoeffizient; Rangkorrelationskoeffizient nach Spearman … Großes erklärendes soziologisches Wörterbuch

    Korrelationskoeffizient- KORRELATIONSKOEFFIZIENT Ein Indikator für den Grad der linearen Beziehung zwischen zwei Variablen: Der Korrelationskoeffizient kann von 1 bis 1 variieren. Wenn große Werte einem Wert entsprechen große Werte andere (und... ... Wörterbuch-Nachschlagewerk der Wirtschaftswissenschaften

Das wichtigste Ziel Statistiken ist das Studium objektiv bestehender Beziehungen zwischen Phänomenen. Im Zuge einer statistischen Untersuchung dieser Zusammenhänge ist es notwendig, kausale Zusammenhänge zwischen Indikatoren zu identifizieren, d.h. wie die Veränderung einiger Indikatoren von der Veränderung anderer Indikatoren abhängt.

Es gibt zwei Kategorien von Abhängigkeiten (funktional und Korrelation) und zwei Gruppen von Zeichen (Vorzeichenfaktoren und effektive Zeichen). Im Gegensatz zur funktionalen Beziehung, bei der eine vollständige Übereinstimmung zwischen Faktor und resultierenden Merkmalen besteht, gibt es bei der Korrelationsbeziehung keine solche vollständige Übereinstimmung.

Korrelation- Dies ist ein Zusammenhang, bei dem der Einfluss einzelner Faktoren nur als Trend (im Durchschnitt) bei der Massenbeobachtung tatsächlicher Daten auftritt. Beispiele für Korrelationsabhängigkeit können die Abhängigkeit zwischen der Größe des Bankvermögens und der Höhe des Bankgewinns, dem Wachstum der Arbeitsproduktivität und der Betriebszugehörigkeit der Mitarbeiter sein.

Die einfachste Version der Korrelationsabhängigkeit ist die Paarkorrelation, d.h. Abhängigkeit zwischen zwei Vorzeichen (effektiv und faktoriell oder zwischen zwei faktoriellen). Mathematisch lässt sich diese Abhängigkeit als Abhängigkeit des Effektivindikators y vom Faktorindikator x ausdrücken. Verbindungen können direkt und umgekehrt sein. Im ersten Fall steigt mit einer Erhöhung des Attributs x auch das Attribut y, bei Rückkopplung sinkt mit einer Erhöhung des Attributs x das Attribut y.

Die wichtigste Aufgabe besteht darin, die Form der Verbindung mit der anschließenden Berechnung der Parameter der Gleichung zu bestimmen, oder mit anderen Worten, die Verbindungsgleichung zu finden ( Regressionsgleichungen).

Es können verschiedene sein Kontaktformulare:

geradlinig

krummlinig in der Form: Parabeln zweiter Ordnung (oder höherer Ordnungen)

Hyperbel

Exponentialfunktion usw.

Die Parameter für alle diese Kopplungsgleichungen werden üblicherweise aus bestimmt Systeme von Normalgleichungen, die die Anforderung der Methode der kleinsten Quadrate (LSM) erfüllen muss:

Wenn die Beziehung durch eine Parabel zweiter Ordnung ausgedrückt wird ( ), dann kann das System der Normalgleichungen zum Auffinden der Parameter a0, a1, a2 (eine solche Verbindung heißt mehrfach, da sie die Abhängigkeit von mehr als zwei Faktoren impliziert) dargestellt werden als

Eine weitere große Aufgabe ist Abhängigkeit Dichtheitsmessung- für alle Kommunikationsformen kann durch Berechnung des empirischen Korrelationsverhältnisses gelöst werden:

wo - Varianz in einer Reihe von ausgeglichenen Werten des effektiven Indikators;

Streuung in einer Reihe von Istwerten y.

Um den Engegrad einer gepaarten linearen Abhängigkeit zu bestimmen, linearer Korrelationskoeffizient r, das z. B. mit den folgenden beiden Formeln berechnet werden kann:

Der lineare Korrelationskoeffizient kann Werte im Bereich von -1 bis +1 oder Modulo von 0 bis 1 annehmen. Je näher er im absoluten Wert an 1 liegt, desto enger ist die Beziehung. Das Vorzeichen gibt die Richtung der Verbindung an: "+" - direkte Abhängigkeit, "-" erfolgt bei inverser Abhängigkeit.

In der statistischen Praxis kann es Fälle geben, in denen die Qualität des Faktors und der resultierenden Merkmale nicht numerisch ausgedrückt werden kann. Um die Abhängigkeit zu messen, müssen daher andere Indikatoren verwendet werden. Dazu werden sog Nichtparametrische Methoden.

Am weitesten verbreitet sind Rangkorrelationskoeffizienten, die auf dem Prinzip der Nummerierung der Werte der statistischen Reihen basieren. Bei der Verwendung der Korrelationskoeffizienten der Ränge werden nicht die Werte der Indikatoren x und y korreliert, sondern nur die Anzahl ihrer Plätze, die sie in jeder Wertereihe einnehmen. In diesem Fall ist die Nummer jeder einzelnen Einheit ihr Rang.

Korrelationskoeffizienten basierend auf der Verwendung der Rangordnungsmethode wurden von K. Spearman und M. Kendall vorgeschlagen.

Spearman-Rangkorrelationskoeffizient(p) basiert auf der Berücksichtigung der Differenz zwischen den Rängen der Werte der resultierenden und Faktoreigenschaften und kann durch die Formel berechnet werden

wobei d = Nx - Ny , d.h. Differenz der Ränge jedes Paares von x- und y-Werten; n ist die Anzahl der Beobachtungen.

Rangkorrelationskoeffizient nach Kendal() kann durch die Formel bestimmt werden

wo S = P + Q.

Nichtparametrische Forschungsmethoden umfassen Assoziationskoeffizient Kus und Kontingenzfaktor Kkon, die zum Einsatz kommen, wenn beispielsweise die Nähe der Beziehung zwischen qualitativen Merkmalen untersucht werden soll, die jeweils in Form von alternativen Merkmalen dargestellt werden.

Zur Ermittlung dieser Koeffizienten wird eine Berechnungstabelle erstellt („Vierfelder“-Tabelle), in der das statistische Prädikat in folgender Form schematisch dargestellt wird:

Zeichen

Dabei sind a, b, c, d die Häufigkeiten der gegenseitigen Kombination (Kombination) zweier alternativer Zeichen; n ist die Gesamtsumme der Häufigkeiten.

Der Produktallokationskoeffizient wird nach der Formel berechnet

Es ist zu beachten, dass bei gleichen Daten der Kontingenzkoeffizient (variiert von -1 bis +1) immer kleiner ist als der Assoziationskoeffizient.

Wenn es notwendig ist, die Nähe der Beziehung zwischen alternativen Merkmalen zu bewerten, die eine beliebige Anzahl von Wertoptionen annehmen können, wenden Sie sich an Gegenseitiger Konjugationskoeffizient nach Pearson(KP).

Um diese Art von Beziehung zu untersuchen, werden primäre statistische Informationen in Form einer Tabelle platziert:

Zeichen

Dabei sind mij die Häufigkeiten der gegenseitigen Kombination zweier attributiver Merkmale; P ist die Anzahl der Beobachtungspaare.

Gegenseitiger Kontingenzkoeffizient nach Pearson wird durch die Formel bestimmt

wo ist der mittlere quadratische Konjugationsindex:

Der gegenseitige Kontingenzkoeffizient variiert zwischen 0 und 1.

Abschließend sei noch erwähnt Fechner-Koeffizient, der den elementaren Grad der Enge der Verbindung charakterisiert, der zur Feststellung der Tatsache des Bestehens einer Verbindung bei geringen Ausgangsinformationen sinnvoll ist. Dieser Koeffizient wird durch die Formel bestimmt

wobei na die Anzahl der Übereinstimmungen von Anzeichen für Abweichungen einzelner Werte von ihrem arithmetischen Mittel ist; nb - bzw. die Anzahl der Nichtübereinstimmungen.

Der Fechner-Koeffizient kann innerhalb von -1,0 Kf +1,0 variieren.