29/06/18 & 30/06/18

Farbcode

Weitere Ressourcen zum Thema

Quellen

Bildnachweise

Folien und Files

Ablaufplan

R, RStudio & RCommander

  1. Installation Software
  2. Skalar, Vektor, Matrix
  3. Indizierung
  4. Logik
  5. Grundrechenarten
  6. Deskriptive Statistik
  7. Rudimentäres plotten
  8. Umgang mit RCommander

Ablaufplan

Open Science Aspekte

  1. \(\alpha\), \(\beta\), Power, Kleine Metaanalayse
  2. [Wahrheitsgehalt in Abhängigkeit von \(\alpha\) und \(\beta\)]
  3. Replikationskrise
  4. HARKing & P-Hacking

Werkzeuge & Fähigkeiten

  • Einrichten eines Accounts in Open Science Framework (OSF)
  • Pre-Data Report mit As Predicted (Schreibübung)
  • [Dokumentation einer Studie in OSF (Schreibübung)]
  • Originaltexte verstehen (Leseübung)
  • Zentrale Befunde in fünf [-1] Studien selber "nachrechnen" und transparent in OSF dokumentieren.
  • Planung einer (Replikations-)Studie unter Berücksichtigung
    • einer beobachteten Effektstärke (Einzelstudie) oder
    • einer mittleren Effektstärke (Metaanalyse).

Installation R und RCommander

Skalar, Vektor, Matrix

Skalar

skalar = 1
skalar
## [1] 1
skalar = "A"
skalar
## [1] "A"

Vektor

vektor = c(1,2,3,5,9,10,7)
vektor
## [1]  1  2  3  5  9 10  7
vektor2 = 1:10
vektor2
##  [1]  1  2  3  4  5  6  7  8  9 10
vektor3 = seq(1,10,.01)
vektor3
##   [1]  1.00  1.01  1.02  1.03  1.04  1.05  1.06  1.07  1.08  1.09  1.10
##  [12]  1.11  1.12  1.13  1.14  1.15  1.16  1.17  1.18  1.19  1.20  1.21
##  [23]  1.22  1.23  1.24  1.25  1.26  1.27  1.28  1.29  1.30  1.31  1.32
##  [34]  1.33  1.34  1.35  1.36  1.37  1.38  1.39  1.40  1.41  1.42  1.43
##  [45]  1.44  1.45  1.46  1.47  1.48  1.49  1.50  1.51  1.52  1.53  1.54
##  [56]  1.55  1.56  1.57  1.58  1.59  1.60  1.61  1.62  1.63  1.64  1.65
##  [67]  1.66  1.67  1.68  1.69  1.70  1.71  1.72  1.73  1.74  1.75  1.76
##  [78]  1.77  1.78  1.79  1.80  1.81  1.82  1.83  1.84  1.85  1.86  1.87
##  [89]  1.88  1.89  1.90  1.91  1.92  1.93  1.94  1.95  1.96  1.97  1.98
## [100]  1.99  2.00  2.01  2.02  2.03  2.04  2.05  2.06  2.07  2.08  2.09
## [111]  2.10  2.11  2.12  2.13  2.14  2.15  2.16  2.17  2.18  2.19  2.20
## [122]  2.21  2.22  2.23  2.24  2.25  2.26  2.27  2.28  2.29  2.30  2.31
## [133]  2.32  2.33  2.34  2.35  2.36  2.37  2.38  2.39  2.40  2.41  2.42
## [144]  2.43  2.44  2.45  2.46  2.47  2.48  2.49  2.50  2.51  2.52  2.53
## [155]  2.54  2.55  2.56  2.57  2.58  2.59  2.60  2.61  2.62  2.63  2.64
## [166]  2.65  2.66  2.67  2.68  2.69  2.70  2.71  2.72  2.73  2.74  2.75
## [177]  2.76  2.77  2.78  2.79  2.80  2.81  2.82  2.83  2.84  2.85  2.86
## [188]  2.87  2.88  2.89  2.90  2.91  2.92  2.93  2.94  2.95  2.96  2.97
## [199]  2.98  2.99  3.00  3.01  3.02  3.03  3.04  3.05  3.06  3.07  3.08
## [210]  3.09  3.10  3.11  3.12  3.13  3.14  3.15  3.16  3.17  3.18  3.19
## [221]  3.20  3.21  3.22  3.23  3.24  3.25  3.26  3.27  3.28  3.29  3.30
## [232]  3.31  3.32  3.33  3.34  3.35  3.36  3.37  3.38  3.39  3.40  3.41
## [243]  3.42  3.43  3.44  3.45  3.46  3.47  3.48  3.49  3.50  3.51  3.52
## [254]  3.53  3.54  3.55  3.56  3.57  3.58  3.59  3.60  3.61  3.62  3.63
## [265]  3.64  3.65  3.66  3.67  3.68  3.69  3.70  3.71  3.72  3.73  3.74
## [276]  3.75  3.76  3.77  3.78  3.79  3.80  3.81  3.82  3.83  3.84  3.85
## [287]  3.86  3.87  3.88  3.89  3.90  3.91  3.92  3.93  3.94  3.95  3.96
## [298]  3.97  3.98  3.99  4.00  4.01  4.02  4.03  4.04  4.05  4.06  4.07
## [309]  4.08  4.09  4.10  4.11  4.12  4.13  4.14  4.15  4.16  4.17  4.18
## [320]  4.19  4.20  4.21  4.22  4.23  4.24  4.25  4.26  4.27  4.28  4.29
## [331]  4.30  4.31  4.32  4.33  4.34  4.35  4.36  4.37  4.38  4.39  4.40
## [342]  4.41  4.42  4.43  4.44  4.45  4.46  4.47  4.48  4.49  4.50  4.51
## [353]  4.52  4.53  4.54  4.55  4.56  4.57  4.58  4.59  4.60  4.61  4.62
## [364]  4.63  4.64  4.65  4.66  4.67  4.68  4.69  4.70  4.71  4.72  4.73
## [375]  4.74  4.75  4.76  4.77  4.78  4.79  4.80  4.81  4.82  4.83  4.84
## [386]  4.85  4.86  4.87  4.88  4.89  4.90  4.91  4.92  4.93  4.94  4.95
## [397]  4.96  4.97  4.98  4.99  5.00  5.01  5.02  5.03  5.04  5.05  5.06
## [408]  5.07  5.08  5.09  5.10  5.11  5.12  5.13  5.14  5.15  5.16  5.17
## [419]  5.18  5.19  5.20  5.21  5.22  5.23  5.24  5.25  5.26  5.27  5.28
## [430]  5.29  5.30  5.31  5.32  5.33  5.34  5.35  5.36  5.37  5.38  5.39
## [441]  5.40  5.41  5.42  5.43  5.44  5.45  5.46  5.47  5.48  5.49  5.50
## [452]  5.51  5.52  5.53  5.54  5.55  5.56  5.57  5.58  5.59  5.60  5.61
## [463]  5.62  5.63  5.64  5.65  5.66  5.67  5.68  5.69  5.70  5.71  5.72
## [474]  5.73  5.74  5.75  5.76  5.77  5.78  5.79  5.80  5.81  5.82  5.83
## [485]  5.84  5.85  5.86  5.87  5.88  5.89  5.90  5.91  5.92  5.93  5.94
## [496]  5.95  5.96  5.97  5.98  5.99  6.00  6.01  6.02  6.03  6.04  6.05
## [507]  6.06  6.07  6.08  6.09  6.10  6.11  6.12  6.13  6.14  6.15  6.16
## [518]  6.17  6.18  6.19  6.20  6.21  6.22  6.23  6.24  6.25  6.26  6.27
## [529]  6.28  6.29  6.30  6.31  6.32  6.33  6.34  6.35  6.36  6.37  6.38
## [540]  6.39  6.40  6.41  6.42  6.43  6.44  6.45  6.46  6.47  6.48  6.49
## [551]  6.50  6.51  6.52  6.53  6.54  6.55  6.56  6.57  6.58  6.59  6.60
## [562]  6.61  6.62  6.63  6.64  6.65  6.66  6.67  6.68  6.69  6.70  6.71
## [573]  6.72  6.73  6.74  6.75  6.76  6.77  6.78  6.79  6.80  6.81  6.82
## [584]  6.83  6.84  6.85  6.86  6.87  6.88  6.89  6.90  6.91  6.92  6.93
## [595]  6.94  6.95  6.96  6.97  6.98  6.99  7.00  7.01  7.02  7.03  7.04
## [606]  7.05  7.06  7.07  7.08  7.09  7.10  7.11  7.12  7.13  7.14  7.15
## [617]  7.16  7.17  7.18  7.19  7.20  7.21  7.22  7.23  7.24  7.25  7.26
## [628]  7.27  7.28  7.29  7.30  7.31  7.32  7.33  7.34  7.35  7.36  7.37
## [639]  7.38  7.39  7.40  7.41  7.42  7.43  7.44  7.45  7.46  7.47  7.48
## [650]  7.49  7.50  7.51  7.52  7.53  7.54  7.55  7.56  7.57  7.58  7.59
## [661]  7.60  7.61  7.62  7.63  7.64  7.65  7.66  7.67  7.68  7.69  7.70
## [672]  7.71  7.72  7.73  7.74  7.75  7.76  7.77  7.78  7.79  7.80  7.81
## [683]  7.82  7.83  7.84  7.85  7.86  7.87  7.88  7.89  7.90  7.91  7.92
## [694]  7.93  7.94  7.95  7.96  7.97  7.98  7.99  8.00  8.01  8.02  8.03
## [705]  8.04  8.05  8.06  8.07  8.08  8.09  8.10  8.11  8.12  8.13  8.14
## [716]  8.15  8.16  8.17  8.18  8.19  8.20  8.21  8.22  8.23  8.24  8.25
## [727]  8.26  8.27  8.28  8.29  8.30  8.31  8.32  8.33  8.34  8.35  8.36
## [738]  8.37  8.38  8.39  8.40  8.41  8.42  8.43  8.44  8.45  8.46  8.47
## [749]  8.48  8.49  8.50  8.51  8.52  8.53  8.54  8.55  8.56  8.57  8.58
## [760]  8.59  8.60  8.61  8.62  8.63  8.64  8.65  8.66  8.67  8.68  8.69
## [771]  8.70  8.71  8.72  8.73  8.74  8.75  8.76  8.77  8.78  8.79  8.80
## [782]  8.81  8.82  8.83  8.84  8.85  8.86  8.87  8.88  8.89  8.90  8.91
## [793]  8.92  8.93  8.94  8.95  8.96  8.97  8.98  8.99  9.00  9.01  9.02
## [804]  9.03  9.04  9.05  9.06  9.07  9.08  9.09  9.10  9.11  9.12  9.13
## [815]  9.14  9.15  9.16  9.17  9.18  9.19  9.20  9.21  9.22  9.23  9.24
## [826]  9.25  9.26  9.27  9.28  9.29  9.30  9.31  9.32  9.33  9.34  9.35
## [837]  9.36  9.37  9.38  9.39  9.40  9.41  9.42  9.43  9.44  9.45  9.46
## [848]  9.47  9.48  9.49  9.50  9.51  9.52  9.53  9.54  9.55  9.56  9.57
## [859]  9.58  9.59  9.60  9.61  9.62  9.63  9.64  9.65  9.66  9.67  9.68
## [870]  9.69  9.70  9.71  9.72  9.73  9.74  9.75  9.76  9.77  9.78  9.79
## [881]  9.80  9.81  9.82  9.83  9.84  9.85  9.86  9.87  9.88  9.89  9.90
## [892]  9.91  9.92  9.93  9.94  9.95  9.96  9.97  9.98  9.99 10.00

Matrix

matrix1 = cbind(c(1,2,3,4),c(1,2,3,4),c(1,2,3,4))
matrix2 = rbind(c(1,2,3,4),c(1,2,3,4),c(1,2,3,4) )              
matrix1
##      [,1] [,2] [,3]
## [1,]    1    1    1
## [2,]    2    2    2
## [3,]    3    3    3
## [4,]    4    4    4
matrix2
##      [,1] [,2] [,3] [,4]
## [1,]    1    2    3    4
## [2,]    1    2    3    4
## [3,]    1    2    3    4
matrix(0,ncol=10,nrow=5)
##      [,1] [,2] [,3] [,4] [,5] [,6] [,7] [,8] [,9] [,10]
## [1,]    0    0    0    0    0    0    0    0    0     0
## [2,]    0    0    0    0    0    0    0    0    0     0
## [3,]    0    0    0    0    0    0    0    0    0     0
## [4,]    0    0    0    0    0    0    0    0    0     0
## [5,]    0    0    0    0    0    0    0    0    0     0

Indizierung

Vektor

vektor[4]
## [1] 5

Matrix

matrix1
##      [,1] [,2] [,3]
## [1,]    1    1    1
## [2,]    2    2    2
## [3,]    3    3    3
## [4,]    4    4    4
matrix1[1,3]
## [1] 1

Übung

  • Erstelle eine 10*10 Matrix zeilenweise gefüllt mit Zahlen von 1 bis 100.
  • Zeige den Wert in der 8. Zeile und 4. Spalte an.

Logik

3 == 3
## [1] TRUE
3 != 3
## [1] FALSE
4 > 3
## [1] TRUE
4 < 3
## [1] FALSE
0.1 == .3 / 3
## [1] FALSE
print(.3 / 3, digits=22)
## [1] 0.099999999999999992
round(.3/3,5) == round(.1, 5)
## [1] TRUE

Übung 1

Ein Datenvektor mit 100 ist Dateneinträgen von 100 Probanden gefüllt. Die ersten 50 Probanden gehören Gruppe 1 an, die zweiten 50 Probanden gehören Gruppe 2 an.

Verwenden Sie einen Logik Befehl, um nur die Daten von Gruppe 2 angezeigt zu bekommen.

Beispieldaten generieren.

x1 = rnorm(1000,mean = 100,sd = 15)
x2 = rep(c(1,2),each=500)

daten = cbind("IQ" = x1,"Gruppe" = x2)

head(daten)
##             IQ Gruppe
## [1,]  94.11329      1
## [2,]  94.96184      1
## [3,] 105.82825      1
## [4,] 111.47370      1
## [5,] 102.77505      1
## [6,] 120.81772      1
hist(daten[,1])

Auswahl

head(daten[daten[,2] == 2,])
##             IQ Gruppe
## [1,]  83.85559      2
## [2,] 107.17730      2
## [3,] 100.59053      2
## [4,] 108.33012      2
## [5,] 104.90432      2
## [6,] 113.11130      2

Übung 2

Zu welcher Gruppe gehören die Probanden mit einem IQ größer als 100?

Grundrechenarten

1+1
## [1] 2
3-4 
## [1] -1
1*2 
## [1] 2
4/3
## [1] 1.333333
3^2 
## [1] 9
log(9)
## [1] 2.197225
exp(3)
## [1] 20.08554

Deskriptive Statistisk

Mittelwert

mean(daten[,1])
## [1] 99.61534

Streuung

sd(daten[,1])
## [1] 15.2146

Maximum

max(daten[,1])
## [1] 150.723

Minimum

min(daten[,1])
## [1] 55.55091

Korrelation

einkommen = rnorm(1000)

cor(daten[,1],einkommen)
## [1] -0.009073263

Übung

Berechnen Sie den mittleren IQ und die Streuung der Probanden der Gruppe 1 und der Gruppe 2.

Rudimentäres plotten

plot(daten[,2],daten[,1],
     ylab = "IQ", 
     xlab = "Gruppe",
     xlim = c(0,3),
     ylim = c(0,200),
     pch =16)

plot(jitter(daten[,2]),daten[,1],
     ylab = "IQ", 
     xlab = "Gruppe",
     xlim = c(0,3),
     ylim = c(0,200),
     pch =16)

plot(jitter(daten[,2]),daten[,1],
     ylab = "IQ", 
     xlab = "Gruppe",
     xlim = c(0,3),
     ylim = c(0,200),
     pch =16,
     col = rgb(0,0,0,.1))

plot(jitter(daten[,2]),daten[,1],
     ylab = "IQ", 
     xlab = "Gruppe",
     xlim = c(0,3),
     ylim = c(0,200),
     pch =16,
     col = rgb(0,0,0,.1),
     axes =F)

axis(1, at = c(1,2),labels = c(1,2))
axis(2)

Boxplot

datenProGruppe = cbind(daten[daten[,2]==1,1],daten[daten[,2]==2,1])

head(datenProGruppe)
##           [,1]      [,2]
## [1,]  94.11329  83.85559
## [2,]  94.96184 107.17730
## [3,] 105.82825 100.59053
## [4,] 111.47370 108.33012
## [5,] 102.77505 104.90432
## [6,] 120.81772 113.11130
boxplot(datenProGruppe)

Übung

Plotten Sie den Zusammenhang zwischen IQ und Einkommen des Elternhauses.

Packages

Packages installieren und Libraries laden.

install.packages("Rcmdr")

library("Rcmdr")

Hilfedatei für Befehle aufrufen.

help(plot)

Short Reference Card

Der Signifikanztest als diagnostischer Prozess

\(\alpha\)-Fehler, \(\beta\)-Fehler, Hits und Correct Rejections

H0 gilt H1 gilt
\(p \geq .05\) (Test spricht für H0) Correct Rejections (abhängig von 1- \(\alpha\)) Misses (abhängig von \(\beta\))
\(p < .05\) (Test spricht gegen H0, also für H1) False Alarms (abhängig von \(\alpha\)) Hits (abhängig von \(1-\beta\))

Signifikanztest und Power

Demo Power

Übung

  1. Wie sieht die Verteilung der p-Werte aus, wenn die H0 gilt?
  2. Wie sieht die Verteilung der p-Werte aus, wenn H1 gilt (Cohen's d = .20) für \(n = 20, 30, 40, 50, \ldots, 150\)?

G*Power

Faul, F., Erdfelder, E., Lang, A. G., & Buchner, A. (2007). G\(^*\)Power 3: […]. BRM, 39, 175-191.

Minimale Meta-Analyse

library(metafor)

Beispiel mit 4 ausgedachten Studien.

correl_all = c(.7,.8,.7,.5)
n = c(40,50,100,20)

Korrelationen werden Fisher-z transformiert.

\[z = \frac{1}{2}\times ln\left(\frac{1+r}{1-r}\right)\]

zcorrel_all = escalc(measure="ZCOR",ri=correl_all,ni=n)

Die Fisher-z transformierten Werte werden gewichtet gemittelt.

\[\theta_w = \frac{\sum w_i \times \theta_i}{\sum{w_i}}\]

Die Gewichte basieren auf der Stichprobenvarianz \(v_i\) der Fisher-z Werte.

\[w_i = 1/v_i\]

Diese ergibt sich aus folgender Formel.

\[v_i = \frac{1}{n_i - 3}\]

Wenn man die letzten beiden Formeln in die erste Formel einsetzt, ergibt sich also.

\[\theta_w = \frac{\sum (n_i-3) \times \theta_i}{\sum (n_i-3)}\]

In R können wir den gewichteten gemittelten Fisher-z Wert mit Konfidenzintervallen automatisch berechnen.

FEmodel = rma(yi=yi,vi=vi,data=zcorrel_all,method="FE")
FEmodel
## 
## Fixed-Effects Model (k = 4)
## 
## Test for Heterogeneity: 
## Q(df = 3) = 4.0829, p-val = 0.2526
## 
## Model Results:
## 
## estimate      se     zval    pval   ci.lb   ci.ub     
##   0.8949  0.0711  12.5924  <.0001  0.7556  1.0342  ***
## 
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Ein Forest-Plot zeigt die einzelnen Effekstärken mit Konfidenintervallen und den gemittelten Effekten.

forest(FEmodel) 

Pearson Korrelationen sind intuitiver zu interpretieren. Die Fisher-z transformierten Korrelationen lassen sich wieder in Pearson Korrelationen zurücktransformieren.

predict(FEmodel, transf=transf.ztor) 
##    pred  ci.lb  ci.ub
##  0.7138 0.6385 0.7756

Es lässt sich auch automatisch ein Forest Plot für Korrelationen in R erstellen.

forest(FEmodel, transf=transf.ztor)

Ein Funnel-Plot wird bei Metaanalysen häufig erstellt. Er zeigt die Effektstärken im Verhältnis zu dem Standardfehler. Höhere Präzision bei der Messung (d.h., geringerer Standardfehler) sollte zu einer engeren Verteilung der beobachteten Effektstärken um den mittleren Effekt führen.

funnel(FEmodel)

Übung

Berechnen Sie für die metaanalytische Korrelation die Anzahl der benötigten Probanden für eine Power von 80%, 90% und 95%.

Risikoaversion und Fahrradhelme

Daten: https://osf.io/eky4s/

Gamble, T., & Walker, I. (2016). Wearing a bicycle helmet […] Psych Science, 27, 289-294.

Eckpunkte der Studie

  • uV: Mit Basebalkappe oder Fahrradhelm
  • aV: Riskikoneigung (Luftballonaufgabe mit 30 Durchgängen)

Teststatistik

T-test für unabhängige Stichproben

\[t = \frac{m_x - m_y}{s \times \sqrt{\frac{1}{n_x} + \frac{1}{n_y}}}\] Zentrale Annahmen

  1. Normalverteilte Daten
  2. Gleiche Varianzen innerhalb der Gruppen

Formalisierung Zentrale Annahmen

\[X_i = N(\mu_x,\sigma) \] \[Y_i = N(\mu_y,\sigma) \]

Freiheitsgrade

\[n_x + n_y - 2\]

Korrespondierender p-Wert

pt(2.5,38)
## [1] 0.9915733

Codebuch & Daten