Statystyka w psychologii 2 2404-P-2-SP-sj
1. Test t-Studenta dla powtarzanych pomiarów -- nomeklatura (czynnik zmienna zależna). Założenia testu, czyli jakie dane mogą być wykorzystane.
Statystyka testowa i jej postać. Jak uzyskiwana jest wartość statystyki testowej. Jakie jest rozkład statystyki testowej? Wielkość efektu d Cohena dla schematu dwóch grup zależnych.
2. Jednoczynnikowa analiza wariancji (ANOVA).
Nomenklatura (czynnik i zmienna zależna). Wymagania odnośnie danych (jakie warunki powinny spełniać, aby można było zastosować ANOVA). Test F (wykorzystywany w ANOVA). Statystyka testowa testu F. Co oznacza zmienność wewnątrz i międzygrupowa. Jak obliczana jest statystyka testowa. Jakie wartości wskazują na to, że czynnik różnicuje średnie zmiennej zależnej. Na podstawie jakiego rozkładu jest obliczana p-wartość (istotność statystyczna). Jak wygląda rozkład statystyki F-Snedecora. Stopnie swobody i co one oznaczają. Wielkość efektu w teście ANOVA, co oznacza, jaką informację podaje. Progi według Cohena. Kontynuacja analiz ANOVA – testy post-hoc. Wielkości efektu dla testów post-hoc.
3. Regresja liniowa prosta i wielokrotna.
Związki korelacji z analizą regresji. Różnica między nimi. Założenia modelu regresji – jakich zmiennych możemy użyć? Jaki związek powinien je łączyć?
Analiza regresji prostej (jednozmiennowej). Nomenklatura – regresja; zmienna zależna i zmienna niezależna; predyktor; zmienna wyjaśniana/objaśniana, zmienna objaśniajaca/wyjaśniająca; kombinacja liniowa; reszty regresji; notacja wartości przewidywanej. Na czym polega przewidywanie? Jak to zrobić, wykorzystując wzór regresji? Interpretacja współczynników regresji, standaryzowanych i niestandaryzowanych. Analiza regresji jako model statystyczny – założenia modelu, współczynniki regresji (interpretacja). Zapis wyników regresji zgodnie z APA. Diagnostyka modelu regresji - Co ma mieć rozkład normalny? Zmienna zależna, niezależna, coś innego? R kwadrat skorygowane, zmienność wyjaśniana, Testy istotności statystycznej współczynników regresji.
4. Eksploracyjna analiza czynnikowa
Nomenklatura. Co to są zmienne obserwowalne, a co to są zmienne ukryte? Metody ekstrakcji czynnika. Macierz korelacji i macierz sferyczna. Testowanie założeń: test Bartletta. Miara KMO. Wyznacznik macierzy korelacji - jaką liczbą może być wyznacznik macierzy? Co znaczy E w notacji pod tabelką macierzy korelacji? Wartości własne macierzy korelacji - jaką liczbą może być wartość własna? Wykres osypiska – budowa (co jest na osi poziomej a co na osi pionowej). Jak wygląda wykres osypiska, a jak nie może wyglądać? Kryteria określania liczby czynników (na podstawie procentu wyjaśnionej zmienności, kryterium Catella/wykresu osypiska i kryterium Kaisera). Rotacja - do czego służy różnica i jakie są rodzaje Ładunki czynnikowe i ładunki krzyżowe - ich interpretacja i wybór pozycji kwestionariusza do ostatecznej wersji.
5. Metody bootstrapowe.
Co to jest i do czego służy? Schemat losowania ze zwracaniem i bez zwracania. Liczba elementów w próbie bootstrapowej. Bootstrapowy przedział ufności dla średniej.
6. Analiza mocy - co to jest i do czego służy? Błąd I-go, II-go rodzaju, wielkość efektu i wielkość próby - relacje między nimi. Zależność mocy testu od wielkości efektu i wielkości próby. Klątwa zwycięzcy (winner's curse) i nadistotność statystyczna (overpowered studies) oraz ich konsekwencje dla literatury naukowej.
7. Historia testowania statystycznego - kim był Ronald Fisher? Kim był John Neyman (pol. Jerzy Neyman)? Jaki jest ich wkład w rozwój statystyki i jakie pojęcia są kojarzone z ich nazwiskami.
Całkowity nakład pracy studenta
Efekty uczenia się - wiedza
Efekty uczenia się - umiejętności
Efekty uczenia się - kompetencje społeczne
Rodzaj przedmiotu
Koordynatorzy przedmiotu
Kryteria oceniania
Warunki zaliczenia WYKŁADU:
- Egzamin pisemny (K_W04; K_W05, K_U04, K_U05, K_U11). Próg zaliczenia to 60% maksymalnej liczby punktów. Warunkiem do przystąpienia do egzaminu jest zaliczenie laboratoriów ze statystyki
Warunki zaliczenia LABORATORIÓW:
• Obecność na zajęciach: dozwolone są 2 nieobecności. Większa ich liczba oznacza brak zaliczenia zajęć w danym roku akademickim.
• Zaliczenie kolokwiów. Kolokwia będą składać się z zadań wymagających wykazania się umiejętnością posługiwania się narzędziami statystycznymi w pakiecie SPSS i interpretowania wyników analiz.
Ocena bardzo dobra nie zwalnia z obowiązku napisania egzaminu z wykładów.
• Ocen zaliczających kolokwium nie można poprawiać. Poprawka dotyczy jedynie oceny niedostatecznej. Z poprawy można otrzymać co najwyżej ocenę dostateczną (3).
Literatura
LITERATURA PODSTAWOWA
B
Bedyńska, S. i Cypryańska, M. (red.). (2012). Statystyczny drogowskaz 1. Praktyczne wprowadzenie do wnioskowania statystycznego. Warszawa: Wydawnictwo Akademickie Sedno Spółka z o.o.
Bedyńska, S. i Cypryańska, M. (red.). (2013). Statystyczny drogowskaz 2. Praktyczne wprowadzenie do analizy wariancji. Warszawa: Wydawnictwo Akademickie Sedno Spółka z o.o.
LITERATURA UZUPEŁNIAJĄCA
B
Brzeziński, J. (1997). Metodologia badań psychologicznych. Wydawnictwo Naukowe PWN.
C
Cohen, J. (1988). Statistical Power Analysis for the Behavioral Sciences (2nd ed.). Hillsdale, NJ Lawrence Erlbaum Associates, Publishers.
F
Ferguson G.A. i Takane Y. (1997). Analiza statystyczna w psychologii i pedagogice. Warszawa: PWN.
Francuz P., Mackiewicz R. (2005). Liczby nie wiedzą, skąd pochodzą. Lublin: Wydawnictwo KUL.
I
Ioannidis, J. P. A. (2005). Why Most Published Research Findings Are False. PLoS Medicine, 2(8), e124. DOI: https://doi.org/10.1371/journal.pmed.0020124.
J
Jarmakowska - Kostrzanowska, L., (2021). Istotnie statystyczna moc testu – analiza mocy i jej miejsce w przyborniku badacza oraz interpretacja (nie)istotności statystycznej przy małej (dużej) mocy testu. Przegląd Psychologiczny, 64(4), 83–99. https://doi.org/10.31648/pp.7359.
Jarmakowska-Kostrzanowska, L., Jarmakowski-Kostrzanowski, T. (2020). Bootstrap: inne spojrzenie na przedział ufności. W: M. Trojan, M. Gut (red.), Nowe technologie i metody w psychologii (s. 471–489). Warszawa: Liberi Libri. DOI: 10.47943/lib.9788363487430.rozdzial22
K
Kelley, K., Preacher, K. J. (2012). On effect size. Psychological Methods, 17(2), 137–152. https://doi.org/10.1037/a0028086
L
Lovakov, A., Agadullina, E. R. (2021). Empirically derived guidelines for effect size interpretation in social psychology. European Journal of Social Psychology, 51(3), 485–504. https://doi.org/10.1002/ejsp.2752
S
Student. (1908). The Probable Error of a Mean. Biometrika, 6(1), 1–25. https://doi.org/10.2307/2331554
W
Wasserstein, R., Lazar, N. (2016) The ASA Statement on p-Values: Context, Process, and Purpose, The American Statistician, 70:2, 129-133, DOI: 10.1080/00031305.2016.1154108
Wieczorkowska G., Wierzbiński, J. (2007 i późniejsze wydania). Statystyka. Analiza badań społecznych. Wydawnictwo Naukowe Scholar
Wilcoxon, F. (1945). Individual Comparisons by Ranking Methods. Biometrics Bulletin, 1(6), 80–83. https://doi.org/10.2307/3001968
Wolski, P. (2016) Istotność statystyczna I. Nieodrobiona lekcja. Rocznik Kognitywistyczny, 2016, Tom 9, p. 27-35.
Wolski, P. (2017). Istotność statystyczna III. Od rytuału do myślenia statystycznego. Rocznik Kognitywistyczny, 9(2016). DOI: https://doi.org/10.4467/20843895RK.16.007.6413.
statystykawpsychologii.blogspot.com
Więcej informacji
Dodatkowe informacje (np. o kalendarzu rejestracji, prowadzących zajęcia, lokalizacji i terminach zajęć) mogą być dostępne w serwisie USOSweb: