Analizy statystyczne

Wykonujemy profesjonalne analizy statystyczne z takich dziedzin nauki jak: medycyna, psychologia, pedagogika, socjologia, fizjoterapia, administracja, prawo, agronomia, biotechnologia, inżynieria rolnicza,entomologia, botanika leśna itp. Opracowanie wyników badań z naszą pomoca będzie znacznie łatwiejsze (zarówno tych prowadzonych na potrzeby rozpraw doktorskich, magisterskich, licencjackich, artykułów naukowych i innych).

  • z naszą pomocą stworzysz poprawne pytania hipotezy badawcze w tworzeniu pyth i hipotez,
  • tworzymy i konsultujemy narzędzia badawcze czyli np. kwestionariusze ankiety i wywiadu,
  • wprowadzamy dane z kwestionariuszy do programu statystycznego,
  • tworzymy tabele i wykresy z wynikami badań,
  • dobieramy odpowiednie metody analizy statystycznej,
  • przeprowadzamy badania statystyczne i interpretujemy wyniki.

Zapoznaj się z proponowanym zakresem usługi oraz informacjami o cenie.

W ramach obliczeń stosujemy różnorodne metody. Najczęściej mają one na celu sprawdzanie zależności oraz identyfikowanie różnic pomiędzy porównywanymi grupami; analizy prowadzimy m.in. w oparciu o test chi2, współczynniki korelacji, parametryczne i nieparametryczne testy służące porównywaniu grup (np. test t-studenta, Manna-Whitneya, Wilcoxona, ANOVA, Kruskala-Wallisa). Do badania wpływu wielu czynników stosujemy analizę regresji. O doborze odpowiedniego testu decydujemy po zapoznaniu się z bazą danych i założeniami badawczymi. W ramach opracowania przygotowujemy także informację o przesłankach, jakie zdecydowały o wyborze danego testu.

Główne metody analiz statystycznych

Dobór odpowiedniej metody analizy statystycznej zależy od wielu czynników. Pierwszym z nich jest charakter zmiennych, czyli – najprościej mówiąc – czy są one zmiennymi nominalnymi, porządkowymi, czy też ilościowymi (więcej o rodzaju zmiennych znajdziesz tutaj). Poniżej przedstawiamy informacje o najczęściej wykorzystywanych metodach analizy, w zależności od rodzaju zmiennych.

TESTY ZALEŻNOŚCI POMIĘDZY ZMIENNYMI JAKOŚCIOWYMI

Testy chi-kwadrat wykorzystuje się do sprawdzania, czy pomiędzy zmiennymi o charakterze jakościowym (czyli mierzonymi na skali nominalnej lub porządkowej) występuje istotna statystycznie zależność. Test ten zestawia ze sobą wartości dwóch zmiennych po to, aby sprawdzić, czy są one od siebie uzależnione. Przyjmuje się w nim hipotezę zerową mówiącą, iż zmienne nie są od siebie zależne. Hipoteza alternatywna zakłada występowanie zależności pomiędzy zmiennymi. Wynik istotny statystycznie (w zależności od przyjętego poziomu istotności; najczęściej p < 0,05) pozwala na odrzucenie hipotezy zerowej i stwierdzenie, że pomiędzy zmiennymi występuje istotna statystycznie zależność.

Aby jednak określić, na czym zależność ta polega, konieczna jest analiza tabeli krzyżowej, czyli tabeli, w której zestawione są ze sobą wyniki dotyczące obydwu pytań, np. płeć a stosunek do szczepień; w tabeli krzyżowej będziemy mieć dwie zmienne: płeć (kobieta/ mężczyzna) oraz stosunek do szczepień (pozytywny/ negatywny). Z tabeli będziemy mogli odczytać, ile kobiet deklarowało pozytywny, a ile negatywny stosunek do szczepień; takie same informacje będziemy mogli odczytać w odniesieniu do mężczyzn.

Dodatkowo dla pełniejszej interpretacji występującej zależności można się posłużyć współczynnikiem kontyngencji, przyjmującym wartości od 0 do 1, gdzie 0 oznacza brak związku pomiędzy zmiennymi, a 1 – bardzo silny związek. Wykorzystanie współczynnika pozwala więc na określenie siły związku pomiędzy zmiennymi. Dla uzyskania tych informacji można także posłużyć się takimi miarami jak phi (dla tabel 2x2) lub V-Cramera (dla tabel większych niż 2x2).

Odpowiednikami testu chi-kwadrat są: test chi-kwadrat z poprawką Yatesa (stosowany w przypadku tabel 2x2) oraz dokładny test Fishera (stosowany w sytuacji, gdy nie jest spełnione założenie o minimalnych liczebnościach oczekiwanych, konieczne do zastosowania testu chi-kwadrat).

TESTY RÓŻNIC POMIĘDZY PARAMI NIEZALEŻNYMI

Testy te wykorzystuje się, gdy chcemy sprawdzić, czy dwie porównywane ze sobą grupy (np. kobiety i mężczyźni, mieszkańcy wsi i mieszkańcy miast) różnią się między sobą pod względem jakiejś cechy mierzonej na skali ilościowej (np. miesięczne wynagrodzenie za pracę brutto). Najczęściej wykorzystywanym w tej sytuacji testem jest test t Studenta, w którym przyjmuje się hipotezę zerową zakładającą, że średnie w dwóch porównywanych grupach się nie różnią. Hipoteza alternatywna zakłada występowanie różnic pomiędzy średnimi. Wynik istotny statystycznie pozwala na odrzucenie hipotezy zerowej i stwierdzenie, że pomiędzy grupami występują istotne statystycznie różnice.

Stosowanie testu t Studenta nie zawsze jest jednak możliwe. Konieczne jest tu spełnienie kilku warunków:

  • zmienna zależna musi mieć charakter ilościowy,
  • rozkład zmiennej zależnej w grupach wyodrębnionych ze względu na poziomy zmiennej niezależnej powinien mieć charakter rozkładu normalnego,
  • wariancje w porównywanych grupach powinny być jednorodne,
  • porównywane grupy nie powinny różnić się znacznie pod względem liczby przypadków.

Test t Studenta wykazuje dość dużą odporność na niespełnienie powyższych założeń (za wyjątkiem założenia o ilościowym charakterze zmiennej zależnej), co oznacza, że w niektórych sytuacjach możliwe jest, aby analizy statystyczne zostały wykonane przy wykorzystaniu tego testu nawet jeśli nie wszystkie założenia zostały spełnione. Więcej na ten temat można znaleźć w literaturze, np. Drogowskaz statystyczny 1. Praktyczne wprowadzenie do wnioskowania statystycznego, S. Bedyńska, M. Cypryańska (red.).

W sytuacji, gdy wykorzystanie testu t Studenta dla par niezależnych nie jest możliwe, wykorzystuje się test U Manna-Whitney’a. Jest on testem nieparametrycznym. Hipoteza zerowa zakłada tu, iż pomiędzy medianami w porównywanych grupach nie ma różnic, a hipoteza alternatywna – że różnice te występują. Wynik testu jest obliczany na podstawie porangowania danych. Podobnie jak w teście t Studenta wynik istotny statystycznie oznacza, że pomiędzy grupami występują różnice (wynik ten pozwala na odrzucenie hipotezy zerowej).

Przykłady zastosowań testów do porównań pomiędzy parami niezależnymi:

  • sprawdzenie, czy nasilenie bólu kręgosłupa (na skali od 0 do 10) jest zróżnicowane pomiędzy pracownikami umysłowymi a fizycznymi,
  • sprawdzenie, czy poziom wiedzy na temat transplantologii (oceniany na skali od 0 d 100) u osób pracujących w zawodach medycznych jest wyższy niż u osób pracujących w pozostałych zawodach,
  • sprawdzenie czy czas hospitalizacji po porodzie jest zróżnicowany ze względu na rodzaj porodu.

TESTY RÓŻNIC POMIĘDZY WIĘCEJ NIŻ DWOMA GRUPAMI NIEZALEŻNYMI

W przypadku sprawdzania różnic pomiędzy więcej niż dwoma grupami w analizach wykorzystuje się najczęściej jednoczynnikową analizę wariancji ANOVA, w której przyjmuje się hipotezę zerową zakładającą, że średnie w porównywanych grupach się nie różnią. Hipoteza alternatywna zakłada występowanie różnic pomiędzy średnimi. Wynik istotny statystycznie pozwala na odrzucenie hipotezy zerowej i stwierdzenie, że pomiędzy grupami występują istotne statystycznie różnice. Wynik testu nie daje jednak informacji o tym, pomiędzy którymi grupami występują różnice istotne statystycznie. Aby to określić wykorzystuje się testy post hoc, najczęściej HSD Tukey’a.

Posługiwanie się jednoczynnikową analizą wariancji wymaga jednak spełnienia założeń dotyczących normalności rozkładu zmiennej objaśnianej w grupach wyodrębnionych ze względu na poziomy zmiennej objaśniającej oraz jednorodności wariancji.

W przypadku niespełnienia założeń stosowania jednoczynnikowej analizy wariancji wykorzystuje się test Kruskala-Wallisa. Przyjmuje się w nim hipotezę zerową zakładającą brak różnic pomiędzy medianami w porównywanych grupach. Hipoteza alternatywna z kolei zakłada występowanie różnic pomiędzy medianami. Wynik istotny statystycznie pozwala na odrzucenie hipotezy zerowej i stwierdzenie, że pomiędzy grupami występują istotne statystycznie różnice. Jako test post hoc pozwalający na sprawdzenie, pomiędzy którymi grupami występują te różnice najczęściej wykorzystuje się test Bonferroniego.

TESTY RÓŻNIC POMIĘDZY DWOMA POMIARAMI

Specyficzną sytuację stanowią analizy statystyczne, w których chcemy porównać dwa pomiary będące ze sobą w jakiś sposób powiązane. Mogą to być np.:

  • dwa pomiary dotyczące tej samej osoby, ale wykonywane w różnym czasie (np. nasilenie dolegliwości bólowych przed rehabilitacją i po serii zabiegów rehabilitacyjnych),
  • dwa pomiary prowadzone wśród różnych osób, ale dotyczące tego samego obiektu (np. ocena zachowania uczniów dokonywana przez nauczyciela i rodzica).

W takich sytuacjach analizy statystyczne prowadzi się w oparciu o testy dla prób zależnych: test t Studenta dla prób zależnych oraz test Wilcoxona dla prób zależnych.

Test t Studenta dla prób zależnych jest wykorzystywany do porównywania średnich pomiędzy dwoma pomiarami. W teście tym zakłada się hipotezę zerową mówiącą, iż średnie w obydwu pomiarach są równe; hipoteza alternatywna zakłada brak równości pomiędzy średnimi. Wynik istotny statystycznie (najczęściej p < 0,05 – w zależności od przyjętego poziomu istotności) oznacza, że można odrzucić hipotezę zerową i stwierdzić, że pomiędzy pomiarami występuje różnica. Charakter różnicy (ustalenie, w którym pomiarze wynik był wyższy) określa się na podstawie wartości średnich. Stosowanie testu t Studenta dla prób zależnych wymaga spełnienia założeń: zmienne zależne muszą mieć charakter ilościowy, a rozkład różnic pomiędzy pomiarami powinien mieć charakter rozkładu normalnego (co weryfikuje się najczęściej w oparciu o test Shapiro-Wilka)

Test znaków rangowych Wilcoxona dla prób zależnych jest nieparametrycznym odpowiednikiem testu t Studenta dla par zależnych. Test ten liczony jest w oparciu o różnicę rang pomiędzy pomiarami. Zakłada się w nim hipotezę zerową mówiącą, iż mediany w obydwu pomiarach są równe; hipoteza alternatywna zakłada brak równości pomiędzy medianami. Wynik istotny statystycznie (najczęściej p < 0,05 – w zależności od przyjętego poziomu istotności) oznacza, że można odrzucić hipotezę zerową i stwierdzić, że pomiędzy pomiarami występuje różnica. Charakter różnicy (ustalenie, w którym pomiarze wynik był wyższy) określa się na podstawie wartości median oraz analizy rang dodatnich i ujemnych. Test Wilcoxona stosuje się w szczególności w sytuacji, gdy nie jest spełnione założenie o normalności różnic pomiędzy pomiarami, co sprawdza się najczęściej w oparciu o test Shapiro-Wilka. Test ten można stosować także w przypadku zmiennych o charakterze porządkowym, co różni go od testu t Studenta wymagającego zmiennych o charakterze ilościowym.

MIARY ZWIĄZKU POMIĘDZY ZMIENNYMI ILOŚCIOWYMI

W sytuacji, gdy analizy statystyczne mają pozwolić sprawdzić, czy pomiędzy dwoma zmiennymi o charakterze ilościowym występuje związek, wykorzystuje się współczynniki korelacji: Pearsona i Spearmana. Pierwszy z nich stosowany jest w przypadku zmiennych, które mają rozkład normalny, drugi – w sytuacji gdy założenie o normalności rozkładu co najmniej jednej zmiennej nie jest spełnione. Normalność rozkładu sprawdza się najczęściej w oparciu o test Shapiro-Wilka. Współczynnik korelacji Spearmana można też stosować w przypadku zmiennych o charakterze porządkowym.

Niezależnie od tego, którym z ww. współczynników się posługujemy, przyjmuje się w nich takie same założenia. Hipoteza zerowa zakłada, że współczynnik korelacji wynosi 0, natomiast hipoteza alternatywna zakłada, że współczynnik korelacji jest różny od 0. Wynik istotny statystycznie (najczęściej p < 0,05, chyba że przyjmuje się w badaniu inny poziom istotności) oznacza, że można odrzucić hipotezę zerową i uznać, że zmienne są skorelowane.

Charakter związku określa się na podstawie wartości współczynnika korelacji. Przyjmuje on zawsze wartość z przedziału od -1 do 1. Ujemna wartość współczynnika oznacza, że zwiększanie wartości jednej zmiennej jest powiązane ze zmniejszaniem wartości drugiej zmiennej (np. im starsze osoby badane tym niższa ocena jakości życia). Dodatnia wartość współczynnika oznacza natomiast, że obydwie zmienne zachowują się podobnie (np. im starsze osoby badane tym większe nasilenie dolegliwości bólowych kręgosłupa).

O sile związku pomiędzy zmiennymi świadczy wartość współczynnika korelacji – im bliższa zeru, tym siła związku słabsza, natomiast im bliższa wartościom skrajnym (czyli w przypadku korelacji dodatniej 1, a korelacji ujemnej -1), tym związek silniejszy.

EKSPLORACYJNA ANALIZA CZYNNIKOWA

Eksploracyjna analiza czynnikowa jest szczególnie przydatna przy tworzeniu nowych kwestionariuszy. Pozwala na określenie struktury danych  i ustalenie, na ile i jakich podskal powinien dzielić się dany kwestionariusz. Eksploracyjną analizę czynnikową można też wykorzystać do redukcji liczby zmiennych. W sytuacji, gdy konstruujemy kwestionariusz badający jakieś zjawisko analizy statystyczne możemy prowadzić w oparciu o poszczególne pytania lub też w oparciu o czynniki utworzone za pomocą eksploracyjnej analizy czynnikowej. Zyskujemy w ten sposób mniejszą liczbę zmiennych, ale nie tracimy „wkładu” z poszczególnych pytań.

Eksploracyjną analizę czynnikową prowadzi się w kilku krokach:

  1. Określenie liczby czynników, czyli – inaczej mówiąc – ustalenie, na ile skal przeliczał się będzie wynik kwestionariusz. W kroku tym ustalamy, które twierdzenia wchodzące w skład całego kwestionariusza są ze sobą silnie powiązane. Najczęściej korzysta się tu z metody składowych głównych oraz analizy wykresu osypiska.
  2. Obliczanie ładunków czynnikowych. Krok ten ma na celu ustalenie, jak silnie dana pozycja skali (pytanie z kwestionariusza) jest nasycona danym czynnikiem. Stosuje się tu najczęściej metodę osi głównych oraz metodę największej wiarygodności. Co istotne, przy metodzie osi głównych nie jest konieczne, aby analizowane zmienne miały rozkład normalny
  3. Rotacja, mająca na celu jeszcze lepsze dopasowanie czynników do danych. Stosuje się tu rotacje ortogonalne (Varimax, Equamax, Quartimax) lub nieortogonalne – ukośne (Oblimin, Promax).

ANALIZA RZETELNOŚCI SKALI METODĄ ALFA CRONBACHA

Po co sprawdzać rzetelność stosowanych kwestionariuszy? Metoda Alfa Cronbacha pozwala sprawdzić, czy skala jaką się posługujemy w rzetelny sposób mierzy dane zjawisko. Pozwala określić, czy poszczególne stosowane pytania w spójny sposób oceniają daną kwestie. Najłatwiej będzie wyjaśnić to na przykładzie.

Załóżmy, że konstruujemy kwestionariusz służący do oceny motywacji do pracy. Posługujemy się w tym celu szeregiem pytań na skali od 1 do 5. Osoby badane są poproszone o odniesienie się do szeregu stwierdzeń przy pomocy tej właśnie skali, gdzie 1 oznacza całkowity brak zgody z danym stwierdzeniem, a 5 – całkowitą zgodę. Metoda Alfa Cronbacha pozwoli nam w takiej sytuacji ocenić, czy poszczególne pytania (stwierdzenia) są ze sobą spójne. Skoro każde z tych pytań ma oceniać tę samą kwestię (motywację do pracy) to powinno być tak, że wyniki poszczególnych pytań są ze sobą silnie skorelowane, a także że są skorelowane z wynikiem ogólnym. Metoda Alfa Cronbacha pozwala na uproszczenie tej procedury; dzięki niej uzyskujemy jeden wynik testu i chcąc ocenić rzetelność skali nie musimy analizować poszczególnych korelacji.

Statystyka Alfa Cronbacha przyjmuje wartości od 0 do 1 – im wyższy wynik tym wyższa rzetelność stosowanej skali. Najczęściej przyjmuje się, że wynik co najmniej 0,7 pozwala stwierdzić zadowalającą rzetelność skali.

Zastosowanie metody Alfa Cronbacha wymaga spełnienia kilku warunków:

  • analizowane zmienne muszą być mierzone na skali ilościowej;
  • poszczególne pytania muszą być mierzone na takiej samej skali (taki sam przedział odpowiedzi);
  • pytania muszą dotyczyć jednorodnej skali – zdarza się, że kwestionariusz obejmuje pytania dotyczące kilku skal (inaczej mówiąc: kwestionariusz daje kilka wyników dotyczących różnych obszarach); wówczas współczynnik Alfa Cronbacha należy obliczać oddzielne dla każdej z tych skal;
  • pytania odwrócone muszą zostać przed wykonaniem analizy zrekodowane (chodzi o sytuację, w której w kwestionariuszu mamy zarówno takie pytania, w których najwyższa ocena oznacza najwyższe nasilenie cechy, jak i pytania, w których najniższa ocena oznacza najwyższe nasilenie cechy – wyniki muszą zostać ujednolicone).

Interpretując wynik współczynnika Alfa Cronbacha trzeba jednak zdawać sobie sprawę z pewnych ograniczeń tej metody. Przede wszystkim – wynik jest silnie uzależniony od liczby pytań w kwestionariuszu. Oznacza to, że w sytuacji gdy posługujemy się kwestionariuszem bardzo rozbudowanym, z dużą liczbą pytań, to współczynnik będzie osiągał wyższą wartość niż gdybyśmy się posłużyli krótszym kwestionariuszem.  Wynik jest też silnie uzależniony od wielkości badanej próby – im większa badana, tym wartość współczynnika będzie wyższa.

Oprócz wartości współczynnika Alfa przy interpretacji wyniku warto posłużyć się dodatkowo wartościami Alfa po usunięciu danej pozycji. Jest to wartość Alfa, którą można by uzyskać, gdyby daną pozycję (któreś pytanie) usunąć ze skali. Można więc na tej podstawie zidentyfikować pozycje (pytania) negatywnie wpływające na rzetelność całej skali.

Powyższe opracowanie przygotowano na podstawie: Drogowskaz statystyczny 1. Praktyczne wprowadzenie do wnioskowania statystycznego, S. Bedyńska, M. Cypryańska (red.).

 

Tagi:

analizy statystyczne ceny

analizy statystyczne do prac magisterskich

badania społeczne

korekta prac magisterskich

usługi statystyczne