> Modules non standards > statsmodels > t-test et test de Fisher
t-test et test de Fisher
t-test :
- import statsmodels.stats.weightstats; comp = statsmodels.stats.weightstats.CompareMeans.from_data([2, 4, 5, 6], [10, 9, 5, 8, 11]); (t, p, df) = comp.ttest_ind()) : renvoie la statistique t, la p-value et le nombre de degrés de liberté.
- paramètres de ttest_ind :
- usevar = 'pooled' : suppose que les variances des 2 samples sont les mêmes (défaut), usevar = 'unequal' : suppose les variances différentes.
- alternative = 'two-sided' : test dans les sens (défaut), alternative = 'smaller' ou alternative = 'larger' : test d'un seul côté.
- on peut avoir un intervalle de confiance : (lower, upper) = comp.tconfint_diff(alpha = 0.02, usevar = 'unequal'). Paramètres :
- uservar = 'pooled' : suppose que les variances des 2 samples sont les mêmes (défaut), uservar = 'unequal' : suppose les variances différentes.
- alpha = 0.01 : niveau de confiance (défaut est 0.05)
- comp.summary(alpha = 0.02, usevar = 'unequal') : renvoie une SimpleTable.
Test de Fisher exact :
- import scipy.stats
- (oddsratio, pvalue) = scipy.stats.fisher_exact([[1, 99], [8, 92]]) : on donne le tableau de contingence.
- on peut rajouter le paramètre alternative = "less" (ou greater). Le défaut est "two-sided".
Copyright python-simple.com
programmer en python, tutoriel python, graphes en python, Aymeric Duclert