In [1]:
# 確率と統計
In [1]:
# Import basic modules
import numpy as np
import scipy as sp
import pandas as pd
from pandas import Series, DataFrame

# import modules for visualization
%matplotlib inline
import matplotlib.pyplot as plt
import matplotlib as mpl
import seaborn as sns # Samuel Norman Seaborn

# show
%precision 3

# To fix random seed
np.random.seed(0)
In [6]:
# サイコロの目 = 全ての可能な根元事象を集めた標本空間S
s = [1, 2, 3, 4, 5, 6]
dice_value = np.array(s)

# サイコロの目リストから1回抽出する = 試行 
np.random.choice(dice_value) # 5 ( 試行結果 = 根元事象,基本事象と呼ぶ )

# 複数回の試行も引数を与えることで可能
np.random.choice(dice_value, 2) # array([1, 4])
np.random.choice(dice_value, 3) # array([4, 6, 3])

# 任意の部分集合を事象Xと呼ぶ
Out[6]:
array([4, 4, 4])
In [26]:
"""

確率P(X) = 事象Xが起こる場合の数 / 起こりうる全ての場合の数

空事象Φ
    P(7) = 0
    
余事象Ec
    E  = {1, 2, 3} のとき
    Ec = {4, 5, 6}
    
積事象 A∩B  キャップ
    A = {1, 2, 3}
    B = {1, 3, 4, 5} のとき
    
   A∩B = {1, 3}  
   

和事象 A∪B  カップ

 A∪B = {1,2,3,4,5}
 
"""
Out[26]:
'\n\n確率P(X) = 事象Xが起こる場合の数 / 起こりうる全ての場合の数\n\n空事象Φ\n    P(7) = 0\n    \n余事象Ec\n    E  = {1, 2, 3} のとき\n    Ec = {4, 5, 6}\n    \n積事象 A∩B  キャップ\n    A = {1, 2, 3}\n    B = {1, 3, 4, 5} のとき\n    \n   A∩B = {1, 3}  \n   \n\n和事象 A∪B  カップ\n\n A∪B = {1,2,3,4,5}\n \n'
In [37]:
# 統計的確率
"""サイコロをn回振る
根元事象が本当に1/6になっているか確認する
"""

# 1000回試行する
shikou = np.random.choice(dice_value, 1000)

# 1が出る回数を数える
bool_li = shikou == 1        # bool型のリストが得られる
kakuritu = bool_li.sum() / len(bool_li) # Trueの数 / 試行回数の数
print(kakuritu)
0.163
In [44]:
# 上記確率算出式から全根元事象について調べる
for i in range(1,7):
    bool_li = shikou == i                   # bool型のリストが得られる
    kakuritu = bool_li.sum() / len(bool_li) # Trueの数 / 試行回数の数
    print("dice : ", i, ", probability:", kakuritu)
dice :  1 , probability: 0.163
dice :  2 , probability: 0.157
dice :  3 , probability: 0.165
dice :  4 , probability: 0.184
dice :  5 , probability: 0.162
dice :  6 , probability: 0.169
In [46]:
# 条件付き確率と乗法定理
"""
事象Aが生じた条件のもとで事象Bが生じる確率 = 「Aが与えられたもとでのBの条件付き確率」 と呼ぶ

P(B|A) = P(A∩B) / P(A)

変形させると乗法定理というものになる。

P(A∩B) = P(B|A) x P(A)
"""
Out[46]:
'\n事象Aが生じた条件のもとで事象Bが生じる確率 = 「Aが与えられたもとでのBの条件付き確率」\u3000と呼ぶ\n\nP(B|A) = P(A∩B) / P(A)\n\n変形させると乗法定理というものになる。\n\nP(A∩B) = P(B|A) x P(A)\n'
In [47]:
"""
例)サイコロを1回振って偶数が出た。その時 4以上である確率は?
A = {2,4,6} # 偶数である条件
B = {4,5,6} # そのとき 4以上である場合の部分集合

条件付き確率を使うと
P(B|A) = P(A∩B) / P(A)
       = P({4,6}) / P({2,4,6})
       = (2/6) / (3/6)
       = 2/3
"""
Out[47]:
'\n例)サイコロを1回振って偶数が出た。その時\u30004以上である確率は?\nA = {2,4,6} # 偶数である条件\nB = {4,5,6} # そのとき\u30004以上である場合の部分集合\n\n条件付き確率を使うと\nP(B|A) = P(A∩B) / P(A)\n       = P({4,6}) / P({2,4,6})\n       = (2/6) / (3/6)\n       = 2/3\n'
In [48]:
"""
独立と従属
独立の場合はAという条件が付いても付かなくても同じ確率のはず

P(B|A) = P(B) ---(1)

また条件付き確率の式を使うと
P(B|A) = P(A∩B) / P(A) より
P(A∩B) = P(B|A) x P(A) 

これに(1)を代入すると
P(A∩B) = P(B)   x P(A) のはず


イコールでないとき 独立ではなく従属ということになる

例えば

左辺 = P(A∩B) = P({4,6}) = 2/6

右辺 = P(B) x P(A) =3/6 x 3/6 
 
 よって イコールにはならないのでAとBは従属関係であることがわかる。

"""
Out[48]:
'\n独立と従属\n独立の場合はAという条件が付いても付かなくても同じ確率のはず\n\nP(B|A) = P(B) ---(1)\n\nまた条件付き確率の式を使うと\nP(B|A) = P(A∩B) / P(A) より\nP(A∩B) = P(B|A) x P(A) \n\nこれに(1)を代入すると\nP(A∩B) = P(B)   x P(A)\u3000のはず\n\n\nイコールでないとき 独立ではなく従属ということになる\n\n例えば\n\n左辺 = P(A∩B) = P({4,6}) = 2/6\n\n右辺 = P(B) x P(A) =3/6 x 3/6 \n \n よって イコールにはならないのでAとBは従属関係であることがわかる。\n\n'
In [49]:
"""
ベイズの定理

A:結果の事象     
B:その原因の事象

P(B):Aが起きる前の確率(事前確率)
P(B|A): Aが起きたあとの事後Bの確率(事後確率)
P(A|B):Aが観測されたときにBが原因であるだろう確率(尤度)




P(B|A) = P(A|B) P(B) / [ P(A|B) P(B) + P(A|Bc) P(Bc) ]
"""
Out[49]:
'\nベイズの定理\n\nA:結果の事象     \nB:その原因の事象\n\nP(B):Aが起きる前の確率(事前確率)\nP(B|A): Aが起きたあとの事後Bの確率(事後確率)\nP(A|B):Aが観測されたときにBが原因であるだろう確率(尤度)\n\n\n\n\nP(B|A) = P(A|B) P(B) / [ P(A|B) P(B) + P(A|Bc) P(Bc) ]\n'
In [50]:
"""練習問題"""
Out[50]:
'練習問題'
In [51]:
"""確率変数と確率分布
用語:確率変数 実現値 離散確率変数 連続確率変数

分布関数 F(x)(累積確率分布関数)

密度関数 f(x)=F(x)/dx(確率密度関数):分布関数の導関数

期待値 E(x)(平均): Σ[x f(x)]
"""
Out[51]:
'確率変数と確率分布\n用語:確率変数\u3000実現値\u3000離散確率変数\u3000連続確率変数\n\n分布関数 F(x)(累積確率分布関数)\n\n密度関数 f(x)=F(x)/dx(確率密度関数):分布関数の導関数\n\n期待値 E(x)(平均): Σ[x f(x)]\n'
In [67]:
# 一様分布
# サイコロを1000回振る
dice = np.array([1, 2, 3, 4, 5, 6])
choice = np.random.choice(dice, 1000)

# iが出る確率を計算する

kakuritu_li = []

for i in range(1,7):
    bool_li = choice == i
    kakuritu = bool_li.sum() / len(bool_li)
    kakuritu_li.append(kakuritu)

# 確率を可視化する
plt.bar(dice, kakuritu_li)
plt.ylabel('probability')
Out[67]:
Text(0,0.5,'probability')
In [80]:
# ベルヌーイ分布
# コインを投げたとき tail = 0 , head = 1 とする
# 結果が[0,0,0,0,0,,1,1,1]のときの確率分布(headとtail)

coin_result = np.array([0, 0, 0, 0, 0, 1, 1, 1])
coin_unique = np.unique(coin_result) # np.array([0,1])と定義することと同じ

prob_li =[]
for i in coin_unique:
    prob = sum(coin_result == i) / len(coin_result)
    print(i, prob)
    prob_li.append(prob)
    
print(prob_li)
# 可視化する
plt.bar(coin_unique, prob_li)
plt.xticks([0,1], ['tail', 'head'])
0 0.625
1 0.375
[0.625, 0.375]
Out[80]:
([<matplotlib.axis.XTick at 0x249fc53fb70>,
  <matplotlib.axis.XTick at 0x249fc53f4a8>],
 <a list of 2 Text xticklabel objects>)
In [94]:
# 二項分布 = 独立なベルヌーイ試行をn回繰り返したもの

# 二項分布をランダムに生成
x = np.random.binomial(10, 0.5, 10000)

plt.hist(x)
Out[94]:
(array([  13.,   90.,  420., 1209., 2066., 2460., 2062., 1152.,  427.,
         101.]),
 array([ 0.,  1.,  2.,  3.,  4.,  5.,  6.,  7.,  8.,  9., 10.]),
 <a list of 10 Patch objects>)
In [95]:
# ポアソン分布 = 稀な事象が起きる確率

x = np.random.poisson(10, 10000)
plt.hist(x)
Out[95]:
(array([9.800e+01, 5.750e+02, 2.657e+03, 2.467e+03, 2.818e+03, 9.030e+02,
        4.120e+02, 5.300e+01, 1.600e+01, 1.000e+00]),
 array([ 1. ,  3.5,  6. ,  8.5, 11. , 13.5, 16. , 18.5, 21. , 23.5, 26. ]),
 <a list of 10 Patch objects>)
In [98]:
# 正規分布

x = np.random.normal(5, 10, 10000) # 平均 標準偏差 サンプル数
plt.hist(x)
Out[98]:
(array([  32.,  141.,  556., 1491., 2589., 2584., 1707.,  717.,  162.,
          21.]),
 array([-30.573, -23.556, -16.54 ,  -9.523,  -2.506,   4.51 ,  11.527,
         18.543,  25.56 ,  32.576,  39.593]),
 <a list of 10 Patch objects>)
In [102]:
# 対数正規分布

x = np.random.lognormal(5, 0.1, 10000)
plt.hist(x)
Out[102]:
(array([  29.,  392., 1538., 2883., 2826., 1580.,  570.,  148.,   27.,
           7.]),
 array([101.279, 112.987, 124.695, 136.403, 148.112, 159.82 , 171.528,
        183.236, 194.944, 206.652, 218.36 ]),
 <a list of 10 Patch objects>)
In [120]:
# カーネル密度関数 = データから密度関数を推定する

import requests
import zipfile
from io import StringIO
import io

# データをurlからダウンロードする
url = 'http://archive.ics.uci.edu/ml/machine-learning-databases/00356/student.zip'
r = requests.get(url, stream=True)
z = zipfile.ZipFile(io.BytesIO(r.content))
z.extractall()
In [121]:
# データセットを読み込む
data_set = pd.read_csv('student-mat.csv', sep=';')
In [127]:
# カーネル密度関数
data_set.absences.plot(kind='kde', style='k--')
data_set.absences.hist(density=True)
plt.grid(True)
In [128]:
# 多次元確率分布
"""
用語:同時確率関数 周辺確率関数
条件付き確率関数 条件付き期待値
"""
Out[128]:
'\n用語:同時確率関数\u3000周辺確率関数\n条件付き確率関数\u3000条件付き期待値\n'
In [146]:
# 2次元の正規分布
import scipy.stats as st
from scipy.stats import multivariate_normal
from mpl_toolkits.mplot3d import Axes3D

# データの設定
x, y = np.mgrid[-100:100:2, -100:100:2]
pos = np.empty(x.shape+(2,))

pos[:, :, 0] = x
pos[:, :, 1] = y
In [159]:
# x  y の平均が 0,0 共分散が 100,0  および 0,100
rv = multivariate_normal([0,0], [[100,0], [0,100]])

# 確率密度関数
z = rv.pdf(pos)

# 可視化
fig = plt.figure(dpi=100)

ax = Axes3D(fig)
ax.plot_wireframe(x,y,z)
ax.set_xlabel('x')
ax.set_ylabel('y')
ax.set_zlabel('f(x,y)')

# 指数表記にする
ax.ticklabel_format(style='sci', axis='z', scilimits=(0,0))
In [1]:
# 推計統計学
"""
用語:大数の法則 中心極限定理
カイ2乗分布 スチューデントt分布 F分布
"""
Out[1]:
'\n用語:大数の法則\u3000中心極限定理\nカイ2乗分布\u3000スチューデントt分布\u3000F分布\n'
In [39]:
# 大数の法則
# サイコロを何回も振って平均値を出していくと期待値に近づいていく法則

def law():
    dice = np.array([1, 2, 3, 4, 5, 6])

    # 1000回試行する

    result_li = [] # 出た目を格納するリスト
    average_li = [] # 平均を格納するリスト
    for i in range(10000):
        result_li.append(np.random.choice(dice))
        average = sum(result_li) / len(result_li) # 平均を算出する
        average_li.append(average)

    # 可視化
    plt.plot(average_li)
    plt.grid(True)

# 4回繰り返す
for shikou in range(4):
    law()
In [41]:
# 別の方法 こっちのほうがリストのappendよりも高速
dice = np.array([1, 2, 3, 4, 5, 6])
shikou = np.arange(1,10001) # 1 から1000のリストを作成する。

for shikou_kaisuu in range(4):
    choice = np.random.choice(dice, 10000) # dice から 1000回抽出する

    # choiceを累積する
    choice_cumsum = choice.cumsum()

    # choice_cumsumを試行回数で除算して 平均を算出する
    average = choice_cumsum / shikou
    
    plt.plot(average)
    plt.grid(True)
In [84]:
# 中心値 極限定理
"""
サイコロを振る回数が増えると標本平均が正規分布の形になる定理
"""
dice = np.array([1, 2, 3, 4, 5, 6])
average_li = []

def shikou(n=3):# 引数 サイコロを振る回数(1セット)
    
    # サイコロをn回振る
    choice = np.random.choice(dice, n)

    # 平均を算出する
    average = choice.sum() / n
    #print(average)
    average_li.append(average)

# 1セットを何回も試行する
for cnt in range(10000):
    shikou(3)
    
# 可視化 ヒストグラム

plt.figure(figsize=(10,5))
plt.subplot(1,3,1)
plt.hist(average_li,bins=20, range = (0, 8))

# shikou回数を変えてみる 
for cnt in range(10000):
    shikou(10)

plt.subplot(1,3,2)
plt.hist(average_li,bins=20, range = (0, 8))

# shikou回数を変えてみる 
for cnt in range(10000):
    shikou(100)

plt.subplot(1,3,3)
plt.hist(average_li,bins=20, range = (0, 8))
Out[84]:
(array([    0.,     0.,    36.,   130.,   301.,  1398.,  1844.,  2964.,
        10719.,  6802.,  3670.,  1187.,   496.,   269.,   139.,    45.,
            0.,     0.,     0.,     0.]),
 array([0. , 0.4, 0.8, 1.2, 1.6, 2. , 2.4, 2.8, 3.2, 3.6, 4. , 4.4, 4.8,
        5.2, 5.6, 6. , 6.4, 6.8, 7.2, 7.6, 8. ]),
 <a list of 20 Patch objects>)
In [105]:
# カイ2乗分布
"""
Zi : 標準正規分布(平均=0 σ=1)に従う確率変数

その2乗和を確率変数W W = Σ(Zi)^2  , i=1 to m とすると
これを自由度mのカイ事情分布に従う確率変数Wと呼ぶ

自由度nのカイ2乗分布
"""

def cisquare(m): # m = 自由度
    x = np.random.chisquare(m, 1000)
    return x

plt.hist(cisquare(5), color='blue')
plt.hist(cisquare(10), color='yellow')   
plt.hist(cisquare(100), color='red') 
Out[105]:
(array([  3.,  22., 101., 240., 278., 208.,  93.,  39.,  12.,   4.]),
 array([ 55.653,  65.483,  75.312,  85.141,  94.97 , 104.8  , 114.629,
        124.458, 134.287, 144.116, 153.946]),
 <a list of 10 Patch objects>)
In [108]:
# スチューデントのt分布
"""
ZとWは独立な確率変数

Z:標準正規分布に従う
W:自由度mのカイ2乗分布に従う

とする


t分布 T=Z/sqrt(W/m)
"""

x = np.random.standard_t(5, 1000)
plt.hist(x)
Out[108]:
(array([  1.,   0.,   2.,   5.,  24., 160., 529., 233.,  38.,   8.]),
 array([-11.012,  -9.357,  -7.701,  -6.046,  -4.39 ,  -2.734,  -1.079,
          0.577,   2.232,   3.888,   5.544]),
 <a list of 10 Patch objects>)
In [122]:
# スネディッカーのF分布
"""
W1:独立な確率変数, 自由度m1のカイ2乗分布に従う
W2:独立な確率変数, 自由度m2のカイ2乗分布に従う
    
F=(W1/m2)/(W2/m1)

とおいたとき、Fは自由度(m1,m2)のスネディッカーのF分布に従うという。
"""
plt.figure(figsize=(10,5))

#plt.subplot(1,2,1)
x = np.random.f(10, 10, 10000)
plt.hist(x, bins=10)
plt.grid(True)

#plt.subplot(1,2,2)
x = np.random.f(50, 50, 10000)
plt.hist(x, bins=10)
plt.grid(True)
In [123]:
#統計的推定
"""
用語:推定量 点推定
不偏性 一致性

"""
Out[123]:
'\n用語:推定量\u3000点推定\n不偏性\u3000一致性\n\n\n'
In [124]:
"""
Xi:標本

標本平均: X_bar = (1/n)ΣXi

推定量:これを一般化すると確率変数の関数として記述できる

    X_bar = T(X1,X2,...., Xn)

点推定:標本に基づいて母数を1点のパラメータとして言い当てること

不偏性 一致性:パラメータをより正確に推定できるかどうかの判断基準

推定量の期待値が母数θと一致するとき不偏性があるという・
E[T(X1,X2,Xn)] = θ

一致性:θの推定値E[T(X1,X2,Xn)]が観測個数nが大きくなるにつれてθに近づく性質

lim P[|T(X1,X2,Xn)-θ|>=ε] = 0

"""
Out[124]:
'\nXi:標本\n\n標本平均: X_bar = (1/n)ΣXi\n\n推定量:これを一般化すると確率変数の関数として記述できる\n\n    X_bar = T(X1,X2,...., Xn)\n\n点推定:標本に基づいて母数を1点のパラメータとして言い当てること\n\n不偏性\u3000一致性:パラメータをより正確に推定できるかどうかの判断基準\n\n推定量の期待値が母数θと一致するとき不偏性があるという・\nE[T(X1,X2,Xn)] = θ\n\n一致性:θの推定値E[T(X1,X2,Xn)]が観測個数nが大きくなるにつれてθに近づく性質\n\nlin P[|T(X1,X2,Xn)-θ|>=ε] = 0\n\n'
In [125]:
"""
区間推定

    点推定では母数を1点で求めた
    →区間推定はある程度の区間をもたせて母数を推定するもの
    
    【説明】
    平均がμ 分散が1の正規分布N(μ,1)から標本X1,X2,...,Xn が抽出されたとします。
    この標本から母平均μを区間推定してみます。
    
    標本平均X_bar は 平均μ分散1/nの正規分布N(μ,1/n)に従う ###なんで1/nなのか?
    
    ※標本のn数が多いほど分散(1/n)が小さくなるので、精度を上げるためにはn数はたくさん集めること。
    
    α点:区間推定のしきい値?
    Zα/2:正規分布のα点をこう書くらしい α/2はただの添字

    P(-Zα/2 =< sqrt(n)(X_bar-μ) =< Zα/2) = 1-α

  書き換えると
    P(-Zα/2/sqrt(n) -X_bar =< (-μ) =< Zα/2/sqrt(n) -X_bar)  = 1-α
    P(+Zα/2/sqrt(n) +X_bar => (+μ) => -Zα/2/sqrt(n) +X_bar) = 1-α
    よって
    P(X_bar - Zα/2/sqrt(n) =<   μ  =< X_bar + Zα/2/sqrt(n)) = 1-α
    
    
信頼区間:上記範囲[X_bar - Zα/2/sqrt(n), X_bar + Zα/2/sqrt(n)] のこと


信頼係数:上記右辺 1-α のこと 信頼区間に母数(母平均)が入っている確率のこと

【以下はあまり使わないので必要なときに再度学ぶこととする。
最尤法
尤度関数
対数尤度関数
尤度方程式
尤度推定量
ベイズ法

"""
Out[125]:
'\n区間推定\n新楽区間\n信頼係数\n\n\n最尤法\n尤度関数\n対数尤度関数\n尤度方程式\n尤度推定量\nベイズ法\n\n'
In [2]:
"""
#統計的検定

#検定
#対立仮説
#棄却
#有意水準
#優位

#第一種の過誤
#第二種の過誤

#検出力

"""
Out[2]:
'\n#$#統計的検定\n\n#検定\n#対立仮説\n#棄却\n#有意水準\n#優位\n\n#第一種の過誤\n#第二種の過誤\n\n#検出力\n\n'
In [12]:
# データを読み込む
data_math = pd.read_csv('student-mat.csv', sep=';')
data_por  = pd.read_csv('student-por.csv', sep=';')

# データをマージする
data_merge = pd.merge(data_math, data_por,
                      on=['school', 'sex', 'age', 'address', 'famsize', 'Pstatus', 'Medu', 'Fedu',
                          'Mjob', 'Fjob', 'reason', 'nursery', 'internet']
                      , suffixes=('_math', '_por'))

data_merge.head(3)
Out[12]:
school sex age address famsize Pstatus Medu Fedu Mjob Fjob ... famrel_por freetime_por goout_por Dalc_por Walc_por health_por absences_por G1_por G2_por G3_por
0 GP F 18 U GT3 A 4 4 at_home teacher ... 4 3 4 1 1 3 4 0 11 11
1 GP F 17 U GT3 T 1 1 at_home other ... 5 3 3 1 1 3 2 9 11 11
2 GP F 15 U LE3 T 1 1 at_home other ... 4 3 2 2 3 3 6 12 13 12

3 rows × 53 columns

In [17]:
# 平均を算出する
data_merge.keys()
print(data_merge.G1_math.mean())
print(data_merge.G1_por.mean())
10.861256544502618
12.112565445026178
In [21]:
#数学のほうが悪いように見えるが 本当にそうなのか?
#検定してみる
"""
帰無仮説H0:正しいか検討する仮説のこと。
      (最終的に否定したい事柄をこれにする)
       今回は母集団において平均に差がない、を帰無仮説としておく。
          (否定して、差があると言いたい)

             μmath = μpor 
             


対立仮説H1:帰無仮説H0の否定

             μmath ≠ μpor
             
ここで、帰無仮説H0 μmath = μpor が起こる確率が5%未満になるなら
この帰無仮説H0は棄却されるという。

そして、対立仮説H1が採択され、平均に差があるとみなされる。

このときの5%は有意水準と呼ばれる。α=5% と書く
帰無仮説H0が正しい場合に、誤って帰無仮説H0を棄却してしまう確率P(reject|H0)のこと

p-value(p値)(有意確率):
    偶然 実際に反した数値が統計量として計算されてしまう確率。
    例えばp値=0.002だった場合。帰無仮説H0が正しいなら今回起こったことは0.002の確率しか起きない現象ということ。
    そんな低い確率が簡単に発生するとは考えにくいので、
    そもそも帰無仮説H0は正しくない、という主張。
    

"""
# p値を算出する。
from scipy import stats
t, p = stats.ttest_rel(data_merge.G1_math, data_merge.G1_por)
print(p)
1.653655521710079e-16
In [19]:
#第一種の過誤
"""
有意水準5%で帰無仮説H0が棄却されたとする。
しかし、もしかすると帰無仮説H0が正しかった場合もあり得る。
帰無仮説H0が正しかったにも関わらず棄却してしまうことを第一種の過誤という。

「正しいのに間違っていると言ってしまう」マチガイ
→偽陰性:α
 あわてものマチガイ(疑い深く結論を急いでいるから)

信頼係数:( 1-α ) 帰無仮説が正しいときに正しく採択できる確率を表す
"""

#第二種の過誤
"""
逆に、帰無仮説が

「間違っているのに正しいと言ってしまう」マチガイ
→第一種の過誤
 偽陽性:β
 ぼんやりもののマチガイ(見過ごしてしまっているから)
 
 検出力:(1-β) 帰無仮説が間違っているときに正しく棄却できる確率を表す
 
"""
Out[19]:
-8.633
In [41]:
# 練習問題 4-13
"""
data_math と data_por のキーG2について、平均に差があるか調べる。

帰無仮説H0:data_math.G2_math.mean() = data_math.G2_por.mearn()

有意確率p-valueを算出し、0.05以下であれば帰無仮説H0を棄却し平均に差があると判断する。

"""
from scipy import stats

# データを読み込む
data_math = pd.read_csv('student-mat.csv', sep=';')
data_por  = pd.read_csv('student-por.csv', sep=';')

# データをマージする
data_merge = pd.merge(data_math, data_por,
                      on=['school', 'sex', 'age', 'address', 'famsize', 'Pstatus', 'Medu', 'Fedu',
                          'Mjob', 'Fjob', 'reason', 'nursery', 'internet']
                      , suffixes=('_math', '_por'))
data_merge.head(3)
#print(data_merge.keys())

# 有意確率p-valueを算出する
t, p = stats.ttest_rel(data_merge.G2_math, data_merge.G2_por)
print('data_merge.G2_math.mean() : ', data_merge.G2_math.mean())
print('data_merge.G2_por.mean() : ', data_merge.G2_por.mean())
print("p-value : ", p)

"""
「帰無仮説H0:平均値には差がない」有意確率p-value=4e-19であり、
有意差1%にも満たず極めて起こり得ないことである。

よって、「帰無仮説H0:平均値には差がない」を棄却し、
「平均値には差がある」と判断する。
"""
data_merge.G2_math.mean() :  10.712041884816754
data_merge.G2_por.mean() :  12.238219895287958
p-value :  4.0622824801348043e-19
Out[41]:
'\n\n'
In [42]:
# キーG3についても調べてみる
t, p = stats.ttest_rel(data_merge.G3_math, data_merge.G3_por)
print('data_merge.G3_math.mean() : ', data_merge.G3_math.mean())
print('data_merge.G3_por.mean() : ', data_merge.G3_por.mean())
print(p)

"""
「帰無仮説H0:平均値には差がない」有意確率p-value=5e-21であり、
有意差1%にも満たず極めて起こり得ないことである。

よって、「帰無仮説H0:平均値には差がない」を棄却し、
「平均値には差がある」と判断する。
"""
data_merge.G3_math.mean() :  10.387434554973822
data_merge.G3_por.mean() :  12.515706806282722
5.561492113688385e-21
In [43]:
# キーabsencesについても調べてみる
t, p = stats.ttest_rel(data_merge.absences_math, data_merge.absences_por)
print('data_merge.absences_math.mean() : ',data_merge.absences_math.mean())
print('data_merge.absences_por.mean() : ',data_merge.absences_por.mean())
print(p)

"""
「帰無仮説H0:平均値には差がない」有意確率p-value=2e-6であり、
有意差1%にも満たず極めて起こり得ないことである。

よって、「帰無仮説H0:平均値には差がない」を棄却し、
「平均値には差がある」と判断する。
"""
data_merge.absences_math.mean() :  5.319371727748691
data_merge.absences_por.mean() :  3.6727748691099475
2.3441656888384195e-06
In [56]:
# キーstudytimeについても調べてみる
t, p = stats.ttest_rel(data_merge.studytime_math, data_merge.studytime_por)
print('stats.ttest_rel(data_merge.studytime_math.mean() : ', data_merge.studytime_math.mean())
print('stats.ttest_rel(data_merge.studytime_por.mean() : ', data_merge.studytime_por.mean())
print(p)
"""
「帰無仮説H0:平均値には差がない」有意確率p-value=0.56であり、
有意差56%にも満たず極めて起こり得ないことである。

よって、「帰無仮説H0:平均値には差がない」を棄却することはできないので、
「平均値には差がない」と判断する。
"""
stats.ttest_rel(data_merge.studytime_math.mean() :  2.0340314136125652
stats.ttest_rel(data_merge.studytime_por.mean() :  2.0392670157068062
0.5643842756976525