「和の期待値」=「期待値の和」の計算:期待値の線形性の証明【確率論】

【この記事の概要】

確率変数ⅩとYの和の期待値(平均)について,「Ⅹ+Yの期待値」=「Ⅹの期待値」+「Yの期待値」が成り立ちます.また,定数aに対して「aⅩの期待値」=「Ⅹの期待値のa倍」が成り立ちます.これらの性質を合わせた等式(期待値の線形性)を証明します.和の期待値の証明は,ここに含まれます.なお,Ⅹ,Yの独立性の仮定は必要ありません.

【スマホでの数式表示について】

当サイトをスマートフォンなど画面幅が狭いデバイスで閲覧すると,数式が画面幅に収まりきらず,正確に表示されない場合があります.その際は画面を回転させ横長表示にするか,ブラウザの表示設定を「PCサイト」にした上でご利用ください.

「和の期待値」は「期待値の和」,期待値の線形性

確率変数の和と差の期待値(平均)の計算

期待値の和と差
確率変数XYの和X+Yと差X-Yの期待値(平均)について,次式が成り立つ.

(1)   \begin{equation*} E[X+Y]=E[X]+E[Y] \end{equation*}

(2)   \begin{equation*} E[X-Y]=E[X]-E[Y] \end{equation*}

上式の証明については,次節の「期待値の線形性」の証明の中に含まれる.

期待値の線形性

式(1),式(2)に対して,より一般的に,次式が成り立つ.

期待値の線形性
確率変数X,Yと,任意定数a,bに対して,次の等式が成り立つ.

(3)   \begin{equation*} E[aX+bY]=aE[X]+bE[Y] \end{equation*}

すなわち,期待値に関して線形性が成り立つ.

式(1)あるいは式(2)は,それぞれ(a,b)=(1,1)あるいは(a,b)=(1,-1)とした,式(3)の特殊な場合である.したがって,式(1),式(2)に関する証明は,式(3)に関する証明をしておけば十分である.本稿では式(3)を証明する.

式(3)には,期待値の和に関する性質(1)と,期待値の定数倍に関する性質

(4)   \begin{equation*} E[aX]=aE[X] \end{equation*}

の,2つの性質が含まれている.

期待値の線形性の証明

確率変数X,Yが,連続確率変数に従う場合と,離散確率変数に従う場合に分けて証明する.証明の手順はどちらも同様であり,主な相違は,確率密度関数と積分で定義されるか,確率質量関数と総和で定義されるかという,期待値に関する表記上の違いである.

なお,期待値の線形性を証明する際,XYの独立性(すなわちf_{(X,Y)}(x,y)=f_X(x)f_Y(y)あるいは\psi_{(X,Y)}(x,y)=\psi_X(x)\psi_Y(y))に関する仮定は不要である.

証明(連続確率変数の場合)

確率変数X,Yを,結合確率密度関数(joint probability density function) f_{(X,Y)}(x,y)に従う連続確率変数であるとする.この確率密度関数の台をS_{XY}:={\rm supp}(f_{(X,Y)})\subseteq S_X \times S_Y \subset {\mathbb R} \times {\mathbb R}とする.a,bを任意定数として,期待値E[aX+bY]

(5)   \begin{equation*} E[aX+bY]:=\iint_{S_{XY}} (ax+by)\cdot f_{(X,Y)}(x,y) \; dxdy \end{equation*}

で定義される.例えば,S_{XY}={\mathbb R} \times {\mathbb R}であれば,

(6)   \begin{equation*} E[aX+bY]=\int_{-\infty}^{\infty} \int_{-\infty}^{\infty} (ax+by)\cdot f_{(X,Y)}(x,y) \; dxdy \end{equation*}

などとなる.式(5)の変数を分けながら積分を実行すると,

(7)   \begin{eqnarray*} &&E[aX+bY]\\ &:=&\iint_{S_{XY}} (ax+by)\cdot f_{(X,Y)}(x,y) \; dxdy\\ &=&\iint_{S_{XY}} ax\cdot f_{(X,Y)}(x,y) \; dxdy + \iint_{S_{XY}} by\cdot f_{(X,Y)}(x,y) \; dxdy\\ &=& a \int_{S_X} x \cdot \left[ \int_{S_Y} f_{(X,Y)}(x,y) \; dy \right] dx + b \int_{S_Y} y \cdot \left[ \int_{S_X} f_{(X,Y)}(x,y) \; dx \right] dy \\ &=& a \int_{S_X} x f_X(x) \; dx + b \int_{S_Y} y f_Y(y) \; dy \\ &=& a E[X] + b E[Y] \end{eqnarray*}

を得る.ただし,周辺確率密度関数(marginal probability density function) の定義

(8)   \begin{eqnarray*} f_X(x) &:=& \int_{S_Y} f_{(X,Y)}(x,y) \; dy \\ f_Y(y) &:=& \int_{S_X} f_{(X,Y)}(x,y) \; dx \end{eqnarray*}

および期待値E[X],E[Y]の定義

(9)   \begin{eqnarray*} E[X] &:=& \int_{S_X} x f_X(x) \; dx \\ E[Y] &:=& \int_{S_Y} y f_Y(y) \; dy \end{eqnarray*}

を用いた.■

証明(離散確率変数の場合)

確率変数X,Yを,結合確率質量関数(joint probability mass function) \psi_{(X,Y)}(x,y)に従う離散確率変数であるとする.この確率質量関数の台をS_{XY}:={\rm supp}(\psi_{(X,Y)})\subseteq S_X \times S_Yとする.a,bを任意定数として,期待値E[aX+bY]

(10)   \begin{equation*} E[aX+bY]:=\mathop{\sum\sum}\limits_{(x,y) \in S_{XY}} (ax+by)\cdot \psi_{(X,Y)}(x,y) \end{equation*}

で定義される.例えば,S_{XY}=\{0,1,2,...\} \times \{0,1,2,...\}であれば,

(11)   \begin{equation*} E[aX+bY]=\sum_{x=0}^{\infty} \sum_{y=0}^{\infty} (ax+by)\cdot \psi_{(X,Y)}(x,y) dy \end{equation*}

などとなる.式(10)の変数を分けながら積分を実行すると,

(12)   \begin{eqnarray*} &&E[aX+bY]\\ &:=&\mathop{\sum\sum}\limits_{(x,y) \in S_{XY}} (ax+by)\cdot \psi_{(X,Y)}(x,y) dy\\ &=&\mathop{\sum\sum}\limits_{(x,y) \in S_{XY}} ax\cdot \psi_{(X,Y)}(x,y) dy + \mathop{\sum\sum}\limits_{(x,y) \in S_{XY}} by\cdot \psi_{(X,Y)}(x,y) dy\\ &=& a \sum_{x \in S_X} x \cdot \left[ \sum_{y \in S_Y} \psi_{(X,Y)}(x,y)  \right] dx + b \sum_{y \in S_Y} y \cdot \left[ \sum_{x \in S_X} \psi_{(X,Y)}(x,y)  \right] dy \\ &=& a \sum_{x \in S_X} x \cdot \psi_X(x)  + b \sum_{y \in S_Y} y \cdot \psi_Y(y)  \\ &=& a E[X] + b E[Y] \end{eqnarray*}

を得る.ただし,周辺確率質量関数(marginal probability mass function) の定義

(13)   \begin{eqnarray*} \psi_X(x) &:=& \sum_{y \in S_Y} \psi_{(X,Y)}(x,y)  \\ \psi_Y(y) &:=& \sum_{x \in S_X} \psi_{(X,Y)}(x,y)  \end{eqnarray*}

および期待値E[X],E[Y]の定義

(14)   \begin{eqnarray*} E[X] &:=& \sum_{x \in S_X} x \cdot \psi_X(x)  \\ E[Y] &:=& \sum_{y \in S_Y} y \cdot \psi_Y(y)  \end{eqnarray*}

を用いた.■

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です