martingale和markov chain有哪些区别与联系

首先两者的定义都不一样:

martingale的核心在于:E[Xt | Fs] = Xs (其中,s小于t)

直观解释就是如果(Xi)是martingale,那么站在时间点s上预测Xt,最佳的预测还是在Xs,也就是现在的情况。

举个简单的例子:假如你现在(时间点s)身上有100块,你进赌场玩了一个公平游戏 (当然现实的赌场大部分并不是!),然后估计你在两个小时之后 (时间点t) 身上的钱剩下多少?

答案当然还是100块!从这个例子可以看出, martingale就是在用这种方式刻画这种“公平性”。

而markov性则是另一种性质:(摘自维基百科)

<img src="/d81d8dac5f9b9894c73c7879af1ecea5_b.jpg" data-rawwidth="449" data-rawheight="21" class="origin_image zh-lightbox-thumb" width="449" data-original="/d81d8dac5f9b9894c73c7879af1ecea5_r.jpg">

意思就是在给定当前信息的情况下,只有当前的状态用来预测将来,过去(即当前以前的历史状态)对于预测将来(即当前以后的未来状态)是无关的。

两者的联系与区别:

用一个很好的例子来体现两者的联系和区别,就是random walk(随机步行),这里只说一维的情形:

想象醉汉在T0时刻在数轴原点,每次都会向左或者向右随机地移动一格(也就是在T1有可能在+1或者-1,如此类推),用Xt表示醉汉所处的位置的坐标 (例如X0=0)。

首先这样的随机过程(Xt)是不是martingale呢?这个要看醉汉向左向右移动的概率是否各为0.5(也就是是否公平的问题)。如果是,则(Xt)是martingale,否则不是。

验证:假如每次向左移动的概率为0.8,则向右为0.2的话,假设在T5时刻醉汉位置坐标为-3 (也就是X5= -3),则在T5时刻对X6的期望为0.8*(-4)+0.2*(-2)=-3.6,并非-3。

但无论移动的概率p是多少,(Xt)都肯定是markov chain。对跟上面同样的假设,对于任意的x,给定之前的所有历史(即X0到X4)及现在(即X5)的情况,我们来考察P(X6=x)的所有情况:

x=(X5-1)时,此概率等于0.8;

x=(X5+1)时,此概率等于0.2;

x等于其他时,此概率等于0。

因此P(X6=x)这个概率必定只跟X5有关而跟X0到X4无关。