随机过程学了有什么用
下面是好好范文网小编收集整理的随机过程学了有什么用,仅供参考,欢迎大家阅读!
笔记主要基于中文版《应用随机过程 Introduction to Probability Models 》(Sheldon M. Ross),只有非常少的一部分是我自己的注解。写这个笔记的目的是自己复习用,阅读需要一定的微积分和概率论基础。本人为初学者,且全部为自学,如果笔记中有错误,欢迎指正。
概率论复习
随机过程是概率论的延申。因为我本科并没有系统学过概率论,所以有必要把一些概率论常用公式罗列在开头。
随机变量用大写字母X表示,随机变量的取值用小写字母x表示,期望和方差的定义如下
E[X] = begin{cases} int_{-infty}^{+infty}xf(x)dx & , 连续\ sum_{x}^{xPleft{ X=x right}} & , 离散 end{cases}tag{1.1}
begin{align} Var(X) &= Eleft[ left( x - E[X]right)^{2} right]\ & = Eleft[ X^{2}right] - left( Eleft[ X right] right)^{2} end{align}tag{1.2}
利用二阶矩求方差的方法有时比较实用。
通过取条件求概率:
Pleft( E right) = begin{cases} int_{-infty}^{infty}{Pleft( E |Y=y right)}fleft( y right)dy& , Y连续 \ sum_{y}^{Pleft( E |Y=y right)Pleft{ Y=y right}}& , Y离散 end{cases}tag{1.3}
通过取条件求期望:
Eleft[ X right] = Eleft[ Eleft[ X|Y right] right]tag{1.4}
通过取条件求方差(条件方差公式):
Varleft( X right) = Eleft[ Varleft( X|Y right) right] + Varleft( Eleft[ X|Y right] right)tag{1.5}
两个独立随机变量X,Y的和的分布计算也很常用,也就是卷积
f_{X+Y}(a)=int_{-infty}^{infty}f_{X}(a-y)g_{Y}(y)dytag{1.6}
指数分布及其重要性质
指数分布的定义:
fleft( x right) = begin{cases} lambda e^{-lambda x}& , xgeq 0\ 0 & , else end{cases}tag{1.7}
容易计算指数分布的期望为 frac{1}{lambda} ,方差为 frac{1}{lambda^2} . 对应的CDF(累积分布函数)为
Fleft( x right) =int_{-infty}^{x}f(s)ds = begin{cases} 1- e^{-lambda x}& , xgeq 0\ 0 & , else end{cases}tag{1.8}
指数分布的重要性质1:指数分布是无记忆的,而且是唯一具有无记忆性质的连续概率分布。
所谓无记忆的意思是 P(X>s+t|X>t)=P(X>s)tag{1.9}
这个性质可以简单地用累计分布函数来验证,因为 P(X>s)=1-F(s)=e^{-lambda x}
为了具象理解无记忆性,可以举一个例子:假设一个灯泡的寿命是个随机变量X,按照 lambda 指数分布。已知灯泡已经正常工作了t个单位时间,那么它还剩下的寿命的概率分布仍然是同样的指数分布。或者说,不管这个灯泡正常工作了多久,它剩下的寿命都是同一个指数分布,期望都是 frac{1}{lambda} 。
此外,为了更好地理解指数分布,我们定义一个失败率r(t)
r(t)=frac{f(t)}{1-F(t)}tag{1.10}
无论什么分布都可以定义r(t),而且r(t)唯一确定概率分布。以灯泡寿命为例,假设灯泡寿命是个随机变量,概率密度函数为f(t),失败率r(t)的含义是指在t时刻,该灯泡在t+dt这段时间内失效的概率。这个例子中,无记忆性可以理解为r(t)是个常数,因为灯泡的失效跟它正常工作了多久无关,所以它在任何时刻的失败率都是相等的。容易证明若 r(t) =lambda ,那么对应的概率分布就是参数为 lambda 的指数分布, lambda 通常称为指数分布的速率。(可以给予 lambda 一个物理含义,若时间单位是s(秒),则 lambda 的量纲为1/s,也就是速率,期望 frac{1}{lambda} 可理解为寿命,单位是s).
指数分布重要性质2:有n个独立同分布的参数 lambda 的指数随机变量,则他们的和的分布为参数为 n 和 lambda 的伽马分布。
f_{X_{1}+X_{2}+...+X_{n}}(t)=frac{lambda e^{-lambda t } (lambda t)^{n-1}}{(n-1)!}tag{1.11}
这个结论可以用公式(1.6)和数学归纳法证明。
指数分布重要性质3:有两个独立的指数随机变量 X_{1} 和 X_{2} ,他们的参数分别为 lambda_{1} 和 lambda_{2} ,那么 X_1<X2 的概率为
P(X_1<X_2)=frac{lambda _1}{lambda _1 + lambda _2}tag{1.12}
证明思路为取条件求概率 P(X_1<X_2)=int_{0}^{infty}P(X_2>x|X_1=x)lambda_1 e^{-lambda_1 x}dx 。而且这条性质可以推广到n个独立指数变量中,某个变量 X_i 为最小值的概率为 frac{lambda_i}{sum_{j=1}^{n}{lambda_j}} ,证明也不难,结合下面的性质4即可。
指数分布重要性质4:有n个独立的指数随机变量X_1, X_2,...,X_n,他们的速率分别为 lambda_1, lambda_2, ..., lambda_n ,则他们的最小值 minleft( X_1, X_2,...,X_n right) 的分布也是指数分布,速率为 sum_{i=1}^{n}{lambda_i} 。而且这个最小值的分布与 X_1, X_2,...,X_n 的次序独立。(次序即大小排序,此处略去次序统计量的定义)
指数分布性质5:有n个独立的指数随机变量X_1, X_2,...,X_n,他们的速率分别为 lambda_1, lambda_2, ..., lambda_n ,他们的和S=sum_{i=1}^{n}{X_i}称为亚指数随机变量,S的概率密度函数为
f_S(t)=sum_{i=1}^{n}{C_{i,n}lambda_ie^{-lambda_i t}}tag{1.13}
其中的系数 C_{i,n}=prod_{jne i}^frac{lambda_j}{lambda_j-lambda_i}
性质5似乎不怎么重要,在纯生过程中会用到。证明略微繁琐,思路是数学归纳法以及卷积(公式1.6)。
“师傅,别念了别念了。。”
好吧,这部分真的很无聊,不过上面这些只是相当于备忘录,真正精彩的内容还没开始呢!随机过程的精髓在于怎么用概率论建模解决问题,相信我,建模的过程很有趣的!马上开始泊松过程吧!
泊松过程
要理解泊松过程,我们还有一些概念要理清楚。如果你从前面一直看到了这里,请再坚持一下,有趣的内容马上就要开始了!
首先,什么是随机过程?随机过程可以看成随机变量的集合 left{ X(t), tin T right} ,或者说是一连串的随机变量,T是指标集,t可以理解为时间,也就是某个时刻有着对应的随机变量取值X(t),X(t)称为状态(state)。一个系统,在不同的时刻可能会有不同的状态,这些状态是随机的,你按照时间顺序观察到的状态就是随机过程了。
具体一点,你可以想象一个黑盒子,黑盒子里面有个数字,你每隔一段时间打开黑盒子看一下,会看到不同的数字,你把看到的数字按照时间顺序记录下来,就是随机过程。随机过程就是假定你观察到的数字是有规律的,可以用概率论的模型去描述的。
现在我们具体讲一种随机过程,计数过程。顾名思义,计数过程是用来记录某件事件累计发生次数的过程。举个例子, left{ N(t), tgeq0 right} 用来表示在时刻t之前进入某个商店的人数,那么 left{ N(t), tgeq0 right} 就是一个计数过程。计数过程还有:
只要有一个婴儿诞生,我们就认为事件发生。那么N(t)表示时刻t之前诞生的总人数,N(t)也是一个计数过程。
用N(t)表示给定足球队员在t时刻之前进球个数,也就是只要进一个球,事件就发生,N(t)也是计数过程。
这些例子很具体,但数学的意义在于抽象。我们概括一下计数过程的特征:
N(t)geq0
N(t) 只取整数值
若 sleq t, N(s) leq N(t)
对于 s<t , N(t) - N(s) 表示在 (s, t] 区间中发生事件的个数。
取值只取正整数,所干的事情就是不断+1,天啊多么友好的模型!嘿嘿,复杂的事情才刚刚开始。
本文的主题是泊松过程,聪明如你应该猜到了,泊松过程是一种特殊的计数过程。先抛开严格数学定义,想象这样一个过程:你在一个高速公路收费站里面收费,这是一条没什么车来往的路,隔一段时间才来一辆车。每来到一辆车,看作事件发生,也叫到达(arrival)。如果用N(t)表示在时间t之前到达收费站的车次,这显然是一个计数过程。你在收费站太无聊了,你开始观察两辆车到达之间需要等多长时间,你惊喜地发现这个时间是个随机变量,可以用指数分布来描述!如果你还记得指数分布的无记忆性的话,这意味着无论你等了多久,你还要等的时间的期望都是一样的,换句话说你每时每刻都有着同样的概率迎来一辆车。这听起来不像啥好消息,不过,你等待车的过程可以用泊松过程来描述!换言之,前面提到的到达收费站的车次N(t)就是一个泊松过程。
泊松过程的数学定义如下:
计数过程 left{ N(t), tgeq 0 right} 成为具有速率 lambdaleft( lambda>0 right) 的泊松过程,如果它满足:
N=0 .
该过程具有平稳增量和独立增量.
Pleft{ N(t+h)-N(t)=1 right}=lambda h + o(h) .
Pleft{ N(t+h)-N(t)geq 2 right}= o(h)
桥豆麻袋?这都是啥?我的指数分布呢?什么平稳增量,什么独立增量?唯独这个 lambda 好像还有点眼熟……你猜的没错,这个 lambda 就是指数分布那个 lambda ,速率也是那个速率。但是从定义根本看不出来多少直观的东西,且听我慢慢说。
首先要说明的是平稳增量和独立增量。
平稳增量:如果在任意时间区间内发生事件的个数分布只依赖于时间区间的长度,称这个计数过程具有平稳增量。
独立增量:如果两个不相交的时间区间内中,事件发生的个数是彼此独立的,称这个计数过程具有独立增量。
至于这个 o(h) ,代表的是比 fleft( h right)=h 更高阶的无穷小,印象中跟我学的高数好像有点不同。这里的严格定义是:若 lim_{h rightarrow 0}{frac{f(h)}{h}}=0 ,那么 f(cdot) 就是 o(h) .也就是说,只要比 f(h)=h 更快地趋向于0,都是 o(h) ,例如 x^{2} , x^{3} 等等
好吧,好像还是不知道这个定义在说啥,跟指数分布又有啥关系……不过要是一切都那么显然,数学还用学?可以通过下面几条定理深入了解一下泊松过程。
定理1:若 left{ N(t), tgeq 0 right} 是速率为 lambda left( lambda >0 right) 的泊松过程,则对于一切 s>0,t>0 , N(t+s)-N(s) 是均值为 lambda t 的泊松随机变量。也就是说,在任意长度为t的区间中的事件个数是均值为 lambda t 的泊松随机变量。
in case有朋友不知道啥是泊松随机变量,在这里补充一下。泊松随机变量是服从下面这个分布的变量:
p_{X}(k)=e^{-lambda}frac{lambda^{k}}{k!}, k=0,1,2,...tag{1.14}
注意泊松分布是离散的,且均值(期望)为 lambda ,方差也是lambda。不信的朋友可以自己动手,根据期望和方差的公式算一算,很简单(狗头保命),用一下 e^{x} 的泰勒展开就好。
这个定理1相当重要,我想泊松过程和泊松分布也是彼此相依的。但是证明步骤比较复杂,需要用到N(t)的拉普拉斯变换,并且利用拉普拉斯变换唯一确定了分布这一性质。我会把证明过程写在附录里(也许吧,如果我很有空的话)。
这个定理的实际意义是告诉你一种估算任意一个时间区间事件发生次数的方法。回想一下平稳增量和独立增量,这两个性质是告诉你任何一个时间区间发生的事件的次数是跟其它时间区间无关的,而且仅跟这个区间的长度有关。而这个定理1,更进一步告诉你,在泊松过程中,这个时间区间的事件发生次数呈泊松分布,且均值跟区间长度t成正比,比例系数就是速率 lambda !给定一个时间区间,长度为t,让你估算事件发生次数,如果这是个泊松过程,那就好办了,估算个lambda t 就成。
第二个重要定理是关于到达时间的,回想一下前面的高速公路收费站的例子,你马上知道为什么到达时间是指数分布的了。假设第一个事件的发生时间用 T_{1} 表示,而对于 n>1 ,我们用 T_{n} 记在第 n-1个事件和第n个事件之间用的时间,也就是间隔时间。
定理2:在泊松过程中, T_{n}(n=1, 2,3,...) 是独立同分布的指数随机变量,均值为 frac{1}{lambda} .
为了证明这个定理,我们先考虑T_{1}.
P(T_{1}>t)=Pleft( N(t)=0 right)=e^{-lambda t}tag{1.15}
第一个等号,是因为如果等待第一个事件发生的事件大于t,意味着这段时间内没有事件发生;第二个等号是直接把k=0带入公式(1.14)求概率。如果你记得指数分布的CDF(公式1.8)还有性质1里面的计算,你就知道(1.15)直接意味着这就是指数分布,利用CDF求导即可证明。
证明 T_{1} 是指数分布之后,我们看 T_{2} .
P(T_{2}>t)=Eleft[ P(T_{2}>t|T_1) right]tag{1.16}
这是取条件求概率的方法,回看公式(1.3).
考虑T_{1}取某一个值的情况下的条件概率
begin{align} P(T_{2}>t|T_1=s) &= Pleft{ (s, s+t]内没有事件发生| T_1=sright} \ &=Pleft{ (s, s+t]内没有事件发生right} \ &=e^{-lambda t} \ end{align}tag{1.17}
第一个等号,是因为如果等待第二个事件发生的事件大于t,意味着这段时间内没有事件发生;第二个等号是由于泊松过程的独立增量和平稳增量性质,一段时间内的事件发生次数,跟T_{1}是独立的;第三个等号,就是跟(1.15)一样把k=0带入泊松分布,注意利用定理1,这个泊松分布的均值为 lambda t 。
到这里,你应该也明白, T_{2} 也是同样的指数分布。依次类推,所有的 T_{n} 都是独立同分布的指数变量,其参数 lambda 就是泊松过程的速率 lambda (为什么叫速率,可以回看我对指数分布性质1的理解)。
虽然这个定理2只证明了泊松过程的到达时间是指数分布,但是反过来也成立。也就是说,到达时间是独立同分布的指数分布的计数过程就是泊松过程。证明从略(我也不知道)。
但是实际上我们常常关心的是第n个到达时间,也就是某个事件过多久才发生n次。这时候,你是不是想说了,一个指数分布的均值是 frac{1}{lambda} ,n个独立同分布的指数随机变量,那均值不就是 frac{n}{lambda} ?那你可真是小天才!没错,根据公式(1.11),n个独立同分布的指数随机变量的和的分布,是参数为 left( n,lambda right) 的伽马分布,均值正是frac{n}{lambda}。关于伽马分布的均值的具体计算,只需要懂点微积分就能算。
泊松过程left{ N(t), tgeq 0 right}还能拓展一下,如果每次到达的事件还能细分为I型事件和II型事件,且进一步假设每个事件都独立于其它事件,每一次事件发生以概率p为I型事件,以概率1-p为II型事件。用left{ N_{1}(t), tgeq 0 right}和left{ N_{2}(t), tgeq 0 right}分别表示在 [0,t] 事件内发生的I型事件个数和II型事件个数,有如下定理。
定理3:left{ N_{1}(t), tgeq 0 right}和left{ N_{2}(t), tgeq 0 right}分别是速率为 lambda p 和 lambdaleft( 1-p right) 的泊松过程。此外,这两个泊松过程是彼此独立的。
至此,我觉得泊松过程的大概内容已经讲完了,有空继续填坑,写得我好累。。