excel中最大似然估计(求ex的最大似然估计)

Excel表格网 2022-10-16 16:40 编辑:花平 152阅读

1. 求ex的最大似然估计

用最大似然估计法估计出λ,或用矩估计法来估计可得λ估计量=X拔=(X1+X2+…+Xn)/

n 最大似然估计法 L(λ)=∏【i从1到n】λ^xi*e^(-λ)/xi! lnL(λ)=(x1+x2+…+xn)*lnλ+-nλ-(lnx1!+lnx2!+…+lnxn!) 对λ求导,并令导数等于0得(lnL(λ))'=(x1+x2+…+xn)/λ-n=0 λ估计量=X拔=(X1+X2+…+Xn)/n 矩估计法 EX=λ 所以:λ估计量=X拔=(X1+X2+…+Xn)/

n 所以 p=P{X=0}=e^(-λ估计)=e^(-x拔)

2. ex的极大似然估计

二项分布就是n个两点分布,两点分布的概率是P=p^x*(1-p)^(1-x),所以似然函数 L=p^∑Xi*(1-p)^(n-∑Xi),构造 lnL=∑Xi*lnp+(n-∑Xi) ln(1-p),对p进行求导,令其结果等于0,就是∑Xi/p+(n-∑Xi)/(1-p)=0,通分后令分母等于0,可以得到p=(∑Xi)/n

求极大似然函数估计值的一般步骤:

(1) 写出似然函数;

(2) 对似然函数取对数,并整理;

(3) 求导数 ;

(4) 解似然方程 。

扩展资料:

极大似然估计只是一种粗略的数学期望,要知道它的误差大小还要做区间估计。极大似然估计是建立在这样的思想上:已知某个参数能使这个样本出现的概率最大,我们当然不会再去选择其他小概率的样本,所以干脆就把这个参数作为估计的真实值。

极大似然估计,只是一种概率论在统计学的应用,它是参数估计的方法之一。说的是已知某个随机样本满足某种概率分布,但是其中具体的参数不清楚,参数估计就是通过若干次试验,观察其结果,利用结果推出参数的大概值。

3. 求EX的最大似然估计量

解答:

设X~EXP(入)

E(X)=1/入

^入=1/(xbar)

L(入|x)=π(连乘符号)(i=1~n) 入e^(-入xi)

两边取对数 ,并使ln(L)=l

l(入|x)=ln(入^n)+(-入)Σ(xi)

求导

l'(入|x)=n/入-n(xbar)

让导数=0

0=1/^入-(xbar)

1/^入=xbar

^入=1/(xbar)

再检验l二阶导为负数,所以l有最大值,最大拟然估计为1/(xbar),同矩形估计。

定义

最大似然估计,只是一种概率论在统计学的应用,它是参数估计的方法之一。说的是已知某个随机样本满足某种概率分布,但是其中具体的参数不清楚,参数估计就是通过若干次试验,观察其结果,利用结果推出参数的大概值。

最大似然估计是建立在这样的思想上:已知某个参数能使这个样本出现的概率最大,我们当然不会再去选择其他小概率的样本,所以干脆就把这个参数作为估计的真实值。

4. 最大似然估计似然函数怎么求

二项分布就是n个两点分布,两点分布的概率是P=p^x*(1-p)^(1-x),所以似然函数 L=p^∑Xi*(1-p)^(n-∑Xi),构造 lnL=∑Xi*lnp+(n-∑Xi) ln(1-p),对p进行求导,令其结果等于0,就是∑Xi/p+(n-∑Xi)/(1-p)=0,通分后令分母等于0,可以得到p=(∑Xi)/n.

5. 最大似然估计公式推导

矩估计

e(x)=3-4θ

x平均=2

3-4θ=2

则θ=1\4

最大似然估计

l(θ)=4θˆ6(1-θ)ˆ2(1-2θ)ˆ4

然后求对数

然后再求导

令导数等于0

解得θ

6. excel求极大似然估计值

假设样本x1~xn独立同分布,具有概率密度函数p(xi;α) (1<=i<=n),其中α为要估计的参数 则似然函数即为这n个样本的联合密度函数,由独立性有似然函数为: L(α)=Πp(xi;α) Π表示从下标i=1到i=n的连乘,由于样本值x1~xn已确定,而α是未知的有待估计的参数,所以我们将这个联合密度函数看作α的函数 极大似然估计方法是求α使得L(α)最大,因此常常将L(α)关于α求偏导再令其等于0,然后解出这个方程中的α 由于很多种随机变量分布的概率密度函数p(xi;α)都是指数族形式,这时我们转而利用对数似然函数求极大似然估计会比较方便,故定义对数似然函数为: l(α)=ln L(α)=Σln p(xi;α) 由于l(α)与L(α)的单调性相同,故它们取极大值时对应的α也相同。

7. 求EX的极大似然估计

极大似然估计

贝叶斯决策

首先来看贝叶斯分类,我们都知道经典的贝叶斯公式:

其中:p(w):为先验概率,表示每种类别分布的概率,P(X|W):类条件概率,表示在某种类别前提下,某事发生的概率;而P(W|X)为后验概率,表示某事发生了,并且它属于某一类别的概率,有了这个后验概率,我们就可以对样本进行分类。后验概率越大,说明某事物属于这个类别的可能性越大,我们越有理由把它归到这个类别下。

我们来看一个直观的例子:已知:在夏季,某公园男性穿凉鞋的概率为1/2,女性穿凉鞋的概率为2/3,并且该公园中男女比例通常为2:1,问题:若你在公园中随机遇到一个穿凉鞋的人,请问他的性别为男性或女性的概率分别为多少?

从问题看,就是上面讲的,某事发生了,它属于某一类别的概率是多少?即后验概率。

设:

由已知可得:

男性和女性穿凉鞋相互独立,所以

(若只考虑分类问题,只需要比较后验概率的大小,的取值并不重要)。

由贝叶斯公式算出:

问题引出

但是在实际问题中并不都是这样幸运的,我们能获得的数据可能只有有限数目的样本数据,而先验概率

和类条件概率(各类的总体分布)

都是未知的。根据仅有的样本数据进行分类时,一种可行的办法是我们需要先对先验概率和类条件概率进行估计,然后再套用贝叶斯分类器。

先验概率的估计较简单,1、每个样本所属的自然状态都是已知的(有监督学习);2、依靠经验;3、用训练样本中各类出现的频率估计。

类条件概率的估计(非常难),原因包括:概率密度函数包含了一个随机变量的全部信息;样本数据可能不多;特征向量x的维度可能很大等等。总之要直接估计类条件概率的密度函数很难。解决的办法就是,把估计完全未知的概率密度

转化为估计参数。这里就将概率密度估计问题转化为参数估计问题,极大似然估计就是一种参数估计方法。当然了,概率密度函数的选取很重要,模型正确,在样本区域无穷时,我们会得到较准确的估计值,如果模型都错了,那估计半天的参数,肯定也没啥意义了。

重要前提

上面说到,参数估计问题只是实际问题求解过程中的一种简化方法(由于直接估计类条件概率密度函数很困难)。所以能够使用极大似然估计方法的样本必须需要满足一些前提假设。

重要前提:训练样本的分布能代表样本的真实分布。每个样本集中的样本都是所谓独立同分布的随机变量 (iid条件),且有充分的训练样本。

极大似然估计

极大似然估计的原理,用一张图片来说明,如下图所示:

总结起来,最大似然估计的目的就是:利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值。

原理:极大似然估计是建立在极大似然原理的基础上的一个统计方法,是概率论在统计学中的应用。极大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已定,参数未知”。通过若干次试验,观察其结果,利用试验结果得到某个参数值能够使样本出现的概率为最大,则称为极大似然估计。

由于样本集中的样本都是独立同分布,可以只考虑一类样本集D,来估计参数向量θ。记已知的样本集为:

似然函数(linkehood function):联合概率密度函数

称为相对于

的θ的似然函数。

如果

是参数空间中能使似然函数

最大的θ值,则

应该是“最可能”的参数值,那么

就是θ的极大似然估计量。它是样本集的函数,记作:

求解极大似然函数

ML估计:求使得出现该组样本的概率最大的θ值。

实际中为了便于分析,定义了对数似然函数:

1. 未知参数只有一个(θ为标量)

在似然函数满足连续、可微的正则条件下,极大似然估计量是下面微分方程的解:

2.未知参数有多个(θ为向量)

则θ可表示为具有S个分量的未知向量:

记梯度算子:

若似然函数满足连续可导的条件,则最大似然估计量就是如下方程的解。

方程的解只是一个估计值,只有在样本数趋于无限多的时候,它才会接近于真实值。

极大似然估计的例子

例1:设样本服从正态分布

,则似然函数为:

它的对数:

求导,得方程组:

联合解得:

似然方程有唯一解

:,而且它一定是最大值点,这是因为当

时,非负函数

。于是U和

的极大似然估计为

例2:设样本服从均匀分布[a, b]。则X的概率密度函数:

对样本

很显然,L(a,b)作为a和b的二元函数是不连续的,这时不能用导数来求解。而必须从极大似然估计的定义出发,求L(a,b)的最大值,为使L(a,b)达到最大,b-a应该尽可能地小,但b又不能小于

,否则,L(a,b)=0。类似地a不能大过

,因此,a和b的极大似然估计:

总结

求最大似然估计量

的一般步骤:

(1)写出似然函数;

(2)对似然函数取对数,并整理;

(3)求导数;

(4)解似然方程。

最大似然估计的特点:

1.比其他估计方法更加简单;

2.收敛性:无偏或者渐近无偏,当样本数目增加时,收敛性质会更好;

3.如果假设的类条件概率模型正确,则通常能获得较好的结果。但如果假设模型出现偏差,将导致非常差的估计结果。

用python实现简单的极大似然估计,正正态分布为例:

代码:

import numpy as np

import matplotlib.pyplot as plt

fig = plt.figure()

mu = 30 # mean of distribution

sigma = 2 # standard deviation of distribution

x = mu + sigma * np.random.randn(10000)

def mle(x):

'''

极大似然估计

:param x:

:return:

'''

u = np.mean(x)

return u, np.sqrt(np.dot(x - u, (x - u).T) / x.shape[0])

print(mle(x))

num_bins = 100

plt.hist(x, num_bins)

plt.show()

8. ex的近似值

幂函数,是基本初等函数之一。e的x次方,也叫作自然数对数。

图像都经过点(1,1)(0,0);函数的图像在区间[0,+∞)上是增函数;在第一象限内,α>1时,导数值逐渐增大;α=1时,导数为常数;0<α<1时,导数值逐渐减小,趋近于0(函数值递增);

扩展资料:

单调区间:

当α为整数时,α的正负性和奇偶性决定了函数的单调性:

①当α为正奇数时,图像在定义域为R内单调递增;

②当α为正偶数时,图像在定义域为第二象限内单调递减,在第一象限内单调递增;

③当α为负奇数时,图像在第一三象限各象限内单调递减(但不能说在定义域R内单调递减);

④当α为负偶数时,图像在第二象限上单调递增,在第一象限内单调递减。

9. 最大似然估计求的是最大值吗

L(\theta \vert x) = P(x ; \theta)

其中L(\theta \vert x)是似然函数,描述的对象是参数\theta 。对于任意的参数 \theta 来讲,都有一定的可能性取得样本 x, 似然函数就是用来衡量一个参数取得给定的联合样本 x 的可能性。整个函数的意义是给定的联合样本x下,参数\theta是真实值 (相对于其他的 \theta' )的可能性。

而 P(x ; \theta) 值得是在给定的参数 \theta 下,随机变量 X=x 的可能性,是一个关于随机变量 X 的函数。

二者的相等仅仅是数值意义上面的相等。

因此可以推知,最大似然估计的过程是找到一个参数 \theta 使得似然函数的值最大。直观的解释就是,找到一个参数估计 \hat{\theta} 使得采样得到给定的联合样本的可能性最大,那么我们就认为 \hat{\theta} 是采样的时候的真实参数 \theta 的最佳估计。

顶一下
(0)
0%
踩一下
(0)
0%
相关评论
我要评论
点击我更换图片