论文部分内容阅读
在构造一般的回归模型过程中,包括线形模型,广义线形模型和非线性回归模型,在最初的阶段需要大量的预测数据来减少可能的偏差.为了提高可预测性和减少估计和预测的方差,我们通常可以删除一些不显著的变量,来获得一个最优的变量子集。对于这个问题的一些选择准则,如:AIC,Cp,BIC,RIC等,都是基于选择最大后验模型的一种特殊的贝耶斯方法.但是这些存在的变量选择的判别准则是依赖于似然函数的,如果数据的分布是未知的,这些准则就是无效的了。在这篇文章中,我们提出了一种新的变量选择方法-后验贝耶斯拟似然。这个方法不需要关于数据分布的任何假设,并且,这个方法可以同时进行变量选择和参数估计。特别的,对于线形回归模型,通过后验密度的变量选择与通过判别残差平方和后者回归平方和是等效的。