论文部分内容阅读
现代社会的快速发展使科学家们可以收集到大量的复杂数据,在实际应用中就会产生大量的协变量,而响应变量可能只与其中的一小部分协变量有关,并且,数据样本可能来自于多元子总体中,在这种情况下,对每个子总体选择正确的协变量是很重要的.另—方面,也为了使模型的形式更为简洁,这也促使统计学家们越来越关注变量选择问题。典型的以选择最优子变量为目的的变量选择方法在很早之前就有统计学家研究出来了,比如最小信息量准则,贝叶斯信息准则,以及他们的修正方法,但是当协变量以及分量的数目很大时,这些方法的计算复杂度就会增强,进而会耗费大量的时间.近几年内,一类新的变量选择方法应运而生,在处理变量很多的情况时取得了很好的效果.它们通过在似然函数中引入惩罚函数,将估计的接近于0的参数压缩为0,进而同时达到变量选择和参数估计的效果.惩罚函数依赖于回归系数以及模型结构.通过新的变量选择方法得到的参数估计值也被证明是具有相合性和渐近正态性的.最重要的是,此方法适用于大样本的情况.混合模型具有灵活性,主要用来处理来自非齐性总体的数据,它可以将总体分割成若干个子总体,再对每一个子总体拟合成各自独有的线性或广义线性回归模型,这样可以减少直接拟合造成的偏差.混合模型己经在图像处理、语音识别、生物聚合物中的基序发现、人脸识别等多个领域有广泛应用.由于混合均值回归(FMR)模型只能刻画均值的变化,而分位回归不仅能刻画均值的变化,而且能刻画许多不同分位点上自变量随因变量的变化情况,同时它还有稳健性.因此在本文中我们将分位回归的思想引入到混合模型中,主要针对混合分位回归模型研究它的变量选择问题.同时文章中也介绍了用修正的BIC方法来选择调节参数,以及用EM算法来做有效的计算,也证明了这种方法具有很好的渐近性质.在模拟实验中更是展现了新方法的优良效果,并且在计算上也比现有的方法节省时间。