论文部分内容阅读
在说话人识别领域,基于支持向量机(Support Vector Machine,SVM)的识别方法是当今的研究热点。同其他模式识别方法相比该方法主要有两个不同点:一是它采用一个非线性核函数来表示特征空间的内积,另外一方面它采用分类间隔最大的最优分类超平面实现结构风险最小化。而这些特征使得支持向量机方法能得到广泛的应用。论文详细阐述了说话人识别的基本原理和实现过程。首先对特征参数的提取做了较深入的研究,对当今最常用的线性预测倒谱系数和美尔倒谱系数的理论基础和实现过程做了阐述,并将这些参数和其差分参数相组合,测试它们提取说话人个性特征的准确程度。用不同的特征参数构造说话人识别系统并考察它们对系统识别率和抗噪性能的影响。核函数是支持向量机模型的核心机制,函数类型的选择和参数的整定对于分类的准确度至关重要。论文阐述了核函数的基本理论,对目前常用的多项式核函数、径向基核函数及多层感知器核函数进行了仿真和分析,测试了它们在干净语音和加噪语音环境下的系统识别率和稳健度。为缩短说话人识别系统的训练时间,在对样本进行基于支持向量机的训练之前,需要对样本进行约简。论文总结了该领域的理论成果并给予归纳,提出了一种新的约简方法——支持聚类区提取法(SupportCluster Abstracting,SCA),阐述了该方法的理论基础并给出了具体实现步骤,并对SCA方法和传统的方法进行了实验和分析,用实验演示了算法对线性可分样本边界的描述准确度。考察了算法对线性不可分样本即语音样本在约简率和识别率方面的性能。SCA方法的参数的合适度决定了约简集是否能包含所有的支持向量同时尽可能减轻SVM训练的负担。论文通过试凑的方法对扇出系数、聚类数目及接近度因子等相关参数进行了整定,实验证明,和其他的约简方法相比,经过参数整定后的SCA方法能以较高的约简率获得较高的识别率,符合理论上预计的结果。通过实验考察了SCA-SVM模型与SVM模型以及其他说话人模型在性能上的差异。