论文部分内容阅读
随着人机交互技术的发展,单任务的人机协作方式已经无法满足人们日益增长的交互需求。当用户身处的环境复杂、交互的任务多变时,高效、自然等基本的人机交互特性便很难得到保证,因此,面向多任务的多通道人机交互技术已经受到越来越多学者的广泛关注和深入研究。在人机交互的若干途径中,眼动、手势和语音是人们最常用也是最基本的交互方式,具有直接、双向等优点,而在交互对象的诸多选择中,无人车和无人机凭借其在军事和民用方面广泛的应用背景成为了该领域的代表。因此,本文以行为科学、运动学、控制科学、人机交互技术等理论方法为基础,针对眼动通道、手势通道和语音通道的行为特征,结合无人车、无人机的运动特性,构建了“一人单机”原型系统架构,设计了“一人双机”原型系统模型,最终通过软硬件将其实现并进行实验验证。首先,本文梳理了近年来关于眼动、手势、语音以及多通道操控技术的国内外研究现状,概述了本文的研究内容与章节安排;其次,针对眼动、手势和语音通道的行为特征,构建了各通道的模型及其对应的交互算法;再次,考虑了无人车和无人机两种被控对象的特性,对其各自的二维和三维运动模型进行了分析构建;然后,基于通道的行为特征、无人车以及无人机的运动特性,设计了三通道分别控制无人车以及无人机的实现机制,提出了一种控制通道切换机制,从而构建了“一人单机”原型系统架构,并将其应用于无人机的飞行控制中;最后,在“一人单机”原型系统的基础上探索了一种被控对象切换机制,进而构建了“一人双机”原型系统模型,实现了其在无人车与无人机协同控制中的应用。针对“一人单机”和“一人双机”原型系统均设计了相关实验,验证了其合理性与有效性。