论文部分内容阅读
近些年来,物联网技术的飞速发展已经使得人、机、物三者的融合共生成为了一种不可逆转的趋势。人机物融合应用的发展现如今还面临着诸多挑战,如何在边缘场景下进行高效的资源调度是其中的关键问题之一。边缘场景下的人机交互应用会产生大量的数据,如果选择不在网络边缘侧处理这些数据,数据的传输过程将会给网络带宽带来极大的负担,同时数据传输所带来的高网络延迟也会让一些延迟敏感应用的使用体验感大大降低。但在网络边缘处理这些数据同样也会面临一些亟待解决的问题,例如边缘设备往往在计算力、存储以及续航上具有很大的局限性,而这些局限性会降低边缘设备所提供的服务质量。计算卸载(Offloading)的方法通常被用到这样的场景中来缓和边缘场景下有限计算资源与保证服务质量之间的矛盾。但当边缘设备的异构性问题与计算任务的复杂性问题同时出现的时候,传统的基于博弈论或是概率论的计算卸载方法无法有效的在多变的应用场景下合理分配复杂的计算任务,这就需要一种具备场景自适应能力的资源管理调度方法来高效的管理终端资源、进行任务调度。
基于深度强化学习的双层计算卸载框架模拟了复杂动态边缘场景下的终端分级资源管理过程。其中,本地处理层负责产生数据、上传计算任务以及部分简单计算任务处理,计算卸载层接受复杂的计算任务,对这些任务进行整理和计算,有效降低本地处理层的计算负载;同时二次计算卸载机制通过利用其它区域的空闲资源,保障了计算卸载层的资源利用率与任务计算效率。计算卸载的过程被抽象为马尔科夫决策过程并使用深度强化学习算法异步演员-评论家算法(Asynchronous Advantage Actor-Critic,A3C)进行计算任务的卸载决策,以达到平衡负载、降低时延与能耗、提升应用服务质量的目的。大量的仿真实验通过构建不同任务密度的数据集在最大程度上模拟了现实的边缘任务产生过程,并在充足的连续时间段内针对本地计算模型、深度强化学习算法DeepQ-Network(DQN)、异步演员-评论家算法A3C以及双层计算卸载框架进行详细的综合对比试验。实验结果表明基于深度强化学习A3C的双层计算卸载框架在边缘场景下的资源管理上具备更好的场景自适应能力,并且通过终端资源分级以及合理的计算卸载有效降低了任务时延与计算负载,显著提升了应用的服务质量。
基于深度强化学习的双层计算卸载框架模拟了复杂动态边缘场景下的终端分级资源管理过程。其中,本地处理层负责产生数据、上传计算任务以及部分简单计算任务处理,计算卸载层接受复杂的计算任务,对这些任务进行整理和计算,有效降低本地处理层的计算负载;同时二次计算卸载机制通过利用其它区域的空闲资源,保障了计算卸载层的资源利用率与任务计算效率。计算卸载的过程被抽象为马尔科夫决策过程并使用深度强化学习算法异步演员-评论家算法(Asynchronous Advantage Actor-Critic,A3C)进行计算任务的卸载决策,以达到平衡负载、降低时延与能耗、提升应用服务质量的目的。大量的仿真实验通过构建不同任务密度的数据集在最大程度上模拟了现实的边缘任务产生过程,并在充足的连续时间段内针对本地计算模型、深度强化学习算法DeepQ-Network(DQN)、异步演员-评论家算法A3C以及双层计算卸载框架进行详细的综合对比试验。实验结果表明基于深度强化学习A3C的双层计算卸载框架在边缘场景下的资源管理上具备更好的场景自适应能力,并且通过终端资源分级以及合理的计算卸载有效降低了任务时延与计算负载,显著提升了应用的服务质量。