论文部分内容阅读
目前,多Agent系统中的信任模型研究主要包括基于证据(即主观信任)及基于凭证(即客观信任)两个方面。基于证据的信任模型充分考虑了信任的主观性、不确定性和动态性。它是对交互历史进行评估,形成并使用信任关系。但现有的大多数模型,或者对直接信任度的计算过于简单,或者对信任度的综合计算过于简单,或者没有考虑Agent的恶意欺诈等。基于凭证的信任模型中的信任关系通过凭证或凭证链获得,这种模型的特点是对安全度量绝对化,没有考虑信任概念的风险或不确定性,不符合信任的本质特征,即信任是一个形成、进化及使用的过程,无法实时地满足动态环境的变化。
针对上述现行多Agent系统中信任模型中存在的问题,本文以开放环境下多Ment合作求解为研究背景,以信任在Agent合作过程中所起的作用为研究重点,在前人工作的基础上,从决定Agent之间信任度大小的因素着手,对信任的定义、度量和综合计算等方面进行了理论研究,提出一个基于Agent能力和名誉的信任模型--CORE模型。本文主要工作如下:
(1)介绍了Agent及Agent系统概念,讨论了多Agent技术的一些基本理论,定义了信任的基本概念,分析了信任问题在多Agent合作研究上的重要因素,着重研究了多Agent系统中的合作机制;
(2)深入研究了多Agent系统中的信任模型,对于几个经典的信任度评估模型进行了重点探讨,并指出现有典型信任模型中有待进一步解决的问题;
(3)总结前人有关信任建模研究的理论成果基础之上,抽象出“能力”和“名誉”这两个决定Agent信任大小的度量值,建立了多Agent系统中合作求解的信任模型--CORE模型,该模型不仅从静态角度对Agent的能力、名誉进行建模,而且从动态角度提供了Agent的能力增长,名誉更新机制;
(4)基于NetLogo平台,对本文提出的CORE模型进行了仿真实验,实验结果表明,CORE模型能有效模拟多Agent系统中的信任问题,具有较好的理论意义和实际应用价值。
(5)结合基于范例的推理(CBR)及扩展合同网理论,将CORE模型应用于多Agent系统的任务分配,为CORE模型找到了一个应用场景,有效地解决了当今出现的动态联盟、电子商务、计算网格等复杂系统中的任务分配问题。