一种面向糖尿病文本的知识图谱多跳推理方法
未命名
08-23
阅读:79
评论:0
1.本发明属于医学文本信息数据处理技术领域,特别涉及一种面向糖尿病文本的知识图谱多跳推理方法。
背景技术:
2.在医学领域,得益于信息化技术的快速发展和医疗信息系统的普及,医学数据库中积淀了海量的医学文本信息和临床诊断数据,尤其近年来人工智能快步发展和智能医疗精准医疗和医学辅助诊断的提出,知识图谱在医学领域逐渐引起重视。知识图谱能够有效挖掘﹑组织和管理大规模数据中的知识,提高知识信息服务质量,从而也可以在医学领域为医生和病人提供更智能化的服务。
3.基于知识图谱的医学知识推理目的主要是从现有的知识图谱数据中辨别出错误的医学知识数据并发掘推断出新的知识。通过医学知识推理,可以获得医学知识图谱中现有实体对间新的关系,然后反馈给医学知识图谱,从而能够扩展和补全现有医学知识图谱,为医学高级应用提供完备的医学知识支持。基于医学知识图谱广泛的现实应用和补全现有医学知识图谱不完整的缺陷需求,基于知识图谱的医学知识推理成为当前知识图谱和知识推理研究领域的热门问题。
4.然而,虽然医学知识图谱取得了较好的应用与发展,却存在着一些缺陷,其中医学知识图谱由于构建过程中的不完整性严重制约了其使用效能,例如糖尿病数据文本中含有大量的实体与关系,目前面向糖尿病文本构建的知识图谱大多是稀疏的,导致推理过程中存在以下问题:(1)动作空间不完备:现在面向糖尿病文本的知识图谱尽管已经包含了大量的事实三元组,但仍然无法覆盖到整个糖尿病文本数据库,构建的知识图谱因此大多是稀疏的;在推理过程中,关键实体和关系的缺失会导致动作空间不完备,使得智能体难以选择到正确的搜索路径;(2)推理路径正确但不可靠:从语义层次上看,可靠的推理路径和查询关系的语义应相近,不可靠的推理路径与查询关系的语义应相差很大;强化学习在一定程度上依赖于奖励的反馈,并且由于缺少规则的约束,模型需要根据奖励的多少优化动作可能性的分布;然而由于知识图谱环境的复杂性,模型通常难以给予恰当的奖励,并且由于智能体根据延迟的奖励反馈,在搜索过程中智能体会搜索“结果正确但推理不可靠”的路径。
技术实现要素:
5.为解决上述技术问题,本发明提供了一种面向糖尿病文本的知识图谱多跳推理方法,解决了稀疏知识图谱中由于路径缺失与不可靠导致推理难以进行的问题,能够在稀疏的知识图谱环境中,使用一种新的奖励机制将逻辑规则集成到基于强化学习的多跳推理方法中,通过反馈路径可靠度的形式,提高智能体选择路径的质量,提升多跳推理的性能。
6.本发明所述的一种面向糖尿病文本的知识图谱多跳推理方法,包括以下步骤:步骤1、提取糖尿病文本知识图谱中的源实体、目标实体以及二者之间的关系,通过预训练将源实体、目标实体以及二者之间的关系向量化,对知识图谱三元组数据进行嵌
入表示;步骤2、构建强化学习智能体,利用源实体当前查询关系和上一跳推理关系中最相似的关系与实体对扩充智能体的动作空间并通过智能体随机采样策略函数来获取智能体下一步动作;步骤3、提取源实体的实例路径集,归纳出实例路径集对应的元路径集,挖掘糖尿病文本知识图谱中的逻辑规则;步骤4、依据智能体命中目标实体时的命中奖励和智能体元路径符合逻辑规则时的规则奖励来计算智能体总奖励,通过最大化智能体总奖励的期望值来训练智能体的策略网络;步骤5、以提取的源实体和目标实体间的关系以及逻辑规则为基础,通过找到相应元路径与规则主体匹配的实例路径,以便预测实例路径的源实体和目标实体之间的新关系,并输出推理结果。
7.进一步的,步骤1具体为:将糖尿病文本知识图谱表示为的形式,其中,表示实体集,表示关系集;假设每个实体都属于实体类型集中的唯一类型,由映射定义;知识图谱中的每条有向连接表示一个三元组;对于任何关系,用表示其对应的逆关系,即等价于;给定一个查询,其中,为源实体,为查询关系,?为需要查询或推理的结果即目标实体;智能体从源实体开始,不断选择一条当前实体的出边并跳转到下一个实体,直到它到达目标实体或它在上遍历的跳数满足预定义的最大步长。
8.进一步的,步骤2中,构建的智能体的要素包括:状态、动作、奖励、策略网络和转移函数;其中,状态代表智能体当前所在节点嵌入表示,动作代表智能体在当前所在节点所有可能的下一步操作,奖励代表智能体采取动作后所获得的反馈,策略网络代表智能体依据节点状态、动作、奖励及转移函数进行强化学习的网络,转移函数代表状态经过智能体下一步动作后的转移结果;构建强化学习智能体时,第跳的状态为,其中,表示要查询的关系的嵌入表示,表示第跳到达实体的嵌入表示,表示第跳探索的路径历史信息;中的实体和关系,被表示为低维连续向量和,由关系向量和实体向量的拼接向量表示动作,为状态对应的所有动作组成的当前动作空间,动作空间由中的所有动作表示向量堆叠组成,状态中提到的历史路径由lstm编码,。
9.进一步的,步骤2中,更新智能体动作空间时,假设查询三元组,智能体当
前位于实体上,上一跳经过的推理关系为;首先计算关系集r中所有关系与和的相似度:,其中为关系集r中第i个关系向量,
“”
为点乘运算。
10.进一步的,步骤2中,通过计算关系集r中所有关系与实体当前查询关系和其上一跳的推理关系的相似度,选择前个与和相似度最高的关系,使用底层的conve嵌入模型,预测对应的尾实体组成对,为强化学习智能体提供了一个额外的大小为的动作空间;并结合智能体原始在当前节点的动作空间来更新智能体在当前推理路径缺失的节点生成搜索空间,更新过程表示为。
11.进一步的,步骤2中,将在第步的状态输入到强化学习策略网络中,用策略网络引导智能体在动作空间中进行探索,得到下一步动作的概率分布,采用随机抽样选择下一步的动作,进而进行下一步的路径探索;策略网络定义为,其中,表示在状态下,动作空间中的所有动作的概率分布,表示softmax函数,和表示两个线性神经网络,relu表示激活函数;之后,采用随机采样的方法,在动作空间中选择一个动作进行状态的转移,从而进行下一步的转移。
12.进一步的,步骤3中,区分了两种类型的路径:实例路径和元路径;糖尿病文本知识图谱上长度为的实例路径由一个序列给出,其中;调用实体类型的相应序列作为一个元路径。
13.进一步的,通常用于知识图谱推理的逻辑规则写为,考虑以下形式的循环规则,其中,作为规则主体的循环规则由规则头连接元路径的源实体类型和目标实体类型即。
14.进一步的,步骤4中,智能体路径推理过程中,考虑一组元路径,其中每个元素对应于循环规则的主体;对于每个元路径,用表示一个分数,该分数表示相应规则的置信度;对于实例路径
,用表示相应的元路径;如果所提取的元路径的序列与规则对应,则将规则对应的置信度作为额外的规则奖励,每一个规则对应一个置信度得分,置信度得分越高,代表对应得到规则可信度越高;置信度得分越高的规则,表明所提取的元路径的序列在知识图谱中出现的越频繁,所对应的规则可信度也就越高;并在智能体命中正确的尾部实体时,获得命中奖励;其中智能体总奖励函数为:,其中,;超参数设置为1,即只要元路径与规则主体相对应,奖励就会增加,或者设置为,即只有在预测正确的情况下才会得到额外的奖励,有助于智能体提取出与高分规则主体对应的元路径;超参数平衡了奖励的两个组成部分。
15.进一步的,步骤5中,通过最大化奖励和的期望值训练智能体的策略网络,其中智能体的参数优化是通过reinforce算法最大化奖励和的期望进行智能体参数的更新:;其中,表示策略网络的参数,表示在网络参数为时,模型可以得到的奖励期望,reinforce算法策略梯度公式,如下所示:,,其中表示学习率。
16.本发明所述的有益效果为:与现有面向糖尿病文本的知识推理技术相比,本发明结合强化学习智能体的序列决策过程对推理过程中的智能体进行动作空间扩充,从而实现推理路径的补全,实现更全面的知识推理;并且通过引入元路径与逻辑规则,在确定智能体总体奖励时添加元路径符合逻辑规则时的规则奖励,通过反馈路径可靠度的形式,提高智能体选择路径的质量,提升了多跳推理的性能,并且利用了逻辑规则可解释性强的特点,引导强化学习优先选择可解释性强的路径进行探索,提升了多跳知识推理的可解释性。
附图说明
17.图1为实施例中知识推理流程图;图2为实施例中稀疏知识图谱环境下进行知识推理示意图;图3为实施例中智能体动作空间扩充示意图。
具体实施方式
18.为了使本发明的内容更容易被清楚地理解,下面根据具体实施例并结合附图,对本发明作进一步详细的说明。
19.本发明实施例,参见图1所示,提供一种面向糖尿病文本的知识图谱多跳推理方法,包括以下步骤:步骤1、提取糖尿病文本知识图谱中的源实体、目标实体以及二者之间的关系,通过预训练将源实体、目标实体以及二者之间的关系向量化,对知识图谱三元组数据进行嵌入表示;步骤2、构建强化学习智能体,利用源实体当前查询关系和上一跳推理关系中最相似的关系与实体对扩充智能体的动作空间并通过智能体随机采样策略函数来获取智能体下一步动作;步骤3、提取源实体的实例路径集,归纳出实例路径集对应的元路径集,挖掘糖尿病文本知识图谱中的逻辑规则;步骤4、依据智能体命中目标实体时的命中奖励和智能体元路径符合逻辑规则时的规则奖励来计算智能体总奖励,通过最大化智能体总奖励的期望值来训练智能体的策略网络;步骤5、以提取的源实体和目标实体间的关系以及逻辑规则为基础,通过找到相应元路径与规则主体匹配的实例路径,以便预测实例路径的源实体和目标实体之间的新关系,并输出推理结果。
20.如图2所示为稀疏知识图谱环境下进行知识推理任务,每个实体都属于实体类型集中的唯一类型,由映射定义。本案实施例中,表示实体insulin的类型为hormone。此外,实体之间缺失的关系(黑色粗实线箭头)可以通过推理路径(箭头方向)从现有的三元组(黑色细实线箭头)中推断出来,例如从(insulin resembles recombinant human insulin),(recombinant human insulin treats diabetes millitus)可推断出(insulin treats diabetes millitus);然而图谱环境的稀疏造成很多关键推理路径的缺失,比如图中缺失的关系(黑色粗虚线箭头)导致所需要推理的结果(黑色细虚线箭头)难以得出,因此在稀疏的知识图谱环境中进行知识推理,经常出现推理中断的现象。同时,稀疏的图谱环境造成模型很难到足够的训练样本,缺少充足的信息对模型的训练进行指导,很难较好地训练强化学习能体的策略决策网络。本发明实施例中,通过融合语义信息以及逻辑规则来实现完整路径推理,解决稀疏知识图谱缺失路径所带来的推理截断问题。
21.构建的强化学习智能体要素包括:状态 (state),动作 (action),奖励 (reward),策略网络(policy network)和智能体的每一步转移函数(transition);其中,状态代表智能体当前所在节点嵌入表示,动作代表智能体在当前所在节点所有可能的下一步操作,奖励代表智能体采取动作后所获得的反馈,策略网络代表智能体依据节点状态、动作、奖励及转移函数进行强化学习的网络,转移函数代表状态经过智能体下一步动作后的转移结果。
22.采用基于强化学习进行知识推理,将知识推理中的多跳推理问题建模为一个序化决策问题,通过反馈和交互的方式训练强化学习智能体。在智能体路径探索的过程中,学习获得高奖励的路径更新智能体的策略网络,通过强化学习的方法进行路径的推理。当推理的过程中因为路径中断,出现推理路径缺失的情况时,通过上一跳关系和查询关系的语义信息抑制智能体的跳脱型推理,指导智能体的路径搜索方向。通过扩充动作空间来对可能
的动作空间进行增加,而动作空间的增加则依赖于历史信息(通过lstm进行编码)和当前的状态信息进行额外动作空间的增加。如图3所示为实施例智能体动作空间扩充示意图,假设查询三元组,智能体位于当前实体上,上一跳的关系为,计算关系集r中所有关系与实体当前查询关系与其上一跳的查询关系的相似度,选择前个相似度最高的关系,使用底层的conve嵌入模型,预测对应的尾实体组成对,为强化学习智能体进行动作空间扩充,而后作为额外的动作空间嵌入到当前实体原有的动作空间中,缓解多跳推理中路径不连贯的问题。
23.在每跳智能体选择有前途的动作之前,利用与当前查询关系和上一跳推理关系最相似的(关系,实体)对,对当前实体的动作空间进行扩充。智能体关系集中所有关系与实体当前查询关系与上一跳的推理关系的相似度计算过程表示为:。
24.根据相似度排序,选择前个与和最相似的关系,作为智能体在当前的状态下,最有可能的补全的路径集合。接下来,通过根据当前的实体和以上动态补全的路径,通过基于嵌入的方法conve进行链接预测,为强化学习智能体提供了一个额外的大小为的动作空间,即。结合智能体原始在当前节点的动作空间,智能体在当前推理路径缺失的节点生成一个更大的搜索空间 即。
25.将在第步的状态输入到强化学习策略网络中,用策略网络引导智能体在动作空间中进行探索,得到下一步动作的概率分布,采用随机抽样选择下一步的动作,进而进行下一步的路径探索,策略网络定义为,其中,表示在状态下,动作空间中的所有动作的概率分布,表示softmax函数,和表示两个线性神经网络,relu表示激活函数;之后,采用随机采样的方法,在动作空间中选择一个动作进行状态的转移,从而进行下一步的转移。
26.我们区分了两种类型的路径:实例路径和元路径;上长度为的实例路径由一个序列给出,其中。我们调用实体类型的相应序列作为一个元路径。本发明实施例中,构成长度为2的实例路径,是相应的元路径。
27.通常用于知识图谱推理的逻辑规则可以写为,我们考虑以下形式的循环规则,其中,作为规则主体的循环规则由规则头(不要与三元组中的头实体混淆)连接元路径的源实体类型和目标实体类型即;定义,则通用规则具有以下形式。具体地,规则主体对应于从化合物开始并以疾病结束的后通路。本发明实施例中,规则挖掘器采用anyburl方法,规则主体为,对应于规则主体,这表明胰岛素可以治疗糖尿病。
28.智能体路径推理过程中,考虑一组元路径,其中每个元素对应于循环规则的主体。对于每个元路径,我们用表示一个分数,该分数表示相应规则的置信度,此外,对于实例路径,我们用表示相应的元路径。如果所提取的元路径的序列与规则对应,则将规则对应的置信度作为额外的规则奖励,每一个规则对应一个置信度得分,置信度得分越高,代表对应得到规则可信度越高。置信度得分越高的规则,表明所提取的元路径的序列在知识图谱中出现的越频繁,所对应的规则可信度也就越高;并在智能体命中正确的尾部实体时,获得命中奖励;其中智能体总奖励函数为:,其中,;超参数设置为1,即只要元路径与规则主体相对应,奖励就会增加,或者设置为,即只有在预测正确的情况下才会得到额外的奖励,有助于智能体提取出与高分规则主体对应的元路径。超参数平衡了奖励的两个组成部分。
29.我们将本实施例在hetionet数据集上进行了实验。hetionet是一个医学文本数据集,其中有1552种化合物和137种疾病,在化合物和疾病之间观察到775种类型的治疗联系。我们将这755个三元组随机分成训练集、验证集和测试集,其中训练集包含483个三元组,验证集包含121个三元组,测试集包含151个三元组。它由11种不同类型的47,031个实体和24
种不同类型的2,250,197条边组成。
30.在hetionet数据集中,我们采用连接compound类型实体与disease类型实体并且对应于各种药理作用机制的元路径来作为规则主体,将规则的置信度作为质量分数。规则的置信度定义为规则支持度除以数据中的主体支持度。我们通过抽样5000条元路径对应于规则主体的路径来估计每个规则的置信度得分,然后计算规则头部保持的频率。表1概述了这10个元路径及其相应的分数:表1。
31.为了验证本发明方法在知识图谱推理上的优势,本实施例选取目前使用较为广泛的七种知识图谱推理方法与本发明的基于逻辑规则与强化学习的知识图谱推理方法进行对比,七种知识图谱推理方法分别为:基于逻辑规则的方法:anyburl;基于嵌入的方法:transe、distmult、conve;图卷积方法:r-gcn、compgcn;基于强化学习的方法:minerva。
32.表2
。
33.我们将本发明方法应用于医学数据集hetionet,并计算链接预测任务的hits@1,hits@3,hits@10和平均倒数排名(mrr)的值,hits@1、hits@3和hits@10分别表示推理的尾实体在候选实体列表中命中为第1、前3和前10的比例,mrr表示推理尾实体在候选实体排名列表中排名倒数的平均值。在推理过程中,进行波束搜索,寻找最有希望的路径,并根据其对应路径的概率对目标实体进行排序。
34.表2对比了本方法与目前常用知识图谱推理方法在hetionet数据集上的实验情况,结果表明本发明方法在医学数据集hetionet上均超过了其它知识图谱推理方法。
35.通过以上提出的动作空间扩充策略和引入元路径及逻辑规则,当强化学习智能体在当前节点发生了推理路径的中断时,可以结合逻辑规则提供的全局信息以及目标预测的信息,进行动态地推理路径补全,并进行下一步推理跳转。该方法为强化学习智能体提供一个更大、更有效的动作搜索空间,从而缓解稀疏知识图谱路径缺失所带来的推理截断问题,并且在确定智能体总体奖励时添加元路径符合逻辑规则时的规则奖励,提升了多跳知识推理的可靠性和可解释性。
36.以上所述仅为本发明的优选方案,并非作为对本发明的进一步限定,凡是利用本发明说明书及附图内容所作的各种等效变化均在本发明的保护范围之内。
技术特征:
1.一种面向糖尿病文本的知识图谱多跳推理方法,其特征在于,包括以下步骤:步骤1、提取糖尿病文本知识图谱中的源实体、目标实体以及二者之间的关系,通过预训练将源实体、目标实体以及二者之间的关系向量化,对知识图谱三元组数据进行嵌入表示;步骤2、构建强化学习智能体,利用源实体当前查询关系和上一跳推理关系中最相似的关系与实体对扩充智能体的动作空间并通过智能体随机采样策略函数来获取智能体下一步动作;步骤3、提取源实体的实例路径集,归纳出实例路径集对应的元路径集,挖掘糖尿病文本知识图谱中的逻辑规则;步骤4、依据智能体命中目标实体时的命中奖励和智能体元路径符合逻辑规则时的规则奖励来计算智能体总奖励,通过最大化智能体总奖励的期望值来训练智能体的策略网络;步骤5、以提取的源实体和目标实体间的关系以及逻辑规则为基础,通过找到相应元路径与规则主体匹配的实例路径,以便预测实例路径的源实体和目标实体之间的新关系,并输出推理结果。2.根据权利要求1所述的一种面向糖尿病文本的知识图谱多跳推理方法,其特征在于,步骤1具体为:将糖尿病文本知识图谱表示为的形式,其中,表示实体集,表示关系集;假设每个实体都属于实体类型集中的唯一类型,由映射定义;知识图谱中的每条有向连接表示一个三元组;对于任何关系,用表示其对应的逆关系,即等价于;给定一个查询,其中,为源实体,为查询关系,?为需要查询或推理的结果即目标实体;智能体从源实体开始,不断选择一条当前实体的出边并跳转到下一个实体,直到它到达目标实体或它在上遍历的跳数满足预定义的最大步长。3.根据权利要求1所述的一种面向糖尿病文本的知识图谱多跳推理方法,其特征在于,步骤2中,构建的智能体的要素包括:状态、动作、奖励、策略网络和转移函数;其中,状态代表智能体当前所在节点嵌入表示,动作代表智能体在当前所在节点所有可能的下一步操作,奖励代表智能体采取动作后所获得的反馈,策略网络代表智能体依据节点状态、动作、奖励及转移函数进行强化学习的网络,转移函数代表状态经过智能体下一步动作后的转移结果;构建强化学习智能体时,第跳的状态为,其中,表示要查询的关系的嵌入表示,表示第跳到达实体的嵌入表示,表示第跳探索的路径历史信息;中的实体和关系,被表示为低维连续向量和,由关系向量和实体向量的拼接向量表示动作,为状态对应的所有动作组成的当前动作空间,动作空间由中的所有动作表示向量堆叠组成,状态中提到的历史路径由lstm编码,
。4.根据权利要求3所述的一种面向糖尿病文本的知识图谱多跳推理方法,其特征在于,步骤2中,更新智能体动作空间时,假设查询三元组,智能体当前位于实体上,上一跳经过的推理关系为;首先计算关系集r中所有关系与和的相似度:,其中为关系集r中第i个关系向量。5.根据权利要求4所述的一种面向糖尿病文本的知识图谱多跳推理方法,其特征在于,步骤2中,通过计算关系集r中所有关系与实体当前查询关系和其上一跳的推理关系的相似度,选择前个与和相似度最高的关系,使用底层的conve嵌入模型,预测对应的尾实体组成对,为强化学习智能体提供了一个额外的大小为的动作空间;并结合智能体原始在当前节点的动作空间来更新智能体在当前推理路径缺失的节点生成搜索空间,更新过程表示为。6.根据权利要求5所述的一种面向糖尿病文本的知识图谱多跳推理方法,其特征在于,步骤2中,将在第步的状态输入到强化学习策略网络中,用策略网络引导智能体在动作空间中进行探索,得到下一步动作的概率分布,采用随机抽样选择下一步的动作,进而进行下一步的路径探索;策略网络定义为,其中,表示在状态下,动作空间中的所有动作的概率分布,表示softmax函数,和表示两个线性神经网络,relu表示激活函数;之后,采用随机采样的方法,在动作空间中选择一个动作进行状态的转移,从而进行下一步的转移。7.根据权利要求1所述的一种面向糖尿病文本的知识图谱多跳推理方法,其特征在于,步骤3中,区分了两种类型的路径:实例路径和元路径;糖尿病文本知识图谱上长度为的实例路径由一个序列给出,其中;调用实体类型的相应序列作为一个元路径。8.根据权利要求7所述的一种面向糖尿病文本的知识图谱多跳推理方法,其特征在于,通常用于知识图谱推理的逻辑规则写为,考虑以下形式的循环规则,其中,作为规则主体的循环规则由规则头连接元
路径的源实体类型和目标实体类型即。9.根据权利要求8所述的一种面向糖尿病文本的知识图谱多跳推理方法,其特征在于,步骤4中,智能体路径推理过程中,考虑一组元路径,其中每个元素对应于循环规则的主体;对于每个元路径,用表示一个分数,该分数表示相应规则的置信度;对于实例路径,用表示相应的元路径;如果所提取的元路径的序列与规则对应,则将规则对应的置信度作为额外的规则奖励,每一个规则对应一个置信度得分,置信度得分越高,代表对应得到规则可信度越高;置信度得分越高的规则,表明所提取的元路径的序列在知识图谱中出现的越频繁,所对应的规则可信度也就越高;并在智能体命中正确的尾部实体时,获得命中奖励;其中智能体总奖励函数为:,其中,;超参数设置为1,即只要元路径与规则主体相对应,奖励就会增加,或者设置为,即只有在预测正确的情况下才会得到额外的奖励,有助于智能体提取出与高分规则主体对应的元路径;超参数平衡了奖励的两个组成部分。10.根据权利要求1所述的一种面向糖尿病文本的知识图谱多跳推理方法,其特征在于,步骤5中,通过最大化奖励和的期望值训练智能体的策略网络,其中智能体的参数优化是通过reinforce算法最大化奖励和的期望进行智能体参数的更新:;其中,表示策略网络的参数,表示在网络参数为时,模型可以得到的奖励期望,reinforce算法策略梯度公式,如下所示:,,其中表示学习率。
技术总结
本发明属于医学文本信息数据处理技术领域,公开了一种面向糖尿病文本的知识图谱多跳推理方法,将源实体和关系向量化,对知识图谱三元组数据进行嵌入表示;构建强化学习智能体,通过智能体随机采样策略函数来获取智能体下一步动作;通过实例路径集对应的元路径集挖掘知识图谱中的逻辑规则;依据智能体的命中奖励和规则奖励来计算智能体总奖励,通过最大化智能体总奖励的期望值来训练智能体的策略网络;以提取的实体及实体间关系和逻辑规则为基础,通过找到相应元路径与规则主体匹配的实例路径,预测实例路径的源实体和目标实体之间的新关系,并输出推理结果。本发明提高了智能体选择路径的质量及多跳推理的性能,提升了多跳知识推理的可解释性。知识推理的可解释性。知识推理的可解释性。
技术研发人员:郭永安 狄杰斯 钱琪杰 周沂 王宇翱
受保护的技术使用者:南京邮电大学
技术研发日:2023.07.21
技术公布日:2023/8/21
版权声明
本文仅代表作者观点,不代表航空之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
飞行汽车 https://www.autovtol.com/
上一篇:一种钎焊用电烙铁的制作方法 下一篇:一种建筑自控系统组态页面的配置平台的制作方法
