一种基于多任务神经网络的端到端方面级情感分析方法

未命名 07-27 阅读:210 评论:0


1.本发明属于计算机语言处理、情感分析方向,主要涉及一种关于端到端方面级情感分析的方法。


背景技术:

2.随着信息技术的蓬勃发展,许多人在twitter、微博、知乎等社交平台以及淘宝、京东、亚马逊等电子商务平台发文以表达他们的意见或者观点,这些方式使得网络成为最普遍和最重要的信息来源。在民众对消费娱乐、时事热点、民生问题等各个层面表达意见的同时,这些含有民众情感倾向的文本资源也将成为舆情监督、政府管理、商品运营等机构制定策略的重要依据。对于互联网中涌现出的大量文本信息,如何高效地利用人工智能等相关技术并且挖掘出文本数据中所蕴含的情感价值显得尤为重要。
3.情感作为人的一种特殊反映,表达了对外界客观事物的态度。人们习惯于通过表情、肢体语言、文字等各种形式来表达自己的情感,而文字是最重要的思想表达的途经之一,也是互联网时代下传达信息的主要载体。情感分析(sentiment analysis,sa),又被称为意见挖掘(opinion mining,om),是自然语言处理(natural language processing,nlp)的一项重要子任务,旨在从文本中提取情感倾向和意见表达。此外,新的情感分析技术也开始将文本信息和其它形式的信息相互融合,如视觉数据、语音数据等,而本课题致力于研究文本情感分析的相关技术和任务。根据研究对象的差异,可将情感分析划分为文档级(document-level)、句子级(sentence-level)和方面级(aspect-level),目的均在于将文档、句子和方面所表达的积极、消极或中性的情感倾向进行分类。方面级情感分析(aspect-based sentiment analysis,absa)旨在分析特定目标或者方面词在当前句子中的情感极性,属于细粒度情感分析任务。不同于文档级和句子级情感分析,方面级情感分析考虑了句子中不同方面所表达的情感倾向,是一种更深层次、更精细化的情感分析,因此也广泛受到研究人员的关注。在方面级情感分析中,早期的研究人员通常使用基于词典和有监督的机器学习这类传统方法。这些方法需要耗费大量人力去进行高质量的特征选择和提取,且不能捕捉方面词和上下文的语义信息。随着深度学习技术广泛应用于各种自然语言处理任务中,也促进了神经网络模型和相关技术在方面级情感分析任务中的发展。如基于卷积神经网络(convolutional neural network,cnn)、循环神经网络(recurrent neural network,rnn)、注意力机制(attention mechanism)等的大量方法被提出。不同于需要依赖人工特征的传统方法,基于深度学习的方面级情感分析模型在词向量表达、特征提取、特征融合等多个方面均有优秀的表现。虽然深度学习模型在方面级情感分析任务中弥补了传统机器学习模型需要人工特征的不足,但现有模型仍然存在许多缺陷。例如在方面术语情感分类任务中,部分模型特征提取不足,没有利用好方面术语在情感分类中的作用,也缺乏考虑模型的全局意识。又如在端到端方面级情感分析中缺乏考虑不同子任务之间的显示联系,忽略了依存句法对模型性能的影响等。因此,本文针对端到端方面级情感分析任务进行研究并提出更加高效的模型。


技术实现要素:

4.本发明目的在于提出一种神经网络模型,用于端到端方面级情感分析,在该模型的学习下,端到端方面级情感分析中的各项评价指标均能得到提升。
5.为了达成上述目的,本发明采用的解决方案是提出一种基于多任务神经网络的端到端方面级情感分析方法。包括以下步骤:
6.步骤1:将数据集进行划分,并且将数据集中的句子统一成当前数据集中句子最大长度,同时获取输入句子的词向量
7.步骤2:将步骤1中的词向量使用bi-lstm进行句子的语义编码和使用gcn结合句法依存树进行句子的语法编码。
8.步骤3:利用步骤2中得到的句子表达分别构建方面术语提取、意见术语提取和方面术语情感分类子任务。在三个子任务中共享编码层的全部权重参数,并且在各自的子任务中享有单独的权重。
9.步骤4:分别在步骤3的结果上建立三个子任务的输出。
10.步骤5:将三个子任务的输出进行联合训练。
11.进一步地,步骤1的具体方法为:
12.统计数据集中全部句子的长度,并且将所有句子的长度都统一为当前数据集中最大句子长度,不够长度的句子末端用0补齐。给定句子s={w1,w2,

,wn},其中n为句子长度。本方法使用glove将其映射为一组高维词向量。设词向量查找矩阵为其中dv是词向量维数,|v|为glove词汇表大小。输入句子s经向量化后可得到向量表示x={x1,x2,

,xn},其中
13.进一步地,步骤2的具体方法为:
14.(1)、bi-lstm编码
15.设t时刻输入为x
t
,h
t-1
表示前一个时刻的输出,则当前时刻输出h
t
更新如下:
16.i
t
=σ(x
t
ui+h
t-1
wi+bi)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(1)
17.f
t
=σ(x
t
uf+h
t-1
wf+bf)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(2)
18.o
t
=σ(x
t
uo+h
t-1
wo+bo)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(3)
[0019][0020][0021]ht
=o
t

tanh(c
t
)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6)
[0022]
其中,i、f和o分别为输入门、遗忘门和输出门。σ为s型函数,

为向量元素乘法。ui、wi、uf、wf、uo、wo、uc和wc为可训练权重,bi、bf、bo和bc为偏置项。在序列建模任务中,当前单词的语义信息同时受到过去上下文和未来上下文影响,因此,通过引入第二个隐藏层来扩展单向lstm,其中隐藏层的信息以相反时间顺序流动。如下所示:
[0023][0024]
其中,和分别表示信息正向流动和反向流动的输出,(;)表示向量元素拼接。将输入向量x经过bi-lstm编码后,得到句子特征表示hb={h1,h2,

,hn}。
[0025]
(2)、gcn编码
[0026]
对于给定节点的图g={v,a},其中是图中的全部节点,对应于句子中的每个单词,为全部节点的邻接矩阵。若两个节点vi、vj所对应单词之间有语法依赖关系,则邻接矩阵a
ij
=1,反之则a
ij
=0。对于l层的gcn,l∈{1,2,

,l},则节点vi的第l层输出可以表示为:
[0027][0028]
其中,为节点vi的第l-1层输出,w
l
为权重矩阵,b
l
为偏置项,σ为relu函数。由于图卷积过程只对当前节点的直接邻居信息进行编码,因此l层的gcn最终输出为:
[0029][0030]
为了同时对语义信息和语法信息进行建模,将bi-lstm的输出hb和gcn的输出h
l
拼接起来生成最终编码层表示h={hb;h
l
}。
[0031]
进一步地,步骤3为分别建立各个子任务:
[0032]
(1)、方面术语提取任务
[0033]
方面术语提取任务目的在于标记出句子中的方面术语边界,本发明使用非线性函数来剥离与方面术语无关的特征,具体如下:
[0034][0035]
其中,hi表示第i个单词的编码层输出,w
ae
为可训练参数,b
ae
为偏置项,σ为非线性函数,本发明使用relu函数。
[0036]
(2)、意见术语提取任务
[0037]
意见术语提取任务目的在于标记出句子中的意见术语边界,本发明使用非线性函数来剥离与意见术语无关的特征,具体如下:
[0038][0039]
其中,hi表示第i个单词的编码层输出,w
oe
为可训练参数,b
oe
为偏置项,σ为非线性函数,本发明使用relu函数。
[0040]
(3)、方面术语情感分类任务
[0041]
为了匹配上述两个子任务中的特征关系,本发明利用方面术语提取任务中的方面术语边界信息引导注意力机制来捕获方面术语情感分类任务中的意见术语边界。对于ate中任意位置i而言,其输出为与asc中任意位置j所得的注意力得分如下:
[0042][0043]
其中,为意见术语提取任务的输出,we为可训练参数,be为偏置项。考虑到方面术语附近的单词更容易成为意见术语,因此在上述公式中添加了位置向量来帮助计算注意力得分。定义位置i和位置j之间的相对距离为:
[0044][0045]
并将其映射为向量。然后得出注意力归一化得分为:
[0046][0047]
经注意力加权后的方面术语情感分类任务输出为:
[0048][0049]
通常来说,由多个处理层组成的计算模型能够学习具有多个抽象层次的数据表示因此本方法中采用多个计算层堆叠的方式进行特征融合。堆叠方式和上述方式相同。
[0050]
进一步地,步骤4将建立三个子任务的输出:
[0051]
(1)、方面术语提取任务
[0052]
按照{b,i,o}标记方案将句子中每个单词进行标记,标记后的输出为:
[0053][0054]
其中,为可训练参数,为偏置项。由此可得出方面术语提取的交叉熵损失loss
ae
为:
[0055][0056]
其中,n为句子长度,c
ae
为标签类别数,为真实标签,为预测标签。
[0057]
(2)、意见术语提取任务
[0058]
按照{b,i,o}标记方案将句子中每个单词进行标记,标记后的输出为:
[0059][0060]
其中,为可训练参数,为偏置项。由此可得出方面术语提取的交叉熵损失loss
oe
为:
[0061][0062]
其中,n为句子长度,c
oe
为标签类别数,为真实标签,为预测标签。
[0063]
(3)、方面术语情感分类任务
[0064]
为了增强序列标记任务的结果,采用crf作为asc的输出层。对于输出最终的预测结果而言,输出序列的概率计算如下:
[0065][0066]
其中,y'表示为序列中的任意标签,为权重参数,为偏置项。因此,在方面术语情感分类任务上的损失函数为:
[0067]
loss
sc
=-logp(y
sc
|h
sc
)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(21)
[0068]
进一步地,步骤5将对三个子任务进行联合训练,将模型的最终损失函数表示为:
[0069]
loss
absa
=loss
ae
+loss
oe
+loss
sc
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(22)
附图说明
[0070]
为了使本发明的目的、技术方案和有益效果更加清楚,本发明提供如下附图进行说明:
[0071]
图1为本发明所涉的一种基于多任务神经网络的端到端方面级情感分析方法整体流程图。
[0072]
图2为本发明的端到端方面级情感分析模型框架图。
具体实施方式
[0073]
本发明为一种基于多任务神经网络的端到端方面级情感分析方法,下面结合附图,对本发明的具体实施方式进行详细描述。
[0074]
1.图1为本发明所涉一种基于多任务神经网络的端到端方面级情感分析方法整体流程图,下面结合图1进一步描述。本发明主要包括的步骤:
[0075]
步骤1:将数据集进行划分,并且将数据集中的句子统一成当前数据集中句子最大长度,同时获取输入句子的词向量
[0076]
步骤2:将步骤1中的词向量使用bi-lstm进行句子的语义编码和使用gcn结合句法依存树进行句子的语法编码。
[0077]
步骤3:利用步骤2中得到的句子表达分别构建方面术语提取、意见术语提取和方面术语情感分类子任务。在三个子任务中共享编码层的全部权重参数,并且在各自的子任务中享有单独的权重。
[0078]
步骤4:分别在步骤3的结果上建立三个子任务的输出。
[0079]
步骤5:将三个子任务的输出进行联合训练。
[0080]
2.图2为本发明端到端方面级情感分析模型框架图,下面结合图2对本发明的结构原理作进一步说明。由图可知本发明的方法模型一共有4层,分别是嵌入层、编码层、多任务层、输出层,各层具体内容如下:
[0081]
(1)嵌入层
[0082]
统计数据集中全部句子的长度,并且将所有句子的长度都统一为当前数据集中最大句子长度,不够长度的句子末端用0补齐。给定句子s={w1,w2,

,wn},其中n为句子长度。本模型使用glove将其映射为一组高维词向量。设词向量查找矩阵为其中dv是词向量维数,|v|为glove词汇表大小。输入句子s经向量化后可得到向量表示x={x1,x2,

,xn},其中
[0083]
(2)编码层
[0084]
为了让模型在学习过程中能够同时参考句子的语义信息和语法信息,本模型将分别使用bi-lstm和gcn两个网络来生成句子的语义表示和语法表示,然后将二者拼接起来以便后续任务学习。
[0085]
1)、bi-lstm编码
[0086]
对于具有上下文依赖关系的文本而言,循环神经网络能够轻易捕捉到其语义特征。然而标准rnn存在梯度消失或者爆炸的问题,为了克服这一问题,本模型使用bi-lstm来构建句子的隐藏表示。lstm包含三个门单元和一个记忆单元,利用自适应门控机制决定保持前一状态的信息和当前输入数据特征的比例。设t时刻输入为x
t
,h
t-1
表示前一个时刻的
输出,则当前时刻输出h
t
更新如下:
[0087]it
=σ(x
t
ui+h
t-1
wi+bi)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(1)
[0088]ft
=σ(x
t
uf+h
t-1
wf+bf)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(2)
[0089]ot
=σ(x
t
uo+h
t-1
wo+bo)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(3)
[0090][0091][0092]ht
=o
t

tanh(c
t
) (6)
[0093]
其中,i、f和o分别为输入门、遗忘门和输出门。σ为s型函数,

为向量元素乘法。ui、wi、uf、wf、uo、wo、uc和wc为可训练权重,bi、bf、bo和bc为偏置项。在序列建模任务中,当前单词的语义信息同时受到过去上下文和未来上下文影响,因此,通过引入第二个隐藏层来扩展单向lstm,其中隐藏层的信息以相反时间顺序流动。如下所示:
[0094][0095]
其中,和分别表示信息正向流动和反向流动的输出,(;)表示向量元素拼接。将输入向量x经过bi-lstm编码后,得到句子特征表示hb={h1,h2,

,hn}。
[0096]
2)、gcn编码
[0097]
在方面级情感分析任务中,若需要准确识别出方面术语、意见术语以及确定方面术语所对应的情感极性仅靠句子语义信息是不够的。句子的语法信息对于提高模型性能也是很关键的因素。例如,句子中方面术语通常由名词充当,意见术语通常由形容词充当,而通过语法分析能够识别出句子中的哪些词语具有语法依赖关系。本模型使用spacy英文文本处理工具库中的依赖解析器生成句子的语法依存树。为了充分发挥语法结构的作用,使用gcn对语法依存树进行编码,以获取句子中有用信息的语法依赖关系。对于给定节点的图g={v,a},其中是图中的全部节点,对应于句子中的每个单词,为全部节点的邻接矩阵。若两个节点vi、vj所对应单词之间有语法依赖关系,则邻接矩阵a
ij
=1,反之则a
ij
=0。对于l层的gcn,l∈{1,2,

,l},则节点vi的第l层输出可以表示为:
[0098][0099]
其中,为节点vi的第l-1层输出,w
l
为权重矩阵,b
l
为偏置项,σ为relu函数。由于图卷积过程只对当前节点的直接邻居信息进行编码,因此l层的gcn最终输出为:
[0100][0101]
为了同时对语义信息和语法信息进行建模,将bi-lstm的输出hb和gcn的输出h
l
拼接起来生成最终编码层表示h={hb;h
l
}。
[0102]
(3)多任务层
[0103]
为了在端到端方面级情感分析任务中同时检测出方面术语和其对应的情感极性,本模型通过构建多任务层将方面术语和情感属性嵌入到模型中。通过多任务层的监督训练能够显性的利用各个任务的相关知识,在多任务层中,模型能够从不同视角、不同层次去学习句子中隐藏的信息,利用方面术语提取任务和意见术语提取任务对方面术语和术语的边界进行编码,然后再通过方面术语情感分类任务中特定的深度上下文感知结构建立起两个
任务之间的显性关系。
[0104]
1)、方面术语提取任务
[0105]
方面术语提取任务目的在于标记出句子中的方面术语边界,本模型使用非线性函数来剥离与方面术语无关的特征,具体如下:
[0106][0107]
其中,hi表示第i个单词的编码层输出,w
ae
为可训练参数,b
ae
为偏置项,σ为非线性函数,本模型使用relu函数。
[0108]
2)、意见术语提取任务
[0109]
意见术语提取任务目的在于标记出句子中的意见术语边界,本模型使用非线性函数来剥离与意见术语无关的特征,具体如下:
[0110][0111]
其中,hi表示第i个单词的编码层输出,w
oe
为可训练参数,b
oe
为偏置项,σ为非线性函数,本模型使用relu函数。
[0112]
3)、方面术语情感分类任务
[0113]
为了匹配上述两个子任务中的特征关系,本模型利用方面术语提取任务中的方面术语边界信息引导注意力机制来捕获方面术语情感分类任务中的意见术语边界。对于ate中任意位置i而言,其输出为与asc中任意位置j所得的注意力得分如下:
[0114][0115]
其中,为意见术语提取任务的输出,we为可训练参数,be为偏置项。考虑到方面术语附近的单词更容易成为意见术语,因此在上述公式中添加了位置向量来帮助计算注意力得分。定义位置i和位置j之间的相对距离为:
[0116][0117]
并将其映射为向量。然后得出注意力归一化得分为:
[0118][0119]
经注意力加权后的方面术语情感分类任务输出为:
[0120][0121]
通常来说,由多个处理层组成的计算模型能够学习具有多个抽象层次的数据表示,在本模型中,一层中的注意层本质上是一个加权平均合成函数,它不足以处理语言中复杂的计算性,如否定、强化和对立。多个计算层允许模型学习具有多个抽象层次的文本表示。每个层检索重要的上下文单词,并将前一级的表示转换为更高、更抽象的表示。有了足够多的这种转换的组合,就可以学习面向方面的非常复杂的句子表示功能。因此本模型中采用多个计算层堆叠的方式进行特征融合。
[0122]
(4)输出层
[0123]
1)、方面术语提取任务
[0124]
按照{b,i,o}标记方案将句子中每个单词进行标记,标记后的输出为:
[0125][0126]
其中,为可训练参数,为偏置项。由此可得出方面术语提取的交叉熵损失loss
ae
为:
[0127][0128]
其中,n为句子长度,c
ae
为标签类别数,为真实标签,为预测标签。
[0129]
2)、意见术语提取任务
[0130]
按照{b,i,o}标记方案将句子中每个单词进行标记,标记后的输出为:
[0131][0132]
其中,为可训练参数,为偏置项。由此可得出方面术语提取的交叉熵损失loss
oe
为:
[0133][0134]
其中,n为句子长度,c
oe
为标签类别数,为真实标签,为预测标签。
[0135]
3)、方面术语情感分类任务
[0136]
为了增强序列标记任务的结果,采用crf作为asc的输出层。crf追求全局最可能的标签序列,被广泛用作序列标记模型的输出层。对于输出最终的预测结果而言,输出序列的概率计算如下:
[0137][0138]
其中,y'表示为序列中的任意标签,为权重参数,为偏置项。因此,在方面术语情感分类任务上的损失函数为:
[0139]
loss
sc
=-logp(y
sc
|h
sc
)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(21)
[0140]
最后,将对三个子任务进行联合训练,将模型的最终损失函数表示为:
[0141]
loss
absa
=loss
ae
+loss
oe
+loss
sc
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(22)
[0142]
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

技术特征:
1.一种基于多任务神经网络的端到端方面级情感分析方法,其特征在于,所述方法的具体步骤包括:步骤1:将数据集进行划分,并且将数据集中的句子统一成当前数据集中句子最大长度,同时获取输入句子的词向量。步骤2:使用bi-lstm进行句子的语义编码和使用gcn结合句法依存树进行句子的语法编码。步骤3:分别构建方面术语提取、意见术语提取和方面术语情感分类子任务。在三个子任务中共享编码层的全部权重参数,并且在各自的子任务中享有单独的权重。步骤4:建立三个子任务的输出。步骤5:将三个子任务的输出进行联合训练。2.根据权利要求1所述的基于多任务神经网络的端到端方面级情感分析方法,其特征在于,所述步骤2采用了bi-lstm和gcn同时对句子进行编码。其中,bi-lstm对句子进行语义层面编码,gcn结合句法依存树对句子进行语法层面编码,然后将两种编码拼接起来。步骤2的具体方法为:(1)在bi-lstm编码中,设t时刻输入为x
t
,h
t-1
表示前一个时刻的输出,则当前时刻输出h
t
更新如下:i
t
=σ(x
t
u
i
+h
t-1
w
i
+b
i
)
ꢀꢀꢀꢀꢀꢀ
(1)f
t
=σ(x
t
u
f
+h
t-1
w
f
+b
f
)
ꢀꢀꢀꢀꢀ
(2)o
t
=σ(x
t
u
o
+h
t-1
w
o
+b
o
)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(3)(3)h
t
=o
t

tanh(c
t
)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6)其中,i、f和o分别为输入门、遗忘门和输出门。σ为s型函数,

为向量元素乘法。式子(1)-(4)中u
x
、w
x
、b
x
均为可训练参数。bi-lstm输出为:其中,和分别表示信息正向流动和反向流动的输出,(;)表示向量元素拼接。将输入向量x经过bi-lstm编码后,得到句子特征表示h
b
={h1,h2,

,h
n
}。(2)在gcn编码中,对于给定节点的图g={v,a},其中是图中的全部节点,对应于句子中的每个单词,为全部节点的邻接矩阵。若两个节点v
i
、v
j
所对应单词之间有语法依赖关系,则邻接矩阵a
ij
=1,反之则a
ij
=0。对于l层的gcn,l∈{1,2,

,l},则节点v
i
的第l层输出可以表示为:其中,为节点v
i
的第l-1层输出,w
l
为权重矩阵,b
l
为偏置项,σ为relu函数。由于图卷积过程只对当前节点的直接邻居信息进行编码,因此l层的gcn最终输出为:
为了同时对语义信息和语法信息进行建模,将bi-lstm的输出h
b
和gcn的输出h
l
拼接起来生成最终编码层表示h={h
b
;h
l
}。3.根据权利要求1所述的基于多任务神经网络的端到端方面级情感分析方法,其特征在于,所述步骤3的具体方法为:(1)方面术语提取任务具体表示如下:其中,h
i
表示第i个单词的编码层输出,w
ae
为可训练参数,b
ae
为偏置项,σ为relu函数。(2)意见术语提取任务具体表示如下:其中,h
i
表示第i个单词的编码层输出,w
oe
为可训练参数,b
oe
为偏置项,σ为relu函数。(3)方面术语情感分类任务在于标记出句子中方面术语的情感极性,对于ate中任意位置i而言,其输出为与方面术语情感分类任务中任意位置j所得的注意力得分如下:其中,为意见术语提取任务的输出,w
e
为可训练参数,b
e
为偏置项。定义位置i和位置j之间的相对距离为:并将其映射为向量。然后得出注意力归一化得分为:经注意力加权后的方面术语情感分类任务表示为:再通过多个计算层的堆叠,堆叠方式和上述步骤一样。

技术总结
本发明为一种基于多任务神经网络端到端方面级情感分析方法,该方法以多任务神经网络为基础,集方面术语提取、意见术语提取、方面术语情感分类三种子任务为一体。该方法同时融合了句子的语义信息和语法信息,并且能够使各个子任务产生深度的显性交互关系。本发明中,首先利用Bi-LSTM和GCN对句子进行编码,然后建立起各个子任务独有的参数学习层以及用于子任务之间交互的参数共享层,最后将所有输出进行联合学习。在多任务联合学习下,端到端方面级情感分析的评价指标以及本发明中涉及到的方面级情感分析子任务的评价指标均得到提升,进而说明本发明的有效性和创新性。而说明本发明的有效性和创新性。而说明本发明的有效性和创新性。


技术研发人员:梁燕 刘超
受保护的技术使用者:重庆邮电大学
技术研发日:2022.01.05
技术公布日:2023/7/25
版权声明

本文仅代表作者观点,不代表航空之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

飞行汽车 https://www.autovtol.com/

分享:

扫一扫在手机阅读、分享本文

相关推荐