摘要
方面级情感分析(aspect-based sentiment analysis, ABSA)旨在识别文本中用户对于特定方面所表达的观点信息, 涉及方面词、意见词、情感极性等多种元素.现有研究大多关注独立任务, 忽略了各元素间的特征交互, 存在错误传播问题. 基于多特征加权图卷积网络提出的情感三元组抽取方法将多个子任务联合建模;采用双仿射注意力模块捕捉词对间的关系概率分布, 将文本语义、句法、位置等先验信息编码为多特征向量;利用图卷积操作实现多特征融合, 最终实现方面术语-意见术语-情感极性的联合抽取. 基于两组基准数据集进行评估实验, 实验结果表明, 多特征加权图卷积网络的情感三元组抽取方法有效缓解了流水线方法错误传播的状况, 提升了三元组各元素间的特征交互, 处理三元组抽取任务的能力显著优于现有基准模型.
方面情感三元组抽取(aspect sentiment triplet extraction, ASTE)是方面情感分析任务中基于多任务学习的全新研究方法,旨在从输入文本中自动提取(方面术语, 意见术语,情感极性)三元组信息. 如

图1 方面情感三元组抽取任务样例
Fig.1 Example of the ASTE task
方面情感三元组抽取有流水线法(PipeLine)和联合法(Joint)两种建模方式. 流水线
在联合抽取任务中,如何设计目标自适应的标记方案是解决流水线法交互缺失和级联误差传播问题的有效措施. Xu
此外,考虑到方面术语与上下文或意见术语之间存在特定的句法依赖关系, 这些语言知识可以为方面情感三元组抽取任务提供丰富的指示信息. 如
基于上述考虑, 本文的研究思路是构建三元组联合抽取框架;通过图卷积操作和关系约束条件实现单词间句法依存和位置信息等特征的相互融合, 增强模型解码标签的精确性;改进序列标注模型中最常使用的是BIO标注方案, 采用包含方面、意见、情感、无效4种关系的10类网格标签集合实现三元组的联合抽取.
1 相关工作
1.1 图卷积网络
在ABSA任务中, 注意力机制和卷积神经网络因其固有的语义对齐能力被广泛使用. 然而, 此类模型缺乏一种机制来解释相关的句法约束和长距离单词依赖性, 并且易将句法不相关的上下文词作为判断方面情感的线索. 主要有以下局限性:其一, 基于注意力机制的模型无法捕获上下文词与方面词的句法依赖, 因此这种关注机制会将句法上不相关的上下文词作为方面情感的描述符;其二, 由于方面的情感通常由关键短语决定, 基于卷积神经网络(convolutional neural network, CNN)的模型只能通过对单词序列进行卷积操作将多个单词特征感知为连续值, 而无法确定由彼此不相邻的多个单词所表达的情感.
Zhang
(1) |
式中:是前一层GCN得到的第个单词的表示;和分别是权重矩阵和偏置;是当前GCN层的输出向量.
1.2 标记方案
通常, 研究者将ASTE视为针对每个单词的两个序列标记问题, 加上针对每个候选方面意见对的一个情绪分类问题. 本节介绍ASTE任务中常用的标记方案, 分为序列标记和网格标记两大类.
序列标记方案是基于BIESO标记的, 其中B为实体的开始, I为中间部分, E为实体的结尾, 而S表示实体是由单个字符组成的, O用于标记无关字符. 大多数流水线模型采用序列标记分别提取方面和意见, 然后通过方面-意见对确定所属情感极性.
网格标记的基本思想是标记一个二维矩阵, 其中是输入文本的长度, 对应于第i个单词和第j个单词之间的关系. 网格标记可以一次性预测完整的三元组, 避免流水线模型产生的错误传播. Wu
关系 | 子标签 | 含义 |
---|---|---|
Aspect | B-A | 方面术语的开始 |
I-A | 方面术语的中间 | |
A | 词对(wi,wj)属于同一个方面术语 | |
Opinion | B-O | 意见术语的开始 |
I-O | 意见术语的中间 | |
O | 词对(wi,wj)属于同一个意见术语 | |
Sentiment | POS | 包含正向情感的方面意见三元组 |
NEU | 包含中性情感的方面意见三元组 | |
NEG | 包含负向情感的方面意见三元组 | |
NULL | N | 词对(wi,wj)不存在关系 |
2 本文模型
本文提出了一种基于句法依赖和位置距离加权图卷积网络的ASTE模型(model based on syntactic dependence and positional distance weighted graph convolution network for ASTE, SPW-GCN).模型整体架构如

图2 SPW-GCN模型的示意图
Fig.2 The illustration of SPW-GCN model
2.1 问题定义
给定一个输入句子, 其中表示单词, 表示句子长度. SPW-GCN模型的目标是从句子输出三元组, 其中a、 o和s分别表示方面项、意见项和情感极性, s属于情感标签集, POS、NEU和NEG分别代表积极、中性和消极,表示句子中的第t个三元组,代表句子的三元组总数,.
2.2 编码层
为了获得句子更精准的上下文表示, 本文采用BER
首先, 输入形如“[CLS]句子[SEP]”的初始化表示, 其中[CLS]和[SEP]分别是句子开头和结尾的标记. 具体来说, 将字符嵌入、位置嵌入和分段嵌入3种不同的向量进行拼接, 再经过多层的双向编码网络生成对应的上下文的表示.
最后, 加上一个全连接层得到上下文单词的隐藏向量表示.
2.3 加权图卷积层
为了对单词之间的句法和语义关系进行建模, SPW-GCN模型采用双仿射注意力机制构造邻接张量, 得到在
2.3.1 双仿射注意力
文献[
(2) |
(3) |
(4) |
(5) |
(6) |
式中:和都是全连接前馈神经网络, 分别对编码层所得隐藏向量和进行处理, 获得单词在方面和意见两个角度对应的向量和; 是单词和之间的关系得分; m为词对关系类型的总数量; 表示拼接操作; 、和分别为权重和偏差; 表示词对存在的第k种关系类型的概率得分;gi,j,k表示词对为第k种关系类型的得分;gi,j,l表示词对为第l种关系类型的得分. 最后, 联合上述过程得到注意力建模的邻接张量;Attention函数表示进行双仿射注意力操作.
2.3.2 特征增强表示
目前标记方案未考虑单词之间的关系,本文主要引入了句法依赖和位置距离两种特征,包括句法依赖关系及其依赖类型、依赖树上的语法距离和序列相对位置. 利用这些特征增强节点的边,构建文本的多通道图表示.
图是一种表示单词及其关系的结构,由节点集和边集组成.句中每个单词都被视为一个节点,单词间关系为边,一般存在3种关系边:自循环边、邻居边和依赖边. 如果一条边连接到节点自身, 该边是自循环边;连接节点及其邻居的边是邻居边;两个节点间存在依赖关系, 称为依赖边.
(7) |
(8) |
式中:为与节点具有某种关系的一组节点;节点特征为编码层的隐藏向量. 通过Stanza工
受文献[

(a) 句法依赖特征

(b) 位置距离特征
图3 多特征增强表示的结果示例
Fig.3 Example of multi-feature enhanced representation
为了增强双仿射注意力模块得到的向量表示, 对上述4种特征的邻接矩阵进行扩展, 词对的每种关系对应一个通道,得到表示词对关系概率的多特征张量,分别是.
2.3.3 节点和边的输出
在进行图卷积运算前,需将多特征的张量拼接作为节点间的表示向量,以满足下一步的词对关系表示. 通过不断聚合每个节点和节点之间的信息, 最终得到加权GCN的输出:
(9) |
(10) |
(11) |
式中:表示的第k个通道关系; 和分别表示权重矩阵和偏差;表示激活函数, 例如ReLU;函数是对所有通道的节点表示进行平均池化.
2.4 约束推理层
为了精确地捕捉单词之间的关系, 对2.3节的节点表示增加一个约束条件, 即在进行后续三元组的推理预测之前, 先考虑根据节点表示所预测的词对关系是否满足真实的标签分布, 得到损失函数:
(12) |
式中: 表示指示函数值为1需满足的条件; 表示词对的真实标签分布; 表示词对间的关系集; 表示预测的关系类型分布.
通常三元组标签预测的词对表示是拼接节点表示、, 以及两者的边表示. 本小节针对多标签分类的推理策略改进, 在判断词对是否匹配时, 考虑方面和意见提取的隐含结果. 假设属于方面术语, 属于意见术语, 词对更可能被预测具有情感关系;否则不会匹配成对. 因此, 引入和得到细化后的词对的表示:
(13) |
2.5 解码预测层
根据1.2节描述的网格标记标签进行解码, 通过严格匹配词对的关系得到最终的方面-意见-情感三元组.然而,标记结果中大量的NULL标签会导致模型召回率降低.因此,本文采用简单有效的方法解码ASTE任务以提高模型的性能,如
算法1 ASTE解码算法 |
---|
输入:长度为n的句子X词对标记结果R(wi,wj) 输出:给定句子的方面情感三元组T 1. 方面集合A, 意见集合O, 情感集合S, 三元组集合T初始化为空 2. while 左索引l ≤ n and 右索引m ≤ n do 3. if 所有R(wi,wi)= A where l ≤ i ≤m and R(wl-1,wl-1) ≠ A and R(wm+1,wm+1)≠A 4. then 将单词{wl,…,wm}提取为方面术语a 5. end if 6. if 所有R(wi,wi)=O where l ≤i≤m and R(wl-1,wl-1) ≠ O and R(wm+1,wm+1)≠O 7. then 将单词{wl,…,wm}提取为意见术语o 8. end if 9. end while 10. while a∈A and o∈O do 11. while wi∈a and wj ∈o do 12. if i<j then s = R(wi,wj) else s = R(wj,wi) 13. if s∈{POS, NEU, NEG} then s作为词对情感极性 14. end while 15. if s≠None then 输出三元组T={a, o, s} 16. end while |
2.6 输出层
将词对的最新表示送入线性层中, 选择softmax函数以产生标签概率分布, 即
(14) |
式中:和是可学习的权重和偏差. 此外, 采用Adam算法和正则化来优化模型, 使用交叉熵损失函数进行训练:
(15) |
任务目标是最小化目标函数:, 系数和用于调整相应关系约束损失的影响.
3 实 验
3.1 实验数据
本文模型在情感分析任务的4个公开数据集 上进行评估实验,分别是Lap14,Rest14,Rest15和Rest1
数据版本 | 数据集 | Lap14 | Rest14 | Rest15 | Rest16 | ||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
#S | #+ | #0 | #- | #S | #+ | #0 | #- | #S | #+ | #0 | #- | #S | #+ | #0 | #- | ||
ASTE-DATA-V1 | Train | 899 | 808 | 111 | 533 | 1 259 | 1 693 | 172 | 491 | 603 | 799 | 29 | 210 | 863 | 1 036 | 55 | 330 |
Dev | 225 | 199 | 48 | 136 | 315 | 427 | 46 | 107 | 151 | 181 | 9 | 49 | 216 | 263 | 8 | 77 | |
Test | 332 | 364 | 67 | 116 | 493 | 784 | 68 | 156 | 325 | 324 | 25 | 144 | 328 | 416 | 30 | 79 | |
ASTE-DATA-V2 | Train | 906 | 817 | 126 | 517 | 1 266 | 1 692 | 166 | 480 | 605 | 783 | 25 | 205 | 857 | 1 015 | 50 | 329 |
Dev | 219 | 169 | 36 | 141 | 310 | 404 | 54 | 119 | 148 | 185 | 11 | 53 | 210 | 252 | 11 | 76 | |
Test | 328 | 364 | 63 | 116 | 492 | 773 | 66 | 155 | 322 | 317 | 25 | 143 | 326 | 407 | 29 | 78 |
注: #S表示句子的数量, #+、#0、#-分别表示积极、中性和消极极性的三元组数量.
3.2 超参数设置与评价指标
本文使用BERT预训练语言模型作为句子的编码器, 选择AdamW优化器微调BERT, 学习率为2×1
模型采用精准率(Precision, P)、召回率(Recall, R)和F1分数作为评价指标, 计算公式为:
(16) |
(17) |
(18) |
式中:TP表示正确预测的三元组样本数;FP表示预测错误的三元组样本数;FN表示被错误预测的正确三元组样本数;F1分数用于衡量三元组匹配的效果, 只有当方面术语、相应情感和意见术语都合适时, 预测的三元组才正确. 根据验证集上的F1分数选择最佳模型, 并用其运行测试集进行评估.
3.3 对比实验
为了验证本文模型的有效性, 使用最新的基线模型进行对比实验, 分为流水线和端到端两大类:
1) 流水线的方法
Peng-two-stag
Peng-unified-R+P
Li-unified-
Li-unified-R+P
Peng-unified-R+IO
IMN+IO
CMLA
RINANTE
2) 端到端的方法
OTE-MT
JET-BER
GTS-BER
BMR
BART-ABS
主要实验结果分别见
模型 | Lap14 | Rest14 | Rest15 | Rest16 | ||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|
P | R | F1 | P | R | F1 | P | R | F1 | P | R | F1 | |
Li-unified-R+P | 42.25 | 42.78 | 42.47 | 41.44 | 68.79 | 51.68 | 43.34 | 50.73 | 46.69 | 38.19 | 53.47 | 44.51 |
Peng-unified-R+P | 40.40 | 47.24 | 43.50 | 44.18 | 62.99 | 51.89 | 40.97 | 54.68 | 46.79 | 46.76 | 62.97 | 53.62 |
Peng-unified-R+IO | 48.62 | 45.52 | 47.02 | 58.89 | 60.41 | 59.64 | 51.70 | 46.04 | 48.71 | 59.25 | 58.09 | 58.67 |
IMN+IO | 49.21 | 46.23 | 47.68 | 59.57 | 63.88 | 61.65 | 55.24 | 52.33 | 53.75 | — | — | — |
OTE-MTL | 49.66 | 41.73 | 45.20 | 64.02 | 53.35 | 58.20 | 50.58 | 45.51 | 47.91 | 64.83 | 48.72 | 55.63 |
JET-BERT | 54.44 | 25.79 | 35.00 | 69.06 | 31.26 | 43.04 | 66.18 | 34.62 | 45.45 | 63.30 | 37.08 | 46.77 |
GTS-BER | 57.52 | 51.92 | 54.58 | 70.92 | 69.49 | 70.20 | 59.29 | 58.07 | 58.67 | 68.58 | 66.60 | 67.58 |
| 59.43 | 46.23 | 52.01 | 69.08 | 64.55 | 66.74 | 61.06 | 56.44 | 58.66 | 71.08 | 63.13 | 66.87 |
BMR | — | — | 57.83 | — | — | 70.01 | — | — | 58.74 | — | — | 67.49 |
BART-ABSA | 58.07 | 55.48 | 56.75 | 69.22 | 69.14 | 69.18 | 59.69 | 60.22 | 59.96 | 66.25 | 68.39 | 67.30 |
SPW-GCN | 57.93 | 59.63 | 58.77 | 70.90 | 69.98 | 70.44 | 57.60 | 64.50 | 60.86 | 68.39 | 70.74 | 69.54 |
注: *表示在ASTE-DATA-V1数据集上对应模型的复现结果.
模型 | Lap14 | Rest14 | Rest15 | Rest16 | ||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|
P | R | F1 | P | R | F1 | P | R | F1 | P | R | F1 | |
CMLA | 30.09 | 36.92 | 33.16 | 39.18 | 47.16 | 42.79 | 34.56 | 39.84 | 37.01 | 41.34 | 42.10 | 41.72 |
RINANTE | 21.71 | 18.66 | 20.07 | 31.42 | 39.38 | 34.95 | 29.88 | 30.06 | 29.97 | 25.68 | 22.30 | 23.87 |
Li-unified- | 40.56 | 44.28 | 42.34 | 41.04 | 67.35 | 51.00 | 44.72 | 51.39 | 47.82 | 37.33 | 54.41 | 44.31 |
Peng-two-stag | 37.38 | 50.38 | 42.87 | 43.24 | 63.66 | 51.46 | 48.07 | 57.51 | 52.32 | 46.96 | 64.24 | 54.21 |
OTE-MT | 54.26 | 41.07 | 46.75 | 63.07 | 58.25 | 60.56 | 60.88 | 42.68 | 50.18 | 65.65 | 54.28 | 59.42 |
JET-BER | 55.39 | 47.33 | 51.04 | 70.56 | 55.94 | 62.40 | 64.45 | 51.96 | 57.53 | 70.42 | 58.37 | 63.83 |
GTS-BERT | 59.40 | 51.94 | 55.42 | 68.09 | 69.54 | 68.81 | 59.28 | 57.93 | 58.60 | 68.32 | 66.86 | 67.58 |
| 60.09 | 46.21 | 52.24 | 71.94 | 60.91 | 65.97 | 59.95 | 54.63 | 57.17 | 70.08 | 62.57 | 66.11 |
BMRC | 70.55 | 48.98 | 57.82 | 75.61 | 61.77 | 67.99 | 68.51 | 53.40 | 60.02 | 71.20 | 61.08 | 65.75 |
BART-ABS | 61.41 | 56.19 | 58.69 | 65.52 | 64.99 | 65.25 | 59.14 | 59.38 | 59.26 | 66.60 | 68.68 | 67.62 |
SPW-GCN | 59.51 | 58.41 | 58.95 | 72.99 | 72.33 | 72.66 | 62.37 | 62.88 | 62.62 | 67.26 | 72.90 | 69.97 |
注: *表示在ASTE-DATA-V2数据集上对应模型的复现结果.
在第一组数据集ASTE-DATA-V1上, 本文模型的整体性能优于采用网格标记方案的
本文模型在数据集ASTE-DATA-V2上的实验结果, 相比于基准的Peng-two-stage流水线方法, F1指标平均提高了15.84个百分点,这是因为BERT编码通常比Bi-LSTM编码的方法性能更好,表现出其强大的语言理解能力.在使用BERT编码的模型中,OTE-MTL和GTS-BERT的标记方案与表格填充类似,但是SPW-GCN在两组数据集上的F1平均得分分别高出GTS-BERT 2.15和3.45个百分点. 这种提升归因于SPW-GCN网格标签预测的细化约束策略, 精准地利用单词之间的关系进行词对匹配, 学习方面和意见提取的隐含结果.
针对最新的模型BMRC和BART-ABSA,性能远超流水线的方法, BMRC主要受益于提出了3种类型的查询来分别提取目标、意见和情感,而本文模型在Rest14和Rest16上表现更好,由于句法依赖和位置距离特征加权图卷积网络,更有利于增强单词和三元组元素之间的交互,使得模型具有学习多方面语义的能力.
3.4 消融实验
在本节及后续章节进行的实验中, 所有提到的SPW-GCN模型均是基于第二组数据集ASTE-DATA-V2进行实验, 并认为在数据集ASTE-DATA-V1上显示出类似的趋势.
为了研究SPW-GCN中不同模块的有效性, 本节在数据集ASTE-DATA-V2上对ASTE任务进行了消融研究.如

图4 各模块消融实验的结果
Fig.4 Results of ablation experiments for each module
由
3.5 GCN层数的影响
为了检验图卷积网络层数的影响,本节在ASTE-DATA-V2的4个数据集上进行三元组抽取任务, 以对比不同层数模型的性能差异.在

图5 不同图卷积网络层数的三元组抽取结果
Fig.5 Triple extraction results of different graph convolutional network layers
3.6 子任务的实验对比分析
为了进一步研究本文模型的有效性, 本节进行方面术语提取和意见术语提取子任务的对比实验. 本节选择在数据集ASTE-DATA-V2上实验,利用结果分析其处理子任务的性能. SPW-GCN可以直接处理这些子任务,无需额外修改,与基于标记方案的模型GTS-BERT实验结果比较如
数据集 | 模型 | ATE | OTE | ||||
---|---|---|---|---|---|---|---|
P | R | F1 | P | R | F1 | ||
Lap14 | GTS-BERT | 76.63 | 82.68 | 79.53 | 76.10 | 79.62 | 77.82 |
SPW-GCN | 76.98 | 83.80 | 80.24 | 79.66 | 81.18 | 80.41 | |
Rest14 | GTS-BERT | 78.88 | 87.05 | 82.76 | 80.91 | 89.22 | 84.85 |
SPW-GCN | 85.29 | 85.49 | 85.39 | 80.76 | 90.15 | 85.20 | |
Rest15 | GTS-BERT | 75.13 | 82.78 | 78.27 | 72.97 | 82.74 | 77.53 |
SPW-GCN | 75.05 | 84.25 | 79.38 | 77.07 | 82.60 | 79.74 | |
Rest16 | GTS-BERT | 75.20 | 88.12 | 81.13 | 80.36 | 88.79 | 84.36 |
SPW-GCN | 78.17 | 87.36 | 82.51 | 82.36 | 89.66 | 85.85 |
注: ATE为方面术语抽取任务, OTE为意见术语抽取任务, 最好性能用黑体数值标出.
结果表明, 针对方面术语抽取任务,本文模型F1指标最优的是在Rest14数据集上达到85.39%,相较于GTS-BERT提升了2.63个百分点. 在意见术语抽取任务中,模型F1指标则是在Lap14数据集上提升最多,提升了2.59个百分点. 虽然模型精准率并不是在所有数据集上都有明显提升, 但整体上本文模型的F1指标均获得了较好的结果, 证明多特征增强标记方案对于方面和意见术语抽取任务也有很大帮助,考虑通过多通道的方式获取每个单词的完整语义,有利于提取出方面和意见术语.
3.7 案例分析
本节从数据集ASTE-DATA-V2中选取3个句子进行案例研究,如
句子1 | The menu is interesting and quite reasonably priced. | ||
---|---|---|---|
正确三元组 | (menu, interesting, POS) | (menu, reasonably priced, POS) | (priced, reasonably, POS) |
GTS-BERT | (menu, interesting, POS) | (menu, reasonably, POS) × | (priced, reasonably, POS) |
SPW-GCN | (menu, interesting, POS) | (menu, reasonably priced, POS) | (priced, reasonably, POS) |
句子2 | Made interneting (part of my business) very difficult to maintain. | ||
正确三元组 | (interneting, difficult, NEG) | ||
GTS-BERT | (maintain, difficult, POS) × | ||
SPW-GCN | (interneting, difficult, NEG) | ||
句子3 | The food was extremely tasty, creatively presented and the wine excellent. | ||
正确三元组 | (food, tasty, POS) | (food, creatively presented, POS) | (wine, excellent, POS) |
GTS-BERT | (food, tasty, POS) | (food, creatively presented, POS) | (food, excellent, POS) × |
SPW-GCN | (food, tasty, POS) | (food, creatively presented, POS) | (wine, excellent, POS) |
4 结 论
为解决三元组抽取任务中交互缺失和错误传播等问题, 本文提出基于句法依赖和位置距离加权图卷积网络的方面情感三元组抽取模型(SPW-GCN). 根据实验结果分析, 基于联合抽取的网格标记方案有效改善了流水线方法错误传播的状况, 提升了三元组各元素间的特征交互;模型各组件对三元组抽取性能提升均有正向影响;且本文模型总体性能优于现有模型.
参考文献
PHAN M H,OGUNBONA P O.Modelling context and syntactical features for aspect-based sentiment analysis[C]//Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics.Online.Stroudsburg,PA,USA:Association for Computational Linguistics,2020: 3211-3220. [百度学术]
PENG H Y,XU L,BING L D,et al.Knowing what,how and why:a near complete solution for aspect-based sentiment analysis[J].Proceedings of the AAAI Conference on Artificial Intelligence,2020,34(5):8600-8607. [百度学术]
MAO Y,SHEN Y,YU C,et al.A joint training dual-MRC framework for aspect based sentiment analysis[J].Proceedings of the AAAI Conference on Artificial Intelligence,2021,35(15):13543-13551. [百度学术]
CHEN S W,WANG Y,LIU J,et al.Bidirectional machine reading comprehension for aspect sentiment triplet extraction[J].Proceedings of the AAAI Conference on Artificial Intelligence,2021,35(14): 12666-12674. [百度学术]
ZHANG C,LI Q C,SONG D W,et al.A multi-task learning framework for opinion triplet extraction[C]//Findings of the Association for Computational Linguistics:EMNLP 2020.Online.Stroudsburg,PA,USA:Association for Computational Linguistics, 2020: 819-828. [百度学术]
XU L, LI H, LU W, et al. Position-aware tagging for aspect sentiment triplet extraction[C]//Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP). Online. Stroudsburg,PA,USA:Association for Computational Linguistics, 2020: 2339-2349. [百度学术]
WU Z,YING C C,ZHAO F,et al.Grid tagging scheme for aspect-oriented fine-grained opinion extraction[C]//Findings of the Association for Computational Linguistics:EMNLP 2020.Online.Stroudsburg,PA,USA:Association for Computational Linguistics, 2020: 2576-2585. [百度学术]
CHEN Z X,HUANG H,LIU B,et al.Semantic and syntactic enhanced aspect sentiment triplet extraction[J].ArXiv e-Prints,2021:arXiv:2106.03315. [百度学术]
BAI JIAN S Y,NAYAK T,MAJUMDER N,et al.Aspect sentiment triplet extraction using reinforcement learning[J].ArXiv e-Prints,2021:arXiv:2108.06107. [百度学术]
YAN H,DAI J Q,JI T,et al.A unified generative framework for aspect-based sentiment analysis[C]//Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1:Long Papers). Online. Stroudsburg, PA,USA:Association for Computational Linguistics,2021:2416-2429. [百度学术]
ZHAO Y C, MENG K, LIU G S, et al. A multi-task dual-tree network for aspect sentiment triplet extraction[C]// Proceedings of the 29th International Conference on Computational Linguistics. Gyeongju, Republic of Korea. New York, NY: Association for Computing Machinery, 2022: 7065-7074. [百度学术]
ZHANG Y C, YANG Y F, LI Y H, et al. Boundary-driven table-filling for aspect sentiment triplet extraction[C]//Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing. Abu Dhabi,United Arab Emirates. Stroudsburg, PA,USA: Association for Computational Linguistics, 2022: 6485-6498. [百度学术]
ZHANG C,LI Q C,SONG D W. Aspect-based sentiment classification with aspect-specific graph convolutional networks[C]//Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP).Hong Kong,China.Stroudsburg,PA,USA:Association for Computational Linguistics,2019: 4568-4578. [百度学术]
DEVLIN J, CHANG M W, LEE K, et al. BERT: pre-training of deep bidirectional transformers for language understanding[C]// Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Florence,Italy.Stroudsburg,PA,USA:Association for Computational Linguistics, 2019: 4171-4186. [百度学术]
DOZAT T, MANNING C. Deep biaffine attention for neural dependency parsing[J]. ArXiv e-Prints,2021:arXiv: 1611. 01734. [百度学术]
QI P,ZHANG Y H,ZHANG Y H,et al.Stanza:a python natural language processing toolkit for many human languages[C]//Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics:System Demonstrations.Online.Stroudsburg,PA,USA:Association for Computational Linguistics,2020:101-108. [百度学术]
OH S,LEE D,WHANG T,et al. Deep context-and relation-aware learning for aspect-based sentiment analysis[C]//Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 2:Short Papers). Online. Stroudsburg, PA,USA:Association for Computational Linguistics,2021: 495-503. [百度学术]
PONTIKI M,GALANIS D,PAVLOPOULOS J,et al. SemEval-2014 task 4:aspect based sentiment analysis[C]//Proceedings of the 8th International Workshop on Semantic Evaluation (SemEval 2014.Dublin,Ireland.Stroudsburg,PA,USA:Association for Computational Linguistics, 2014: 27-35. [百度学术]
PONTIKI M,GALANIS D, PAPAGEORGIOU H, et al. SemEval-2015 task 12: aspect based sentiment analysis[C]//Proceedings of the 9th International Workshop on Semantic Evaluation (SemEval 2015. Denver, Colorado. Stroudsburg, PA, USA: Association for Computational Linguistics, 2015: 486-495. [百度学术]
PONTIKI M,GALANIS D,PAPAGEORGIOU H,et al. SemEval-2016 task 5:aspect based sentiment analysis[C]//Proceedings of the 10th International Workshop on Semantic Evaluation (SemEval-2016). San Diego, California. Stroudsburg, PA, USA:Association for Computational Linguistics, 2016: 19-30. [百度学术]
LI X, BING L D, LI P J, et al. A unified model for opinion target extraction and target sentiment prediction[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2019, 33(1): 6714-6721. [百度学术]
FAN Z F,WU Z,DAI X Y,et al.Target-oriented opinion words extraction with target-fused neural sequence labeling[C]//Proceedings of the 2019 Conference of the North. Minneapolis,Minnesota. Stroudsburg,PA,USA:Association for Computational Linguistics, 2019: 2509-2518. [百度学术]
HE R D,LEE W S,NG H T,et al.An interactive multi-task learning network for end-to-end aspect-based sentiment analysis[C]//Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics.Florence,Italy.Stroudsburg,PA,USA:Association for Computational Linguistics, 2019: 504-515. [百度学术]
WANG W Y,PAN S J,DAHLMEIER D,et al.Coupled multi-layer attentions for co-extraction of aspect and opinion terms[J].Proceedings of the AAAI Conference on Artificial Intelligence,2017,31(1): 3316-3322. [百度学术]
DAI H L,SONG Y Q.Neural aspect and opinion term extraction with mined rules as weak supervision[C]//Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics.Florence,Italy.Stroudsburg,PA,USA:Association for Computational Linguistics,2019:5268-5277. [百度学术]