Print

发布时间: 2021-08-25
摘要点击次数:
全文下载次数:
DOI: 10.3969/j.issn.2096-8299.2021.04.017
2021 | Volume 37 | Number 4




    计算机信息科学    




  <<上一篇 




  下一篇>> 





基于迁移学习的电力短文本情感分类研究
expand article info 李海明, 陈萍
上海电力大学 计算机科学与技术学院, 上海 200090

摘要

为了有效提高客服效率与主动服务意识,从电力短文本中挖掘客户的情感状态,提出了一种基于迁移学习的情感分析方法,将具有丰富标注信息的商品评论语料库作为源域,提高了目标域中的电力短文本的情感分类性能。在现有基于注意力机制的双向长短型记忆网络模型之上引入域适应层,以学习跨域知识并保留特定域的知识。实验结果表明,与其他算法相比较,该算法对电力短文本进行情感分类的效果优于非迁移学习方法,具有更好的分类性能。

关键词

情感分类; 迁移学习; 双向长短型记忆网络; 电力; 短文本

Research about Sentiment Classsification of Short Text in the Electric Power Industry by Transfer Learning
expand article info LI Haiming, CHEN Ping
School of Computer Science and Technology, Shanghai University of Electric Power, Shanghai 200090, China

Abstract

To improve customer service efficiency and active service consciousness effectively in the electric power industry, a method of sentiment analysis based on transfer learning is presented.According to the shortage of marking corpus in the electric power industry, this method uses goods review corpus with rich annotation information as source domain.It can help to improve the emotional classification of short text in the target domain.Based on attention mechanism, domain adaptation layer is added in the bi-directional long short-term memory model to learn cross-domain knowledge and retain domain-specific knowledge.Experiments show that compared with other algorithms, this algorithm can get better emotional classification performance for electric power short text.

Key words

sentiment analysis; transfer learning; Attention Bi-LSTM; electric power; short text

随着电力改革的深入进行, 电力企业愈发重视供电服务和客户服务的质量。运用情感分析对电力短文本进行文本挖掘, 对提升客服服务质量和客户满意度都有帮助。但迄今为止, 由于没有电网相关的语料库, 人工标注也存在数据不准确、耗时且昂贵等缺点, 使得利用传统统计学习方法进行情感分析的效果较差。本文采用迁移学习方法, 以具有丰富标注信息的酒店评论作为源域, 电力文本数据集作为目标域, 提出了一种新的基于电力短文本的跨域迁移学习的情感分析方法。

1 研究综述

文本情感分类通过挖掘和分析文本中的立场、观点、看法、情绪、好恶等主观信息, 对文本的情感倾向做出类别判断[1]。从用户参与的评论信息中获得人们对某一事物、事件、产品等的喜好、态度, 可以为政府制定政策法规与监督社会舆论, 企业改进产品质量与服务态度等提供必要的决策依据。

情感分类研究中, 有学者重在构建情感词典。但基于词典的分析方法需要研究者有很强的语法敏感性, 且现实生活中同一词语可能会被赋予完全不同的涵义, 使得传统的分析方法如朴素贝叶斯、支持向量机无法应对。深度学习则可以将神经网络运用于多层网络的学习任务中来处理庞大复杂的数据。在情感分析任务中, 其性能不弱于机器学习方法, 却可以大大节省人工标注的工作量。如RANI S等人[2]应用卷积神经网络(Convolutional Neural Networks, CNN)来执行印地语电影评论的情感分析。WANG X Y等人[3]提出了用于短文本情感分类的联合CNN和循环神经网络(Recurrent Neural Network, RNN)架构, 利用了CNN生成的粗粒度局部特征和通过RNN学习的长距离依赖性。针对中国文本情感分析的困难, XIAO K C等人[4]提出了一种基于CNN的深度学习中文文本情感分析方法, 用归一化特征值来克服训练后CNN的特征值不均匀分布的问题, 提高了分析的准确性。

注意力机制是一种在神经网络中增加可解释性的方法。在情绪分析任务中, 注意力机制有助于将注意力集中在决定输入情绪的重要词语上。WANG Y Q等人[5]提出的基于方面的情感分类方法, 将与方面相关概念的额外知识纳入模型, 并利用关注度来适当权衡概念与内容本身的区别。PENG Y等人[6]基于目标和背景在隐喻情感分析中的相互作用提供了可靠的情感相关分类特征, 提出了一种基于注意力的长期短期记忆(Long Short Term Memory, LSTM)网络的中国隐喻情绪分析方法。

虽然深度学习模型已经在许多情感分析中得到运用, 但这些模型从头开始训练, 需要大量的数据集, 并且收敛速度慢。针对上述问题, 尤其当不同领域中存在某种关联时, 可以采用迁移学习来提升分类性。TAN B等人[7]探究了远程域迁移学习的新型迁移学习问题, 在目标域与源域完全不同的情况下实现迁移学习。HOWARD J等人[8]提出通用语言模型微调(Universal Language Model Fine-turing for Text Classification, ULMFiT), 为自然语言处理(Natural Language Processing, NLP)的任何任务实现类似计算机视觉(Computer Version, CV)的迁移学习。TAN S B等人[9]将朴素贝叶斯和期望最大化(Expectation-Maximum, EM)算法的一种半监督学习方法应用于跨领域的情感分析中。总之, 现有的迁移学习方法大多是通过学习一个新的特征代表来增强或取代源特征空间, 以减少源领域与目标领域的情感特征的差别, 但当目标领域与源领域之间的差别很大时, 这种方法的性能显著下降。

通过以上综述可以发现, 目前对于文本情感分析虽然取得了不少成果, 但还存在以下几个问题: 首先, 因保密性原因, 可搜集到的有限数据数量无法支撑进一步的实验; 其次, 缺乏语料库时进行人工标注费时费力; 最后, 若采用迁移学习方法, 会因源域与目标域的差异导致最后的分析效果不尽如人意。为解决以上问题, 本文提出了一种基于跨领域迁移学习的情感分析方法用于电力短文本情感分类。具体而言, 使用基于注意力机制的长短型记忆神经网络(Attention-Based Bidirectional Long Short Term Memory Networks, Attention Bi-LSTM)作为基础模型, 通过共享网络结构与参数进行参数迁移, 并在网络模型中引入域自适应层来减少源域与目标域的差异。

2 基础模型

2.1 BiLSTM网络

RNN是传统前馈神经网络的扩展[9]。然而, 标准RNN存在梯度消失或爆炸问题, 作为其变体, LSTM通过组合存储器单元来捕获长程依赖性。LSTM架构有3个门和1个单元存储器状态。正式的LSTM中的每个单元格可以计算为

$ {i_t} = \sigma ({W_{{\rm{xi}}}}{X_t} + {W_{{\rm{hi}}}}{h_{t - 1}} + {W_{{\rm{ci}}}}{c_{t - 1}} + b) $ (1)

$ {f_t} = \sigma ({W_{{\rm{xf}}}}{X_t} + {W_{{\rm{hf}}}}{h_{t - 1}} + {W_{{\rm{cf}}}}{c_{t - 1}} + b) $ (2)

$ {c_t} = {f_t} \otimes {c_{t - 1}} + {i_t} \otimes {\rm{tanh}}({W_{{\rm{xc}}}}{X_t} + {W_{{\rm{hc}}}}{h_{t - 1}} + b) $ (3)

$ {o_t} = \sigma ({W_{{\rm{xo}}}}{X_t} + {W_{{\rm{ho}}}}{h_{t - 1}} + {W_{{\rm{co}}}}{c_t} + b) $ (4)

$ {\mathit{\boldsymbol{h}}_t} = {o_t} \otimes {\rm{tanh}}({c_t}) $ (5)

式中: i——输入门;

b——偏参;

t——时间状态;

σ——sigmoid激活函数;

Wxi, Whi, Wci, Wxf, Whf, Wcf, Wxc, Whc, Wxo, Who, Wco——矩阵权重, 下标表示门和单元之间的连接;

ht-1——作为输入、输出一个在0和1之间的数给Ct-1记忆单元的输出值;

ft——遗忘门, 决定信息的丢弃;

ot——输出门, 决定信息的输出;

ht——隐藏层的向量。

所有这些状态的尺寸大小都与隐藏矢量大小相同。权重矩阵下标表示每个门和单元之间的连接。

但是, LSTM网络只能看到t时间之前的历史信息, 无法查看t时间之后的未来信息。Bi-LSTM以正向和反向顺序学习输入序列, 然后拼接两者的输出向量, 使得输出向量包含t之前的信息和t之后的信息。具体来说, 对于给定句子(x1, x2, x3, …, xn), 包含n个字符, 每个字符表示为d维向量, LSTM计算每个字符的句子, 左上下文表示为$ \overrightarrow {{\mathit{\boldsymbol{h}}_t}} $。从句子结尾开始的右上下文表示为$ \overleftarrow {{\mathit{\boldsymbol{h}}_t}} $。其中, $ \overrightarrow {{\mathit{\boldsymbol{h}}_t}} $是前向隐藏向量, $ \overleftarrow {{\mathit{\boldsymbol{h}}_t}} $是后向隐藏向量, Ht是Bi-LSTM最终输出向量。表达式为

$ \overrightarrow {{\mathit{\boldsymbol{h}}_t}} = ({h_{t - 1}}, {x_t}, {c_{t - 1}}) $ (6)

$ \overleftarrow {{\mathit{\boldsymbol{h}}_t}} = ({h_{t + 1}}, {x_t}, {c_{t + 1}}) $ (7)

$ {\mathit{\boldsymbol{H}}_t} = [\overrightarrow {{\mathit{\boldsymbol{h}}_t}} , \overleftarrow {{\mathit{\boldsymbol{h}}_t}} ] $ (8)

2.2 Attention BiLSTM模型

为解决Bi-LSTM网络无法检测哪个词语是句子级别情绪分类的重要部分这一问题, 采用基于注意力机制的Attention Bi-LSTM来捕捉句子中发生情绪变化的关键部分。图 1为Attention Bi-LSTM进行情感分析的概述, 图 2为其具体的执行步骤。

图 1 Attention BiLSTM情感分析概述
图 2 Attention BiLSTM情感分析执行步骤

本文使用的注意力机制策略是对Bi-LSTM网络提取后的全局特征向量进行处理, 合并Bi-LSTM层中每一个时间步获取的信息, 以不同的权重大小重新分配整个序列内不同的特征向量, 进行相加后得到新的特征向量。经过注意力机制处理后新的特征向量即为Attention Bi-LSTM模型当前的状态, 记为A

$ \mathit{\boldsymbol{A}} = \mathop \sum \limits_t {\alpha _t}{\mathit{\boldsymbol{H}}_t} $ (9)

式中: at——注意力权重。

Bi-LSTM网络接收各词向量输入序列Xt后输出提取隐藏特征向量序列Ht, 注意力机制的当前状态A由该特征向量序列中的所有特征向量重新分配后得到

$ {\mathit{\boldsymbol{M}}_t} = {\rm{tanh}}({X_t}{\mathit{\boldsymbol{H}}_t} + b) $ (10)

再使用Softmax函数对注意力权重值归一化, 为

$ {\alpha _t} = {\rm{Softmax}}(\mathit{\boldsymbol{M}}_t^{\rm{T}}, {\mathit{\boldsymbol{M}}_i}) $ (11)

式中: Mi——输入门的特征向量。

最后, 将Attention机制的输出A, 输入Softmax层进行分类预测。预测结果为

$ \hat y = {\rm{Softmax}}({w_{\rm{a}}}A + b) $ (12)

式中: wa——注意力机制当前状态a的矩阵权重。

采用交叉熵作为损失函数, 计算真实标签y与预测标签ŷ的损失值。损失函数定义为

$ \begin{array}{l} {\rm{Loss}}() = - [y{\rm{log}}(\hat y) + \\ \;\;\;\;\;\;\;\;\;\;\;\;(1 - y){\rm{log}}(1 - \hat y)] \end{array} $ (13)

3 跨领域迁移模型

3.1 概述

本文参考文献[10-11]给出了一个用于电力短文本的情感分类的跨领域迁移学习框架。图 3为跨领域迁移模型。

图 3 跨领域迁移模型

图 3可以看出, 自下而上每个输入句子被转换成嵌入向量序列, 然后将其馈送到Bi-LSTM, 依次将上下文信息编码成固定长度的隐藏向量; 再将隐藏向量输入到注意力机制模型中, 重新分配各维向量得到权重; 最后将注意力机制层的输出向量输入Softmax函数进行分类。在源/目标域中共享词向量嵌入层和Bi-LSTM层, 但使用不同的注意力机制层和Softmax层。利用域自适应层保留两个域之间的特定域知识, 将隐藏向量直接馈送到源/目标域特定的注意力机制层和Softmax层中以预测最终的分类标签。

3.2 域自适应层

由于源域和目标域具有不同的语言样式并且涉及大量不跨域共享相同语义的特定于域的术语, 即目标域和源域都具有特定于域的“领域知识”, 因此在源域上训练的分类模型可能在目标域上不具有最佳性能。为有效利用源域中强大的特征表示, 又能减少源与目标之间的差异, 本文引入了一个域自适应层, 添加在目标域的Bi-LSTM层之后。这样既能学习到源域的强大特征表示, 又能充分学习到特定领域知识。本文使用的域自适应策略是特征扩充的方法[12], 假设输入特征空间为$ x \in {\mathbb{R}^n} $, Ds是源域数据集, Dt是目标域数据集。经过特征扩充后, 特征空间映射为$ x \in {\mathbb{R}^{3n}} $。源域的映射策略为$ {m_s} = [\overrightarrow 1 , \overrightarrow 1 , \overrightarrow 0 ] $, 目标域的映射策略为$ {m_t} = [\overrightarrow 1 , \overrightarrow 0 , \overrightarrow 1 ] $。因此, 经过特征扩充后, 源域的特征空间为: $ {T^s}\left( a \right) = {m_s} \otimes a = \left[ {{a_1}, {a_2}, 0} \right], a = \left[ {{a_1}, {a_2}, {a_3}} \right] \in {D_s} $, 目标域的特征空间为: $ {T^t}\left( b \right) = {m_t} \otimes b = \left[ {{b_1}, 0, {b_3}} \right], b = \left[ {{b_1}, {b_2}, {b_3}} \right] \in {D_t} $

3.3 基于跨领域迁移学习的情感分析算法描述

给定特定的源域数据集Ds和目标域数据集Dt, 假设源领域数据集中有标记样本集合为$ {D_s} = \left\{ {\left( {{x_{{s_i}}}, {y_{{s_i}}}} \right)} \right\}_{i = 1}^{{n_s}} $, 目标领域数据集中有标记样本集合为$ {D_t} = \left\{ {\left( {{x_{{t_i}}}, {y_{{t_i}}}} \right)} \right\}_{i = 1}^{{n_t}} $。其中, x表示文本语料, y表示相应的情感态度(0表示积极态度, 1表示消极态度)。于是, 跨领域迁移学习情感分析问题就是学习一个准确的分类器来预测目标域中未知的工单文本信息所代表的情感态度。该算法基于现有的Attention Bi-LSTM模型, 使用具有丰富标注信息的酒店评论作为源域, 电力文本数据集作为目标域, 通过网络参数迁移的方法进行跨领域迁移学习情感分析。相比传统的情感分析方法, 该方法仅需使用少量的有标记的目标域数据就能实现很好的分类性能。针对不同领域之间语料的差异性, 该方法通过引入域自适应层来减少源与目标域之间的差异。

具体算法描述如下: 通过交替训练方式, 首先使用源域数据集训练Attention Bi-LSTM模型, 然后使用目标域数据集重新训练Attention Bi-LSTM模型, 源域和目标域共享Attention Bi-LSTM模型中的词向量层和Bi-LSTM层的网络参数与网络结构, 但源域和目标域使用不同的注意力机制层和Softmax输出分类层。

3.4 跨领域迁移模型训练

使用Adam优化算法以端到端的方式训练跨领域迁移的情感分析模型, 采用的学习率为0.001。通过参数迁移的方式共享源域和目标域中词向量嵌入层和Bi-LSTM层的网络结构及参数[13]。即ωsωt分别为源域和目标域的模型参数集, 共享模型参数为ωs, shared=ωsωt=ωt, shared=ωshared

由于源域和目标域都有不同的数据集, 因此使用替代优化策略, 交替训练每个域的数据。在训练期间, 使用每批次20条语句来训练100个时期。训练时对词向量嵌入进行微调, 以调整实际数据分布。为避免过度拟合, 在输入词向量特征表示Bi-LSTM层之前使用丢失训练, 丢失概率为0.5。域自适应层、注意力机制层和输出层分别各自训练。在每次迭代周期中, 根据给定域的损失函数执行梯度更新。

最后, 更新共享参数和各个域的特定参数, 并重复上述迭代, 直到停止为止。

4 实验与分析

为了验证跨领域迁移学习情感分析方法的有效性, 将基于真实电力短文本数据集与近几年来其他流行的情感分析方法进行了比较。实验中使用的数据集、预训练的词向量嵌入、参数设置、实验细节以及结果分析如下。

4.1 数据集

目标域数据集: 获取了某县级电力企业的客服工单, 提取其中受理内容与回访内容约1 050条为研究语料。此外, 通过网络爬虫算法从新浪微博中爬取热门电力事件的评论信息约900条, 也作为研究语料。随机打乱手动标注的各条语料的情感状态, 其中70%划分为训练集, 20%划分为测试集, 10%划分为验证集。表 1为目标域数据集样本例。

表 1 目标域数据集样本例

下载CSV
正面样例 负面样例
在我们这里不畏严寒保供电作业是常事 大年三十停电干嘛的国家电网
刚搬了新家环境没有熟悉收拾行李时, 遇到半夜停电直接吓到飙泪。感谢刚才的客服小姐姐一直不挂电话陪着我, 不知道他的工号特此来微博感谢她, 希望她能看到, 祝小姐姐越来越美丽 脚踏实地真抓实干, 请关注一下电力缴费后迟迟不给恢复, 用电打95598没有任何用, 无法查询不恢复的问题, 无法查询当地公司电话, 无法恢复用电, 无法联系到可以解决问题的人, 最重要的无法投诉。客服说已经用系统给相关部门发了信息, 结果四个小时无人答复。难道周三国家电网全员放假

源域数据集: 使用谭松波老师整理的酒店评论语料[14]。语料规模为10 000篇, 从携程网上自动采集并经过去重整理而成。选取其中一个子集, 平衡语料、正负类各3 000篇。同样将酒店评论数据集中70%划分为训练集、20%划分为测试集、10%划分为验证集。表 2为源域数据集样本例。

表 2 源域数据集样本例

下载CSV
正面样例 负面样例
酒店位置非常好, 装修就是旧了点, 服务还可以, 比较热情、周到, 有机会我还会住在那里 酒店服务意识很差, 餐厅不能签单, 说是怕消费的高于预授权。服务生明显没有经过培训
因为是蜜月旅行, 所以酒店免费将园景房升级到5层的超级海景房, 可以看到美丽的维多利亚湾, 而且还有一瓶好酒相送。房间很干净, 也很大, 酒店服务也不错 接站免费司机是四川人, 很实在, 在路上告诉了一些初到拉萨的注意事项, 宾馆很小, 不是我们内地的星级标准。早餐还行, 卫生间很大, 就是价格稍高, 我们到的第二天停电, 所以我们换宾馆了

4.2 参数设置

数据预处理: 采用jieba分词工具, 去除分词列表中的停用词和标点符号。

预训练词向量: 使用预先训练的词向量嵌入代替随机初始化。词向量嵌入使用gensim工具包的word2ve, 经在中文百度百科语料预训练而成[15], 词向量维度为60维。源域和目标域都使用相同的词向量嵌入。

超参数和初始化设置: 超参数包括初始学习率(0.01)、训练时期(100个周期)、批量训练样本大小(20个句子)、丢失训练的丢失率(0.5)、LSTM隐藏层向量维度(60维)。所有其他模型参数在[-1, 1]范围内随机均匀初始化。

4.3 算法步骤

跨领取迁移学习情感分析算法的步骤如下。

输入: 源域数据为Xs=(x1, x2, x3, …, xn) 目标域数据为Xt=(x1, x2, x3, …, xn)

源域:

(1) 初始化模型参数ωs;

(2) 词向量嵌入;

(3) 输出Bi-LSTM层隐藏状态向量;

(4) 进入注意力机制模型, 重新分配向量权重;

(5) 采用Softmax输出分类结果;

(6) 保存共享参数ωshared

目标域:

(1) 学习共享参数ωshared;

(2) 初始化特定模型参数ωt, spec;

(3) 词向量嵌入;

(4) 输出Bi-LSTM层隐藏状态向量;

(5) 进入域自适应层, 充分学习特定领域知识;

(6) 进入注意力机制模型, 重新分配向量权重;

(7) 采用Softmax输出分类结果。

输出: 分类结果为ŷ=Softmax(waA+b)。

4.4 结果与分析

将本文提出的基于跨领域迁移学习的情感分析方法与其他4种方法进行对比。

(1) Bi-LSTM方法 由LI D等人[16]提出, 只使用Bi-LSTM双向长短型记忆神经网络来提取特征, 采用Softmax输出分类结果。

(2) Attention Bi-LSTM方法 由ZHOU Y等人[17]提出, 在使用Bi-LSTM来提取特征的同时, 加入注意力机制模型以更好地把握文本中的情感。

(3) ConvLSTM方法 由HASSAN A等人[18]提出, 利用LSTM作为CNN中池化层的替代, 以减少详细文本信息的丢失并捕获句子序列中的长期依赖性。

(4) Transfer Bi-LSTM方法 由LYU W L等人[19]通过共享Bi-LSTM的网络架构与模型参数, 实现参数迁移, 更好地利用源域中丰富的标注信息帮助目标域分类。

所有实验都对目标域的训练集和测试集进行了10次交叉验证, 并在开发集中找到最佳模型参数后, 对目标域中测试集再进行分类预测。不同方法的实验效果比较如表 3所示。

表 3 不同方法的实验结果比较 单位: %

下载CSV
方法 准确率 召回率 F值 提升
Bi-LSTM 87.24 86.18 86.71
Attention Bi-LSTM 87.09 86.55 86.82 +0.11
ConvLSTM 88.27 88.79 88.53 +1.82
Transfer Bi-LSTM 89.63 88.42 89.02 +2.31
本文所提方法 91.71 90.57 91.14 +4.43

表 3的实验结果可以看出, 虽然只采用Bi-LSTM提取特征进行情感分类可以取得不错的效果, 但加入注意力机制模型可以更好地提取文本的局部特征, 在F值的评价指标上能提升0.11%。采用ConvLSTM方法也能取得不错的分类效果, 但略低于加入注意力机制的Transfer Bi-LSTM模型。相比之下, 采用本文提出的基于跨领域迁移学习的情感分析方法, 在准确率、召回率、F值等评价指标上都有不错的提升。由此可知, 本文提出的方法能有效地学习到源域中强大的特征表示, 又能通过域自适应层减少源域与目标域的差异, 并且通过基于注意力机制模型能更有效地提取文本的局部特征, 帮助情感的分类。

在不同方法中加入注意力机制策略, 结果如表 4所示。

表 4 不同方法中加入注意力机制策略的结果比较 单位: %

下载CSV
方法 准确率 召回率 F值 提升
Bi-LSTM 87.24 86.18 86.71
Attention Bi-LSTM 87.09 86.55 86.82 +0.11
ConvLSTM 88.27 88.79 88.53 +1.82
ConvLSTM+ Attention 89.07 89.39 89.23 +2.52
Transfer Bi-LSTM 89.63 88.42 89.02 +2.31
Transfer Bi-LSTM+ Attention 89.84 88.76 89.30 +2.59
本文所提方法 91.71 90.57 91.14 +4.43

表 4的实验结果可以看出, 在不同方法中加入注意力机制策略, 相比于原来的方法都有略微的提升。这说明采用注意力机制可以更好地提取文本的局部特征来捕捉句子中发生的情绪变化。

综上所述, 根据迁移学习的特点, 训练语料被少量标注的情况下, 利用迁移其他领域的训练集样本, 采用领域自适应以及注意力机制模型, 实验性能比采用相同规模标注训练语料的其他监督方法略高, 比只使用迁移学习策略没有进行域自适应的方法F值性能提升了4.32%。本文提出的方法只采用少量的有标注样本便可取得很好的分类性能, 大大降低了对大规模人工标注语料的依赖性。

5 结语

本文提出了一种新的基于跨域迁移学习的情感分析方法, 用于电力短文本的情感分类。该方法只使用少量的具有标注信息的电力短文本数据, 在现有的Attention Bi-LSTM模型之上加入域自适应层, 能有效学习到源域中强大的特征表示, 又能通过域自适应层减少源域与目标域的差异, 并且通过基于注意力机制模型更有效地提取文本的局部特征, 更好地帮助情感的分类。在未来的工作中, 将进一步探索句子的语法构造知识与半监督分类方法结合, 更好地对电力短文本进行情感分类。

参考文献

  • [1]
    宋硕, 雷景生. 面向电力领域的微博评论情感分析[J]. 上海电力学院学报, 2017, 33(6): 601-606. DOI:10.3969/j.issn.1006-4729.2017.06.018
  • [2]
    RANI S, KUMAR P. Deep learning based sentiment analysis using convolution neural network[J]. Arabian Journal for Science and Engineering, 2019, 44(4): 3305-3314. DOI:10.1007/s13369-018-3500-z
  • [3]
    WANG X Y, JIANG W J, LUO Z Y. Combination of convolutional and recurrent neural network for sentiment analysis of short texts[C]//Proc of the International Conference on Computational Linguistics. Osaka, 2016: 2428-2437.
  • [4]
    XIAO K C, ZHANG Z S, WU J. Chinese text sentiment analysis based on improved Convolutional Neural Networks[C]//IEEE International Conference on Software Engineering and Service Science. Piscataway. NJ: IEEE Press, 2016: 922-926.
  • [5]
    WANG Y Q, HUANG M L, ZHU X Y, et al. Attention based LSTM for aspect-level sentiment classification[C]//Proc of Conference on Empirical Methods in Natural Language Processing. New York: ACM Press, 2016: 606-615.
  • [6]
    PENG Y, SU C, CHEN Y J. Chinese metaphor sentiment analysis based on attention-based LSTM[C]//Proc of the 10th ICACI. Piscataway. NJ: IEEE Press, 2018: 478-483.
  • [7]
    TAN B, ZHANG Y, PAN S J, et al. Distant domain transfer learning[C]//Proc of the 31st AAAI Conference on Artificial Intelligence. San Francisco: AAAI Press, 2017: 2604-2610.
  • [8]
    HOWARD J, RUDER S. Universal language model fine-tuning for text classification[C]//Proc of the 56th Annual Meeting of the Association for Computational Linguistics. New York: ACM Press, 2018: 528-535.
  • [9]
    TAN S B, CHENG X Q, WANG Y F, et al. Adapting naive bayes to domain adaptation for sentiment analysis[C]//European Conference on Information Retrieval. Berlin: Springer Press, 2009: 337-349.
  • [10]
    PENG Y, SU C, CHEN Y J. Chinese metaphor sentiment analysis based on attention-based LSTM[C]//Proc of IEEE ICACI. Piscataway. NJ: IEEE, 2018: 478-483.
  • [11]
    LIAO X W, WU X J, GUI L, et al. Cross-domain sentiment classification based on representation learning and transfer learning[J]. Acta Scientiarum Naturalium Universitatis Pekinensis, 2019, 55(1): 37-46.
  • [12]
    HAL DAUME Ⅲ. Frustratingly Easy Domain Adaptation[C]//Proc of the 45th Annual Meeting of the Association of Computational Linguistics ACL, Prague, Czech Republic: Association for Computational Linguistics, 2007: 256-263. http://www.aclweb.org/anthology/P/P07/P07-1033.
  • [13]
    XIA R, XU F, ZONG C, et al. Dual sentiment analysis: considering two sides of one review[J]. IEEE Transactions on Knowledge and Data Engineering, 2015, 27(8): 2120-2133. DOI:10.1109/TKDE.2015.2407371
  • [14]
    CHEN K Y, HE Z S. Sentiment classification of hotel reviews based on sentiment dictionary[J]. Modern Computer, 2017(4): 3-6.
  • [15]
    PENG H Y, CAMBRIA E, HUSSAIN A. A review of sentiment analysis research in Chinese language[J]. Cognitive Computation, 2017, 9(4): 423-435. DOI:10.1007/s12559-017-9470-8
  • [16]
    LI D, QIAN J. Text sentiment analysis based on long short-term memory[C]//Proc the First IEEE International Conference on Computer Communication and the Internet. Piscataway. NJ: IEEE, 2016: 471-475.
  • [17]
    ZHOU Y, LIU Y, CAI J. Sentiment analysis of micro-blogs based on attention mechanism[J]. Information Studies: Theory and Application, 2018, 41(3): 89-94.
  • [18]
    HASSAN A, MAHMOOD A. Efficient deep learning model for text classification based on recurrent and convolutional layers[C]//Proc of the 16th IEEE International Conference On Machine Learning And Applications. Piscataway. NJ: IEEE, 2017: 1108-1113.
  • [19]
    LYU W L, XU W R, GUO J. Transfer learning in classification based on semantic analysis[C]//International Conference on Computer Science and Network Technology. Piscataway. NJ: IEEE, 2013: 1336-1339.