随着互联网的迅速普及, 多媒体处理技术、网络传输、视频数据处理等相关技术快速发展, 来自不同领域的视频数据正在以惊人的速度增长。例如YouTube, 其每个月的视频播放总次数达到了46.7亿次, 另外一个专业视频网站Hulu也有超过20万个高质量的视频, 其月浏览次数也维持在9亿。相对于观看一部完整的视频, 有些时候用户更愿意观看其中一些视频片段。例如一段幽默电影片段的集锦, 或者振奋人心的足球进球集锦; 用户甚至希望可以根据之前看过的视频, 搜索与之情感相似的其他视频片段。视频里所蕴含的情感通常是多种情感交织的混合情感, 所以基于情感的视频片段推荐是一个具有挑战性的研究问题。
近几年随着新媒体技术的发展, 一种新类型的视频--弹幕视频在世界范围内变得愈来愈流行, 即用户可以在观看网络视频中发表自己的实时评论, 并与其他用户产生共鸣或者互动。在用户所发的弹幕中, 往往包含着与视频当前片段的情感相吻合的文字, 这对展开进一步的研究起到很好的帮助作用。作为一种新型的消息传递方式, 弹幕书写与传统短文本存在很大区别, 主要表现在两个方面:1) 文本更简短随意。多数评论者选择用短语、短句和符号来表示内心活动。2) 内容口语化、符号化。用户往往通过当下流行的热门语来表达自己当前的情感。
目前, 有两种基于视频弹幕数据的视频分析技术可以对该问题起到一定借鉴作用。其中,基于弹幕数据的视频片段自动标签技术[1-2]提供了一种提取视频片段中弹幕的关键字给这段片段打标签的技术; 基于弹幕的视频精彩镜头的检测方法[3]主要根据弹幕内容以及数量的变化曲线分析视频中的精彩瞬间。这两种基于内容的分析方法往往难以刻画出视频片段的情感趋势, 原因有如下两点:其一, 情感鲜明的视频片段不能等同于精彩片段, 精彩片段往往出现在弹幕评论密集的区域, 而这种判断模式并不适用于视频情感检测; 其次, 通过弹幕数据提取的文字标签通常来源于弹幕中的关键字和高频词, 而这些词的所蕴含的情感可能是不易确定的, 所以通过标签信息来指代视频片段的情感并不准确。
据调查, 目前国内外基于弹幕数据开展的研究工作并不多[1-6]。针对上述提出的问题, 本文提出了一种基于情感分析的视频片段推荐模型, 利用弹幕数据分析各个视频片段中用户的情感倾向和交互情况, 计算片段的情感以及片段之间的情感相似度, 并以此为片段推荐的依据。为检测视频片段的情感, 本文设计了一种基于文本主题模型的视频弹幕情感识别方法。首先依据主题模型对弹幕中的词进行主题分类; 其次,基于每个词的主题分布和情感词典提出动态评估词语的情感向量的度量算法; 最后, 通过计算每个视频片段中的每个词的情感向量得到每个片段的情感向量。此外, 针对如何评估两个视频片段的情感相似度, 本文采用一种基于“全局+局部”的上下文关联情感相似度计算方法, 并通过情感相似度分数来推荐视频片段。
1 相关工作 1.1 针对中文的情感分析研究中文情感识别技术主要分为两种:监督式学习方法和组合方法。监督式学习方法中, 文献[7]提出了基于条件随机场 (Conditional Random Field, CRF) 的冗余情感特征的概念, 并对情感分类。文献[8]基于支持向量机 (Support Vector Machine, SVM) 对长文本中的主观性文字和客观性文字进行分类。组合方法中, 文献[9]中研究了四种不同分类方法在中文情感分类中的应用, 同时考虑到不同领域需要选择不同分类才能获得更好的分类效果, 采用了一种基于Stacking的组合分类方法。目前针对中文的情感分析相对于英文的情感分析, 无论从资源还是方法上来说都要相对初步一些, 主要存在以下难点:1) 中文需要分词; 2) 中文情感词典需要构建; 3) 中文理解存在一些难点,而目前尚无较好的解决方法, 如“反讽”“褒义贬用”“贬义褒用”; 4) 对标注数据的规模过于依赖。
1.2 情感分析在网络评论领域的应用目前针对网络评论的情感分析应用研究多集中在网络舆论和商品评论两个领域。例如, 利用情感分析技术对微博舆论中的热点话题、公众观点等进行提取, 或者面向商品的用户在线评论进行褒贬识别。文献[10]提出一种监督式机器学习方法来利用局部文本特征对新闻自动分类。文献[11]研究表明, 采用一种结合支持向量机的机器学习算法、信息增益的特征选取算法和词频-逆文档频率 (Term Frequenc-Inverse Document Frequency, TF-IDF) 特征项权重计算的组合方法对微博短文本的情感分类效果最好。作为一种新类型的网络评论方式, 弹幕写作简单随意, 并无严格的语法要求, 这导致传统的情感分析方法不能直接适用于弹幕情感研究。
1.3 隐含狄利克雷模型隐狄利克雷分布 (Latent Dirichlet Allocation, LDA) 模型是由Blei等[12-13]在2003年提出的一种主题模型, 由文档、主题、词三层结构组成。2004年Griffiths等在Blei的基础模型上对β参数施加了Dirichlet先验分布, 使得LDA模型成为一个完整的概率生成模型。目前LDA模型已经广泛地应用到文本挖掘甚至音频分析领域[14]。对于语料库中的每一篇文档, LDA模型的主题生成过程为:1) 求主题的多项式分布参数θ, θ~Dir (α), α为θ的超参数; 2) 求单词的多项式分布参数η, η~Dir (β), β为η的超参数; 3) 根据θ生成主题z, z~Multinomial (θ); 4) 采样过程, 根据参数z和η, 从p(w|z, η) 中选择一个词w; 5) 重复步骤3)~4) 直到模型收敛。
1.4 情感语料目前有一些情感词典被开发出来用于情感分析, 比如WordNet-Affect。本文从Ren_CECps中文情感语料库[15]提取多维情感词典, 该语料库已经广泛用于中文情感的研究[16-17]。该语料库包含了1487篇中文博客, 涵盖了878164个情感词, 每个情感词在语料中都被标注为 (惊讶、悲伤、喜爱、高兴、憎恨、期待、焦虑、生气)8个维度表示的向量, 每个维度用0到1表示情感从弱到强。
考虑到弹幕中有大量的网络用语, 本文采用文献[18]中所提的针对网络词汇的情感词典 (简称Catchwords词典) 作为补充。该网络用语情感词典涵盖了733个网络用语, 并将将其分为7个情感分类 (乐、好、怒、愁、惊、恶、惧)。
2 问题描述 2.1 背景本节介绍本文相关背景, 包括弹幕视频的特点和结构, 以及相关定义。一个用户观看到视频中某个场景, 可能会在这个时间点写一些文字发送到视频中分享他的观看体验, 这就是弹幕。当后面的用户再看到该视频中的这个场景, 之前用户发送的弹幕就会出现在屏幕上。所有的弹幕均为用户在观看过程中发送的, 弹幕反映了用户在观看这段片段的情绪, 这种影响具有一定的传播效应, 甚至依据当前这一幕的弹幕可以预测视频后面的情感发展。
弹幕可以定义为一个三元组, 其包含了用户输入内容、发送时间、用户ID。本文主要对三种形式的弹幕内容进行分析:中文、英文、数字。其中:英文包含了部分网络用语, 如“QAQ”(表示哭泣); 而考虑数字的原因, 有部分常用网络流行词, 如“233”(表示大笑) 和“666”(表示厉害) 等, 对情感分析很有帮助。
如图 1所示, 弹幕视频截图上方的文字为用户发送的弹幕, 例如“要出事了”是某用户于该视频的120 min 10 s到120 min 40 s之间发送的一条弹幕。
设视频集合为V={v1, v2, …, v|V|}, |V|为集合大小, 其中, 视频vi的时间长度为Tvi, 切分为|vi|个视频片段vi={si, 1, si, 2, …, si, |vi|}, si, k代表第i个视频中的第k个视频片段 (1≤k≤|vi|), si, k的时间长度为定值Ts。因此,
$ {s_k} = \left\{ {\left\langle {{d_{{w_{k1}}}}:\left| {{w_{k1}}} \right|} \right\rangle, \left\langle {{d_{{w_{k2}}}}:\left| {{w_{k2}}} \right|} \right\rangle, ..., \left\langle {{d_{{w_{k{n_k}}}}}:\left| {{w_{k{n_k}}}} \right|} \right\rangle } \right\} $ |
其中:nk代表sk中不一样的词的个数; wki代表片段sk第i个词; |wki|代表wki在片段sk中出现的次数;
本文要解决的问题是给定目标片段starget, 求解视频集合中与starget情感相似度高的片段集合:
$ {c_{v, {s_{target}}}} = \mathop {\max }\limits_{c{'_{v, {s_{target}}}} \in v} \left( {{{c'}_{v, {s_{target}}}}\left| {{s_{target}}, {v_{target}}, S, W} \right.} \right), \forall v \in V $ |
其中:starget∈vtarget;
$ {C_{{s_{target}}}} = \left\{ {{c_{{v_1}, {s_{target}}}}, {c_{{v_2}, {s_{target}}}}, ..., {c_{{v_{\left| V \right|}}, {{\rm{s}}_{target}}}}} \right\} $ |
如图 2视频片段推荐的工作流程包含三个子模块:1) 数据预处理; 2) 视频片段情感识别; 3) 情感相似度分析。
数据预处理阶段主要包含了视频片段切分、文本预处理、词语编号化处理三个步骤。首先根据Ts和td对所有视频的弹幕数据进行切分, 并对片段进行初步的筛选;其次, 从Ren_CECps中文情感语料库提取情感词典。本文通过对每个情感词的向量总和求平均得到情感词的平均情感向量,公式如下:
$ {\mathit{\boldsymbol{e}}_w} = \frac{1}{{{T_w}}}\sum\limits_{i = 1}^{{T_w}} {{\mathit{\boldsymbol{e}}_{w, i}}} $ |
其中:Tw代表情感词w在Ren_CECps中文情感语料库中出现的总次数;ew, i代表情感词w第i次在语料库中出现时被标注的情感向量。后文中用“Ren_CECps词典”代表本文从该语料库中所提取的情感词典。为缩短模型训练的时间, 本文对所有词编号化处理, 并剔除难以识别的网络符号以及出现概率极低的词。
3.2 视频片段的情感识别弹幕的词分布可视作一个概率模型, 在同一个视频片段中的词相互之间具有情感依赖, 因此, 本文提出一种基于多主体的视频片段情感识别 (Multi-Topic Emotion Recognition, MTER) 算法。MTER利用每个词的隐含情感主题分布来评估词的情感值, 并用情感向量表示。考虑到大量的词的情感没有在Ren_CECps词典中有标注, 且中文词语在不同语境下可能会有不同的情感含义, 本文采用词的最大权重的主题来计算出该词在当前片段中的临时情感。
根据前面的定义, sk可以被视为一系列词的集合, 根据Ren_CECps词典, 每个词wki的情感可以表示为一个维度为8的情感向量:
$ {\mathit{\boldsymbol{E}}_{{s_k}}} = \left( {\sum\limits_{w \in {s_k} \cap R} {\left| w \right|\mathit{\boldsymbol{e}}_w^1}, \sum\limits_{w \in {s_k} \cap R} {\left| w \right|\mathit{\boldsymbol{e}}_w^2}, ..., \sum\limits_{w \in {s_k} \cap R} {\left| w \right|\mathit{\boldsymbol{e}}_w^8} } \right) $ |
其中:R表示Ren_CECps词典;
本文提出的模型中, 视频片段视作一组弹幕词语构成的集合, 不考虑词与词的先后关系。将LDA模型的思想引入视频片段的情感识别模型, 假设模型训练初始设置K个隐含主题{t1, t2, …, tK}, 所以每个词在视频片段中都能对应一个主题, 每个视频片段能计算得出一个主题分布。在所提模型中, LDA的训练过程如下:1) 为片段中每个弹幕词语初始化一个主题; 2) 根据其他弹幕词语的主题为每一个词重新生成一个新主题; 3) 基于Gibbs Sampling对每个词的主题重新采样, 并指定迭代次数η。LDA过程的结果如表 3所示。
如表 1所示, 字体加粗的词语代表可以在Ren_CECps词典中检索到, 且各主题中每个词按照权重降序排列。其中wti代表Topic t的第i个词, αti代表wti在t中的权重。随着i的增加αti逐渐趋于0, 这表示在一个主题中, 权重越小的词与该主题的相关性越低。因此, 为了保证方法的有效性, 本文只考虑每个主题的top P个词。每个主题的情感向量的计算公式如下:
$ \begin{array}{l} {\mathit{\boldsymbol{E}}_t} = [\frac{1}{M}\sum\limits_{i = 1}^P {\left( {1 + {\alpha _{ti}}} \right)\mathit{\boldsymbol{e}}_{ti}^1}, \frac{1}{M}\sum\limits_{i = 1}^P {\left( {1 + {\alpha _{ti}}} \right)\mathit{\boldsymbol{e}}_{ti}^2}, ..., \\ \;\;\;\;\;\;\frac{1}{M}\sum\limits_{i = 1}^P {\left( {1 + {\alpha _{ti}}} \right)\mathit{\boldsymbol{e}}_{ti}^8}] \end{array} $ |
其中:
$ {\mathit{\boldsymbol{e}}_{ki}} = \left\{ \begin{array}{l} {\mathit{\boldsymbol{e}}_{{w_{ki}}}},\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ {w_{ki}} \in R\\ {\omega _{km}} \times \left( {1 + {\alpha _{{t_{km}}i}}} \right) \times {\mathit{\boldsymbol{E}}_{{t_{km}}}},{\rm{ 其他}} \end{array} \right. $ |
其中:ωkm代表tkm的权重; Etkm代表tkm的情感向量。因此sk的情感向量计算公式如下:
$ {\mathit{\boldsymbol{E}}_{{s_k}}} = \left( {\sum\limits_{i = 1}^n {\left| {{w_{ki}}} \right|\mathit{\boldsymbol{e}}_{ki}^1}, \sum\limits_{i = 1}^n {\left| {{w_{ki}}} \right|\mathit{\boldsymbol{e}}_{ki}^2}, ..., \sum\limits_{i = 1}^n {\left| {{w_{ki}}} \right|\mathit{\boldsymbol{e}}_{ki}^8} } \right) $ |
视频片段的情感具有传递性, 归属于同一个视频中的视频片段具有一定的情感相关性和相似性, 尤其是时间相隔较近的片段。本文对视频片段情感向量的调整公式如下:
$ {\mathit{\boldsymbol{E'}}_{{s_{i, k}}}} = \mu {\mathit{\boldsymbol{E'}}_{{s_{i, k-1}}}} + \left( {1-\mu } \right){\mathit{\boldsymbol{E}}_{{s_{i, k}}}} $ |
其中: μ(0 < μ < 1) 是影响因子, μ越大代表si, k之前的片段对si, k的情感影响也大。可得出所有在si, k之前的片段都会影响si, k的情感向量, 且si-1, k的影响最大。
综上, 基于MTER的视频片段情感识别算法描述如下。
算法1 视频片段情感识别算法。
输入:视频片段集合S; LDA过程的隐含主题数量K; LDA过程的主题采样次数η。
输出: Esk, ∀sk∈S。
数据预处理:对弹幕文本集合进行LDA主题采样。初始化每个视频片段sk的情感向量Esk=(01, 02, …, 08)。
for each topic t do:
Calculate Et
end for
for each shot sk do
for each word wki in sk do
if wki∈R then
Update Es with ewki //把word w的情感向量累加到Es
el se
Calculate eki for wki
Update Es with eki
end if
end for
end for
for each video vi do
for each shot si, k do
Adjust Esi, k
end for
end for
3.3 情感相似度分析计算得出每个视频片段的情感向量之后, 本文提出一种片段间的情感相似度的计算方法。鉴于片段所属的视频的全局情感会很大程度上影响到片段本身的情感, 例如, 来自两部喜剧的片段的相似度有很大概率高于分别来自喜剧和悲剧的两个片段的情感相似度。因此, 本文结合全局情感 (video-level) 和局部情感 (shot-level) 来计算两个片段之间的情感相似度。计算方法如下:
一部完整的视频包含了一系列视频片段,而视频对应的弹幕数据中包含的网络情感词汇数量远大于一个视频片段。因此, 计算一部完整视频的情感可直接对视频弹幕中的网络情感词的数量进行统计。本文定义视频的情感为Ev=(n1, n2, …, n7)(Catchwords词典共有7个情感分类), 其中ni(1≤i≤7) 代表视频v在Catchwords词典中的第i个分类的情感词的数量, 本文根据杰卡德距离 (Jaccard Distance) 来计算两个视频之间的整体情感相似度:
$ {\mathit{\boldsymbol{E}}_v}\_sim\left( {{\mathit{\boldsymbol{E}}_{{v_j}}}, {\mathit{\boldsymbol{E}}_{{v_k}}}} \right) = \frac{{\sum\limits_{i = 1}^7 {\min \left( {{n_{ji}}, {n_{ki}}} \right)} }}{{\sum\limits_{i = 1}^7 {\max \left( {{n_{ji}}, {n_{ki}}} \right)} }} $ |
根据本文对视频片段的情感定义Es=(e1, e2, …, e8), 可根据余弦相似度 (cosine similarity) 对两个视频片段的情感向量求相似度:
$ {\mathit{\boldsymbol{E}}_s}\_sim\left( {{\mathit{\boldsymbol{E}}_{{s_j}}}{\mathit{\boldsymbol{E}}_{{s_k}}}} \right) = \frac{{\sum\limits_{i = 1}^8 {\mathit{\boldsymbol{e}}_j^i \times \mathit{\boldsymbol{e}}_k^i} }}{{\sqrt {\sum\limits_{i = 1}^8 {{{\left( {\mathit{\boldsymbol{e}}_j^i} \right)}^2}} } \times \sqrt {\sum\limits_{i = 1}^8 {{{\left( {\mathit{\boldsymbol{e}}_k^i} \right)}^2}} } }} $ |
因此, 任意两个视频片段的情感相似度的计算公式定义为:
$ {\mathit{\boldsymbol{E}}_s}\_sim\left( {{\mathit{\boldsymbol{E}}_{{s_{i, k}}}}, {\mathit{\boldsymbol{E}}_{{s_{j, l}}}}} \right) = {\mathit{\boldsymbol{E}}_v}\_sim\left( {{\mathit{\boldsymbol{E}}_{{v_i}}}, {\mathit{\boldsymbol{E}}_{{v_j}}}} \right) \times {\mathit{\boldsymbol{E}}_s}\_sim\left( {{\mathit{\boldsymbol{E}}_{{s_k}}}, {\mathit{\boldsymbol{E}}_{{s_l}}}} \right) $ |
最后根据视频片段si, k和starget之间的情感相似度对vi中的视频片段排名, 取前ntop的片段作为
综上, 视频片段推荐算法描述如下。
算法2 视频片段推荐算法。
输入:视频片段集合S; 目标片段starget。
输出:视频片段集合
for each shot s do
Calculate Es_sim(Estarget, Es)
end for
for each video v do
for each shot s do
if s is top ntop of Es_sim in v
Add s to cvi, starget
end if
end for
Add
end for
return
本文的数据由两部分组成:1) 国内视频网站“优酷”的一段混剪视频, 这段混剪视频由十部不同电影中的一些激励人心的片段组成; 2) 视频片段集, 从国内弹幕视频网站“bilibili”上下载上述混剪视频相关的十部电影的弹幕数据。这些弹幕数据根据本文的视频切分规则切分为一系列弹幕数据块, 每一块数据对应一个视频片段。收集所有覆盖混剪视频相关内容的励志视频片段作为目标片段集合, 最后收集得到17个目标片段。
本文选用的中文分词工具是Jieba, 通过对弹幕数据进行分词、清洗、去噪之后, 最后剩余352892个词。通过设置Ts=120 s, td=100 s来把视频切割成一系列片段, 并筛选弹幕数量至少含有8条的视频片段, 且每一部电影至少包含50个视频片段。此外, 为了避免视频中的片头片尾曲对情感分析造成干扰, 本文剔除每部电影的前两个片段和最后两个片段。数据集概况如表 2所示。
本文设计了几组对比实验来验证模型的准确性。TF-IDF是文档关键词抽取的典型算法。本文中基于TF-IDF的对比实验被分为“TF-IDF-R”和“TF-IDF”。对于“TF-IDF-R”, 本文根据每个片段中的词频向量和Ren_CECps词典来计算视频片段的情感向量; 而在“TF-IDF”中仅通过片段中的TF-IDF词频向量来描述视频片段的情感特征。本文提出的情感相似度计算方法均适用于这两种方法。“TF-IDF-R”和“TF-IDF”都在实验效果中表现稳定。
本文还设置了原始LDA模型作为MTER的对比实验, 与TF-IDF不同, LDA和MTER都是基于迭代计算的方法, 原始LDA模型中的参数和MTER中的LDA过程的实验参数保持一致, 主要参数设置如下:主题采样迭代次数η=400;隐含主题个数K=20;LDA中的主题分布的先验值α=0.1;对于MTER, 情感影响因子μ=0.15;主题中的有效单词个数P=100。
实验过程包括以下几个步骤:1) 对电影切分后的所有视频片段 (包含上文所述的nobjective个励志片段) 分别计算情感向量 (见算法1);2) 依次取目标片段集合中的视频片段作为starget, 计算S中其他片段与starget的情感相似度分数, 并在每个电影vi的视频片段中取分数最高的ntop个视频片段加入推荐列表 (见算法2);3) 检测每个starget的推荐准确度。
本文分别求出每个目标片段的F1值, 并求出平均值meanF1, 公式定义如下:
$ \begin{array}{*{35}{l}} Precision={{n}_{\text{correct}}}/\left| {{C}_{{{s}_{target}}}} \right| \\ Recall={{n}_{\text{correct}}}/{{n}_{\text{objective}}} \\ mean{{F}_{1}}=\frac{1}{{{n}_{\text{objective}}}}\sum\limits_{i=1}^{{{n}_{\text{objective}}}}{F_{1}^{\left( i \right)}} \\ {{F}_{1}}=\frac{2\times Precision\times Recall}{Precision+Recall} \\ \end{array} $ |
其中:ncorrect代表上述混剪视频中的励志片段被推荐给starget的数量, F1(i)代表第i个starget的F1值。
4.3 参数学习主要对MTER中的四个主要参数进行学习:1) LDA过程的隐含主题个数K; 2) 主题采样迭代次数η; 3) 情感影响因子μ; 4) 主题中的有效单词个数P。参数学习结果如图 3所示。
当主题数量为20左右, meanF1达到最优值。当K>20时, meanF1开始迅速下降。由第3章所述, K越大导致ωkm越小, 主题模型对情感向量的影响降低。而当K < 10时, 对于风格不同的视频片段, tm为同一主题的概率会增大, 这样同样不能发挥主题模型在情感识别中的优势。
P取100左右, meanF1达到最优值。其原因在于随着词在tkm排名越靠后, αtkmi趋于0, 词的影响力也越小。此时采用更多数量的词参与计算, 会使得主题情感的准确性降低。
主题采样迭代次数η为400时, 模型效果达到最佳效果。当η超过400, LDA过程将会出现过拟合的现象。
当μ=0.15时,模型达到最优; 当μ>0.15时, meanF1下降的原因为μ增大导致了片段的情感区分度降低, 导致模型误差。
4.4 实验结果实验反映了不同ntop如何影响推荐结果。当ntop=15, 推荐总数远大于目标片段的数量, 导致四种方法的准确率都达到最低值; 当ntop从15降低到10, MTER的召回率降低了19%, 而TF-IDF-R、LDA、TF-IDF分别降低27%、24%、32%;当ntop降低到5, 每个电影中只有5个分数最高的视频片段加入推荐列表, 此时的推荐结果正确性非常依赖目标片段的弹幕数据, 导致四种方法的差距非常小, 即便如此MTER依然优于其他方法。基于MTER的推荐方法和其他三种对比实验的结果如图 4~5所示。
将meanF1的实验结果列入表 3。可以看出不借助情感词典的方法TF-IDF和LDA的实验结果并不理想, 其最好结果是TF-IDF在ntop=5取得, 对应的meanF1=0.084。借助情感词典的方法的meanF1最低为0.089。实验中最优的meanF1是MTER在ntop=10取得。当ntop取得10和15时, MTER比TF-IDF-R分别提高了30%和19%。然而在不借助词典的情况下, TF-IDF在ntop取三个不同值的情况下均优于LDA。其主要原因为LDA根据片段的主题分布来计算片段之间的相似度, 然而部分词尤其是网络用语适用于多种类型的场景, 这种在各个片段中出现概率都很大的词可能会在不同的主题中都有很大的权重, 这样就降低了主题模型在情感识别中的效果。
通过以上实验分析可以发现, 基于MTER的视频片段推荐方法明显优于基于普通LDA和基于TF-IDF的推荐方法, 其主要原因是基于MTER的推荐算法考虑到了当遇到没有情感标注的词, 即一个完全陌生的词, 如何通过主题模型计算出该词的情感值。相对于其他三种方法, MTER考虑到当一个陌生的词在不同场景中可能会有情感差异, 并结合该词当前的主题分布实时计算出该词在当前视频片段中的情感向量。而基于TF-IDF的实验方法只考虑了各片段中词之间的数量关系和已有的情感词向量来评估片段的情感, 当面对情感词典数据缺乏的情况下无法对未知词的情感进行探索, 因此基于MTER的推荐方法优于其他对比方法。
结合上述结果分析, 不借助情感词典的方法TF-IDF和LDA在视频片段推荐中表现较差, 尤其是ntop=15, 10时; 而当ntop=5时, 四种方法的效果差距不大。MTER在ntop为三种不同值的情况下均优于其他三种方法, 且在ntop=10时表现最佳。
5 结语本文重点对视频片段的情感问题进行研究, 提出了基于弹幕情感分析的视频片段推荐机制。作为一种新类型的文本消息, 弹幕反映了视频的情感。本文提出了一种新颖的分析机制, 借助主题模型来挖掘弹幕文本的情感因子。此外, 还提出了基于全局特征和局部特征的视频片段情感相似度分析方法。实验结果表明了所提模型在分析不规则文本的复杂情感特征方面的能力, 以及弹幕在视频情感分析领域的适用性。
[1] | WU B, ZHONG E, TAN B, et al. Crowdsourced time-sync video tagging using temporal and personalized topic modeling[C]//Proceedings of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2014: 721-730. |
[2] | LV G, XU T, CHEN E, et al. Reading the videos: temporal labeling for crowdsourced time-sync videos based on semantic embedding[C]//Proceedings of the Thirtieth AAAI Conference on Artificial Intelligence. Menlo Park, CA: AAAI Press, 2016:3000-3006. |
[3] | XIAN Y, LI J, ZHANG C, et al. Video highlight shot extraction with time-sync comment[C]//HOTPOST 2015: Proceedings of the 7th International Workshop on Hot Topics in Planet-scale Mobile Computing and Online Social neTworking. New York: ACM, 2015: 31-36. |
[4] | HAMASAKI M, TAKEDA H, HOPE T, et al. Network analysis of an emergent massively collaborative creation community[C]//Proceedings of the Third International ICWSM Conference. Menlo Park, CA: AAAI Press, 2009: 222-225. |
[5] | WU Z, ITO E. Correlation analysis between user's emotional comments and popularity measures[C]//Proceedings of the 2014ⅡAI 3rd International Conference on Advanced Applied Informatics. Piscataway, NJ: IEEE, 2014: 280-283. |
[6] | YOSHⅡ K, GOTO M. MusicCommentator: generating comments synchronized with musical audio signals by a joint probabilistic model of acoustic and textual features[EB/OL].[2016-03-10]. https://staff.aist.go.jp/m.goto/PAPER/ICEC2009yoshii.pdf. |
[7] | ZHAO J, LIU K, WANG G. Adding redundant features for CRFs-based sentence sentiment classification[C]//EMNLP 2008: Proceedings of the Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA, USA: Association for Computational Linguistics, 2008: 117-126. |
[8] | ZHOU L, XIA Y, LI B, et al. WIA-opinmine system in NTCIR-8 MOAT evaluation[EB/OL].[2016-03-10]. http://research.nii.ac.jp/ntcir/workshop/OnlineProceedings8/NTCIR/15-NTCIR8-MOAT-ZhouL.pdf. |
[9] | 李寿山, 黄居仁. 基于Stacking组合分类方法的中文情感分类研究[J]. 中文信息学报, 2010, 24 (5) : 56-61. ( LI S S, HUANG C R. Chinese sentiment classification based on stacking combination method[J]. Journal of Chinese Information Processing, 2010, 24 (5) : 56-61. ) |
[10] | YU H, HATZIVASSILOGLOU V. Towards answering opinion questions: separating facts from opinions and identifying the polarity of opinion sentences[C]//EMNLP 2003: Proceedings of the 2003 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA, USA: Association for Computational Linguistics, 2003: 129-136. |
[11] | 刘志明, 刘鲁. 基于机器学习的中文微博情感分类实证研究[J]. 计算机工程与应用, 2012, 48 (1) : 1-4. ( LIU Z M, LIU L. Empirical study of sentiment classification for Chinese microblog based on machine learning[J]. Computer Engineering and Applications, 2012, 48 (1) : 1-4. ) |
[12] | BLEI D M, NG A Y, JORDAN M I. Latent Dirichlet allocation[J]. Journal of Machine Learning Research, 2003, 3 : 993-1022. |
[13] | HEINRICH G. Parameter estimation for text analysis[EB/OL].[2016-03-10]. http://www.arbylon.net/publications/text-est2.pdf. |
[14] | WU B, ZHONG E, HORNER A, et al. Music emotion recognition by multi-label multi-layer multi-instance multi-view learning[C]//Proceedings of the 22nd ACM International Conference on Multimedia. New York: ACM, 2014: 117-126. |
[15] | REN J. Document for Ren-CECps 1.0[EB/OL].[2016-03-10]. http://a1-www.is.tokushima-u.ac.jp/member/ren/RenCECps1.0/Ren-CECps1.0.html. |
[16] | QUAN C, REN F. Sentence emotion analysis and recognition based on emotion words using Ren-CECps[J]. International Journal of Advanced Intelligence, 2010, 2 (1) : 105-117. |
[17] | REN F, QUAN C. Linguistic-based emotion analysis and recognition for measuring consumer satisfaction: an application of affective computing[J]. Information Technology and Management, 2012, 13 (4) : 321-332. doi: 10.1007/s10799-012-0138-5 |
[18] | 郑飏飏, 徐健, 肖卓. 情感分析及可视化方法在网络视频弹幕数据分析中的应用[J]. 现代图书情报技术, 2015, 31 (11) : 82-90. ( ZHENG Y Y, XU J, XIAO Z. Utilization of sentiment analysis and visualization in online video bullet-screen comments[J]. New Technology of Library and Information Service, 2015, 31 (11) : 82-90. ) |