广东工业大学学报  2018, Vol. 35Issue (2): 51-56.  DOI: 10.12052/gdutxb.170152.
0

引用本文 

杨贤, 唐超兰, 李航. 基于文本块密度与标签路径等特征的正文提取[J]. 广东工业大学学报, 2018, 35(2): 51-56. DOI: 10.12052/gdutxb.170152.
Yang Xian, Tang Chao-lan, Li Hang. Text Extraction Based on Text Block Density with Tag Path and Other Features[J]. JOURNAL OF GUANGDONG UNIVERSITY OF TECHNOLOGY, 2018, 35(2): 51-56. DOI: 10.12052/gdutxb.170152.

基金项目:

广东省部产学研专项资金企业创新平台资助项目(2013B090800042)

作者简介:

杨贤(1982–),男,助理研究员,主要研究方向为数据挖掘、人机交互。

通信作者

唐超兰(1969–),女,教授,主要研究方向为交互设计. E-mail:tangchl@gdut.edu.cn

文章历史

收稿日期:2017-10-16
基于文本块密度与标签路径等特征的正文提取
杨贤1, 唐超兰1, 李航2     
1. 广东工业大学 艺术与设计学院,广东 广州  510090;
2. 广东工业大学 计算机学院,广东 广州  510006
摘要: 为了解决网页中除正文信息外还包含网页导航、广告和免责声明等噪声信息的问题, 本文提出一种基于标签路径等多特征和文本块密度的正文提取方法. 首先根据文本块密度特征确定正文区域, 然后在区域内使用标签路径等特征剔去噪音节点, 最后抽取该文本块中的正文节点内容. 该方法有效解决了网页正文块中噪声信息难以过滤和标签路径等特征易对正文部分外较长文本误抽取的问题, 且无须训练和人工处理. 从知名网站上随机选取新闻网页数据集进行实验, 验证了该方法在不同数据源上都具有很好的适用性, 抽取精确度优于CETR、CETD等方法.
关键词: 正文抽取    文本块    标签路径    文本密度    
Text Extraction Based on Text Block Density with Tag Path and Other Features
Yang Xian1, Tang Chao-lan1, Li Hang2     
1. School of Art and Design, Guangdong University of Technology, Guangzhou, 510090, China;
2. School of computers, Guangdong University of Technology, Guangzhou 510006, China
Abstract: Most of web pages contain content information as well as a lot of noisy information. In order to address this problem and improve the accuracy of web page extraction, a web page extraction method is proposed via text block density with tap path and other features. The proposed method mostly combines the advantages of text block extraction method and label path extraction method. First, the block of the text is determined according to the density feature of the text block, and then the tag path method is used to remove the noisy node in the block, the text node in the text block is extracted from the content finally. This solution effectively solves the problem that the noisy information in the text block is difficult to filter and the tag path method is easy to extract the long text from the noisy block. In the end, experiments show that the solution is better than CETR and CETD in most cases.
Key words: content extraction    text block    tag path    text density    

网页信息是互联网文本挖掘以及其他大数据应用的主要来源,但网页信息除了有用的正文内容外,还包含如导航栏、推荐广告、推荐链接、版权信息等噪声信息,这些信息对管理、检索、挖掘和分析等研究造成严重干扰.

目前国内外关于网页正文抽取方面的研究大致分为以下4类:基于包装器的方法、基于模板的方法、基于视觉的方法和基于统计的方法[1]. (1) 基于包装器的网页信息抽取方法最早是通过手工构建包装器来实现的,例如W4F[2]、SCRAP[3]等. 这种方法通常是针对某些特定网站去构建包装器,具有精度高的优点,但耗费代价大,对不同网站实用性差. 随着机器学习技术的发展,人们通过训练学习的方式来自动分析网页结构,生成包装器规则. 如Kim等[4]以文本块的链接密度、标签密度等为特征进行学习训练,然后通过决策树的形式判断文本块是否属于正文块,这种改进需要提供大量标注页面用于学习规则,代价较高. (2) 基于模板的方法是根据网站通常用模板来构建,相同网站的网页结构具有很高的相似度. 这类方法对于结构差别较大的网站效果不佳,此时需重新构建新模板,欠缺可维护性[5]. (3) 基于视觉的方法是利用网页内容分布位置和节点的样式等视觉特征来对网页进行分块和信息抽取. 黄文蓓等[6]提出基于TVPS的算法,但计算量很大,难以推广. 总的来说,基于视觉的方法对表现形式单一、正文和噪音内容CSS样式上区别很大的网页有不错的抽取性能,但是欠缺通用性. (4) 随着互联网技术的发展,许多学者开始利用网页内容中的统计特征来进行信息抽取. Weninger等[7-8]提出基于HTML代码的标签比特征值的CETR算法,该方法对新闻网页具有良好通用性. Sun等[9]根据正文部分内容集中且多为长文本的特点,提出了基于文本密度特征的抽取算法(Content Extraction with Text Density, CETD),该方法能够有效地抽取网页正文块,但是对于部分正文块内有噪音的网页则难以保证抽取精度. 吴共庆等[10]提出了基于标签路径特征的CEPR算法,该算法虽然能够有效地区分网页中的正文内容和噪声内容,但是存在对正文区域和噪音区域边界不敏感的问题,容易将噪音部分的版权申明、长文本评论等误认为正文一并提出.

针对以上问题,本文结合文本密度方法能有效确定网页正文块和标签路径等多特征能有效区分正文节点和噪音节点的优点,设计出基于文本块密度和标签路径等多特征的正文提取方法:首先利用文本块密度特征找到正文所在文本块,再利用标签路径等特征剔除正文块内噪音节点,然后提取正文. 该方法无需训练集,简单有效,且提取效果好.

1 相关技术原理 1.1 DOM树

DOM (Document Object Model, DOM)树是网页的数据结构,通过将网页解析成树状结构,可以很方便地对网页进行分析处理,这是目前表示和处理网页非常有效的技术.

1.2 文本块和文本块密度

观察图1示例网页以及大量主题型网页发现:

(1) 网页的内容都以块状分布,且正文多集中在一块,而噪音则分散为多块.

(2) 网页正文内容通常非常集中,而且有很多长文本,超链接数量少,而噪音内容则一般为短文本,且超链接个数多.

图 1 腾讯新闻网页示例 Figure 1 Tencent news web page example

根据以上特征,设T为网页解析树,TbvT上以节点v为根节点的子树,其中v为非文本节点,若Tbv不为空,则称Tbv为一个文本块. 同时,设定v的文本块密度(Text block density, TBD)TBDv为节点v所有子节点为根的文本块中非链接文本字符总数与块内非链接标签总数的比值,公式为

${{TB}}{{{D}}_v} = \frac{{C{}_v + 1}}{{T{}_v + 1}}.$ (1)

其中,Cv为文本块v内的非链接文本字符总数,Tv为文本块v内文本非链接标签个数. 为了避免分母为0,计算时分母加1,保证公式的计算有意义.

图2图1所示新闻网页对应的TBD特征值的分布图. 纵坐标为文本块对应TBD值,横坐标为文本块对应的序列值. 通过观察发现TBD值最大的对应正文块,此特征能有效地将网页中的正文文本块和噪声文本块区分开.

图 2 示例网页的TBD直方图 Figure 2 TBD histogram of web page example

图1为单一正文块的网页示例图,对于正文部分分为多块的网页,文献[9]经实验分析表明,以<Body>文本块密度为阈值,取文本密度大于阈值的文本块为正文块有着很好的效果.

根据网页的文本块密度特征很容易找到正文分布区域,对多数正文区域没有噪音的网页有着良好的抽取效果,但有部分网页(如图3所示)的正文部分包含广告信息(红色框内为噪音),这种情况下,基于文本块的抽取方法则很难保证精度.

图 3 Techweb网页示例 Figure 3 Web page example of Techweb
1.3 基于标签路径等特征的网页正文抽取 1.3.1 标签路径

T是一棵网页解析树,v是网页解析树的一个节点,从Tv必有一条简单路径,这条路径上经过的所有节点的名称组成的序列即为标签路径. 对于div节点,若其包含class属性,则节点的名称为其属性名,否则与其他元素节点一样都为标签名,对于文本节点,其名称为“Text”. HTML代码如下:

     <div>

      <div class=“left”>

        <p>文本内容</p>

        <p>文本内容</p>

        <p>文本内容</p>

      </div>

      <div class=“right”>

        <a>链接内容</a>

        <p>噪音内容</p>

        <a>链接内容</a>

      </div>

     </div>

图4所示的DOM树中,左侧的p文本节点的标签路径为div/left/p/text,而右侧p节点对应路径为div/right/p/text. 这样定义是因为通常同一个class属性的div块内路径相同的节点多同为正文节点或噪音节点,而在不同块内相同路径的节点则不一定.

1.3.2 文本长度和标点符号的统计规律

随机选取网易、新华网、新浪等网站里的500个主题型网页,统计几种常见标点符号在网页正文中出现个数N1和在页面中出现的个数N2,结果如图5所示;统计节点在文本长度取不同值时出现在正文中的个数N3和在页面中出现的个数N4,结果如图6所示.

图 4 HTML代码对应的DOM树示例 Figure 4 DOM tree example of HTML code
图 5 标点符号统计分布图 Figure 5 Punctuation statistics distribution
图 6 文本长度统计分布图 Figure 6 Text length statistical distribution

从上述统计结果可以发现以下规律:

(1) 网页中的标点符号主要出现在正文部分,噪音部分出现标点符号较少.

(2) 正文的文本节点有很大概率包含较长文本,噪音节点有很大概率包含短文本.

1.3.3 融合标点符号和文本长度特征

根据标签路径相同的节点多同为正文或同为噪音的特征,设p为网页解析树T的一个标签路径,定义文本标签路径比(Text to tag path ratio, TPR)TPRp等于路径为p的文本节点的字符之和与节点个数的比值. 同时设定标点标签路径比(Punctuation to tag path ratio, PPR)PPR等于路径为p的文本节点的标点之和与节点个数的比值.

图5图6可以看出,文本长度和标点个数均能在一定程度上区分正文节点和噪音节点. 文献[11]的实验表明,融合多个特征可以取得更好的效果。定义融合特征TPF. 其计算公式为

${{TP}}{{{F}}_p} = {{TP}}{{{R}}_p} \times {{PP}}{{{R}}_p}.$ (2)

计算图1示例网页文本节点的TPF值,结果如图7所示. 从图中可以看出,噪音节点和正文节点间的TPF值差距很大,说明融合特征能很好地区分正文节点和噪音节点. 但该特征忽略了正文部分较短正文节点,容易造成部分短文本的丢失,通常需要对其进行平滑处理.

图 7 示例网页TPF值直方图 Figure 7 TPF value histogram of sample web page
1.3.4 特征平滑

借助CETR[7]方法的思想对文本节点TPF值进行高斯平滑,平滑后的效果如图8所示. 从图中可以看出经过平滑后,正文部分之间的许多短文本节点的TPF值有明显增加,设定阈值即可很好地区分开正文内容和噪音内容.但通过实验发现,对于部分有版权申明、较长网络评论的网页,该方法容易将这些较长噪音文本误抽出来.

图 8 平滑处理后示例网页TPF值直方图 Figure 8 Smoothed TPF value histogram of sample web page
2 基于文本块密度和标签路径等特征的网页正文抽取 2.1 提取方法

单纯基于标签路径的正文抽取方法对于正文节点和噪音节点有比较好的区分能力,但是容易将版权申明以及网页评论等较长文本内容误抽取. 通过观察发现,这些较长噪音通常和正文内容不在同一个文本块内. 而基于文本块的抽取方法对于正文块和噪音块的划分则较为明确,但是块内可能会有一些噪音节点存在,这些噪音不易剔除. 结合这两种方法,提取正文块内的正文节点,能很好地融合两者的优势,改进不足.

提取方法如图9所示,实线区域内为正文分布块,利用标签路径的方法可以有效地剔除块内一些噪音节点,同时确定正文块的范围可以有效避免基于标签路径方法误提取噪音部分的长文本(实线区域外的几个TPF值较大的节点).

图 9 结合文本块密度与标签路径等特征 Figure 9 Text block density with tag path and other features
2.2 提取步骤

对于给定的网页,正文抽取步骤如下:

(1) 预处理:将网页解析成DOM树,并剔除不可视节点.

(2) 获取待提取文本块:根据网页DOM树计算各个块的文本密度,并将文本密度大于<body>块的文本块的上一级文本块作为待提取块.

(3) 获取标签路径集合:计算每条标签路径的TPR值,设定阈值,获取正文节点候选的路径集合.

(4) 提取正文:将 (3) 的候选路径集合与 (2) 获取的文本块中的路径集合求交集,将交集中路径节点的文本提取,输出为网页正文.

3 实验结果和分析 3.1 实验设置

本文实验数据是从8个知名新闻网站采集得到的. 网站分别为BBC、Freep、Nytimes、Techweb、新浪、网易、搜狐、新华网,每类网站提取200个网页.

实验采用准确率P、召回率RF均值作为评价网页抽取性能的指标. 其相关计算公式为

$P = \frac{{{S_{{a}}} \cap {S_{{m}}}}}{{S{}_{{a}}}},$ (3)
$R = \frac{{S{}_{{a}} \cap {S_{{m}}}}}{{S{}_{{m}}}},$ (4)
$F = \frac{{2 \times P \times R}}{{P + R}}.$ (5)

其中,Sa为使用算法自动抽取结果集合,Sm为手工标注结果集合. $S_{{a}} \cap {S_{{m}}}$ 为自动抽取内容中抽取正确的内容. 准确率P指抽取的正确内容占抽取内容的比率;召回率R指自动抽取的正确内容占手工标注正确内容的比例;F值是抽取性能的一个综合评价值.

3.2 实验结果

将本文方法和目前主流的Web正文信息抽取方法CETR、CETD进行对比,结果如表1所示.

表 1 实验结果对比 Table 1 Comparison of experimental results

表1中可以看出CETR和CETD方法在大部分数据集上都能取得不错的实验结果. 但仔细观察可发现CETD方法在Techweb上的准确率最低,通过查看相关网页发现该网站正文块内含有部分噪音信息,而CETD方法正是基于块的提取方法,因此准确率会有所下降. 观察CETR方法可以发现,其在搜狐网站的准确率比较低,查看网页发现,这个网站正文下方大多有较长的评论,CETR方法则非常容易将较长评论误认为正文,因此准确率有所影响. 反观本文算法,其性能非常稳定,其结合了基于块和标签路径两种方法的优势,既能很好地处理正文块内有部分噪音的网页,也能处理长评论干扰的网页,因此其准确率较CETD和CETR方法有很明显的优势. 通过比较整体性能发现,CETD和CETR的召回率较高,这也进一步表明这两种方法更偏向于正文内容的完整抽取,但不一定能很好地保证准确率. 综上所述,本文方法较CETE和CETR方法,其正文抽取的准确率有一定的提高.

4 结论

本文针对基于文本块正文抽取方法块内噪音难以剔除和基于标签路径的方法容易将正文块外较长文本误提取的问题,设计了文本块和标签路径相结合的正文抽取方法. 该方法利用文本块能准确判断正文区域边界和标签路径能有效区分正文节点和噪音节点的优点,在正文块内利用标签路径方法来剔除噪音文本. 经实验表明,该方法较CETR和CETD有着更高的准确率.

然而该方法依然存在缺点,如对于少数正文内容包含连续的短文本的网页,可能会将部分短文本误认为噪音剔除掉,还需进一步改善.

参考文献
[1] 贺科达, 朱铮涛, 程昱. 基于改进TF-IDF算法的文本分类方法研究[J]. 广东工业大学学报, 2016, 33(05): 49-53.
HE K D, ZHU Z T, CHENG Y. A Research on Text Classification Method Based on Improved TF-IDF Algorithm[J]. Journal of Guangdong University of Technology, 2016, 33(05): 49-53. DOI: 10.3969/j.issn.1007-7162.2016.05.009.
[2] LIU P F, QIU X P, HUANG X J, Adversarial multi-task learning for text classification[C] //Annual meeting of the association for computational linguistics. Vancouver: Transactions of The ACL Journal, 2017: 1-10.
[3] FAZZINGAB. Schema-based Web wrapping[J]. Knowledge & Information Systems, 2011, 26(1): 127-173.
[4] KIM M, KIM Y, SONG W, et al. Main content extraction from web documents using text block context[C] //Database and expert systems applications. Heidelberg: Springer, 2013: 81-93.
[5] 李萍, 朱建波, 周立新, 等. 基于快速构建模板的购物信息抽取方法[J]. 计算机应用, 2014, 34(3): 733-737.
LI P, ZHU J B, ZHOU L X. Shopping information extraction method based on rapid construction of template[J]. Journal of Computer Applications, 2014, 34(3): 733-737. DOI: 10.11772/j.issn.1001-9081.2014.03.0733.
[6] 杨贤, 何汉武. 基于互联网文本挖掘的用户意图感知[J]. 广东工业大学学报, 2017, 34(03): 54-58.
YANG X, HE H W. Internet Text Mining for User Intent Perception[J]. Journal of Guangdong University of Technology, 2017, 34(03): 54-58. DOI: 10.12052/gdutxb.170016.
[7] WENINGER T, HSU W H, HAN J. CETR: content extraction via tag ratios[C] //International conference on world wide web. Raleigh: ACM, 2010: 971-980.
[8] WENINGER T, HSU W H. Text extraction from the web via text-to-tag ratio[C] //International workshop on database and expert systems application. Turin: IEEE, 2008: 23-28.
[9] SUN F, SONG D, LIAO L. DOM based content extraction via text density[C] //International ACM SIGIR conference on research and development in information retrieval. Beijing: ACM, 2011: 245-254.
[10] WUGQ, LIL, LIL. Web News Extraction via Tag Path Feature Fusion Using DS Theory[J]. 计算机科学技术学报(英文版), 2016, 31(4): 661-672.
[11] 胡骏. 基于标签路径特征的网页正文自适应抽取方法研究[D]. 合肥: 合肥工业大学计算机与信息学院, 2016.