计算机应用   2017, Vol. 37 Issue (3): 680-683  DOI: 10.11772/j.issn.1001-9081.2017.03.680
0

引用本文 

张变兰, 路永钢, 张海涛. 基于KL散度和近邻点间距离的球面嵌入算法[J]. 计算机应用, 2017, 37(3): 680-683.DOI: 10.11772/j.issn.1001-9081.2017.03.680.
ZHANG Bianlan, LU Yonggang, ZHANG Haitao. Spherical embedding algorithm based on Kullback-Leibler divergence and distances between nearest neighbor points[J]. JOURNAL OF COMPUTER APPLICATIONS, 2017, 37(3): 680-683. DOI: 10.11772/j.issn.1001-9081.2017.03.680.

基金项目

国家自然科学基金面上项目(61272213);中央高校基本科研业务费专项资金资助项目(lzujbky-2016-k07,lzujbky-2016-142)

通信作者

路永钢(1974-),男,甘肃陇南人,教授,博士,CCF会员,主要研究方向:模式识别、人工智能、生物信息. E-mail:ylu@lzu.edu.cn

作者简介

张变兰(1991-),女,山西吕梁人,硕士研究生,主要研究方向:模式识别;
张海涛(1986-),男,甘肃兰州人,博士,主要研究方向:模式识别、软件工程

文章历史

收稿日期:2016-09-19
修回日期:2016-11-11
基于KL散度和近邻点间距离的球面嵌入算法
张变兰, 路永钢, 张海涛    
兰州大学 信息科学与工程学院, 兰州 730000
摘要: 针对现有球面嵌入算法在非近邻点间的距离度量不准确或缺失的情况下,不能有效地进行低维嵌入的问题,提出了一种新的球面嵌入算法,它能够只利用近邻点间的距离,将任何尺度的高维数据嵌入到单位球面上,同时求出适合原始数据分布的球面半径。该算法从一个随机产生的球面分布开始,利用KL散度衡量每对近邻点间的归一化距离在原始空间和球面空间中的差异,并基于此差异构建出目标函数,然后再用带有动量的随机梯度下降法,不断优化球面上点的分布,直到结果稳定。为了测试算法,模拟产生了两类球面分布数据:分别是球面均匀分布和球面正态分布的数据。实验结果表明,对于球面均匀分布的数据,即使在近邻点个数很少的情况下,仍然能够将数据准确地嵌入球面空间,嵌入后的数据分布与原始数据分布的均方根误差(RMSE)低于0.00001,且球面半径的估算误差低于0.000001;而对于球面正态分布的数据,在近邻点个数较多的情况下,该算法也可以将数据较准确地嵌入球面空间。因此,在非近邻点间距离缺失的情况下,所提方法仍然可以较准确地对数据进行低维嵌入,这非常有利于数据的可视化研究。
关键词: 球面嵌入    KL散度    随机梯度下降法    最近邻    
Spherical embedding algorithm based on Kullback-Leibler divergence and distances between nearest neighbor points
ZHANG Bianlan, LU Yonggang, ZHANG Haitao     
School of Information Science and Engineering, Lanzhou University, Lanzhou Gansu 730000, China
Abstract: Aiming at the problem that the existing spherical embedding algorithm cannot effectively embed the data into the low-dimensional space in the case that the distances between points far apart are inaccurate or absent, a new spherical embedding method was proposed, which can take the distances between the nearest neighbor points as input, and embeds high dimensional data of any scale onto the unit sphere, and then estimates the radius of the sphere which fit the distribution of the original data. Starting from a randomly generated spherical distribution, the Kullback-Leibler (KL) divergence was used to measure the difference of the normalized distance between each pair of neighboring points in the original space and the spherical space. Based on the difference, the objective function was constructed. Then, the stochastic gradient descent method with momentum was used to optimize the distribution of the points on the sphere until the result is stable. To test the algorithm, two types of spherical distribution data sets were simulated: which are spherical uniform distribution and Kent distribution on the unit sphere. The experimental results show that, for the uniformly distributed data, the data can be accurately embedded in the spherical space even if the number of neighbors is very small, the Root Mean Square Error (RMSE) of the embedded data distribution and the original data distribution is less than 0.00001, and the spherical radius of the estimated error is less than 0.000001; for spherical normal distribution data, the data can be embedded into the spherical space accurately when the number of neighbors is large. Therefore, in the case that the distance between points far apart are absent, the proposed method can still be quite accurate for low-dimensional data embedding, which is very helpful for the visualization of data.
Key words: spherical embedding    Kullback-Leibler (KL) divergence    stochastic gradient descent method    nearest neighbor    
0 引言

近年来,数据可视化分析已经成为处理大数据的重要方法之一。研究表明,人们从外界接收的各种信息中80%以上是通过视觉获得的[1]。通过对大数据可视化,人们可以对数据产生直观的理解,以便对其进行分析和研究,因此,数据可视化在大数据分析中正起着越来越重要的作用。为了避免维数灾难带来的影响,以及更好地对大数据进行可视化分析[2],数据降维方法常被用来产生数据的一个低维可视化表示。

在计算机视觉和模式识别中,许多问题都是基于样本点间的距离的,例如手势识别和形状识别等。在这些问题中,只知道样本点间的相似性或者距离度量,而不知道样本在原始空间的坐标或者其对应的特征向量。这时,可以使用嵌入算法来得到样本点在对应空间中的坐标分布。在嵌入低维的情况下,也可以通过降维得到样本的可视化表示。处理该类问题的嵌入算法有多维尺度分析(MultiDimensional Scaling,MDS)[3]、最 大 方 差 展 开 (Maximum Variance Unfolding,MVU)[4]、等距映射(Isometric Mapping,IsoMap)[5]和t分布随机邻域嵌入(t-Distributed Stochastic Neighbor Embedding,t-SNE)[6]等,它们都是利用所有样本间的相似性或者距离信息来构建样本的低维表示,并使得样本在低维空间中的结构与高维空间的分布尽量保持一致[3, 7]

然而,这类算法大部分都是将数据嵌入线性空间。在计算机视觉中,对于很多类型的数据,其样本都是分布在高维非线性空间中的,因此,将这些数据嵌入至低维线性空间是不可行的[8-9]。针对上述问题,出现了很多基于曲面的嵌入算法,例如将数据嵌入环形表面或者球面,以便对此类数据进行可视化研究。其中,关于球面嵌入的研究更为广泛,而且球面嵌入算法有很多实际应用,例如在地球模型表面的数据表示,或类球状物表面的纹理贴图等[8, 10]。文献[10-11] 中的算法都能够有效地将数据嵌入至球面空间,它们都是基于MDS算法的改进,最终成功将数据嵌入到非线性空间[8]。这类算法的关键步骤是优化过程,它们首先定义一个衡量嵌入质量的目标函数[8, 10-11],然后通过优化算法不断调整低维空间中样本点的位置来优化目标函数。文献[11]中提出了一种球面MDS的嵌入算法,这是最早提出球面嵌入算法的论文之一。它用球面极坐标来表示样本点,用克鲁斯克系数(Kruskal Stress)[11]构造目标函数。算法采用了最速下降法进行优化,通过调整点在球面的位置来使目标函数最小。文献[8]中,提出了一种曲面流形嵌入算法,将已知的所有点对间距离的数据集嵌入恒定曲率的曲面空间,如球面或双曲面,并且可求出该曲面空间的曲率半径;该算法还可以将数据嵌入超球面空间。该算法的最大优点是,在无需任何优化的情况下,根据已知的对称距离矩阵可以快速有效地将数据嵌入曲面空间,并估计出曲面空间的曲率半径;但是,现有的球面嵌入算法的共同缺点是,必须利用所有点间的相似性或距离信息来进行嵌入。

而对于许多高维数据来说,只有近邻点间的相似性度量是比较可靠的,所以大多数非线性降维算法只采用近邻点间的距离进行低维嵌入,例如MVU[4]、IsoMap[5]和局部线性嵌入(Locally Linear Embedding,LLE)[12]等。这些算法的本质是,先找到每个样本点的前K个近邻点,通过优化目标函数,使得近邻点间的距离尽量保持不变,从而将非线性数据嵌入至线性空间。

本文提出了一种新的球面嵌入算法,能够在只知道近邻点间距离的情况下将数据集嵌入到单位球面上,并尽量保持近邻点间的结构。这样就实现了只利用近邻点间的相似性信息,将非线性数据嵌入至球面空间。据考证,目前还没有类似的算法,而本文是首次提出了基于近邻点间距离的球面半径未知情况下的球面嵌入算法。该方法用KL散度[13-14]来计算嵌入球面前后每对近邻点间的相对分布差异,并基于此差异构建出目标函数。然后利用带有动量的随机梯度下降法[15-16]进行优化,使得所有近邻点间相对分布的差异之和最小。这样就可以将任意尺度的高维数据嵌入到单位球面上。最后,利用嵌入前后所有近邻点间的距离之和的比值,就可估计出适合原始数据分布的球面半径。

1 球面嵌入算法 1.1 球面上的距离计算

在球面坐标系中,球面上的点的坐标为xi=(θii),极角θi表示向量xiz轴的夹角,方位角φi表示向量xix轴的夹角。在球面上,两点间的距离为两向量间夹角对应的球面上的弧长。若在半径为r的球面上,两点间的夹角记为Θij,则它们在此球面上的距离可表示为:

${d_{ij}} = r{\mathit{\Theta }_{ij}}$ (1)
$\begin{array}{l} {\mathit{\Theta }_{ij}} = {\cos ^{ - 1}}\left( {\cos {\theta _i}\cos {\theta _j} + \sin {\theta _i}\sin {\theta _j}\cos \left( {{\varphi _i} - {\varphi _j}} \right)} \right)\\ \end{array}$ (2)
1.2 球面嵌入算法

首先,该算法将输入的所有近邻间的距离整体归一化。对于样本点xi和点xj,其归一化距离为pij

${p_{ij}} = {d_{ij}}/\left( {\sum\limits_{m \ne n} {{w_{mn}}{d_{mn}}} } \right)$ (3)
${d_{ij}} = \left\| {{\mathit{\boldsymbol{x}}_i} - {\mathit{\boldsymbol{x}}_j}} \right\|$ (4)

嵌入单位球面空间后,用同样的归一化方法,可得到点yi与点yj的归一化距离qij

${q_{ij}} = {\mathit{\Theta }_{ij}}/\left( {\sum\limits_{m \ne n} {{w_{mn}}{\mathit{\Theta }_{mn}}} } \right)$ (5)
${\mathit{\Theta }_{ij}} = \left\| {{\mathit{\boldsymbol{y}}_i} - {\mathit{\boldsymbol{y}}_j}} \right\|$ (6)

其中:Θij表示嵌入到单位球面上的两点间的距离,也就是两点对应的向量间的夹角。另外,该算法中定义了一个系数因子w,当点xi和点xj为近邻时,wij=1,否则wij=0。算法将只利用wij=1的这部分归一化距离进行数据嵌入。

对于任意wij=1对应的两个近邻点,如果嵌入单位球面后的归一化距离qij和原始样本点间的归一化距离pij相等,就意味着嵌入前后这两点的相对分布一致,因此,该算法的目标就是在嵌入的球面空间中调整近邻点的位置分布,使得每对近邻点之间pijqij的差异最小,进而使得所有近邻点间的归一化距离在嵌入前后的差异之和达到最小。本文利用KL散度作为衡量pijqij间差异的指标,因此,所有近邻点之间的KL散度之和构成目标函数:

$C = \sum {KL\left( {P||Q} \right) = \sum\limits_i {\sum\limits_j {{w_{ij}}({p_{ij}}\ln {\textstyle{{{p_{ij}}} \over {{q_{ij}}}}})} } } $ (7)

此目标函数的梯度为:

$\nabla C = (\frac{{\partial C}}{{\partial {\theta _i}}},\frac{{\partial C}}{{\partial {\varphi _i}}})$ (8)
$\frac{{\partial C}}{{\partial {\theta _i}}} = \frac{{\partial C}}{{\partial {\mathit{\Theta }_{ij}}}}\frac{{\partial {\mathit{\Theta }_{ij}}}}{{\partial {\theta _i}}}$ (9)
$\frac{{\partial C}}{{\partial {\varphi _i}}} = \frac{{\partial C}}{{\partial {\mathit{\Theta }_{ij}}}}\frac{{\partial {\mathit{\Theta }_{ij}}}}{{\partial {\varphi _i}}}$ (10)
$\frac{{\partial C}}{{\partial {\mathit{\Theta }_{ij}}}} = \frac{{{q_{ij}} - {p_{ij}}}}{{{\mathit{\Theta }_{ij}}}}$ (11)
$\begin{array}{l} \frac{{\partial {\mathit{\Theta }_{ij}}}}{{\partial {\theta _i}}} = \frac{{\sin {\theta _i}\cos {\theta _j} - \cos {\theta _i}\sin {\theta _j}\cos ({\varphi _i} - {\varphi _j})}}{{\sin {\mathit{\Theta }_{ij}}}}\\ \end{array}$ (12)
$\frac{{\partial {\mathit{\Theta }_{ij}}}}{{\partial {\varphi _i}}} = \frac{{\sin {\theta _i}\sin {\theta _j}\sin ({\varphi _i} - {\varphi _j})}}{{\sin {\mathit{\Theta }_{ij}}}}$ (13)

在该球面嵌入算法中,首先将单位球面上随机产生的样本点分布作为嵌入空间中的初始分布,然后采用带有动量的随机梯度下降法进行优化,具体的迭代过程为:

$\mathit{\boldsymbol{y}}_i^{(k)} = \left( {\theta _i^{(k)},\varphi _i^{(k)}} \right)$ (14)
$\mathit{\boldsymbol{y}}_i^{(k + 1)} = \mathit{\boldsymbol{y}}_i^{(k)} + \Delta \mathit{\boldsymbol{y}}_i^{(k + 1)}$ (15)
$\Delta \mathit{\boldsymbol{y}}_i^{(k + 1)} = - {\rho ^{(k)}}\frac{{\nabla C(\mathit{\boldsymbol{y}}_i^{(k)})}}{{\left\| {\nabla C(\mathit{\boldsymbol{y}}_i^{(k)})} \right\|}} + \alpha \Delta \mathit{\boldsymbol{y}}_i^{(k)}$ (16)
$\alpha = \left\{ {\begin{array}{*{20}{c}} {0.5{\kern 1pt} ,k < 250}\\ {0.8,k \ge 250} \end{array}} \right.$ (17)
${\rho ^{(k)}} = \frac{{\sum\limits_{i = 1}^N {\left\| {\nabla C(\mathit{\boldsymbol{y}}_i^{(k)})} \right\|} }}{{\sum\limits_{i = 1}^N {\frac{{\nabla C{{(\mathit{\boldsymbol{y}}_i^{(k)})}^{\rm{T}}}{\bf{D}}(\mathit{\boldsymbol{y}}_i^{(k)})\nabla C(\mathit{\boldsymbol{y}}_i^{(k)})}}{{{{\left\| {\nabla C(\mathit{\boldsymbol{y}}_i^{(k)})} \right\|}^2}}}} }}$ (18)

式(16) 中,α表示动量;k表示迭代次数;Δyi表示在每次迭代后样本点i的位置的变化量,带动量的随机梯度下降法每次都记录这个位置变化,并利用梯度和前一次的位置变化量的组合得出新的位置变化量;ρ(k)表示第k次迭代的最佳步长,确定最佳步长的计算过程见式(18) 。在式(18) 中,D(yi)C(yi)的二阶偏导数矩阵,详细计算过程为:。

$\mathit{\boldsymbol{D}} = \left( {\begin{array}{*{20}{c}} {\frac{{{\partial ^2}C}}{{\partial \theta _i^2}}} & {\frac{{{\partial ^2}C}}{{\partial {\theta _i}\partial {\varphi _i}}}}\\ {\frac{{{\partial ^2}C}}{{\partial {\theta _i}\partial {\varphi _i}}}} & {\frac{{{\partial ^2}C}}{{\partial \varphi _i^2}}} \end{array}} \right)$ (19)

其中:

$\frac{{{\partial ^2}C}}{{\partial {\theta _i}^2}} = \frac{{{\partial ^2}C}}{{\partial \mathit{\Theta }_{ij}^2}}{\left( {\frac{{\partial C}}{{\partial {\theta _i}}}} \right)^2} + \frac{{\partial C}}{{\partial {\mathit{\Theta }_{ij}}}}\frac{{{\partial ^2}{\mathit{\Theta }_{ij}}}}{{\partial \theta _i^2}}$ (20)
$\frac{{{\partial ^2}C}}{{\partial {\theta _i}\partial {\varphi _i}}} = \frac{{{\partial ^2}C}}{{\partial \mathit{\Theta }_{ij}^2}}\frac{{\partial {\mathit{\Theta }_{ij}}}}{{\partial {\theta _i}}}\frac{{\partial {\mathit{\Theta }_{ij}}}}{{\partial {\varphi _i}}} + \frac{{\partial C}}{{\partial {\mathit{\Theta }_{ij}}}}\frac{{{\partial ^2}{\mathit{\Theta }_{ij}}}}{{\partial {\theta _i}\partial {\varphi _i}}}$ (21)
$\frac{{{\partial ^2}C}}{{\partial \varphi _i^2}} = \frac{{{\partial ^2}C}}{{\partial \mathit{\Theta }_{ij}^2}}{\left( {\frac{{\partial {\Theta _{ij}}}}{{\partial \varphi }}} \right)^2} + \frac{{\partial C}}{{\partial {\mathit{\Theta }_{ij}}}}\frac{{{\partial ^2}{\mathit{\Theta }_{ij}}}}{{\partial \varphi _i^2}}$ (22)
$\frac{{{\partial ^2}C}}{{\partial \mathit{\Theta }_{ij}^2}} = \frac{{{p_{ij}} - q_{ij}^2}}{{\mathit{\Theta }_{\mathit{ij}}^\mathit{2}}}$ (23)
$\begin{array}{l} \frac{{{\partial ^2}{\mathit{\Theta }_{ij}}}}{{\partial \theta _i^2}} = \frac{{\cos {\theta _i}\cos {\theta _j} + \sin {\theta _i}\sin {\theta _j}\cos ({\varphi _i} - {\varphi _j})}}{{\sin {\mathit{\Theta }_{ij}}}} - {(\frac{{\partial {\mathit{\Theta }_{ij}}}}{{\partial {\theta _i}}})^2}\frac{{\cos {\mathit{\Theta }_{ij}}}}{{\sin {\mathit{\Theta }_{ij}}}}\\ \end{array}$ (24)
$\frac{{{\partial ^2}{\mathit{\Theta }_{ij}}}}{{\partial {\theta _i}\partial {\varphi _i}}} = \frac{{\cos {\theta _i}\sin {\theta _j}\sin ({\varphi _i} - {\varphi _j})}}{{\sin {\mathit{\Theta }_{ij}}}} - \frac{{\partial {\mathit{\Theta }_{ij}}}}{{\partial {\theta _i}}}\frac{{\partial {\mathit{\Theta }_{ij}}}}{{\partial {\varphi _i}}}\frac{{\cos {\mathit{\Theta }_{ij}}}}{{\sin {\mathit{\Theta }_{ij}}}}$ (25)
$\frac{{{\partial ^2}{\mathit{\Theta }_{ij}}}}{{\partial \varphi _i^2}} = \frac{{\sin {\theta _i}\sin {\theta _j}\cos ({\varphi _i} - {\varphi _j})}}{{\sin {\mathit{\Theta }_{ij}}}} - {\left( {\frac{{\partial {\mathit{\Theta }_{ij}}}}{{\partial {\varphi _i}}}} \right)^2}\frac{{\cos {\mathit{\Theta }_{ij}}}}{{\sin {\mathit{\Theta }_{ij}}}}$ (26)

最后,在求得嵌入单位球面的样本之后,即可利用嵌入前后近邻点间的距离之和的比值,求出原始样本分布的球面半径R,公式如下:

$R = \left( {\sum\limits_{i \ne j} {{w_{ij}}{d_{ij}}} } \right)/\left( {\sum\limits_{i \ne j} {{w_{ij}}{\mathit{\Theta }_{ij}}} } \right)$ (27)
2 实验和结果分析

为了验证本文提出的球面嵌入算法的正确性,文中设计了两类模拟数据进行测试,一类是球面均匀分布的数据集,另一类是球面正态分布的数据集。下面将在2.1节中详细介绍产生这两类模拟数据的过程,在2.2节中详细介绍实验过程和评价结果。

2.1 模拟数据的产生

下面介绍两类模拟数据集:球面均匀分布的数据集和球面正态分布的数据集的产生过程。

2.1.1 球面均匀分布的模拟数据集

每个样本点可表示为xi=(θii),i=1,2,…,N,其中θi∈[0,π],φi∈[0,2π],N为样本总数。首先模拟产生了随机均匀分布于单位球面的N=2 000个样本,然后利用式(2) 计算出这些样本两两间的夹角Θij,设半径r为0.5,利用式(1) ,即可得到均匀分布于半径为0.5的球面上的数据对应的距离矩阵。

2.1.2 球面正态分布的模拟数据集

本实验用Kent分布[17]模拟产生了位于单位球面上的正态分布数据。这个数据集(N=913) 主要由三部分组成,一部分是呈圆形的正态分布,另两部分都是呈椭圆形的正态分布,而且这两个椭圆形分布的数据,其分布大小和密度都不同。之后,得到一个分布于半径为2的球面上的包含3个不同Kent分布的数据集对应的距离矩阵。

2.2 实验结果

在实验中,先取每个样本点和其前nn(nn∈[0,N])个近邻点的距离构成稀疏距离矩阵,将此作为球面嵌入算法的输入。算法的输出为所有样本点在单位球面上的坐标。通过此坐标可以计算出嵌入单位球面空间后样本点间的夹角Θij,然后利用式(27) 计算出适合原始数据分布的球面半径R。最后以均方根误差(Root Mean Square Error,RMSE)为指标,衡量所有的原始数据两两间的夹角dij/r与嵌入球面后对应的数据两两间的夹角Θij间的误差,见式(28) 。用近邻均方根误差(Root Mean Square Error between Nearest Neighbors,NN_RMSE)来表示原始数据的近邻点间的夹角与嵌入球面后对应的夹角之间的误差,见式(29) 。另外,半径的估算误差(Radius estimation Error,R_Error)计算见式(30) 。

$RMSE = \sqrt {\frac{1}{{{N^2}}}\sum\limits_{i,j = 1}^N {{{\left( {{d_{ij}}/r - {\mathit{\Theta }_{ij}}} \right)}^2}} } $ (28)
$NN\_MSE = \sqrt {\frac{1}{{\sum\limits_{i,j = 1}^N {{w_{ij}}} }}\sum\limits_{i,j = 1}^N {{w_{ij}}{{\left( {{d_{ij}}/r - {\mathit{\Theta }_{ij}}} \right)}^2}} } $ (29)
$R\_Error = \left| {R - r} \right|$ (30)

若这三个值越小,则说明将样本嵌入球面空间的效果越好。

对于球面均匀分布的数据集,设置近邻点个数nn={N,0.75N,0.5N,0.25N,0.05N}进行实验,由于该算法的初始化是随机的,因此在每个参数设置下同一个实验都重复运行3次。最后,对于半径为r=0.5的数据的实验结果汇总于表 1

表 1 嵌入算法对两类模拟数据的处理结果 Table 1 Processing results of two kinds of simulated data by the proposed embedding algorithm

表 1中可以看出,针对不同的近邻点个数设置,本文提出的嵌入算法都能得到较准确的结果,所有的均方根误差(RMSE)基本都小于0.000 01,并且,当每个样本点拥有的近邻点数目越多,则算法嵌入的效果越好,得到的整体数据在单位球面上的分布与原始空间中的分布的一致性也越高。

另外,对于半径r=3.2 的球面均匀分布的数据也做了相同的实验,并得到了类似的测试结果。可见对均匀分布于球面的数据,该算法即使在非近邻点间距离信息缺失较多的情况下,仍然能够较准确地还原出球面空间中数据的分布结构;而且算法还可以较精确地估算出适合数据分布的球面半径。

接着,对球面正态分布(Kent分布)的数据也进行了类似的测试,其球面半径的设置为r=2,并取近邻点个数nn={N,700,500,300},在每个参数设置下都重复运行3次,实验结果见表 1。在nn=300时,第一次运行的球面嵌入结果如图 1(a)所示。作为参照,图 1(b)显示了原始数据的分布。

图 1 球面正态分布的数据 Figure 1 Data of spherical normal distribution

实验结果表明,对于球面正态分布的数据,从图 1表 1都可以看出,其嵌入球面后的整体分布与原始分布比较接近,但是,整体嵌入后的误差都明显比表 1中球面均匀分布数据的误差大很多。另外,随着近邻点数目的减少,算法将其嵌入单位球面空间后,虽然可以较好地保持其近邻点结构,但是非近邻点间的分布却与原始数据中的分布相差较大。例如表 1中,对于球面正态分布的数据nn=300时,NN_RMSE都小于0.113,然而RMSE的值则都大于0.331;同时,对于适合原始数据分布的球面半径的估算误差也随近邻数的减小而增大。

此外,由于初始化是随机的,本文提出的算法有时会陷入局部极小,因此导致实验结果的不稳定。例如,表 1中,对于球面均匀分布的数据nn=1 500时,三次运行结果波动很大,第三次实验的运行结果中RMSE和NN_RMSE比前两次对应的误差分别高了8个数量级。另外表 1中,对于球面正态分布的数据nn=913时,第二次运行结果的RMSE和NN_RMSE明显比其他两次运行结果的误差低了8个数量级。所以,为保证实验结果的准确性和正确性,每个实验都要经过多次运算。

3 结语

本文首次提出了一种针对球面半径未知且原始数据间的非近邻距离缺失情况下的球面嵌入算法。该算法能够在只已知近邻点间距离的情况下,将任意尺度的数据嵌入至单位球面,还可以估算出适合原始数据分布的球面半径。

本文提出的算法对于球面均匀分布的数据,在非近邻点间距离信息缺失较多的情况下,仍然能得到较准确的球面嵌入结果;但是,对于非均匀分布的数据,嵌入球面空间后,虽然近邻点间的相对位置可以较好地保持,但是无法准确地还原非近邻点间的相对位置,因此对于非均匀分布的数据,球面嵌入算法还有待改进。

参考文献
[1] 田守财, 孙喜利, 路永钢. 基于最近邻的随机非线性降维[J]. 计算机应用, 2016, 36 (2) : 377-381. ( TIAN S C, SUN X L, LU Y G. Stochastic nonlinear dimensionality reduction based on nearest neighbors[J]. Journal of Computer Applications, 2016, 36 (2) : 377-381. )
[2] 郝晓军, 闫京海, 樊友谊. 大数据分析过程中的降维方法[J]. 航天电子对抗, 2014 (4) : 58-60. ( HAO X J, YAN J H, FAN Y Y. Dimensionality reduction of large volumes of data analysis[J]. Aerospace Electronic Warfare, 2014 (4) : 58-60. )
[3] COX M A A, COX T F. Multidimensional scaling[J]. Econometric Institute Research Papers, 2014, 46 (2) : 1050-1057.
[4] WEINBERGER K Q, SAUL L K. Unsupervised learning of image manifolds by semidefinite programming[C]//Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, DC:IEEE Computer Society, 2004:988-995.
[5] TENENBAUM J B, DE SILVA V, LANGFORD J C. A global geometric framework for nonlinear dimensionality reduction[J]. Science, 2000, 290 (5500) : 2319-2323. doi: 10.1126/science.290.5500.2319
[6] VAN DER MAATEN L, HINTON G. Visualizing data using t-SNE[J]. Journal of Machine Learning Research, 2008, 9 (11) : 2579-2605.
[7] VAN DER MAATEN L J P, POSTMA E O, VAN DEN HERIK H J. Dimensionality reduction:a comparative review[EB/OL].[2016-03-08]. https://static.aminer.org/pdf/PDF/000/272/419/comparative_investigation_on_dimension_reduction_and_regression_in_three_layer.pdf.
[8] WILSON R C, HANCOCK E R, PEKALSKA E, et al. Spherical and hyperbolic embeddings of data[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36 (11) : 2255-2269. doi: 10.1109/TPAMI.2014.2316836
[9] WILSON R C, HANCOCK E R. Spherical embedding and classification[C]//Proceedings of the 2010 Joint IAPR International Conference on Structural, Syntactic, and Statistical Pattern Recognition. Berlin:Springer, 2010:589-599.
[10] ELAD A, KELLER Y, KIMMEL R. Texture mapping via spherical multi-dimensional scaling[C]//Scale Space and PDE Methods in Computer Vision, LNCS 3459. Berlin:Springer, 2005:443-455.
[11] COX M A A, COX T F. Multidimensional scaling on the sphere[M]//EDWARDS D, RAUN N E. Compstat. Berlin:Springer, 1988:323-328.
[12] ROWEIS S T, SAUL L K. Nonlinear dimensionality reduction by locally linear embedding[J]. Science, 2000, 290 (5500) : 2323-2326. doi: 10.1126/science.290.5500.2323
[13] KULLBACK S, LEIBLER R A. On information and sufficiency[J]. Annals of Mathematical Statistics, 1951, 22 (1) : 79-86. doi: 10.1214/aoms/1177729694
[14] KULLBACK S. Information Theory and Statistics[M]. Hoboken, NJ: John Wiley and Sons, 1959 .
[15] SUTSKEVER I. Training recurrent neural networks[EB/OL].[2016-02-09]. http://www.cs.utoronto.ca/~ilya/pubs/ilya_sutskever_phd_thesis.pdf.
[16] SUTSKEVER I, MARTENS J, DAHL G, et al. On the importance of initialization and momentum in deep learning[EB/OL].[2016-02-09]. http://www.cs.toronto.edu/~hinton/absps/momentum.pdf.
[17] KENT J T. The Fisher-Bingham distribution on the sphere[J]. Journal of the Royal Statistical Society, 1982, 44 (1) : 71-80.