计算机应用   2017, Vol. 37 Issue (4): 1164-1168  DOI: 10.11772/j.issn.1001-9081.2017.04.1164
0

引用本文 

唐宋, 陈利娟, 陈志贤, 叶茂. 基于目标域局部近邻几何信息的域自适应图像分类方法[J]. 计算机应用, 2017, 37(4): 1164-1168.DOI: 10.11772/j.issn.1001-9081.2017.04.1164.
TANG Song, CHEN Lijuan, CHEN Zhixian, YE Mao. Domain adaptation image classification based on target local-neighbor geometrical information[J]. Journal of Computer Applications, 2017, 37(4): 1164-1168. DOI: 10.11772/j.issn.1001-9081.2017.04.1164.

基金项目

国家自然科学基金资助项目(61375038,61501073);重庆市杰出青年基金资助项目(cstc2013jcyjjq40001);四川省应用基础研究计划项目(2016JY0088)

通讯作者

陈利娟 (1986-), 女, 山西大同人, 博士研究生, 主要研究方向:机器学习、动力系统稳定性.E-mail:tangchenlj@163.com

作者简介

唐宋 (1982-), 男, 四川成都人, 博士研究生, 主要研究方向:机器学习、神经网络;
陈志贤 (1988-), 男, 河北井陉人, 博士研究生, 主要研究方向:机器人智能控制;
叶茂 (1972-), 男, 重庆人, 教授, 博士, 主要研究方向:模式识别、神经网络

文章历史

收稿日期:2016-09-05
修回日期:2016-12-21
基于目标域局部近邻几何信息的域自适应图像分类方法
唐宋1,2, 陈利娟1, 陈志贤3, 叶茂1    
1. 电子科技大学 计算机科学与工程学院, 成都 611731;
2. 重庆邮电大学 复杂系统分析与控制研究中心, 重庆 400065;
3. 中国科学院 深圳先进技术研究院, 广东 深圳 518055
摘要: 在许多实际工程应用中,训练场景(源域)和测试场景(目标域)的分布并不相同,如果将源域中训练的分类器直接应用到目标域,性能往往会出现大幅度下降。目前大多数域自适应方法以概率推导为基础。从图像特征表达的角度出发,针对自适应图像分类问题,提出一种新的基于协同特征的无监督方法。首先,所有源样本被作为字典;然后,距离目标样本最近的三个目标域样本被用来帮助鲁棒地表达局部近邻几何信息;最后,结合字典和局部近邻信息实现编码,并利用最近邻分类器完成分类。因为协同特征通过融合目标域局部近邻信息,获得了更强的鲁棒性和区分性,基于该特征编码的分类方法具有更好的分类性能。在域自适应数据集上的对比实验结果表明所提算法是有效的。
关键词: 域自适应    流形    目标域局部近邻关系    协同表达    图像分类    
Domain adaptation image classification based on target local-neighbor geometrical information
TANG Song1,2, CHEN Lijuan1, CHEN Zhixian3, YE Mao1     
1. School of Computer Science & Engineering, University of Electronic Science and Technology of China, Chengdu Sichuan 611731, China;
2. Center of Analysis and Control for Complex Systems, Chongqing University of Posts and Telecommunications, Chongqing 400065, China;
3. Shenzhen Institutes of Advanced Technology, Chinese Academy of Sciences, Shenzhen Guangdong 518055, China
Abstract: In many real engineering applications, the distribution of training scenarios (source domain) and the distribution of testing scenarios (target domain) is different, thus the classification performance decreases sharply when simply applying the classifier trained in source domain directly to the target domain. At present, most of the existing domain adaptation methods are based on the probability-inference. For the problem of domain adaptation image classification, a collaborative representation based unsupervised method was proposed from the view of image representation. Firstly, all of the source samples were taken as the dictionary. Secondly, the three target samples closest to the target sample in the target domain were exploited to robustly represent the local-neighbor geometrical information. Thirdly, the target sample was encoded by combining the dictionary and the local-neighbor information. Finally, the classification was completed by using the nearest classifier. Since the collaborative representations have stronger robustness and discriminative ability by absorbing the target local-neighbor information, the classification method based on the new representations has better classification performance. The experimental results on the domain adaptation dataset confirm the effectiveness of the proposed method.
Key words: domain adaptation    manifold    target local-neighbor information    collaborative representation    image classification    
0 引言

经典的分类问题隐含一个基本假设:训练样本 (源样本) 和测试样本 (目标样本) 服从相同分布。但是, 在许多实际工程应用中, 因为源样本和目标样本分别来自于具有不同分布的场景, 使用源样本训练的分类器很难直接被用来对目标样本分类。针对这一问题, 通常的做法是在目标场景收集样本, 重新训练分类器。但是, 这种方案存在两方面的问题:其一, 为每一个新的场景训练新的分类器显然十分低效; 其二, 在某些场景中, 样本收集很难实现。

为了解决上述问题, 域自适应方法[1]被提了出来。目前, 现有的方法可被大致认为两类。第一类方法的核心思想是域分布匹配。例如, 文献[2]提出了一种字典学习方法。通过构建域不变稀疏表达, 有效减小了域间分布差异。文献[3]利用深度堆叠式去噪自编码 (Stack Denoising Auto-Encoder, SDAE) 学习一个特征变化, 将所有样本映射到一个共享空间。在该特征空间中, 特征分布是相同的。文献[4]提出一种样本筛选方法让筛选后的源样本符合目标域的分布, 然后利用源域的标签信息完成分类。上述方法通过消除分布差异将域自适应分类问题转换成了经典分类问题, 从而取得了较好的效果;但是这类方法更多地从寻找具有同分布特性的共有空间着眼, 忽略了样本空间的几何结构。

第二类方法从样本流形结构的角度进行建模:

一种思路假设源域和目标域是某个抽象流形上的两个不同的点, 并用它们之间的测地线表示这两个域之间的迁移过程。例如, 文献[5]通过对测地线进行子空间插值实现迁移过程描述;文献[6]扩展了这一思路,通过对测地线上的无数个子空间进行积分, 提出了一种基于核方法的测地线构建方案。得益于对域间迁移过程的描述, 上述方法表现出良好的性能;但是, 这些样本数据之间所固有的几何结构并没有被考虑。

另一种思路则是基于样本自身所构成的具体数据流形结构。文献[7]从流形学习的角度, 提出了基于流形投影邻近约束的协同特征表达, 因为融入了源域局部近邻几何信息, 该特征表现出良好的区分性能;但是, 该方法并没有利用目标域样本之间的几何信息。针对这一问题, 文献[8]从特征表达的鲁棒性角度出发, 提出了一种融合目标样本最邻域几何信息的协同特征表达 (Target Collaborative Nearest-Neighbor Representation, TCNNR)。在编码过程中, 目标样本的最近邻目标域样本被用来辅助特征的生成。因为额外地导入了目标样本的最邻域信息, 增强了特征表达的鲁棒性, 所以在性能上取得了较大的提升。但是, 该方法仅仅利用了最近邻这一简单几何信息, 很难准确地刻画目标样本的邻域信息。

如上所述, 引入目标样本邻域信息对解决自适应分类问题具有积极的辅助作用。受该工作的启发, 本文提出了一种新的协同特征。该特征融合了对邻域信息表达能力更强的目标样本局部近邻几何信息。实验结果表明较于之前基于目标最近邻几何信息的特征[8], 本文所提特征具有更强的鲁棒性, 以及更好的自适应分类能力。

1 预备知识 1.1 问题描述

假设存在两个具有不同分布的域:源域 (Source Domain, SD) 和目标域 (Target Domain, TD)。SD包含m个来自c个类的样本 (图片), 其中第k个类有mk个样本; TD包含n个来自相同类的样本。令{ui| uiRN, i=1, 2, …, m}表示所有源样本, 其中N表示向量维度。同样, 所有目标域样本可以表示为{vi| viRN, i=1, 2, …, n}。

对于无监督域自适应图像分类问题, 核心任务是在没有目标域标签信息的条件下, 如何利用两个域的样本以及源域标签, 构建域间相关性, 实现对目标样本的正确分类。

1.2 协同特征与最近邻分类器

假设U=[u1, u2, …, um]为所有训练 (源样本) 按其类别依次存放所构成的矩阵。即是说, 按照SD的标签类别信息, U可以切分为U=[U1, U2, …, Uk, …, Uc], 其中Uk由属于第k类的源样本构成, 即Uk=[u1k, u2k, …, uknk]。

$ {{\mathit{\boldsymbol{\tilde{z}}}}_{i}}=\underset{\mathit{\boldsymbol{z}}}{\mathop{\arg \min }}\, \frac{1}{2}\left\| {{\mathit{\boldsymbol{v}}}_{i}}-U\mathit{\boldsymbol{z}} \right\|_{2}^{2}+\mathit{\boldsymbol{ }}\!\!\eta\!\!\rm{ }\left\| \mathit{\boldsymbol{z}} \right\|_{2}^{2} $ (1)

其中η是正则化系数。

最近邻分类器是面向协同特征的专用分类器, 其分类原理可用式 (2) 表达:

$ l=\underset{k}{\mathop{\arg \min }}\, \frac{{{\left\| {{\mathit{\boldsymbol{v}}}_{i}}-\mathit{\boldsymbol{U }}\!\!\varphi\!\!\rm{ }\left( \mathit{\boldsymbol{z}}, k \right) \right\|}_{2}}}{{{\left\| \mathit{\boldsymbol{ }}\!\!\varphi\!\!\rm{ }\left( \mathit{\boldsymbol{z}}, k \right) \right\|}_{2}}} $ (2)

其中:φ(z, k)=(0, 0, …, zk, …, 0) 是一个模板函数, 其保留特征编码zk类所对应位置上的系数, 同时将其他位置上的系数置为0。按照式 (2) 可知, 整个分类过程由两个步骤组成:

1) 计算测试样本在各个类别上的投影差:

$ {{e}_{k}}={{\left\| {{\boldsymbol{v}}_{i}}-{{\boldsymbol{U}}_{k}}{{\boldsymbol{z}}^{k}} \right\|}_{2}};k=1, 2, \ldots, c $

2) 根据{ek| k=1, 2, …, c}, 选择其中投影差最小的类别输出为预测类别标签。

2 目标局部近邻协同特征

假设X=[x1, x2, …, xi, …, xm], 为源样本{ui}的SURF特征按类别存放所构成的矩阵 (其中xiRM);Y={yi| yiRM, i=1, 2, …, n}是目标样本{vi}的SURF特征。目标局部近邻协同特征 (Target Collaborative Local-neighbor Representation, TCLR) 可以通过优化以下目标函数得到:

$ F\left( \mathit{\boldsymbol{z}} \right)=\left\| {{{\mathit{\boldsymbol{\hat{y}}}}}_{i}}-\mathit{\boldsymbol{Xz}} \right\|_{2}^{2}+\alpha \left\| \mathit{\boldsymbol{Dz}} \right\|_{2}^{2}+\mathit{\boldsymbol{ }}\!\!\beta\!\!\rm{ }\left\| \mathit{\boldsymbol{z}} \right\|_{2}^{2} $ (3)

其中:${{{\mathit{\boldsymbol{\hat{y}}}}}_{i}}=(1-\mu ){{\mathit{\boldsymbol{y}}}_{i}}+\mu \sum\limits_{k=1}^{K}{{{\mathit{\boldsymbol{w}}}_{k}}{{\mathit{\boldsymbol{y}}}_{cn\_k}}}$; μ∈(0, 1); yi是用于测试的目标样本; ycn_k(k=1, 2, …, K) 是距离yi的最近的K个目标域样本; wk是加权系数; α、β是正则化系数;

$ \mathit{\boldsymbol{D}}=\left[\begin{matrix} {{\left\| {{{\mathit{\boldsymbol{\hat{y}}}}}_{i}}-{{\mathit{\boldsymbol{x}}}_{1}} \right\|}_{2}} & 0 & \cdots & 0 \\ 0 & {{\left\| {{{\mathit{\boldsymbol{\hat{y}}}}}_{i}}-{{\mathit{\boldsymbol{x}}}_{2}} \right\|}_{2}} & \cdots & 0 \\ \vdots & \vdots & \ddots & 0 \\ 0 & 0 & \cdots & {{\left\| {{{\mathit{\boldsymbol{\hat{y}}}}}_{i}}-{{\mathit{\boldsymbol{x}}}_{m}} \right\|}_{2}} \\ \end{matrix} \right] $

式 (3) 右侧中:第一项表示混合目标样本ŷi在源样本所构成的流形上的投影误差, 其本质是用源样本来近似地表达ŷi。第二、三项都是正则化项, 前者是基于局部邻域几何信息的正则化, 从数学上讲, 属于Tikhonov正则化的一种; 后一个正则化项则是为了保证所得到的特征编码$\boldsymbol{{\tilde{z}}}$i保持在合理的范围。

F相对于z的偏导数为:

$ \frac{\partial F\left( \mathit{\boldsymbol{z}} \right)}{\partial \mathit{\boldsymbol{z}}}=-{{\mathit{\boldsymbol{X}}}^{\operatorname{T}}}\left( {{{\mathit{\boldsymbol{\hat{y}}}}}_{i}}-\mathit{\boldsymbol{Xz}} \right)+\alpha \mathit{\boldsymbol{Bz}}+\beta \mathit{\boldsymbol{z}} $

因为式 (3) 是线性的, 所以, TCLR特征具有解析解。令$\frac{\partial F\left( \mathit{\boldsymbol{z}} \right)}{\partial \mathit{\boldsymbol{z}}}$=0, 那么, 第i个目标样本vi的TCLR特征$\boldsymbol{{\tilde{z}}}$可用如下封闭形式表示:

$ \mathit{\boldsymbol{\tilde{z}}}={{\left[{{\mathit{\boldsymbol{X}}}^{\rm{T}}}\mathit{\boldsymbol{X}}+\alpha \mathit{\boldsymbol{B}}+\beta \mathit{\boldsymbol{I}} \right]}^{-1}}\left( {{\mathit{\boldsymbol{X}}}^{\operatorname{T}}}{{\mathit{\boldsymbol{y}}}_{i}} \right) $ (4)

其中:T表示转置; I是单位矩阵; B=DD, ⊙表示矩阵对应元素相乘。

在先前的方法中, 与TCLR最相关的工作是文献[8]提出的TCNNR特征。与之相比, TCLR特征具有两个明显的不同之处:1) 如式 (3) 右侧第一项所示, 距离样本y最近的K个样本来辅助特征编码生成。相对于TCNNR所采用的最近邻信息, TCLR所使用的局部近邻信息对y邻域具有更准确的刻画能力。2) 与TCNNR不同, TCLR基于邻域信息的正则化方案额外地加入了样本y (式 (3) 右侧第二项)。通过这一改进, TCLR所引入的局部近邻约束具有更强的指向性。

2.1 局部近邻目标域样本搜索方法

从上面的介绍知道, 准确构建目标样本的局部近邻信息的关键是找到距离它最近的三个目标域样本。本文采用基于核函数的相似度计算方案来实现样本搜索。

假设存在欧氏空间ERL和Hilbert空间HRG(L$\ll $G); ψ是一个从EH的隐含非线性映射。那么, Mercer核函数可以表示为:

$ k\left( \mathit{\boldsymbol{a, b}} \right)={{\left\langle \psi (\mathit{\boldsymbol{a}}), \psi (\mathit{\boldsymbol{b}}) \right\rangle }_{\mathit{\boldsymbol{H}}}}=\psi {{(\mathit{\boldsymbol{a}})}^{\rm{T}}}\psi (\mathit{\boldsymbol{b}}) $

其中:a, bE; 〈·, ·〉H表示H中内积。空间E中, 任意两样本的相似度可按照下式计算:

$ \begin{align} & rem\left( \mathit{\boldsymbol{a, b}} \right)=\left\| \psi (\mathit{\boldsymbol{a}})-\psi (\mathit{\boldsymbol{b}}) \right\|_{2}^{2} \\ & \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ =k\left( \mathit{\boldsymbol{a, a}} \right)+k\left( \mathit{\boldsymbol{b, b}} \right)-2k\left( \mathit{\boldsymbol{a, b}} \right) \\ \end{align} $

那么, 对于目标样本vi, 距离其最近的第k(k=1, 2, …, K) 个目标域样本ycn_k的序号可通过式 (5) 确定:

$ cn\_k\rm{=}\left\{ \begin{align} & \underset{j}{\mathop{\arg \min }}\, \left( \left\{ \left. rem({{\mathit{\boldsymbol{v}}}_{i}}, {{\mathit{\boldsymbol{v}}}_{j}}) \right|j\ne i \right\} \right), \ \ \ \ \ \ \ \ k=1 \\ & \underset{j}{\mathop{\arg \min }}\, \left( \left\{ \left. rem({{\mathit{\boldsymbol{v}}}_{i}}, {{\mathit{\boldsymbol{v}}}_{j}}) \right|j\ne i, \cdots, cn\_(k-1) \right\} \right), \\ & \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ k>1 \\ \end{align} \right. $ (5)

从上面可以看到, 相似度计算是使用原始图片, 而不是SURF (Speed-Up Robust Features) 特征。主要原因是, 作为统计特征, SURF丢失了空间位置信息, 因此, 基于它的相似计算准确度不高。在算法实现过程中, 本文采用RBF (Radial Basis Function) 作为核函数, 其表达式如下所示:

$ \left\{ \begin{align} & k\left( {{\mathit{\boldsymbol{v}}}_{i}}, {{\mathit{\boldsymbol{v}}}_{j}} \right)=\exp \left(-\varepsilon \left\| {{\mathit{\boldsymbol{v}}}_{i}}-{{\mathit{\boldsymbol{v}}}_{j}} \right\|_{2}^{2} \right) \\ & \varepsilon =\frac{1}{\left( \left\| {{\mathit{\boldsymbol{v}}}_{i}}-\mathit{\boldsymbol{\bar{v}}} \right\|_{2}^{2} \right)}, \mathit{\boldsymbol{\bar{v}}}=\frac{1}{n}\sum\limits_{i=1}^{n}{{{\mathit{\boldsymbol{v}}}_{i}}} \\ \end{align} \right. $
2.2 基于TCLR特征的分类算法

基于TCLR的分类算法包括四个主要部分:1) 提取样本的SURF特征; 2) 构建目标样本的局部近邻几何信息; 3) 特征编码; 4) 分类。算法具体步骤如下。

输入:测试目标样本v, 所有源样本和目标样本{ui}、{vi};

输出:v的预测分类标签l;

步骤1计算{ui}的SURF特征:{xi};

步骤2利用{xi}生成分类字典:X;

步骤3计算v的SURF特征: y;

步骤4根据式 (5), 得到离y最近的K个目标域样本的序号:cn_k(k=1, 2, …, K);

步骤5按照cn_k, 从{vi}中选取相应样本, 并计算其SURF特征: ycn_k(k=1, 2, …, K);

步骤6根据式 (4), 计算v的TCLR特征编码:$\boldsymbol{{\tilde{z}}}$;

步骤7根据式 (2), 预测v的分类标签:l;

步骤8返回l

3 实验与分析 3.1 数据集

本文采用文献[8]提供的办公室场景数据集进行分类实验,该数据集被广泛地用于域自适应分类方法[9-12]的评估。数据集共含有2 533张图片样本, 分别来自Amazon (A)、Webcam (W)、Dslr (D)、Caltech (C) 4个子集。每个子集包含10个相同类别: 01-BackPack、02-Bicycle、03-Calculator、04-HeadPhone、05-ComputerKeyboard、06-LaptopComputer、07-ComputerMonitor、08-ComputerMouse、09-CoffeeMug、10-VideoProjector。在这四个子集中, Amazon由来自Amazon公司用于在线销售的展示图片构成, 几乎没有背景噪声; Caltech由自然环境中拍摄的照片构成, 具有较强的环境噪声; Webcam与Dslr中的图片分别由低分辨率的网络摄像头和高清相机拍摄得到。图 1展示了一些来自该数据集的示例图片。

图 1 分类实验数据集样例图片 Figure 1 Some samples from the dataset for classification
3.2 分类实验结果

在实验过程中, 距离目标样本最近的K=3个目标域样本被用来近似表达局部近邻几何信息。实验发现在本文的实验数据集上, 当K≥4, 如要保证较好的分类性能, 则需要为距离较远的目标域样本ycn_k(k≥4) 设置较小的加权系数。换言之, 较远的目标域样本对准确刻画几何邻域作用十分有限。而选择K=2的方案则存在和文献[8]类似的问题:对于邻域描述不充分。具体地, 在实验中, 与邻域信息表达相关的算法参数分别为: μ=0.375, K=3, w1=0.5, w2=0.4, w3=0.1。

为了验证本文方法的有效性, 本文在上述数据集上做了8个自适应分类实验。7个典型的域自适应方法被选择作为对比方法,这些方法包括:TSL (Transfer Subspace Learning)[13]、TCA (Transfer Component Analysis)[14]、SGF (Subspaces in Geodesic Flow)[5]、GFK (Geodesic Flow Kernel)[6]、CR、CNRC (Collaborative Neighbor Representation Classifier)[7]、TCNNR[8], 其中CR作为基线。这些方法可分为三类:第一类, 包括TSL、TCA, 是基于概率匹配的方法; 第二类, 包括SGF、GFK, 是基于流形的方法; 第三类, 包括CR、CNRC、TCNNR, 是基于协同特征的方法, 其中CR方法使用的协同特征所对应的目标函数如式 (1) 所示。为方便叙述, 本文方法被记为TCLR。

表 1给出了对比实验结果, 其中, 总体分类准确率rtol按照式 (6) 计算:

$ {{r}_{\text{tol}}}=\left( \sum\limits_{i=1}^{n}{\frac{ctn\left( {{l}_{i}}, {{l}_{i}}' \right)}{n}} \right)\times 100% $ (6)
表 1 各对比算法在8个自适应分类实验上的总体分类准确率% Table 1 Total accuracies of different methods on the 8 pairs of domain %

其中:n是目标域样本的总数; li是由算法得到的第i个目标域样本vi的预测类别标签; livi的真实类别标签; ctn(x, y) 是计数函数:当x= y, ctn(x, y)=1;当xy, ctn(x, y)=0。

表 1可以看到, 与参照方法比较, TCLR在7/8的迁移实验上取得了最好的效果。相对于基线方法CR, TCLR在所有迁移实验上有大幅度的性能提升 (平均提高了约34个百分点), 特别是在D-W上, 分类准确率相对提高了约275%。相对于方法GFK, TCLR在D-A上的准确率有小幅下降 (1.7个百分点), 在除此之外的其他迁移实验上都取得了较大的改进 (>8个百分点)。因此, 虽然在一个子实验 (D-A) 上没有取得最佳分类效果, 但是从总体上讲, TCLR比GFK具有更好的迁移性能。与剩余的5种参照方法相比, 在所有迁移实验上, TCLR均取得了不同程度的性能改进。其中, 比排名第二的方法TCNNR, TCLR在平均准确上有1.3个百分点的提高, 特别地, A-W、C-W上的提升量约为2个百分点。从上述分析不难看出, TCLR在综合迁移性能是最好的。

图 2展示了TCLR和第二好的方法TCNNR在10个类别上的分类准确率。其中,在第k个类别的分类准确率 (rcls_k) 计算公式如下所示:

$ {{\boldsymbol{r}}_{cls\_k}}=\left( \sum\limits_{j=1}^{N}{\sum\limits_{i=1}^{{{n}_{k}}}{\frac{ctn\left( {{l}_{ki}}, {{l}_{ki}}' \right)}{\sum\limits_{j=1}^{N}{{{n}_{k}}}}}} \right)\times 100% $
图 2 TCLR方法与TCNNR方法在10个类别上分类准确率 Figure 2 Accuracies of TCLR and TCNNR on 10 classes

其中:N=10表示类数目; lkilki′分别表示第k类目标域样本的预测类别标签和真实类别标签; nk为目标域样本中属于第k类的样本总数; 函数ctn() 与式 (6) 中的计数函数相同。

图 2所示, TCLR在第2类上的准确率为83%;第6、8、9、10类的准确率小于20%, 其中, 第9类的准确率为最低的14.3%;剩余的5类的准确率均大于40%。相对于TCNNR, TCLR在9/10个类别上的分类准确率不低于TCCNR。仅有第3类的准确率有0.85%的下降; 第4、6、9类的准确率基本持平; 在剩余的6个类上的准确率都有明显的提升。由分析可以知道, 相对于TCNNR, TCLR自适应分类性能的提高源自几乎所有类别上准确率的提升, 而非个别类上孤立的改进造成。该结果进一步验证了本文方法的适用性。

从第2章可知, TCLR的总计算时间由两部分组成:1) 寻找最近目标域样本;2) 编码。因为TCLR是线性编码, 所以编码这部分耗时几乎可以忽略。在具体的程序实现中, TCLR利用3个步骤完成最近目标域样本寻找:1) 全局相似度计算;2) 排序;3) 选取已排序队列中前K个元素。因为全局相似度计算与目标域样本空间的大小n成正比。所以, TCLR的总计算时间可以近似地表示为: TTCLR≈(n2/2)trem, 其中trem表示一次相似计算的耗时。当n不是很大时, TTCLR与同为线性方法的CR、CNRC、TCCNR相当, 但要好于基于迭代的方法TSL、TAC、SGF、GFK;但是, 当n增大时, TCLR计算效率会快速下降。

3.3 分析

利用目标样本的局部几何信息来辅助生成具有更强鲁棒性的协同特征是本文的主要工作。本节主要探讨哪种局部信息表述方式有助于自适应分类性能提升, 即如何恰当地选择几何信息表达参数θ=(μ, w), 其中, μ表示所引入局部信息的强度, w=[w1, w2, w3]表示局部信息的组合方式。

首先, 本文讨论w取值对分类性能的影响。为此, 3种不同的权值系数w取值方案 ([0.1, 0.4, 0.5], [1/3, 1/3, 1/3]和[0.5, 0.4, 0.1]) 将被采用, 并分别进行自适应分类实验, 此时, μ=0.375。为了方便叙述, 上述3种方案被分别记为H1、H2、H3。实验结果如表 2所示。在所有实验上, H3的准确率最高, H2次之, H3最低。实验结果表明, 在选择表达目标样本局部近邻信息加权系数时, 对于局部近邻信息的准确表达, 距离目标样本越近的目标域样本越为重要, 应该被分配更大的权重。

表 2 H1、H2、H3的总体分类准确率% Table 2 Total accuracies of H1、H2、H3 %

接下来讨论本文算法对参数μ的敏感性, 此时, 加权系数w=[0.5, 0.4, 0.1]。图 3给出了当μ∈(0, 1) 时, 基于TCLR特征的分类方法在平均准确率上的变化情况。如图 3所示, 准确率在μ=0.375附近取得最大值。当μ≤0.375时, 局部信息对性能提升有积极的作用; 一旦超过这个阈值, 局部信息会引起算法性能恶化。这表明算法性能并不是随着所引入的局部信息强度的增加而持续提升的, 所引入局部信息的强度需保持在合适的范围内。

图 3 TCLR方法性能与局部信息强度的关系 Figure 3 Relationship between strength of local information and TCLR's performance
4 结语

受流形学习思想的启发, 本文针对自适应图像分类问题, 提出了一种新的基于目标域局部近邻几何信息的协同特征编码。在编码过程中, 借助距离目标样本最近的三个目标域样本, 通过加权的方式, 局部近邻信息被近似表达。实验结果表明所提特征能有效提高自适应分类性能。最后, 针对构建目标域局部近邻信息的参数选择问题作出讨论。

虽然本文方法取得了较好的结果, 但是它仍存在两个方面的不足:其一, 所有样本的局部近邻信息的构建都是基于相同的参数θ;其二, 在TCLR编码过程中, 为了寻找K个近邻样本, 需要进行多次比较, 当目标域样本空间很大时, 这是比较耗时的。这也是本文方法存在的主要问题。针对以上两个问题, 未来工作将沿着以下两条主线展开研究:1) 为每个目标样本构建差异化的邻域信息表达方式; 2) 提出更快速的相似度计算方法。

参考文献
[1] 刘建伟, 孙正康, 罗雄麟. 域自适应学习研究进展[J]. 自动化学报, 2014, 40 (8) : 1576-1600. ( LIU J W, SUN Z K, LUO X L. Review and research development on domain adaptation learning[J]. Acta Automatica Sinica, 2014, 40 (8) : 1576-1600. )
[2] QIU Q, PATEL V, TURAGA R, et al. Domain adaptive dictionary learning[C]//ECCV 2012: Proceedings of 13st European Conference on Computer Vision. Berlin: Springer, 2012: 631-645.
[3] CHEN M, XU Z, WEINBERGER K, et al. Marginalized denoising autoencoders for domain adaptation[C]//ICML 2012: Proceedings of 29th International Conference on Machine Learning. New York: ACM, 2012:115-122.
[4] GONG B, GRAUMAN K, SHA F. Connecting the dots with landmarks: discriminatively learning domain-invariant features for unsupervised domain adaptation[C]//ICML 2013: Proceedings of 30th International Conference on Machine Learning. New York: ACM, 2013: 222-230.
[5] GOPALAN R, LI R, CHELLAPPA R. Domain adaptation for object recognition: an unsupervised approach[C]//ICCV 2011: Proceedings of 13rd International Conference on Computer Vision. Piscataway, NJ: IEEE, 2011: 999-1006.
[6] GONG B, SHI Y, SHA F, et al. Geodesic flow kernel for unsupervised domain adaptation[C]//CVPR 2012: Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2012: 2066-2073.
[7] WAQAS J, ZHANG Y, ZHANG L. Collaborative neighbor representation based classification using l2-minimization approach[J]. Pattern Recognition Letters, 2013, 34 (2) : 201-208. doi: 10.1016/j.patrec.2012.09.024
[8] TANG S, YE M, LIU Q, et al. Domain adaptation of image classification based on collective target nearest-neighbor representation[J]. Journal of Electronic Imaging, 2016, 25 (3) : 033006-033015. doi: 10.1117/1.JEI.25.3.033006
[9] SAENKO K, KULIS B, FRITZ M, et al. Adapting visual category models to new domains[C]//ECCV 2010: Proceedings of the European Conference on Computer Vision. Berlin: Springer, 2010: 213-226.
[10] NI J, QIU Q, CHELLAPPA R. Subspace interpolation via dictionary learning for unsupervised domain adaptation[C]//CVPR 2013: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2013: 692-699.
[11] GONG B, GRAUMAN K, SHA F. Reshaping visual datasets for domain adaptation[EB/OL].[2016-05-10].http://www.cs.utexas.edu/~grauman/papers/gong-NIPS2013.pdf.
[12] CUI Z, LI W, XU D, et al. Flowing on Riemannian manifold: domain adaptation by shifting covariance[J]. IEEE Transactions on Cybernetics, 2014, 44 (12) : 2264-2273. doi: 10.1109/TCYB.2014.2305701
[13] SI S, TAO D, GENG B, BREGMAN. Divergence-based regularization for transfer subspace learning[J]. IEEE Transactions on Knowledge Data Engineering, 2010, 22 (7) : 929-942. doi: 10.1109/TKDE.2009.126
[14] PAN S J, TSANG I W, KWOK J T, et al. Domain adaptation via transfer component analysis[J]. IEEE Transaction on Neural Network, 2011, 22 (2) : 199-210. doi: 10.1109/TNN.2010.2091281