2. 福建师范大学 数学与计算机科学学院, 福州 350117
2. School of Mathematics and Computer Science, Fujian Normal University, Fuzhou Fujian 350117, China
在模式识别和数据挖掘领域, 类属数据聚类 (categorical data clustering) 是一项重要但较为困难的任务:一方面, 这是由于许多实际应用中的待聚类对象通常由该型数据或混合了数值型 (numerical) 及类属型的数据描述。例如, 生物数据聚类任务中的DNA序列就是由A、T、G和C等代表不同氨基酸的符号构成的; 在描述患者体征时, 又可能使用诸如“心跳数”这样的数值型生理指标, 而实际应用中人们通常将这些数值型数据转换为类属型数据加以处理[1]。另一方面, 由于类属数据的属性值取自有限的符号集合, 是离散的, 定义有效的对象间距离度量较数值型数据显得困难[2], 这使得类属数据聚类成为一项富有挑战性的任务。
根据所生成聚类结构的差异, 现有类属数据聚类算法大致分为两类[3]:层次聚类和基于划分的聚类。前者的目的是构造层次聚类树, 代表性算法包括凝聚型算法[4]和分裂型算法[5]等。本文着重于基于划分的聚类, 主要原因是该型方法 (与层次聚类算法相比) 通常具有较低的时间复杂度且易于实现。实际上, 以著名的K-means[6]为代表的基于划分的聚类算法已被广泛研究和应用, 其基本原理是在给定聚类数K的前提下寻求数据集中簇内对象平方误差 (squared error) 最小的K个划分, 这里的误差是依据对象与簇中心之间的距离定义的。
将K-means型算法运用于类属数据聚类需要处理两个主要问题:如何定义类属数据的簇中心以及如何衡量类属对象间的距离 (或相似度)。对于第一个问题, 已提出基于符号分布的“中心”[7-8]和基于“模”的定义[9-10]等, 其中又以后者最为常见:使用模符号 (mode category), 即出现频率最高的那个符号作为簇的代表。典型算法包括著名的K-modes[9, 11]及其变种[10, 12]。尽管已提出多种衡量类属对象间相似性的方法, 例如信息熵度量[13]和频度度量[14]等, 但应用于无监督聚类的并不多见。其中的简单匹配 (simple matching) 距离具有代表性, 其原理是根据取值不同的属性数目计算对象距离。近年已提出多种基于属性加权的简单匹配距离度量, 并以此为基础定义了多种K-modes型子空间聚类算法[7, 15-17]。由于这些算法所依赖的距离度量仅限于符号匹配, 而忽略了符号的总体分布 (一般而言, 一个有效的度量应区分高频符号与低频符号等[2]), 这是不完备的, 聚类算法的有效性也将因此受到影响。
本文提出的新型聚类算法基于数据对象与数据集划分之间的似然 (likelihood) 衡量对象与簇之间的相似性, 从而避免了由简单匹配距离和以模为簇中心带来的上述问题。该算法简称为WBCC (Weighted Bayesian Clustering of Categories), 是一种基于贝叶斯概率估计的类属数据聚类算法。WBCC算法通过对新定义的属性加权概率模型的最大似然估计, 实现类属数据的子空间聚类。在实际数据集上的实验结果验证了该算法的有效性。
1 相关工作首先约定后文使用的记号。设x=(x1, x2, …, xd, …, xD) 或y=(y1, y2, …, yd, …, yD) 表示由D个类属属性值构成的数据对象, 属性值xd(d=1, 2, …, D) 的取值集合为Xd, |Xd|表示集合中的元素数目, 即xd可取的符号数目。给定N个这样的类属对象和整数K(1 < K < N), 本文讨论的聚类算法的目的是将N个对象划分为K个簇的集合C={c1, c2, …, ck, …, cK}, ck表示第k个簇, 其包含的对象数记为|ck|。
对象间的相似性或距离度量是聚类分析的基础。在类属型数据聚类中, 常用简单匹配函数dis(x, y) 衡量对象x和y之间的距离[1-2], 注意到此型度量仅考虑对象本身符号的匹配情况。
$ \begin{array}{l} dis(\boldsymbol{x}, \boldsymbol{y}) = \sum\limits_{d = 1}^D {\delta {\rm{(}}{x_d}, {y_d}{\rm{)}}} \\ \delta {\rm{(}}{x_d}, {y_d}{\rm{)}} = \left\{ {\begin{array}{*{20}{c}} {1,\quad {x_d} \ne {y_d}}\\ {0\quad {x_d} = {y_d}} \end{array}} \right. \end{array} $ | (1) |
Lin[13]根据 (被匹配) 符号的概率定义了基于熵理论的相似性度量, Goodall[14]的定义则使用了所有符号的概率 (因此, 该度量考虑了符号总体分布情况), 但它们都未能用于基于划分的数据聚类。实际上, 基于划分的聚类算法的优化目标与所采用对象间距离度量是密切相关的, 例如, 已广泛研究和应用的K-modes系列算法[9-12]就基于式 (1) 所示的简单匹配距离定义其目标函数。
近年对基于划分的类属数据聚类算法研究主要集中在两个方面:提出替代“模”的簇表示方法以及改进距离度量。“非模”的簇表示方法包括符号分布法[7]和K-representatives[8]等, 其实质是将一个类属型属性转换为若干个 (等于该属性的符号数目) 二元型属性加以处理。Chen等[17-18]研究了非中心聚类法, 在这种方法中, 簇不再以“中心”为代表。本文提出的新算法WBCC也将是“非中心”的, 直接使用簇内对象来表示簇。
对距离度量的改进多集中在属性加权的简单匹配距离上, 不同方法采用的属性加权方式有所差异。例如, WKP (W-K-Prototypes) 算法[19]赋予每个属性d以一个全局权重ωd, 从而改进式 (1) 为ωdβ×δ(xd, yd)。混合加权K-modes (Mixed Weighting K-modes, MWKM)[15]、互补熵加权K-modes (Complete-entropy Weighting K-modes, CWKM)[16]等新近提出的算法则使用了局部属性加权机制, 赋予每个簇的每个属性一个权重, 进而在投影子空间中进行聚类[20]。在这些算法中, 权重计算方法大致归为两类:基于模频度[5, 15, 19]和基于符号分布的加权方式[13, 16-18], 后者利用了所有符号 (而不仅仅是模符号) 的统计信息, 通常可取得更好的聚类效果。本文算法中的属性加权方法也属于后者, 根据符号分布的信息熵进行属性加权, 所不同的是, 其权重计算表达式是基于贝叶斯聚类模型推导而来的。
2 贝叶斯聚类算法 2.1 贝叶斯聚类模型给定对象集和聚类数K, 贝叶斯聚类算法的目的是生成K个簇的集合C, 以最大化每个对象 (相对于其所在簇) 的似然。该目标可以形式地表示为:
$ \max {J_0}(C) = \prod\limits_{k = 1}^K {\prod\limits_{\boldsymbol{x} \in {c_k}} {p(k|\boldsymbol{x})} } $ |
其中: p(k|x) 是对象x相对于簇ck的后验概率。取以2为底的对数, 并使用贝叶斯公式, 优化目标变换为:
$ \begin{array}{l} \max {J_{\rm{1}}}(C) = \sum\limits_{k = 1}^K {\sum\limits_{\boldsymbol{x} \in {c_k}} {\left[{{\mathop{\rm lb}\nolimits} p(k) + {\mathop{\rm lb}\nolimits} p(\boldsymbol{x}|k)-{\mathop{\rm lb}\nolimits} p(\boldsymbol{x})} \right]} } \\ \quad \quad \quad \quad \; \propto \sum\limits_{k = 1}^K {|{c_k}|{\mathop{\rm lb}\nolimits} p(k)} + \sum\limits_{k = 1}^K {\sum\limits_{\boldsymbol{x} \in {c_k}} {{\mathop{\rm lb}\nolimits} p(\boldsymbol{x}|k)} } \\ {\rm{s}}{\rm{.t}}{\rm{.}}\quad 1 = \sum\limits_{k = 1}^K {p(k)} \end{array} $ | (2) |
其中:p(x|k) 表示x的先验概率, p(k) 为簇ck的概率; p(x) 因与C无关被忽略。
基于相关研究中普遍采用的“朴素”假设[3, 14-19]来估计p(x|k):数据集的D个属性是统计独立的。在这个假设前提下, p(x|k) 可以简单地通过p(x1|k)×p(x2|k)×…×p(xd|k)×…×p(xD|k) 来估计。在此基础上, 为区分不同属性的贡献, 引入局部属性加权机制, 赋予属性d以权重wkd衡量其对簇ck的重要性, 数值越大表明其越重要, 且满足以下约束条件:
$ \;\left\{ {\begin{array}{*{20}{c}} {\forall k, d:{w_{kd}} > 0\;}\\ {\forall k:\prod\limits_{d = 1}^D {{w_{kd}}} = 1} \end{array}} \right. $ | (3) |
注意到式 (3) 与相关研究采用的“权重之和归一化”条件[3, 15-19]不同, 式 (3) 基于权重之积, 这有助于放大属性权重的差异:例如, 若某个属性被赋予很小的权重 (接近0, 表明该属性不重要), 则根据式 (3) 必有其他一些属性的权重远大于1。
根据上述定义, 用下式估计p(x|k):
$ p(x|k) = \prod\limits_{d = 1}^D {{{[p({x_d}|k)]}^{{w_{kd}}}}} $ |
其中p(xd|k) 是符号xd经Laplace校正的频度估计:
$ p({x_d}|k) = \frac{{{\# _{kd}}({x_d}) + 1}}{{|{c_k}| + |{X_d}|}} $ |
#kd(xd) 表示符号xd出现在簇ck属性d上的次数。综上, 算法WBCC的聚类优化目标可以写作:
$ \begin{array}{l} \max {J_2}(C, P, W) = \sum\limits_{k = 1}^K {|{c_k}|{\mathop{\rm lb}\nolimits} p(k)} + \\ \;\;\;\;\;\;\;\;\;\;\;\sum\limits_{k = 1}^K {\sum\limits_{\boldsymbol{x} \in {c_k}} {\sum\limits_{d = 1}^D {{w_{kd}}{\mathop{\rm lb}\nolimits} p({x_d}|k)} } } \\ \quad \quad {\rm{s}}{\rm{.t}}{\rm{.}}\quad {\rm{Eqs}}{\rm{. (2) and (3)}} \end{array} $ | (4) |
其中:P={p(k)|k=1, 2, …, K},W={wkd|k=1, 2, …, K; d=1, 2, …, D}。
2.2 聚类算法给定对象集和K, 聚类算法需求解式 (4) 所示带约束的非线性优化问题。应用拉格朗日乘子法引入式 (2) 和 (3) 定义的约束条件, 算法需优化 (最大化) 的目标函数转换为:
$ \begin{array}{l} J(C, P, W) = {J_2}(C, P, W) + \\ \quad \quad \quad \quad \quad \lambda \left( {1-\sum\limits_{k = 1}^K {p(k)} } \right) + \sum\limits_{k = 1}^K {{\xi _k}\left( {1-\prod\limits_{d = 1}^D {{w_{kd}}} } \right)} \end{array} $ |
其中:λ和ξk(k=1, 2, …, K) 为拉格朗日乘子。
算法WBCC基于K-means或K-modes的算法结构[6, 9, 11], 采用一个两步骤的迭代方案求取J(C, W) 的局部最优解。在第一个迭代步骤中, 将W和P视为常数, 求解令函数J取得最大值的C, 这可以通过将每个对象x重新划分到与其最相似的簇来实现。对象x与簇ck的相似度根据下面的对数似然函数计算:
$ Sim(\boldsymbol{x}, k) = {\mathop{\rm l}\nolimits} {\rm{b }}p(k) + \sum\limits_{d = 1}^D {{w_{kd}}{\mathop{\rm lb}\nolimits} p({x_d}|k)} $ | (5) |
第二个迭代步骤则将C视为常数, 求取最大化J的W和P。为此, 令
$ p(k) = \frac{1}{N}|{c_k}| $ | (6) |
同理, 令
$ {w_{kd}} = {\tilde w_{kd}}{\left( {\prod\limits_{d' = 1}^D {{{\tilde w}_{kd'}}} } \right)^{-\frac{1}{D}}} $ | (7) |
其中
$ {\tilde w_{kd}} = {\left( {-\sum\limits_{x \in {c_k}} {{\mathop{\rm lb}\nolimits} p({x_d}|k)} } \right)^{-1}} $ |
基于上述优化策略的WBCC算法描述如下。
算法1 类属数据贝叶斯聚类算法WBCC。
输入:N个待聚类类属型数据对象及聚类数K。
输出:聚类集合C={c1, c2, …, cK}及属性权重集合W。
Begin
生成数据集初始划分C, 并初始化W中的每个属性权重为1;根据式 (5) 计算初始的P;
Repeat
固定W和P, 根据式 (5) 计算每个对象x到当前每个簇ck的似然, 并将之划分至似然最大的簇, 生成新的C;
固定C, 根据式 (6) 和 (7) 更新W和P;
Until J(C, P, W) 的变化小于10-6
End
算法从一个初始的聚类划分出发, 经过一系列迭代步骤, 直到目标函数不再发生变化 (实际中, 当其值的变化很小, 比如小于10-6时, 判断为算法收敛)。初始划分的生成借鉴了文献[17-18]的方法, 即首先随机选择K个对象为种子, 然后根据式 (1) 所示的简单匹配距离, 将所有对象划分到最近的种子, 生成数据集的初始划分。与K-means[6]、K-modes[9, 11]等算法一样, 算法1输出的聚类结果对其初始状态有一定的依赖性;同时, 鉴于初始状态的随机性, 算法通常只能输出所优化目标函数的局部优解。
2.3 算法分析首先分析时间复杂度。从算法过程可以看出, 算法WBCC与传统K-means[6]或K-modes[9, 11]具有相似的结构, 由于其间每个迭代步骤都使得目标函数值下降或保持不变, 且对于给定的对象集和K, 目标函数存在下界, 因此, 经过有限次迭代, 可以使得函数值不再下降, 此时算法收敛。设迭代次数为T, WBCC的算法时间复杂度为O(NKDT)。
其次, WBCC算法没有使用簇“中心”概念, 也不是基于类属对象间距离的聚类算法, 它根据对象-簇间的似然进行聚类划分)。在聚类过程中, 算法自动赋予每个属性K个权重, 进行子空间聚类。根据式 (7) 可知, WBCC算法计算属性d相对于簇ck的权重为:
$ {{w}_{kd}}\sim ~{{\left( -\sum\limits_{x\in {{X}_{d}}}{p(x|k)\text{lb}p(x|k)} \right)}^{-1}} $ | (8) |
也就是说, WBCC的属性权重与其符号分布的信息熵成反比。这与相关研究基于模符号进行属性加权的方式[5, 15, 19]不同, WBCC进行属性加权的依据是符号的总体分布。
3 实验与分析实验分析包括算法聚类结果对比和属性加权方式有效性验证两个方面, 并与若干相关工作相比较。
3.1 实验数据与实验设置在6个数据集上检验WBCC算法的性能, 数据集的详细信息如表 1所示, 它们都由类属型属性组成。表 1所列前5个数据集均为UCI数据集, 其中的Splice和Promoters是DNA序列集, 其每条序列由60或57个氨基酸排列而成, 各氨基酸的位点已经过对齐处理, 故每个位点可以看作是一个类属型属性, 被给予顺序编码, 比如, 在Splice数据中, 这些位点 (属性) 命名为p-30~p+30[17]。其余UCI数据集的属性多为序数型符号, 且可能包含有缺失值。例如, 在Breastcancer (乳腺癌) 数据中, 其9个属性均为以1~10间整数表示的患者生理指标, 其中2个包含缺失数据。在实验中, 所有缺失数据看作一个特别的符号加以处理。如表 1所示, 除Promoters外的UCI数据集的另一个特点是样本分布不均衡。
为检验算法在具有更多簇类的数据上的聚类性能, 采用文献[21]提供的方法人工合成了一个包含10个类的数据, 如表 1“Synthetic (合成)”所示。合成过程使用的其他参数如下:每个类的平均相关属性数为20(占全部40个属性的50%), 所有属性均等宽离散化为10个序数型符号。
实验选择K-modes (简称KM)[11]、CWKM[16]、MWKM[15]以及两种混合型数据聚类算法WKP[19]和MKP (Modified K-Prototypes)[22]为对比算法。MWKM和WKP的参数分别设置为β=2[19]和β=9[15]。采用两种指标评价各种算法的聚类结果:CU (Category Utility) 指标和聚类精度 (Clustering Accuracy, CA)。其中CU是一种评价聚类质量的内部指标, 其定义[18]为:
$ CU(C) = \sum\limits_{k = 1}^K {\frac{{|{c_k}|}}{N}\sum\limits_{d = 1}^D {\sum\limits_{x \in {X_d}} {\left[{{{\left( {\frac{{{\# _{kd}}(x)}}{{|{c_k}|}}} \right)}^2}-{{\left( {\frac{{{\# _d}(x)}}{N}} \right)}^2}} \right]} } } $ |
其中:#d(x) 表示符号x出现整个数据集属性d上的次数。CA是一种外部指标, 是聚类结果中对象所在簇与其真实类别相匹配的对象比例, 根据下式计算:
$ CA(C) = \frac{1}{N}\sum\limits_{k = 1}^K {\sum\limits_{\boldsymbol{x} \in {c_k}} {I(k = L(\boldsymbol{x}))} } $ |
其中:I是取值0或1的指示函数, L(x) 是对象x真实的类别标号。在计算CA之前, 采用二部图 (bipartite graph) 最大权重匹配算法建立K个簇标号与K个真实类别标号的对应关系, 其中二部图结点对间的权重为重合对象的数目。与CU一样, CA的值越大表示聚类结果质量越高。
3.2 聚类结果由于各种算法的起点 (初始中心或初始划分) 都是随机选择的, 为使得聚类结果具有可比性, 对于每个数据集, 每种算法均独立运行100次, 然后从中选择20次具有最高精度的结果作为实验对比的基础。表 2列出了从每个数据集的20个最好结果中计算的平均性能, 以“平均指标值±1个标准差”的格式呈现, 每个数据集上最高的平均指标值以加粗方式标注。
如表 2所示, WBCC算法在6个数据集上均取得了较高的聚类精度 (CA), 与其他算法相比, WBCC在这些数据集上都取得了明显的精度提升, 尤其在属性数目较多的Splice和类数较多的Dermatology及合成数据上。注意到前两个数据集中各类样本分布很不均衡 (见表 1), 这验证了WBCC算法根据对象-簇间似然进行贝叶斯聚类的有效性。对于样本数较少的类, 模符号的代表性下降, 进而降低了基于模的距离度量的有效性, 这是5种对比算法在这些数据集上性能落后于WBCC算法的主要原因。
根据表 2, CWKM算法在Dermatology上取得最高CU指标值。与MWKM和WKP仅根据模符号的频度进行属性加权不同, CWKM算法在计算属性权重时使用了所有符号的频度信息[16], 从这个意义上说, 该算法与WBCC是比较接近的, 因而取得了高质量的聚类结果。但是, WBCC基于似然估计而非对象-模间相似度计算, 在Splice等其他5个数据上获得了明显优于CWKM的结果。表 2的数据还说明, 总体而言, WBCC算法的鲁棒性 (体现在标准差上) 略优于对比算法, 这是由于WBCC的初始状态是数据集的K个划分, 而不是对比算法的K个代表对象, 一定程度上降低了算法对初始簇中心的敏感性。
图 1对比了各种算法的聚类效率。所用数据为表 1所列的合成数据集, 为检验各种算法相对于样本数量的可伸缩性, 从原数据集 (含10000个样本) 上随机抽取了1250、2500、5000个样本组成3个新的测试数据集。如图所示, 随样本量增加, WBCC算法使用的平均CPU时间呈线性增加的趋势。此外, 图 1也显示WBCC的聚类效率介于MWKM、WKP和CWKM、KM、MKP之间; MKP算法未进行属性加权操作, 具有最高的效率; 而MWKM算法为每个属性计算多个权重, 因而需要更多的运行时间。
本节从属性加权方法的角度进一步分析WBCC算法的性能, 并于CWKM、MWKM和WKP这三种同样基于属性加权的聚类算法作对比。图 2~5显示了四种算法在Splice数据上计算的权重分布情况, 权重数据采自各算法在100次运行中精度最高的聚类结果。为便于对比, 图 2~5中各算法生成的属性权值均规范化到区间。选用Splice的一个原因是该数据集拥有较多的属性 (60个), 便于分析; 另一个原因是该数据具有明确的生物学背景[17], 易于理解。Splice数据包含三个类别:EI、IE和Neither, 前2个类别在p-2~p+2氨基酸位点 (类属型属性) 上含有“移植体 (donor)”或“受体 (acceptor)”, 而它们未出现在Neither类的DNA序列上。
如图 2所示, WBCC算法成功地识别出了p-2~p+2位点 (属性), 对于EI和IE类, 这些属性被赋予较高的权重, 而其他属性的权重接近于0;对于Neither类, 各属性的权重都接近于0, 并没有明显区别。这些都与上述Splice数据的生物学应用背景相符。
反观对应于CWKM算法和MWKM算法的图 3和图 4(MWKM赋予属性两种权重, 图上仅显示其中“与模频度成正比”的部分), 其权重分布与WBCC的图 2有显著区别。如图 3~4所示, 尽管在p-2~p+2位点的权重分布也呈现出了峰值, 但其他属性也被赋予了较大的权重, 尤其对于Neither类, 其权重分布并不平滑。同样情况见于WKP算法输出的图 5(WKP是全局属性加权算法[19], 因此只输出一组权重)。上述有差异的属性加权结果是算法不同加权方法和所采用的相似度 (或距离) 度量的体现。在WBCC中, 属性权重根据符号分布的信息熵计算 (见式 (8)), 且基于对象-簇似然进行高质量的数据集划分, 因而可以获得具有实际应用意义的属性加权结果。
4 结语本文提出了一种新型的类属型数据聚类算法WBCC, 与当前多基于模的划分聚类算法不同, 新算法基于贝叶斯概率框架, 通过最大似然估计, 而不是现有多数算法所采用的对象-模间简单符号匹配, 进行数据集划分。在聚类过程中, WBCC算法根据类属符号分布的信息熵自动赋予每个属性反映其重要性的权重, 实现了类属型数据的子空间聚类。在多个实际应用数据集上进行了实验验证, 结果表明新算法是有效的, 与基于模和类属对象间距离的现有算法相比, 新算法在实验数据上的聚类结果质量得到较为明显的改善, 并输出了与实际应用需要相吻合的属性加权结果。
后续研究工作将着重于以下几个方面:将新算法推广到混合型数据, 即在混合了数值型和类属型的数据上直接 (不需要将数值型数据事先离散化成类属型) 进行贝叶斯聚类; 探讨建立数据集初始划分的方法, 以提高算法的鲁棒性。鉴于当前的聚类模型评价准则多针对数值型数据且仅对全空间聚类结构进行质量评价, 后续工作还将在本文给出的类属数据子空间聚类概率模型和传统的贝叶斯信息准则基础上, 开展类属数据子空间聚类有效性指标的研究, 提供类属数据集最佳聚类数目估计等问题的解决方案。
[1] | HUNT L, JORGENSEN M. Clustering mixed data[J]. Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, 2011, 1 (4) : 352-361. doi: 10.1002/widm.33 |
[2] | BORIAH S, CHANDOLA V, KUMAR V. Similarity measures for categorical data: a comparative evaluation[C]//Proceedings of the 8th SIAM International Conference on Data Mining. Philadelphia: SIAM, 2008: 243-254. |
[3] | CHEN L, WANG S. Central clustering of categorical data with automated feature weighting[C]//Proceedings of the 23rd International Joint Conference on Artificial Intelligence. Menlo Park, CA: AAAI Press, 2013: 1260-1266. |
[4] | GUHA S, RASTOGI R, SHIM K. ROCK: a robust clustering algorithm for categorical attributes[J]. Information Systems, 2000, 25 (5) : 345-366. doi: 10.1016/S0306-4379(00)00022-3 |
[5] | XIONG T, WANG S, MAYERS A, et al. DHCC: divisive hierarchical clustering of categorical data[J]. Data Mining and Knowledge Discovery, 2012, 24 (1) : 103-135. doi: 10.1007/s10618-011-0221-2 |
[6] | MACQUEEN J. Some methods for classification and analysis of multivariate observation[C]//Proceedings of the 5th Berkley Symposium on Mathematical Statistics and Probability. Berkeley: University of California Press, 1967: 281-297. |
[7] | JI J, BAI T, ZHOU C, et al. An improved k-prototypes clustering algorithm for mixed numeric and categorical data[J]. Neurocomputing, 2013, 120 : 590-596. doi: 10.1016/j.neucom.2013.04.011 |
[8] | SAN O, HUYNH V, NAKAMORI Y. An alternative extension of the k-means algorithm for clustering categorical data[J]. International Journal of Applied Mathematics and Computer Science, 2004, 14 (2) : 241-247. |
[9] | HUANG Z, NG M. A note on k-modes clustering[J]. Journal of Classification, 2003, 20 (2) : 257-261. doi: 10.1007/s00357-003-0014-4 |
[10] | 李仁侃, 叶东毅. 粗糙k-modes聚类算法[J]. 计算机应用, 2011, 31 (1) : 97-100. ( LI R K, YE D Y. Rough k-modes clustering algorithm[J]. Journal of Computer Applications, 2011, 31 (1) : 97-100. doi: 10.3724/SP.J.1087.2011.00097 ) |
[11] | HUANG Z. Extensions to the k-means algorithm for clustering large data sets with categorical values[J]. Data Mining and Knowledge Discovery, 1998, 2 (3) : 283-304. doi: 10.1023/A:1009769707641 |
[12] | 梁吉业, 白亮, 曹付元. 基于新的距离度量的k-modes聚类算法[J]. 计算机研究与发展, 2010, 47 (10) : 1749-1755. ( LIANG J Y, BAI L, CAO F Y. k-modes clustering algorithm based on a new distance measure[J]. Journal of Computer Research and Development, 2010, 47 (10) : 1749-1755. ) |
[13] | LIN D. An information-theoretic definition of similarity[C]//Proceedings of the 15th International Conference on Machine Learning. San Francisco: Morgan Kaufmann, 1998: 296-304. |
[14] | GOODALL D. A new similarity index based on probability[J]. Biometrics, 1966, 22 (4) : 882-907. doi: 10.2307/2528080 |
[15] | BAI L, LIANG J, DANG C, et al. A novel attribute weighting algorithm for clustering high-dimensional categorical data[J]. Pattern Recognition, 2011, 44 (12) : 2843-2861. doi: 10.1016/j.patcog.2011.04.024 |
[16] | CAO F, LIANG J, LI D, et al. A weighting k-modes algorithm for subspace clustering of categorical data[J]. Neurocomputing, 2013, 108 : 23-30. doi: 10.1016/j.neucom.2012.11.009 |
[17] | CHEN L, WANG S, WANG K, et al. Soft subspace clustering of categorical data with probabilistic distance[J]. Pattern Recognition, 2016, 51 : 322-332. doi: 10.1016/j.patcog.2015.09.027 |
[18] | 陈黎飞, 郭躬德. 属性加权的类属型数据非模聚类[J]. 软件学报, 2013, 24 (11) : 2628-2641. ( CHEN L F, GUO G D. Non-mode clustering of categorical data with attributes weighting[J]. Journal of Software, 2013, 24 (11) : 2628-2641. ) |
[19] | HUANG Z, NG M, RONG H, et al. Automated variable weighting in k-means type clustering[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005, 27 (5) : 657-668. doi: 10.1109/TPAMI.2005.95 |
[20] | BOUGUESSA M. Clustering categorical data in projected spaces[J]. Data Mining and Knowledge Discovery, 2015, 29 (1) : 3-38. doi: 10.1007/s10618-013-0336-8 |
[21] | CHEN L. A probabilistic framework for optimizing projected clusters with categorical attributes[J]. Science China Information Sciences, 2015, 58 (7) : 072104. |
[22] | LIANG J, ZHAO X, LI D, et al. Determining the number of clusters using information entropy for mixed data[J]. Pattern Recognition, 2012, 45 (6) : 2251-2265. doi: 10.1016/j.patcog.2011.12.017 |