根据训练样本中是否包含标签信息,机器学习可以分为监督学习和无监督学习。聚类算法是典型的无监督学习,目的是想将那些相似的样本尽可能聚在一起,不相似的样本尽可能分开。

相似度或距离

聚类的核心概念是相似度(similarity)或距离(distance),常用的距离有以下几种:

闵可夫斯基距离(Minkowski distance)

d(x,y)=(i=1mxiyip)1/pd(\mathbf x,\mathbf y)=\left(\sum_{i=1}^m|x_i-y_i|^p\right)^{1/p}

其中 pRp\in\Rp1p\geqslant 1 。下面是三个常见的例子

p=1p=1 时,表示曼哈顿距离(Manhattan)。即

d(x,y)=i=1mxiyid(\mathbf x,\mathbf y)=\sum_{i=1}^m|x_i-y_i|

p=2p=2 时,表示欧几里德距离(Euclidean)。即

d(x,y)=i=1m(xiyi)2d(\mathbf x,\mathbf y)=\sqrt{\sum_{i=1}^m(x_i-y_i)^2}

pp\to\infty 时,表示切比雪夫距离(Chebyshev)。即

d(x,y)=max(xiyi)d(\mathbf x,\mathbf y)=\max(|x_i-y_i|)

马哈拉诺比斯距离(Mahalanobis distance)也是另一种常用的相似度,考虑各个分量(特征)之间的相关性并与各个分量的尺度无关。

d(x,y)=(xy)Σ1(xy)Td(\mathbf x,\mathbf y)=(\mathbf x-\mathbf y)\Sigma^{-1}(\mathbf x-\mathbf y)^T

其中 Σ1\Sigma^{-1} 是协方差矩阵的逆。

余弦距离(Cosine distance)也可以用来衡量样本之间的相似度。夹角余弦越接近于1,表示样本越相似;越接近于0,表示样本越不相似。

cos(x,y)=xyxy\cos(\mathbf x,\mathbf y)=\frac{\mathbf x\cdot\mathbf y}{\|\mathbf x\|\cdot\|\mathbf y\|}

K-means

基础算法

K-means是一种广泛使用的聚类算法。将样本集合 X={x1,x2,,xN}X=\{x_1,x_2,\cdots,x_N\} 划分到KK个子集中{C1,C2,,CK}\{C_1,C_2,\cdots,C_K\},目标函数为

mink=1KxCkxμk2\min\sum_{k=1}^K\sum_{x\in C_k}\|x-\mu_k\|^2

其中μk\mu_k是簇CkC_k的中心(centroid)向量

μk=1NkxCkx\mu_k=\frac{1}{N_k}\sum_{x\in C_k}x

直观的看相似样本被划到同一个簇,损失函数最小。但这是一个NP-hard问题,因此K-means采用迭代策略来近似求解。

K-Means的思想十分简单,首先随机指定类中心,根据样本与类中心的距离划分类簇,接着重新计算类中心,迭代直至收敛

算法中使用到的距离可以是任何的距离计算公式,最常用的是欧氏距离,应用时具体应该选择哪种距离计算方式,需要根据具体场景确定。

聚类数k的选择:K-Means中的类别数需要预先指定,而在实际中,最优的KK值是不知道的,解决这个问题的一个方法是肘部法则(Elbow method):尝试用不同的KK值聚类,计算损失函数,拐点处即为推荐的聚类数 (即通过此点后,聚类数的增大也不会对损失函数的下降带来很大的影响,所以会选择拐点) 。但是也有损失函数随着$$K的增大平缓下降的例子,此时通过肘部法则选择K$的值就不是一个很有效的方法了。

优缺点小结

K-Means是个简单实用的聚类算法,这里对K-Means的优缺点做一个总结。

K-Means的主要优点有:

  • 原理比较简单,实现也是很容易,收敛速度快(在大规模数据集上收敛较慢,可尝试使用Mini Batch K-Means算法)。
  • 聚类效果较优。
  • 算法的可解释度比较强。
  • 主要需要调参的参数仅仅是簇数k。

K-Means的主要缺点有:

  • K值的选取不好把握(实际中K值的选定是非常难以估计的,很多时候,事先并不知道给定的数据集应该分成多少个类别才最合适)。
  • 对于不是凸的数据集比较难收敛(密度的聚类算法更加适合,比如DBSCAN算法,后面再介绍DBSCAN算法)
  • 如果各隐含类别的数据不平衡,比如各隐含类别的数据量严重失衡,或者各隐含类别的方差不同,则聚类效果不佳。
  • 采用迭代方法,得到的结果只是局部最优。(可以尝试采用二分K-Means算法)
  • 对噪音和异常点比较敏感。(改进1:离群点检测的LOF算法,通过去除离群点后再聚类,可以减少离群点和孤立点对于聚类效果的影响;改进2:改成求点的中位数,这种聚类方式即K-Mediods聚类)
  • 对初始值敏感(初始聚类中心的选择,可以尝试采用二分K-Means算法或K-Means++算法)
  • 时间复杂度高O(NKt)O(NKt),其中N是对象总数,K是簇数,t是迭代次数。
  • 只适用于数值型数据,只能发现球型类簇。

K-means++

K-means 初始化质心位置的选择对最后的聚类结果和运行时间都有很大的影响,因此需要选择合适的K个质心。

Poor Initial Centroids

K-Means算法就是对K-Means随机初始化质心的方法的优化。K-Means算法在聚类中心的初始化过程中使得初始的聚类中心之间的相互距离尽可能远,这样可以避免出现上述的问题。

二分K-means

为克服K-Means算法收敛于局部最小的问题,有人提出了另一种称为二分K-Means(bisecting K-Means)的算法。该算法首先将所有点作为一个簇,然后将该簇一分为二。之后选择其中一个簇继续进行划分,直到产生 KK 个簇为止。

至于簇的分裂准则,取决于对其划分的时候可以最大程度降低 SSE(平方和误差)的值。

Bisecting K-means

Elkan K-Means

在传统的K-Means算法中,我们在每轮迭代时,要计算所有的样本点到所有的质心的距离,这样会比较的耗时。Elkan K-Means算法利用了两边之和大于等于第三边,以及两边之差小于第三边的三角形性质,来减少不必要的距离的计算。

  • 对于一个样本点x和两个质心μ1\mu_1μ2\mu_2,如果我们预先计算出这两个质心之间的距离d(μ1,μ1)d(\mu_1,\mu_1),如果发现2d(x,μ1)d(μ1,μ2)2d(x,\mu_1) \leq d(\mu_1,\mu_2),那么我们便能得到d(x,μ1)d(x,μ2)d(x,\mu_1)\leq d(x,\mu_2)。此时我们不再计算d(x,μ2)d(x,\mu_2),也就节省了一步距离计算。
  • 对于一个样本点x和两个质心μ1\mu_1μ2\mu_2,我们能够得到d(x,μ2)max{0,d(x,μ1)d(μ1,μ2)}d(x,\mu_2)\leq \max\{0,d(x,\mu_1)-d(\mu_1,\mu_2)\}。这个从三角形的性质也很容易得到。

Elkan K-Means迭代速度比传统K-Means算法迭代速度有较大提高,但如果我们的样本特征是稀疏的,或者有缺失值的话,此种方法便不再使用。

ISODATA

虽然通过K-Means有效的解决了随机初始中心选择的问题,但是对于K值的预先设定,在K-Means中也没有很好的解决,ISODATA算法则可以有效的解决K值需要设定的问题。

ISODATA算法是在k-Means算法的基础上,增加对聚类结果的“合并”和“分裂”两个操作,即当两个聚簇中心的值小于某个阈值时,将两个聚类中心合并成一个,当某个聚簇的标准差小于一定的阈值时或聚簇内样本数量超过一定阈值时,将该聚簇分列为2个聚簇,甚至当某个聚簇中的样本量小于一定阈值时,则取消该聚簇。

DBSCAN

K-Means算法是基于距离的聚类算法,当数据集中的聚类结果是非球状结构时,聚类效果并不好。而基于密度的聚类算法可以发现任意形状的聚类,它是从样本密度的角度来考察样本之间的可连接性,并基于可连接性(密度可达)不断扩展聚类簇以获得最终的聚类结果.。

基本概念

DBSCAN(Density-Based Spatial Clustering of Application with Noise)是一种典型的基于密度的聚类算法,它基于一组邻域参数(ϵ,MinPts)(\epsilon,MinPts) 刻画样本分布的紧密程度。

在DBSCAN算法中将数据点分为三类:

  • 核心点(Core point):若样本 xix_iϵ\epsilon 邻域内至少包含了MinPts 个样本,即 Nϵ(xi)MinPtsN_\epsilon(x_i)\geqslant MinPts,则称样本点 xix_i 为核心点。
  • 边界点(Border point):若样本 xix_iϵ\epsilon 邻域内包含的样本数目小于MinPts,但是它在其他核心点的邻域内,则称样本点 xix_i 为边界点。
  • 噪音点(Noise):既不是核心点也不是边界点的点。

在这里有两个量,一个是半径 Eps (ϵ\epsilon),另一个是指定的数目 MinPts。

img

在DBSCAN算法中,由核心对象出发,找到与该核心对象密度可达的所有样本集合形成簇。

在DBSCAN算法中,还定义了如下一些概念:

  • 密度直达(directly density-reachable):若样本点 xjx_j 在核心点 xix_i 的邻域内(xjU(xi,ϵ)x_j\in U(x_i,\epsilon)),则称xjx_jxix_i 密度直达。
  • 密度可达(density-reachable):存在样本序列 p1,p2,,pnp_1,p_2,\cdots,p_n,若样本点 pi+1p_{i+1}pip_i 密度直达,则称pnp_np1p_1 密度可达。
  • 密度相连(density-connected):若样本xix_ixjx_j 均可由核心点 pp 密度可达,则称样本xix_ixjx_j 密度相连。

因此,DBSCAN的一个簇为最大密度相连的样本集合。该算法可在具有噪声的空间数据库中发现任意形状的簇。

算法流程

DBSCAN算法的流程为:

  1. 根据给定的邻域参数Eps和MinPts确定所有的核心对象;
  2. 选择一个未处理过的核心对象,找到由其密度可达的的所有样本生成聚类簇。
  3. 重复以上过程,直到所有的核心对象都遍历完。

下图与原来的DBSCAN算法用了相同的概念并发现相同的簇,但为了简洁而不是有效,做了一些调整。

优缺点小结

优点:

  • 相比K-Means,DBSCAN 不需要预先声明聚类数量。
  • 可以对任意形状的稠密数据集进行聚类,相对的,K-Means之类的聚类算法一般只适用于凸数据集。
  • 可以在聚类的同时发现异常点,对数据集中的异常点不敏感。
  • 聚类结果没有偏倚,相对的,K-Means之类的聚类算法初始值对聚类结果有很大影响。

缺点:

  • 当空间聚类的密度不均匀、聚类间距相差很大时,聚类质量较差,因为这种情况下参数MinPts和Eps选取困难。
  • 如果样本集较大时,聚类收敛时间较长,此时可以对搜索最近邻时建立的KD树或者球树进行规模限制来改进。
  • 在两个聚类交界边缘的点会视它在数据库的次序决定加入哪个聚类,幸运地,这种情况并不常见,而且对整体的聚类结果影响不大(DBSCAN变种算法,把交界点视为噪音,达到完全决定性的结果。)
  • 调参相对于传统的K-Means之类的聚类算法稍复杂,主要需要对距离阈值eps,邻域样本数阈值MinPts联合调参,不同的参数组合对最后的聚类效果有较大影响。

OPTICS

在前面介绍的DBSCAN算法中,有两个初始参数Eps(邻域半径)和minPts(Eps邻域最小点数)需要手动设置,并且聚类的结果对这两个参数的取值非常敏感。为了克服DBSCAN算法这一缺点,提出了OPTICS算法(Ordering Points to identify the clustering structure),翻译过来就是,对点排序以此来确定簇结构。

OPTICS是对DBSCAN的一个扩展算法,该算法可以让算法对半径Eps不再敏感。只要确定minPts的值,半径Eps的轻微变化,并不会影响聚类结果。OPTICS并不显式的产生结果类簇,而是为聚类分析生成一个增广的簇排序(比如,以可达距离为纵轴,样本点输出次序为横轴的坐标图),这个排序代表了各样本点基于密度的聚类结构。它包含的信息等价于从一个广泛的参数设置所获得的基于密度的聚类,换句话说,从这个排序中可以得到基于任何参数Eps和minPts的DBSCAN算法的聚类结果。

要搞清楚OPTICS算法,需要搞清楚2个新的定义:核心距离和可达距离。

核心距离 (core distance):一个对象PP的核心距离是使得其成为核心对象的最小半径,即对于集合MM而言,假设让其中xx点作为核心,找到以xx点为圆心,且刚好满足最小邻点数minPts的最外层的一个点为xx',则xx点到xx'点的距离称为核心距离

cd(x)=d(x,Uϵ(x)),if Nϵ(x)minPtscd(x)=d(x,U_\epsilon(x)),\quad\text{if }N_\epsilon(x)\geqslant minPts

可达距离(reachability distance):是根据核心距离来定义的。对于核心点xx的邻点x1,x2,,xnx_1,x_2,\cdots,x_n 而言:

  • 如果他们到点xx的距离大于点xx'的核心距离,则其可达距离为该点到点xx的实际距离;
  • 如果他们到点xx的距离核心距离小于点xx'的核心距离的话,则其可达距离就是点xx的核心距离,即在xx'以内的点到xx的距离都以此核心距离来记录。

rd(y,x)=max{cd(x),d(x,y)},if Nϵ(x)minPtsrd(y,x)=\max\{cd(x),d(x,y)\},\quad\text{if }N_\epsilon(x)\geqslant minPts

举例,下图中假设 minPts=3minPts=3,半径是ϵ\epsilon。那么PP点的核心距离是d(1,P)d(1,P),点2的可达距离是d(1,P)d(1,P),点3的可达距离也是d(1,P)d(1,P),点4的可达距离则是d(4,P)d(4,P)​。

optics-distance

OPTICS的核心思想:

  • 较稠密簇中的对象在簇排序中相互靠近;
  • 一个对象的最小可达距离给出了一个对象连接到一个稠密簇的最短路径。

每个团簇的深浅代表了团簇的紧密程度,我们可以在这基础上采用DBSCAN(选取最优的Eps)或层次聚类方法对数据进行聚类。

层次聚类

层次聚类(hierarchical clustering) 假设簇之间存在层次结构,后面一层生成的簇基于前面一层的结果。层次聚类算法一般分为两类:

  • 自顶向下(top-down)的分拆(divisive)层次聚类:开始将所有样本分到一个类,之后将己有类中相距最远的样本分到两个新的类,重复此操作直到满足停止条件(如每个样本均为一类)。
  • 自底向上(bottom-up)的聚合(Agglomerative)层次聚类:开始将每个样本各自分到一个类,之后将相距最相近的两个类合并生成一个新的类,重复此操作直到满足停止条件(如所有样本聚为一类)。

类之间的距离

除了需要衡量样本之间的距离之外,层次聚类算法还需要衡量类之间的距离,称为 linkage

假设CiC_iCjC_j​为两个类,常见的类之间距离的衡量方法有

img

最短距离或单连接(single-linkage):两个类的最近样本间的距离

d(Ci,Cj)=min{d(x,y)xCi,yCj}d(C_i, C_j)=\min\{ d(x, y)|x \in C_i, y \in C_j \}

最长距离或完全连接(complete-linkage):两个类的最远样本间的距离

d(Ci,Cj)=max{d(x,y)xCi,yCj}d(C_i, C_j) = \max\{ d(x, y)|x \in C_i, y \in C_j \}

平均距离(average-linkage):两个类所有样本间距离的平均值

d(Ci,Cj)=1NiNjxCiyCjd(x,y)d(C_i,C_j)=\frac{1}{N_iN_j}\sum_{x\in C_i}\sum_{y\in C_j}d(x,y)

AGNES

AGNES 是一种采用自底向上聚合策略的层次聚类算法,它先将数据集中的每个样本看作一个初始聚类簇,然后在每一步中找出距离最近的两个类簇进行合并,该过程不断重复,直至达到预设的类簇个数。

img

BIRCH

BIRCH算法的全称是 Balanced Iterative Reducing and Clustering using Hierarchies,它使用聚类特征来表示一个簇,使用聚类特征树(CF-树)来表示聚类的层次结构,算法思路也是自底向上的。

层次聚类改进算法之BIRCH

Ward 方法

Ward方法 提出的动机是最小化每次合并时的信息损失。 SSE 作为衡量信息损失的准则:

SSE(C)=xC(xμC)T(xμC)SSE(C) = \sum_{x \in C}(x-\mu_C)^T(x-\mu_C)

其中 μC\mu_C为簇 CC 中样本点的均值

μC=1NCxCx\mu_C=\frac{1}{N_C}\sum_{x\in C}x

可以看到 SSE 衡量的是一个类内的样本点的聚合程度,样本点越聚合,SSE 的值越小。Ward 方法则是希望找到一种合并方式,使得合并后产生的新的一系列的类的 SSE 之和相对于合并前的类的 SSE 之和的增长最小。

高斯混合聚类

高斯混合聚类是基于概率模型的贝叶斯定理来表达聚类原型,将在高斯混合模型章节详细介绍。

AP聚类

AP(Affinity Propagation)通常被翻译为近邻传播算法或者亲和力传播算法,是一种基于图论的聚类算法。它的核心思想是将全部数据点都当作潜在的聚类中心,然后数据点两两之间连线构成一个网络(相似度矩阵),再通过迭代传递各条边的消息来计算出各样本的聚类中心(称之为exemplar),完成聚类。它不需要预先指定聚类的个数,但是算法的时间复杂度较高。

AP算法的核心由三个矩阵表示,相似度矩阵 SS、吸引度矩阵RR和归属度矩阵AA

AP算法流程:

Step 1:该算法首先将数据集的所有NN个样本点都视为候选的聚类中心,为每个样本点建立与其它样本点的相似度(similarity)信息。这种相似性可以根据所研究问题而具体设定,在实际应用中,不需要满足欧式空间约束。传统的聚类问题中,相似性通常被设定为两点欧氏距离平方的负数:

s(i,k)=xixk22(ik)s(i,k)=-\|\mathbf x_i-\mathbf x_k\|^2_2\quad (i\neq k)

基于相似度,我们可以得到样本点之间的相似度矩阵。

Step 2:在样本点构成的网络中,每个样本点都是潜在的聚类中心,同时也归属于某个聚类中心点,对应这样的两面性,提出了以下两个概念:

  • Responsibility (吸引度):指点kk适合作为数据点ii的聚类中心的程度,记为r(i,k)r(i,k)
  • Availability (归属度):指点ii支持点kk作为其聚类中心的适合程度,记为a(i,k)a(i,k)

因此,r(i,k)+a(i,k)r(i,k)+a(i,k)越大,点kk作为最终聚类中心的可能性就越大。

AP算法为选出合适的聚类中心通过不断在数据点之间传递信息来迭代更新吸引度矩阵RR和归属度矩阵AA。算法初始阶段,r(i,k)r(i,k)a(i,k)a(i,k)都设为0,两个信息的更新过程如下:

更新吸引度矩阵RR

r(i,k)s(i,k)maxkk{a(i,k)+s(i,k)}r(i,k)\gets s(i,k)-\max\limits_{\forall k'\neq k}\{a(i,k')+s(i,k')\}

r(k,k)r(k,k) 代表自我吸引度,它的值较小的话,就说明相较于作为聚类中心,点 kk 更适合归属于其他聚类中心。

更新归属度矩阵AA

a(i,k)min{0, r(k,k)+i{i,k}max{0,r(i,k)}}if ika(k,k)ikmax{0,r(i,k)}if i=k\begin{aligned} &a(i,k)\gets\min\left\{0,\ r(k,k)+\sum\limits_{i'\notin \{i,k\}}\max\{0,r(i',k)\}\right\} &\text{if }i\neq k \\ &a(k,k)\gets\sum\limits_{i'\neq k}\max\{0,r(i',k)\} &\text{if }i= k \end{aligned}

a(i,k)a(i,k) 等于自我吸引度 r(k,k)r(k,k) 加上从其他点获得的积极吸引度,这里只加上了积极的吸引度,因为只有积极的吸引度才会支持 kk 作为聚类中心。a(k,k)a(k,k)代表自我归属度,它等于从其他点获得的积极吸引度之和(有很多人喜欢我)。

对以上步骤进行迭代,直至矩阵稳定或者达到最大迭代次数,算法结束。

在相似度矩阵中,对角线的值为样本自身的距离,理论上是0,但是为了能更好的应用相似度来更新吸引度和归属度,引入了参考度(Preference)

如果迭代开始之前所有点成为聚类中心的可能性相同,那么应该将参考度设定为一个公共值,比如相似度的中位数或者最小值。在scikit-learn中,默认用的就是中位数。

Step 3:另外算法在信息更新时引入了阻尼系数(damping factor)来衰减吸引度信息和归属度信息,以免在更新的过程中出现数值振荡。

每条信息被设置为它前次迭代更新值的λ\lambda倍加上本次信息更新值的 1λ1-\lambda倍。

rt+1(i,k)(1λ)rt+1(i,k)+λrt(i,k)at+1(i,k)(1λ)at+1(i,k)+λat(i,k)r_{t+1}(i,k)\gets (1-\lambda)*r_{t+1}(i,k)+\lambda*r_{t}(i,k) \\ a_{t+1}(i,k)\gets (1-\lambda)*a_{t+1}(i,k)+\lambda*a_{t}(i,k)

其中,0λ10\le\lambda\le1,默认值为0.5。

Step 4:在任意时刻我们都可以将吸引度和归属度相加(Criterion 矩阵),获得聚类中心。

c(i,k)=r(i,k)+a(i,k)c(i,k)=r(i,k)+a(i,k)

对于点ii来说,假定使得 c(i,k)c(i,k)最大的kk值为kk',那么存在以下结论:

  • if i=k\text{if }i=k',那么点ii就是聚类中心
  • if ik\text{if }i\neq k',那么点ii属于聚类中心kk'

在实际计算应用中,最重要的两个超参数:

  • Preference (参考度) 影响聚类数量的多少,值越大聚类数量越多;
  • Damping factor (阻尼系数) 控制算法收敛效果。

谱聚类

谱聚类(Spectral clustering)是一种基于降维的聚类算法,首先使用拉普拉斯特征变换进行降维,然后使用传统的K-means算法对变换后的数据聚类。

聚类性能评估

在学习聚类算法得时候并没有涉及到评估指标,主要原因是聚类算法属于非监督学习,并不像分类算法那样可以使用训练集或测试集中的数据计算准确率、召回率等。那么如何评估聚类算法得好坏呢?好的聚类算法一般要求类簇具有:

  • 高的类内 (intra-cluster) 相似度
  • 低的类间 (inter-cluster) 相似度

对于聚类算法大致可分为两类度量标准:内部指标和外部指标。

内部指标

内部指标(internal index)即基于数据聚类自身进行评估,不依赖任何外部模型。如果某个聚类算法的结果是类间相似性低,类内相似性高,那么内部指标会给予较高的分数评价。

SSE

SSE:(Sum of Squared Error)衡量的是一个类内的样本点的聚合程度。SSE值越小表示数据点越接近他们的质心,聚类效果也最好。

SSE=i=1KxCid2(μi,x)SSE = \sum_{i=1}^K\sum_{x\in C_i}{d^2(\mu_i,x)}

轮廓系数

轮廓系数(Silhouette Coefficient)适用于实际类别信息未知的情况。对于单个样本,设a是与它同类别中其他样本的平均距离,b是与它距离最近不同类别中样本的平均距离,其轮廓系数为:

s=bamax{a,b}s=\frac{b-a}{\max\{a,b\}}

对于一个样本集合,它的轮廓系数是所有样本轮廓系数的平均值。轮廓系数的取值范围是[-1,1],同类别样本距离越相近不同类别样本距离越远,分数越高。缺点:不适合基高密度的聚类算法DBSCAN。

实际应用中,查查把 SSE(Sum of Squared Errors,误差平方和) 与轮廓系数(Silhouette Coefficient)结合使用,评估聚类模型的效果。

Calinski-Harabasz Index

Calinski-Harabasz定义为簇间离散均值与簇内离散均值之比。通过计算类中各点与类中心的距离平方和来度量类内离散,通过计算各类中心点与数据集中心点距离平方和来度量数据集的离散度,CHI越大代表着类自身越紧密,类与类之间越分散,即更优的聚类结果。

CHI=tr(Bk)tr(Wk)Nkk1CHI=\frac{\text{tr}(B_k)}{\text{tr}(W_k)}\cdot\frac{N-k}{k-1}

其中N为训练样本数,k是类别个数,BkB_k是类别之间协方差矩阵,WkW_k是类别内部数据协方差矩阵。

Bk=i=1kxCid2(x,μi)Wk=i=1kNid2(μi,μX)B_k=\sum_{i=1}^k\sum_{x\in C_i} d^2(x,\mu_i) \\ W_k=\sum_{i=1}^kN_id^2(\mu_i,\mu_X)

CHI数值越小可以理解为:组间协方差很小,组与组之间界限不明显。

Davies-Bouldin Index

DB指数计算任意两类别的类内平均距离(CP)之和除以两类中心距离求最大值。该指标的计算公式:

DBI=1Ki=1Kmaxijsi+sjd(Ci,Cj)DBI=\frac{1}{K}\sum_{i=1}^K\max_{i\neq j}\frac{s_i+s_j}{d(C_i,C_j)}

其中K是类别个数,sis_i是类CiC_i中所有的点到类中心的平均距离,d(Ci,Cj)d(C_i,C_j)是类Ci,CjC_i,C_j中心点间的距离。DBI越小意味着类内距离越小同时类间距离越大。缺点:因使用欧式距离所以对于环状分布聚类评测很差。

外部指标

外部指标(external index)通过是通过使用没被用来做训练集的数据进行评估。例如已知样本点的类别信息和一些外部的基准。这些基准包含了一些预先分类好的数据,比如由人基于某些场景先生成一些带label的数据,因此这些基准可以看成是金标准。这些评估方法是为了测量聚类结果与提供的基准数据之间的相似性。然而这种方法也被质疑不适用真实数据。

Rand index

兰德指数(Rand index, RI)可认为是计算精确率,因此我们借用二分类问题的混淆矩阵概念:

  • Positive 包括 TP 和 TN
  • Negative 包括 FP 和 FN

RI=TP+TNTP+FP+TN+FNRI=\frac{TP+TN}{TP+FP+TN+FN}

RI取值范围为 [0,1],值越大意味着聚类结果与真实情况越吻合。

对于随机结果,RI并不能保证分数接近零。为了实现“在聚类结果随机产生的情况下,指标应该接近零”,调整兰德系数(Adjusted rand index)被提出,它具有更高的区分度:

ARI=RIE[RI]maxRIE[RI]ARI=\frac{RI-\mathbb E[RI]}{\max RI-\mathbb E[RI]}

ARI取值范围为[-1,1],值越大意味着聚类结果与真实情况越吻合。从广义的角度来讲,ARI衡量的是两个数据分布的吻合程度。

互信息

互信息(Mutual Information)是用来衡量两个数据分布的吻合程度。有两种不同版本的互信息以供选择,一种是Normalized Mutual Information(NMI),一种是Adjusted Mutual Information(AMI)。

假设U与V是对N个样本标签的分配情况,

NMI(U,V)=MI(U,V)(H(U)+H(V))/2NMI(U,V)=\frac{MI(U,V)}{(H(U)+H(V))/2}

其中,MI表示互信息,H为熵。

AMI=MIE[MI](H(U)+H(V))/2E[RI]AMI=\frac{MI-\mathbb E[MI]}{(H(U)+H(V))/2-\mathbb E[RI]}

利用基于互信息的方法来衡量聚类效果需要实际类别信息,MI与NMI取值范围为[0,1],AMI取值范围为[-1,1],它们都是值越大意味着聚类结果与真实情况越吻合。

V-measure

说V-measure之前要先介绍两个指标:

  • 同质性(homogeneity):每个群集只包含单个类的成员。
  • 完整性(completeness):给定类的所有成员都分配给同一个群集。

同质性和完整性分数基于以下公式得出:

h=1H(CK)H(C)c=1H(KC)H(K)h=1-\frac{H(C|K)}{H(C)} \\ c=1-\frac{H(K|C)}{H(K)}

V-measure是同质性和完整性的调和平均数:

v=2hch+cv=\frac{2hc}{h+c}

V-measure 实际上等同于互信息 (NMI)。取值范围为 [0,1],越大越好,但当样本量较小或聚类数据较多的情况,推荐使用AMI和ARI。

Fowlkes-Mallows scores

Fowlkes-Mallows Scores(FMI) 是成对的precision(精度)和recall(召回)的几何平均数。取值范围为 [0,1],越接近1越好。定义为:

FMI=TP(TP+FP)(TP+FN)FMI=\frac{TP}{\sqrt{(TP+FP)(TP+FN)}}