密度峰值聚类(DPC)算法的介绍

DPC算法

密度峰值聚类算法(Density Peak Clustering Algorithm)是一种无监督的聚类算法,它能够自动发现数据中的密度峰值点,并根据这些峰值点将数据进行聚类。该算法由Alex Rodriguez和Alessandro Laio于2014年提出,其原理相对简单但非常有效。

密度峰值聚类算法基于两个重要的概念

  1. 局部密度(\rho):局部密度指的是一个数据点周围一定半径范围内的数据点数量,可以用来描述该点的密集程度。对于每个数据点,需要计算它的局部密度。

  2. 相对距离(\delta):相对距离指的是一个数据点与比它密度(ρ)更大的点之间的相对距离。一般采用欧式距离。

具体实现

有了这两个概念后,我们需要计算出所有数据点的局部密度\rho与相对距离\delta,当\rho\delta都大时,我们即将该点定义为密度峰值(类簇中心),然后将将剩余数据点分配给密度比它高的最近数据点所在类簇。

 \rho 与 \delta 的计算

局部密度(\rho)表示一个数据点周围一定半径范围内的数据点数量,用来描述该点的密集程度。在密度峰值聚类算法中,局部密度的计算方法如下:

                                                        \rho_{i}= \sum K(dist_{(i,j)})

其中,K(dist_{(i,j)})是一个核函数,用来衡量数据点i和j之间的距离dist(i, j)的影响。常见的核函数有高斯核函数(Gaussian kernel)、截断核函数(Truncated kernel)、Epanechnikov核函数等。这里可以根据具体需求选择合适的核函数。

采用不同的核函数后局部密度(\rho)可表示为:

  • 高斯核函数(Gaussian kernel)

            ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​\rho_{i}=\sum_{j}^{}e^{-(\frac{d_{ij}}{d_{c}})^{2}}

  • 截断核函数(Truncated kernel)

                       <img alt="\rho_{i}=\sum_{j} \chi (d_{ij}-d_{c}) \; \; \; \; \; \; \; \; \; \; \chi (x)=\begin{cases} 1 & \text{ if } x            

一般来说对于较大规模的数据集,截断核函数的聚类效果较好

而对于小规模数据集,高斯核函数的聚类效果更好

相对距离(\delta):

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        \rho_{i}}{min}(d_{ij})” src=”/img/c4/eq?%5Cdelta%20_%7Bi%7D%3D%5Cunderset%7Bj%3A%5Crho_%7Bj%7D%3E%5Crho_%7Bi%7D%7D%7Bmin%7D%28d_%7Bij%7D%29″ />

代码实现

import numpy as np
import matplotlib.pyplot as plt

def distance(x, y):
    return np.linalg.norm(x-y)

def getDistanceMatrix(data):
    # 计算距离矩阵
    N, D = data.shape
    dists = np.zeros([N, N])
    for i in range(N):
        for j in range(N):
            dists[i, j] = distance(data[i,:], data[j,:])
    return dists

def select_dc(dists):
    # 计算dc,也可以手动输入,此处没有实现手动输入
    # 不使用np.percentile(),是因为dists有部分重复值、0值
    N, D = dists.shape
    dists_flat = np.reshape(dists, N*N)
    dists_sort = np.sort(dists_flat)
    position = int(N*(N-1)*0.02)
    # 将距离矩阵排序后取第2%个,可以调整该百分比使聚类效果更加
    dc = dists_sort[position+N]
    return dc

def calculate_rho(dists, dc, method=None):
    """
    计算ρ
    :param method:
    选择方法,默认为截断核
    传入任意参数,即可选择高斯核
    建议小规模数据选择高斯核,因为该方法计算出来带小数,比较更准确
       大规模数据选择截断核,效率更高
    """
    N = dists.shape[0]
    rho = np.zeros(N)
    # 截断核:(适合大规模数据)在dc区域内有多少个点
    if method == None:
        for i in range(N):
            for j in range(N):
                if dists[i, j] < dc:
                    rho[i] += 1
            rho[i] -= 1
        rho = np.sum(dists < dc, axis=1) - 1
        # 以上可以用向量化代替,效率更高
        # rho[i] = np.where(dists[i,:] rho[i] and dists[i, j]  rho_threshold and deltas[i] > deltas_threshold:
                labels[i] = cluster
                cluster += 1
                # 画中心点
                # plt.scatter(data[i,0], data[i,1], color="k", marker="+", s = 200)

    else:
        # 手动输入聚类数k,选择ρ*δ最大的k个,作为中心点,并聚类
        rho_deltas = rho*deltas
        center = np.argsort(-rho_deltas)
        for i in range(k):
            labels[center[i]] = i
            # 画中心点
            # plt.scatter(data[center[i], 0], data[center[i], 1], color="k", marker="+", s=250)

    # 对非中心点进行聚类
    # 从密度最高开始,将他们分给比它们密度更高且距离最近的点的类
    rho_sort = np.argsort(-rho)
    for i in rho_sort:
        if labels[i] == -1:
            labels[i] = labels[int(nerghbers[i])]
    return labels

def DPC(data,k):
    dists = getDistanceMatrix(data)
    dc = select_dc(dists)
    rho = calculate_rho(dists, dc, "gasstion")
    deltas, nerghbers = calculate_deltas(dists, rho)
    labels = clusters(dists, rho, deltas, nerghbers, k)

    # 画出rho与deltas
    for i in range(np.shape(data)[0]):
        plt.scatter(rho[i], deltas[i], s=16., color=(0, 0, 0))
        plt.annotate(str(i), xy=(rho[i], deltas[i]), xytext=(rho[i], deltas[i]))
        plt.xlabel("rho")
        plt.ylabel("deltas")
    plt.show()
    return labels

导入数据

data = np.loadtxt(r"data\data.txt")
labels = DPC(data,7)

画出 \rho 与 \delta 图像:

密度峰值聚类(DPC)算法的介绍

 我们取最大的k个点作为类簇中心,再将剩下的点进行分类

聚类结果

密度峰值聚类(DPC)算法的介绍

 聚类结果十分完美

其它数据聚类结果展示:

密度峰值聚类(DPC)算法的介绍

 

算法改进

  1. 参数选择的自动化:密度峰值聚类算法中需要选择一些参数,例如半径参数ε和截断参数c。改进的方法可以通过自动化的方式来选择这些参数,例如使用基于数据特征的方法或通过优化算法来寻找最优参数。

  2. 聚类中心选择策略:原始的密度峰值聚类算法选择密度峰值点作为聚类中心,但在某些情况下可能存在一些峰值点不适合作为聚类中心的情况。改进的方法可以考虑引入其他策略来选择聚类中心,例如根据密度和距离的综合考虑来选择最具代表性的数据点作为聚类中心。

  3. 密度估计方法改进:原始的密度峰值聚类算法使用核函数方法来估计局部密度,但核函数的选择和参数设定可能对聚类结果产生影响。改进的方法可以尝试其他密度估计方法,例如基于距离的方法或基于概率模型的方法,以提高密度估计的准确性。

  4. 噪声处理策略:密度峰值聚类算法对于噪声点比较敏感,噪声点可能会干扰聚类结果。改进的方法可以引入噪声处理策略,例如通过设置密度阈值或使用噪声剔除算法来过滤掉噪声点,以提高聚类的准确性和鲁棒性。

  5. 并行化加速:密度峰值聚类算法的计算量较大,可以考虑使用并行计算来加速算法的执行,提高算法的效率和可扩展性。

这些是一些对密度峰值聚类算法进行改进的可能方向。具体的改进方法可以根据具体需求和数据特点来选择和调整。改进后的算法可以更好地适应不同类型的数据集,并提供更准确和稳定的聚类结果。

本文来自网络,不代表协通编程立场,如若转载,请注明出处:https://net2asp.com/c05c6d48b7.html