您的位置:

kmeans算法js代码(KMeans算法)

kmeans算法js代码(KMeans算法)

更新:

本文目录一览:

聚类算法--KMeans

    与分类、序列标注等任务不同,聚类是在事先并不知道任何样本标签的情况下,通过数据之间的内在关系把样本划分为若干类别,使得同类别样本之间的相似度高,不同类别之间的样本相似度低(即增大类内聚,减少类间距)。    

    聚类属于非监督学习,K均值聚类是最基础常用的聚类算法。它的基本思想是,通过迭代寻找K个簇(Cluster)的一种划分方案,使得聚类结果对应的损失函数最小。其中,损失函数可以定义为各个样本距离所属簇中心点的误差平方和。

其中 代表第i个样本, 是 所属的簇,  代表簇对应的中心点,M是样本总数。

相关概念:

    K值: 要得到的簇的个数。

    质心: 每个簇的均值向量。即向量各维取平均即可。

    距离量度: 常用欧几里得距离和余弦相似度(先标准化)。

    KMeans的主要思想是:在给定K值和K个初始类簇中心点的情况下,把每个点(亦即数据记录)分到离其最近的类簇中心点所代表的类簇中,所有点分配完毕之后,根据一个类簇内的所有点重新计算该类簇的中心点(取平均值),然后再迭代的进行分配点和更新类簇中心点的步骤,直至类簇中心点的变化很小,或者达到指定的迭代次数。

    KMeans的核心目标是将给定的数据集划分成K个簇(K是超餐),并给出每个样本数据对应的中心点。具体步骤非常简单:

    (1)首先确定一个K值,即我们希望将数据集经过聚类得到k个集合。

    (2)从数据集中随机选择K个数据点作为质心。

    (3)对数据集中每一个点,计算其与每一个质心的距离(如欧式距离),离哪个质心近,就划分到哪个质心所属的集合。

    (4)把所有数据归好集合后,一共有K个集合。然后重新计算每个集合的质心。

    (5)如果新计算出来的质心和原来的质心之间的距离小于某一个设置的阈值(表示重新计算的质心的位置变化不大,趋于稳定,或者说收敛),我们可以认为聚类已经达到期望的结果,算法终止。

    (6)如果新质心和原质心距离变化很大,需要迭代3-5步骤。

KMeans最核心的部分是先固定中心点,调整每个样本所属的类别来减少J;再固定每个样本的类别,调整中心点继续减小J。两个过程交替循环,J单调递减直到极小值,中心点和样本划分的类别同时收敛。

KMeans的优点 :

 高效可伸缩,计算复杂度为O(NKt)接近于线性(N是数据量,K是聚类总数,t是迭代轮数)。

 收敛速度快,原理相对通俗易懂,可解释性强。

当结果簇是密集的,而簇与簇之间区别是明显时,他的效果较好。主要需要调参的参数仅仅是簇数K。

缺点 :

 受初始值和异常点影响,聚类结果可能不是全局最优而是局部最优。K-Means算法对初始选取的质心点是敏感的,不同的随机种子点得到的聚类结果完全不同,对结果影响很大。

 K是超参数,一般需要按经验选择。

 对噪音和异常点比较的敏感,用来检测异常值。

 只能发现球状的簇。在K-Means中,我们用单个点对cluster进行建模,这实际上假设各个cluster的数据是呈高维球型分布的,但是在生活中出现这种情况的概率并不算高。例如,每一个cluster是一个一个的长条状的,K-Means的则根本识别不出来这种类别( 这种情况可以用GMM )。实际上,K-Means是在做凸优化,因此处理不了非凸的分布。

根据以上特点,我们可以从下面几个角度对算法做调优。

(1)数据预处理:归一化和异常点过滤

    KMeans本质是一种基于欧式距离度量的数据划分方法,均值和方差大的维度将对数据的聚类结果产生决定性影响 。所以在聚类前对数据( 具体的说是每一个维度的特征 )做归一化和单位统一至关重要。此外,异常值会对均值计算产生较大影响,导致 中心偏移 ,这些噪声点最好能提前过滤。

(2)合理选择K值

    K值的选择一般基于实验和多次实验结果。例如采用 手肘法 ,尝试不同K值并将对应的损失函数画成折线。手肘法认为图上的 拐点就是K的最佳值 (k=3)。

为了将寻找最佳K值的过程自动化,研究人员提出了Gap Statistic方法。不需要人们用肉眼判断,只需要找到最大的Gap Statistic对应的K即可。

       损失函数记为  ,当分为K类时,Gap Statistic定义为:  。 是 的期望 ,一般由蒙特卡洛模拟产生。我们在样本所在的区域内按照均匀分布随机地产生和原始样本数一样多的随机样本,并对这个随机样本做KMeans,得到一个 ,重复多次就可以计算出 的近似值。

       的物理含义是随机样本的损失与实际样本的损失之差。Gap越大说明聚类的效果越好 。一种极端情况是,随着K的变化 几乎维持一条直线保持不变。说明这些样本间没有明显的类别关系,数据分布几乎和均匀分布一致,近似随机。此时做聚类没有意义。

(3)改进初始值的选择

    之前我们采用随机选择K个中心的做法,可能导致不同的中心点距离很近,就需要更多的迭代次数才能收敛。如果在选择初始中心点时能 让不同的中心尽可能远离 ,效果往往更好。这类算法中,以K-Means++算法最具影响力。

(4)采用核函数

    主要思想是通过一个非线性映射,将输入空间中的数据点映射到高维的特征空间中,并在新的空间进行聚类。非线性映射增加了数据点线性可分的概率(与SVM中使用核函数思想类似)对于非凸的数据分布可以达到更为准确的聚类结果。

 (1)初始的K个质心怎么选?

    最常用的方法是随机选,初始质心的选取对最终聚类结果有影响,因此算法一定要多执行几次,哪个结果更合理,就用哪个结果。当然也有一些优化的方法,第一种是选择彼此距离最远的点,具体来说就是先选第一个点,然后选离第一个点最远的当第二个点,然后选第三个点,第三个点到第一、第二两点的距离之和最小,以此类推。第二种是先根据其他聚类算法(如层次聚类)得到聚类结果,从结果中每个分类选一个点

(2)关于离群值?

    离群值就是远离整体的,非常异常、非常特殊的数据点,在聚类之前应该将这些"极大""极小"之类的离群数据都去掉,否则会对于聚类的结果有影响。但是,离散值往往自身就很有分析的价值,可以把离群值单独作为一类来分析。

(3)单位要一致!

(4)标准化

    数据中X整体都比较小,比如都是1到10之间的数,Y很大,比如都是1000以上的数,那么在计算距离的时候Y起到的作用就比X大很多,X对于距离的影响几乎可以忽略,这也有问题。因此,如果K-Means聚类中选择欧几里得距离计算距离,数据集又出现了上面所述的情况,就一定要进行数据的标准化(normalization),即将数据按比例缩放,使之落入一个小的特定区间。

    K-Means是无监督学习的聚类算法,没有样本输出;而KNN是监督学习的分类算法,有对应的类别输出 。KNN基本不需要训练,对测试集里面的点,只需要找到在训练集中最近的K个点,用这最近的K个点的类别来决定测试点的类别。而K-Means则有明显的训练过程,找到K个类别的最佳质心,从而决定样本的簇类别。当然,两者也有一些相似点,两个算法都包含一个过程,即找出和某一个点最近的点。 两周都利用了最近邻的思想 。

kmeans算法用Python怎么实现

1、从Kmeans说起

Kmeans是一个非常基础的聚类算法,使用了迭代的思想,关于其原理这里不说了。下面说一下如何在matlab中使用kmeans算法。

创建7个二维的数据点:

复制代码 代码如下:

x=[randn(3,2)*.4;randn(4,2)*.5+ones(4,1)*[4 4]];

使用kmeans函数:

复制代码 代码如下:

class = kmeans(x, 2);

x是数据点,x的每一行代表一个数据;2指定要有2个中心点,也就是聚类结果要有2个簇。 class将是一个具有70个元素的列向量,这些元素依次对应70个数据点,元素值代表着其对应的数据点所处的分类号。某次运行后,class的值是:

复制代码 代码如下:

2

2

2

1

1

1

1

这说明x的前三个数据点属于簇2,而后四个数据点属于簇1。 kmeans函数也可以像下面这样使用:

复制代码 代码如下:

[class, C, sumd, D] = kmeans(x, 2)

class =

2

2

2

1

1

1

1

C =

4.0629 4.0845

-0.1341 0.1201

sumd =

1.2017

0.2939

D =

34.3727 0.0184

29.5644 0.1858

36.3511 0.0898

0.1247 37.4801

0.7537 24.0659

0.1979 36.7666

0.1256 36.2149

class依旧代表着每个数据点的分类;C包含最终的中心点,一行代表一个中心点;sumd代表着每个中心点与所属簇内各个数据点的距离之和;D的

每一行也对应一个数据点,行中的数值依次是该数据点与各个中心点之间的距离,Kmeans默认使用的距离是欧几里得距离(参考资料[3])的平方值。

kmeans函数使用的距离,也可以是曼哈顿距离(L1-距离),以及其他类型的距离,可以通过添加参数指定。

kmeans有几个缺点(这在很多资料上都有说明):

1、最终簇的类别数目(即中心点或者说种子点的数目)k并不一定能事先知道,所以如何选一个合适的k的值是一个问题。

2、最开始的种子点的选择的好坏会影响到聚类结果。

3、对噪声和离群点敏感。

4、等等。

2、kmeans++算法的基本思路

kmeans++算法的主要工作体现在种子点的选择上,基本原则是使得各个种子点之间的距离尽可能的大,但是又得排除噪声的影响。 以下为基本思路:

1、从输入的数据点集合(要求有k个聚类)中随机选择一个点作为第一个聚类中心

2、对于数据集中的每一个点x,计算它与最近聚类中心(指已选择的聚类中心)的距离D(x)

3、选择一个新的数据点作为新的聚类中心,选择的原则是:D(x)较大的点,被选取作为聚类中心的概率较大

4、重复2和3直到k个聚类中心被选出来

5、利用这k个初始的聚类中心来运行标准的k-means算法

假定数据点集合X有n个数据点,依次用X(1)、X(2)、……、X(n)表示,那么,在第2步中依次计算每个数据点与最近的种子点(聚类中心)的

距离,依次得到D(1)、D(2)、……、D(n)构成的集合D。在D中,为了避免噪声,不能直接选取值最大的元素,应该选择值较大的元素,然后将其对应

的数据点作为种子点。

如何选择值较大的元素呢,下面是一种思路(暂未找到最初的来源,在资料[2]等地方均有提及,笔者换了一种让自己更好理解的说法):

把集合D中的每个元素D(x)想象为一根线L(x),线的长度就是元素的值。将这些线依次按照L(1)、L(2)、……、L(n)的顺序连接起来,组成长

线L。L(1)、L(2)、……、L(n)称为L的子线。根据概率的相关知识,如果我们在L上随机选择一个点,那么这个点所在的子线很有可能是比较长的子

线,而这个子线对应的数据点就可以作为种子点。下文中kmeans++的两种实现均是这个原理。

3、python版本的kmeans++

在 中能找到多种编程语言版本的Kmeans++实现。下面的内容是基于python的实现(中文注释是笔者添加的):

复制代码 代码如下:

from math import pi, sin, cos

from collections import namedtuple

from random import random, choice

from copy import copy

try:

import psyco

psyco.full()

except ImportError:

pass

FLOAT_MAX = 1e100

class Point:

__slots__ = ["x", "y", "group"]

def __init__(self, x=0.0, y=0.0, group=0):

self.x, self.y, self.group = x, y, group

def generate_points(npoints, radius):

points = [Point() for _ in xrange(npoints)]

# note: this is not a uniform 2-d distribution

for p in points:

r = random() * radius

ang = random() * 2 * pi

p.x = r * cos(ang)

p.y = r * sin(ang)

return points

def nearest_cluster_center(point, cluster_centers):

"""Distance and index of the closest cluster center"""

def sqr_distance_2D(a, b):

return (a.x - b.x) ** 2 + (a.y - b.y) ** 2

min_index = point.group

min_dist = FLOAT_MAX

for i, cc in enumerate(cluster_centers):

d = sqr_distance_2D(cc, point)

if min_dist d:

min_dist = d

min_index = i

return (min_index, min_dist)

'''

points是数据点,nclusters是给定的簇类数目

cluster_centers包含初始化的nclusters个中心点,开始都是对象-(0,0,0)

'''

def kpp(points, cluster_centers):

cluster_centers[0] = copy(choice(points)) #随机选取第一个中心点

d = [0.0 for _ in xrange(len(points))] #列表,长度为len(points),保存每个点离最近的中心点的距离

for i in xrange(1, len(cluster_centers)): # i=1...len(c_c)-1

sum = 0

for j, p in enumerate(points):

d[j] = nearest_cluster_center(p, cluster_centers[:i])[1] #第j个数据点p与各个中心点距离的最小值

sum += d[j]

sum *= random()

for j, di in enumerate(d):

sum -= di

if sum 0:

continue

cluster_centers[i] = copy(points[j])

break

for p in points:

p.group = nearest_cluster_center(p, cluster_centers)[0]

'''

points是数据点,nclusters是给定的簇类数目

'''

def lloyd(points, nclusters):

cluster_centers = [Point() for _ in xrange(nclusters)] #根据指定的中心点个数,初始化中心点,均为(0,0,0)

# call k++ init

kpp(points, cluster_centers) #选择初始种子点

# 下面是kmeans

lenpts10 = len(points) 10

changed = 0

while True:

# group element for centroids are used as counters

for cc in cluster_centers:

cc.x = 0

cc.y = 0

cc.group = 0

for p in points:

cluster_centers[p.group].group += 1 #与该种子点在同一簇的数据点的个数

cluster_centers[p.group].x += p.x

cluster_centers[p.group].y += p.y

for cc in cluster_centers: #生成新的中心点

cc.x /= cc.group

cc.y /= cc.group

# find closest centroid of each PointPtr

changed = 0 #记录所属簇发生变化的数据点的个数

for p in points:

min_i = nearest_cluster_center(p, cluster_centers)[0]

if min_i != p.group:

changed += 1

p.group = min_i

# stop when 99.9% of points are good

if changed = lenpts10:

break

for i, cc in enumerate(cluster_centers):

cc.group = i

return cluster_centers

def print_eps(points, cluster_centers, W=400, H=400):

Color = namedtuple("Color", "r g b");

colors = []

for i in xrange(len(cluster_centers)):

colors.append(Color((3 * (i + 1) % 11) / 11.0,

(7 * i % 11) / 11.0,

(9 * i % 11) / 11.0))

max_x = max_y = -FLOAT_MAX

min_x = min_y = FLOAT_MAX

for p in points:

if max_x p.x: max_x = p.x

if min_x p.x: min_x = p.x

if max_y p.y: max_y = p.y

if min_y p.y: min_y = p.y

scale = min(W / (max_x - min_x),

H / (max_y - min_y))

cx = (max_x + min_x) / 2

cy = (max_y + min_y) / 2

print "%%!PS-Adobe-3.0\n%%%%BoundingBox: -5 -5 %d %d" % (W + 10, H + 10)

print ("/l {rlineto} def /m {rmoveto} def\n" +

"/c { .25 sub exch .25 sub exch .5 0 360 arc fill } def\n" +

"/s { moveto -2 0 m 2 2 l 2 -2 l -2 -2 l closepath " +

" gsave 1 setgray fill grestore gsave 3 setlinewidth" +

" 1 setgray stroke grestore 0 setgray stroke }def")

for i, cc in enumerate(cluster_centers):

print ("%g %g %g setrgbcolor" %

(colors[i].r, colors[i].g, colors[i].b))

for p in points:

if p.group != i:

continue

print ("%.3f %.3f c" % ((p.x - cx) * scale + W / 2,

(p.y - cy) * scale + H / 2))

print ("\n0 setgray %g %g s" % ((cc.x - cx) * scale + W / 2,

(cc.y - cy) * scale + H / 2))

print "\n%%%%EOF"

def main():

npoints = 30000

k = 7 # # clusters

points = generate_points(npoints, 10)

cluster_centers = lloyd(points, k)

print_eps(points, cluster_centers)

main()

上述代码实现的算法是针对二维数据的,所以Point对象有三个属性,分别是在x轴上的值、在y轴上的值、以及所属的簇的标识。函数lloyd是

kmeans++算法的整体实现,其先是通过kpp函数选取合适的种子点,然后对数据集实行kmeans算法进行聚类。kpp函数的实现完全符合上述

kmeans++的基本思路的2、3、4步。

一段代码,求教.k-means算法的分割

A=imread('1.jpg');

figure;

imshow(A);

title('Hawk');

cform=makecform('srgb2lab');

lab_A=applycform(A,cform); 这里为什么要转去lab空间,其他的转换不好用吗?对于颜色分割的吧 lab空间相互分量联系性比较小 利于分割

ab = double(lab_A(:,:,2:3));

nrows = size(ab,1);

ncols = size(ab,2);

ab = reshape(ab,nrows*ncols,2);矩阵转换类型转换为double型,这里的转换有其他的灵活用法吗?

nColors =2;

% 采用k-means方法实现聚类,重复三次

[cluster_idx cluster_center] = kmeans(ab,nColors,'distance','sqEuclidean', ...

'Replicates',3); 这一段东西后面的省略号是啥意思啊?省略号表示一行写不完 分行的 意思就是kmeans(ab,nColors,'distance','sqEuclidean', 'Replicates',3); 一样的

%对不同的类别进行标志

pixel_labels = reshape(cluster_idx,nrows,ncols); 这里也是矩阵转换吗?恩师矩阵转化 你最好看看help

figure;

imshow(pixel_labels,[]), title('聚类以后的现实图片');

%分类后的矩阵

segmented_images = cell(1,3);

rgb_label = repmat(pixel_labels,[1 1 3]);

for k = 1:nColors

color = A;

color(rgb_label ~= k) = 0;

segmented_images{k} = color;

end

figure;

imshow(segmented_images{1}), title('objects in cluster 1');

figure;

imshow(segmented_images{2}), title('objects in cluster 2');

这段代码运行,对于图片有什么要求吗,这点很重要,请高手一定要指点下,小弟感恩不尽。我运行后显示

ans =

KMEANS算法。哪位高手指点一下啊。知道kmeans算法但看不懂下面代码。请尽量多注释一下啊。谢谢啦!在线等

程序需要一个数据文件

格式如下:

5 2 3

2 3 4 5 10 12 5 1 12 10

其中,5表示数据的数量,2表示数据的维度,3表示聚类的数量。

后面每两个实数对应一个数据点。

不过这个程序始数据维数固定为2,后来想改成4以下的任意维度,但没有改完,所以其实只能为2维。

我已经对程序做了注释。

#include stdio.h

#include stdlib.h

#include string.h

#include conio.h

#include math.h

#define SUCCESS 1

#define FAILURE 0

#define TRUE 1

#define FALSE 0

#define MAXVECTDIM 4 // 数据最大维数 (看来这个程序写了一半,维数实际上只能为2)

#define MAXPATTERN 1588 // 数据数量最大值

#define MAXCLUSTER 10 // 聚类最大值

// 聚类结构

struct aCluster {

double Center[MAXVECTDIM]; // 中心/引力数据对象

int Member[MAXPATTERN]; // 该聚类中数据在Pattern中的索引

int NumMembers; // 数据的数量

};

struct aVector {

double Center[MAXVECTDIM];

int Size;

};

static double Pattern[MAXPATTERN][MAXVECTDIM + 1]; // 所有数据存放在这个数组中

// 所以的东西都搁System类里面了

class System {

private :

aCluster Cluster[MAXCLUSTER]; // 聚类数组

int NumPatterns; // 输入数据的数量

int SizeVector; // 数据的维数

int NumClusters; // 数据的聚类数

void DistributeSamples(); // 根据中心聚类,重新分配数据到不同的聚类

int CalcNewClustCenters(); // 重新计算新的聚类中心

double EucNorm(int, int); // 误差准则

int FindClosestCluster(int); // 查找最接近的聚类

public :

System() {};

int LoadPatterns(char * fname); // 从文件中读取数据

void InitClusters(); // 初始化聚类

void RunKMeans(); // 执行K-Means算法

void ShowClusters(); // 显示聚类

void SaveClusters(char * fname); // 保存聚类到文件中

void ShowCenters(); // 显示聚类中心数据

};

void System::ShowCenters() {

int i;

printf("Cluster centers:\n");

for (i = 0; i NumClusters; i++) {

Cluster[i].Member[0] = i;

printf("ClusterCenter[%d]=(%f,%f)\n", i, Cluster[i].Center[0],Cluster[i].Center[1]);

int b=0;

}

printf("\n");

}

int System::LoadPatterns(char * fname) {

FILE * InFilePtr;

int i, j;

double x;

if ( (InFilePtr = fopen(fname, "r")) == NULL)

return FAILURE;

// 读入数据的数量,维度和聚类数的数量

fscanf(InFilePtr, "%d", NumPatterns);

fscanf(InFilePtr, "%d", SizeVector);

fscanf(InFilePtr, "%d", NumClusters);

// 读入数据

for (i = 0; i NumPatterns; i++) {

for (j = 0; j SizeVector; j++) {

fscanf(InFilePtr, "%lg", x);

Pattern[i][j] = x;

}

}

// 打印读入的数据

printf("Input patterns:\n");

for (i = 0; i NumPatterns; i++) {

printf("Pattern[%d]=(%2.3f,%2.3f,%d,%d)\n", i, Pattern[i][0], Pattern[i][1],Pattern[i][2], Pattern[i][3]);

}

printf("\n--------------------\n");

return SUCCESS;

}

void System::InitClusters() {

int i, j;

SizeVector=2; // 看来开始数据维数固定为2,后来想改成4以下的任意维度,但没有改完

printf("Initial cluster centers:\n");

// 把前NumClusters个数据作为NumClusters个聚类的数据中心

for (i = 0; i NumClusters; i++) {

Cluster[i].Member[0] = i; // 记录这个数据的索引到第i个聚类中

for (j = 0; j SizeVector; j++) {

Cluster[i].Center[j] = Pattern[i][j]; // 把这个数据作为数据中心

}

}

// 打印聚类的数据中心

for (i = 0; i NumClusters; i++) {

printf("ClusterCenter[%d]=(%f,%f)\n", i, Cluster[i].Center[0], Cluster[i].Center[1]);

}

printf("\n");

}

void System::RunKMeans() {

int converged; // 是否收敛

int pass; // 计算的趟数

pass = 1; // 第一趟

converged = FALSE; // 没有收敛

while (converged == FALSE) { // 没有收敛的情况下反复跑

printf("PASS=%d\n", pass++); // 打印趟数

DistributeSamples(); // 重新分配数据

converged = CalcNewClustCenters(); // 计算新的聚类中心,如果计算结果和上次相同,认为已经收敛

ShowCenters(); // 显示聚类中心

}

}

// 第p个数据到第c个聚类中心的误差准则(距离的平方)

double System::EucNorm(int p, int c) {

double dist, x; // x可能是调试用,没有实际作用

int i;

dist = 0;

// 将每个维度的差的平方相加,得到距离的平方

for (i = 0; i SizeVector; i++) {

x = (Cluster[c].Center[i] - Pattern[p][i]) *

(Cluster[c].Center[i] - Pattern[p][i]);

dist += (Cluster[c].Center[i] - Pattern[p][i]) *

(Cluster[c].Center[i] - Pattern[p][i]);

}

return dist;

}

// 查找第pat个数据的最近聚类

int System ::FindClosestCluster(int pat) {

int i, ClustID/*最近聚类的ID*/;

double MinDist/*最小误差*/, d;

MinDist = 9.9e+99; // 初始为一个极大的值

ClustID = -1;

// 依次计算3个聚类到第pat个数据的误差,找出最小值

for (i = 0; i NumClusters; i++) {

d = EucNorm(pat, i);

printf("Distance from pattern %d to cluster %d is %f\n", pat, i, sqrt(d));

if (d MinDist) { // 如果小于前最小值,将改值作为当前最小值

MinDist = d;

ClustID = i;

}

}

if (ClustID 0) { // 没有找到??! —— 这个应该不可能发生,如果出现表示出现了不可思议的错误

printf("Aaargh");

exit(0);

}

return ClustID;

}

void System ::DistributeSamples() {

int i, pat, Clustid, MemberIndex;

// 将上次的记录的该聚类中的数据数量清0,重新开始分配数据

for (i = 0; i NumClusters; i++) {

Cluster[i].NumMembers = 0;

}

// 找出每个数据的最近聚类数据中心,并将该数据分配到该聚类

for (pat = 0; pat NumPatterns; pat++) {

Clustid = FindClosestCluster(pat);

printf("patern %d assigned to cluster %d\n\n", pat, Clustid);

MemberIndex = Cluster[Clustid].NumMembers; // MemberIndex是当前记录的数据数量,也是新加入数据在数组中的位置

Cluster[Clustid].Member[MemberIndex] = pat; // 将数据索引加入Member数组

Cluster[Clustid].NumMembers++; // 聚类中的数据数量加1

}

}

int System::CalcNewClustCenters() {

int ConvFlag, VectID, i, j, k;

double tmp[MAXVECTDIM]; // 临时记录新的聚类中心,因为需要比较,不能直接记录

char xs[255];

char szBuf[255];

ConvFlag = TRUE;

printf("The new cluster centers are now calculated as:\n");

// 逐个计算NumClusters个聚类

for (i = 0; i NumClusters; i++) {

strcpy(xs,"");

printf("Cluster Center %d (1/%d):\n",i,Cluster[i].NumMembers);

// tmp所有维度数值清0

for (j = 0; j SizeVector; j++) {

tmp[j] = 0.0;

}

// 计算聚类中所有数据的所有维度数值的和,为下一步计算均值做准备

for (j = 0; j Cluster[i].NumMembers; j++) {

VectID = Cluster[i].Member[j];

for (k = 0; k SizeVector; k++) {

tmp[k] += Pattern[VectID][k];

sprintf(szBuf,"%d ",Pattern[VectID][k]);

strcat(xs,szBuf);

}

printf("%s\n",xs); // 输出刚才计算的数据

strcpy(xs,"");

}

// 求出均值,并判断是否和上次相同

for (k = 0; k SizeVector; k++) {

if(Cluster[i].NumMembers!=0)

tmp[k] = tmp[k] / Cluster[i].NumMembers;

if (tmp[k] != Cluster[i].Center[k]) // 如果不同,则认为没有收敛

ConvFlag = FALSE;

Cluster[i].Center[k] = tmp[k]; // 用新值代替旧值

}

printf("%s,\n", xs);

}

return ConvFlag; // 返回收敛情况

}

// 显示聚类中心数据

void System::ShowClusters() {

int cl;

for (cl = 0; cl NumClusters; cl++) {

printf("\nCLUSTER %d ==[%f,%f]\n", cl, Cluster[cl].Center[0],

Cluster[cl].Center[1]);

}

}

// 没有实现的函数

void System::SaveClusters(char * fname) {

}

#include windows.h

void main(int argc, char * argv[]) {

System kmeans;

// 如果没有提供参数,显示用法

if (argc 2) {

printf("USAGE: KMEANS PATTERN_FILE\n");

exit(0);

}

// 参数1 为数据文件名,从中读入数据

if (kmeans.LoadPatterns(argv[1]) == FAILURE) {

printf("UNABLE TO READ PATTERN_FILE:%s\n", argv[1]);

exit(0);

}

kmeans.InitClusters();

kmeans.RunKMeans();

kmeans.ShowClusters();

kmeans.ShowCenters();

return ;

}

kmeans算法js代码(KMeans算法)

本文目录一览: 1、聚类算法--KMeans 2、kmeans算法用Python怎么实现 3、一段代码,求教.k-means算法的分割 4、KMEANS算法。哪位高手指点一下啊。知道kmeans算法但

2023-12-08
KNN和KMeans的区别

2023-05-20
kmeans模型中k值确定的方法

2023-05-20
使用cv2.kmeans进行图像分割

2023-05-20
kmp算法及python实现的简单介绍

2022-11-12
关于em聚类算法实现python的信息

2022-11-15
利用聚类算法实现精准目标用户分析与营销策略制定

2023-05-16
htmljs编程笔记(html代码笔记)

本文目录一览: 1、html代码和JS代码有什么区别 2、如何在html中调用js函数 3、JavaScript学习笔记之数组基本操作示例 4、HTML5初学者笔记 5、《web前端笔记7》js字符—

2023-12-08
基于点云的分割算法

2023-05-23
DeepWalk算法详解

2023-05-17
孤立森林算法:如何利用无监督学习提高数据分类准确性

2023-05-16
包含python实现聚类评价指标的词条

2022-11-18
kmeans.fit详解

2023-05-17
sklearn聚类详解

2023-05-20
js高级程序设计笔记14(js高级程序设计笔记14页)

本文目录一览: 1、JavaScript高级程序设计 该怎么看 2、JavaScript学习笔记之数组基本操作示例 3、JS中有关sort以及return的问题 JavaScript高级程序设计 该怎

2023-12-08
javascript简要笔记,JavaScript读书笔记

2022-11-17
js计算梯形代码,js计算阶乘的代码

2022-11-23
js金额计算代码(js计算价格合计)

本文目录一览: 1、js表单计算金额问题 2、javascript自动计算金额(计算结果只显示小数点后的两位) 3、javascript自动计算金额(急) 4、JS代码自动计算代码小数保留两位位四舍五

2023-12-08
区分无监督学习和有监督学习的方法

2023-05-17
python内实现k的简单介绍

2022-11-20