聚類(lèi)分析是數(shù)據(jù)挖掘中的一個(gè)很活躍的研究領(lǐng)域,并提出了許多聚類(lèi)算法。
這些算法可以被分為劃分方法、層次方法、基于密度方法、基于網(wǎng)格方法和
基于模型方法。
1 劃分方法(PAM:PArtitioning method) 首先創(chuàng)建k個(gè)劃分,k為要?jiǎng)?chuàng)建的劃分個(gè)數(shù);然后利用一個(gè)循環(huán)
定位技術(shù)通過(guò)將對(duì)象從一個(gè)劃分移到另一個(gè)劃分來(lái)幫助改善劃分質(zhì)量。典型的劃分方法包括:
k-means,k-medoids,CLARA(Clustering LARge Application),
CLARANS(Clustering Large Application based upon RANdomized Search).
FCM,
EM(Expectation Maximization):不將對(duì)象明顯地分到么個(gè)簇,而是根據(jù)表示隸書(shū)可能性的權(quán)來(lái)分配對(duì)象.
2 層次方法(hierarchical method) 創(chuàng)建一個(gè)層次以分解給定的數(shù)據(jù)集。該方法可以分為自上
而下(分解)和自下而上(合并)兩種操作方式。為彌補(bǔ)分解與合并的不足,層次合
并經(jīng)常要與其它聚類(lèi)方法相結(jié)合,如循環(huán)定位。典型的這類(lèi)方法包括:
第一個(gè)是;BIRCH(Balanced Iterative Reducing and Clustering using Hierarchies) 方法,它首先利用樹(shù)的結(jié)構(gòu)對(duì)對(duì)象集進(jìn)行
劃分;然后再利
用其它聚類(lèi)方法對(duì)這些聚類(lèi)進(jìn)行優(yōu)化。
第二個(gè)是CURE(Clustering Using REprisentatives) 方法,它利用固定數(shù)目代表對(duì)象來(lái)表示相應(yīng)聚類(lèi);然后對(duì)各聚類(lèi)按照指定
量(向聚類(lèi)中心)進(jìn)行收縮。
第三個(gè)是ROCK方法,它利用聚類(lèi)間的連接進(jìn)行聚類(lèi)合并。
最后一個(gè)CHEMALOEN,它則是在層次聚類(lèi)時(shí)構(gòu)造動(dòng)態(tài)模型。
3 基于密度方法,根據(jù)密度完成對(duì)象的聚類(lèi)。它根據(jù)對(duì)象周?chē)拿芏龋ㄈ?br />DBSCAN)不斷增長(zhǎng)聚類(lèi)。典型的基于密度方法包括:GDBSCAN,DBCLASD,DENCLUE(DENsity-based CLUstEring)
DBSCAN(Densit-based Spatial Clustering of Application with Noise):該算法通過(guò)不斷生長(zhǎng)足夠高密
度區(qū)域來(lái)進(jìn)行聚類(lèi);它能從含有噪聲的空間數(shù)據(jù)庫(kù)中發(fā)現(xiàn)任意形狀的聚類(lèi)。此方法將一個(gè)聚類(lèi)定義
為一組“密度連接”的點(diǎn)集。
OPTICS(Ordering Points To Identify the Clustering Structure):并不明確產(chǎn)生一
個(gè)聚類(lèi),而是為自動(dòng)交互的聚類(lèi)分析計(jì)算出一個(gè)增強(qiáng)聚類(lèi)順序。。
4 基于網(wǎng)格方法,首先將對(duì)象空間劃分為有限個(gè)單元以構(gòu)成網(wǎng)格結(jié)構(gòu);然后利
用網(wǎng)格結(jié)構(gòu)完成聚類(lèi)。
STING(STatistical INformation Grid) 就是一個(gè)利用網(wǎng)格單元保存的統(tǒng)計(jì)信息進(jìn)行基
于網(wǎng)格聚類(lèi)的方法。
CLIQUE(Clustering In QUEst)和Wave-Cluster 則是一個(gè)將基于網(wǎng)格與基于密度相結(jié)合的方
法。
5 基于模型方法,它假設(shè)每個(gè)聚類(lèi)的模型并發(fā)現(xiàn)適合相應(yīng)模型的數(shù)據(jù)。典型的
基于模型方法包括:
統(tǒng)計(jì)方法COBWEB:是一個(gè)常用的且簡(jiǎn)單的增量式概念聚類(lèi)方法。它的輸入對(duì)象是采
用符號(hào)量(屬性-值)對(duì)來(lái)加以描述的。采用分類(lèi)樹(shù)的形式來(lái)創(chuàng)建
一個(gè)層次聚類(lèi)。
CLASSIT是COBWEB的另一個(gè)版本.。它可以對(duì)連續(xù)取值屬性進(jìn)行增量式聚
類(lèi)。它為每個(gè)結(jié)點(diǎn)中的每個(gè)屬性保存相應(yīng)的連續(xù)正態(tài)分布(均值與方差);并利
用一個(gè)改進(jìn)的分類(lèi)能力描述方法,即不象COBWEB那樣計(jì)算離散屬性(取值)
和而是對(duì)連續(xù)屬性求積分。但是CLASSIT方法也存在與COBWEB類(lèi)似的問(wèn)題。
因此它們都不適合對(duì)大數(shù)據(jù)庫(kù)進(jìn)行聚類(lèi)處理.
AutoClass:它采用貝葉斯統(tǒng)計(jì)分析來(lái)估算結(jié)果簇的數(shù)目.
神經(jīng)網(wǎng)絡(luò)方法SOM,LVQ(Learning Vector Quantization)
凡是有該標(biāo)志的文章,都是該blog博主Caoer(草兒)原創(chuàng),凡是索引、收藏
、轉(zhuǎn)載請(qǐng)注明來(lái)處和原文作者。非常感謝。