Free考研资料 - 免费考研论坛

 找回密码
 注册
打印 上一主题 下一主题

武汉大学电子信息工程系某导师的论文,复试有用!

[复制链接]
跳转到指定楼层
楼主
武 汉 大 学 学 报 (工 学版)
Engineering Journal of Wuhan University
V ol. 40
Aug 2N0o0.7
文童编号:1671-8844(2007)04-0121-04
SVC算法在客户资源分析中的应用
摘要:研究了SVC算法及其在企业客户资源分析中的应用,得出有关客户资源各种属性特征的量化结果,使企业
充分认识客户资源的各种属性特征,辅助企业进行经背决策,达到企业对客户资源的有效管理和结构优化的目的.
关键词:支持向量聚类;客户资源管理;聚类
中图分类号:C 931 文献标志码:A
Application of SVC algorithm to analysis of customer resources
XU Y a n' ,Z H U H en gy un ', L U C ha ng ku i
(1. C oll ege o f M ec han ica l邑 E lectricalE ngineering,N anjingU niversityo fA eronautics欲
As tro na ut ic s, N anj in g2 10 01 6, C hi na ;
2. N an jin gI ns tit ut eo f I nd us tr yT e ch no log y, N an jin g 2 10046,C hina)
Abstract:T hes upportv ectorc lustering( SVC)a lgorithm ise mployedt og ivea r ationala nalysiso fe nterprise
customer resources; quantitative results on the very property are then derived; it would make enterprise
to get the particularities of customer and support the decision-making. Finally, management and
optimization of customer resources would be achieved.
Key words: support vector clustering (SVC);customer resources management; clustering
企业 作 为 一种资源经营实体,其目的就是通过对
其拥有和能支配的资源进行经营,使其占有和支配的
资源规模不断扩大,资源结构逐步优化.客户资源作
为企业重要的无形知识资源,随着市场竞争的加剧和
个性化需求的增加,客户需求在市场上渐渐占据了主
导地位,企业的产品设计、制造、销售、服务、质量管理
等等业务环节正在逐步向以客户为核心协调统一的
方向发展.因此,企业未来的资源经营应该以客户资
源为核心协调一致,这样有助于发挥企业各项资源的
最大效用.本文引人SVC算法对客户资源进行聚类
分析的目的就是帮助企业充分认识客户资源的各种
属性特征,使企业的各种经营活动有的放矢
1 支持向量聚类
支 持 向量 聚类(SupportV ectorC lustering,
SVC)是一种新的基于核的无监督聚类方法,它的
本质是基于支持向量机(Support Vector Machines,
SV Ms)训练的密度估计,而支持向量则被
用作构建聚类边界.支持向量机被广泛用于解决分
类、回归及新知识检测(Novelty Detection)等问
题[Lx),近来又被用作聚类分析[3-x1,它是通过适当
地到一个足够高维的非线性映射扒·),使得数据
总能被一个超平面分割=s1.本文应用SVC进行客
户资源聚类分析的最大优点是它不需要事先知道聚
类的目标,只要根据给出的希望数据聚类半径值和
在野点的控制数量就可以得到相应的一组聚类;这
可以帮助分析人员根据生成的客户聚类构建新的模
型帮助企业找到更多的客户类别属性,进行市场细
分‘识别出不同的客户群,与已知聚类目标再进行聚
类的算法互相补充,以便更全面地划分客户类别和
沙发
 楼主| 雪山飞狐2028 发表于 08-3-12 20:25:40 | 只看该作者

继续发

认识客户属性,为企业以客户资源为核心的经营管
理策略提供支持,另外,SVC算法适合小样本数据的
特点也十分适合进行客户资源聚类分析.
SV C 算 法主要分两部分:SVM训练和聚类标
识.其中SVM 训练部分负责新知识模型的训练,
包括Gaussian核宽度系数的优化、Hilbert空问最
小包络超球体半径R的计算、Lagrangian乘子的
计算以及有界支持向量(Bounded Support Vectors,
BSVs)、支持向量(SupportV ectors,S Vs)的
选取‘聚类标识部分首先生成聚类标识关联矩阵,
再通过DFS(epth-first Search)算法根据关联矩
阵进行聚类分配.
2 SV C 聚 类 边 界描述
基 于 文 献[3],仁10],AsaB en-Hur提出了支持
向量聚类算法:
设 d 维 数据空间.CIRd,数据集{二,}C二包
含n个数据点,运用非线性变换中将数据从二映
射到高维特征空间,寻找Hilbert空间最小包络超
球体半径R,表达为
JI\'D (二 )一 all\'_< R\'+$; (e;>0) Vi ( 1)
式中:a为超球体球心,乐为松弛变量.E:缩小了超
球体半径,允许软边界的存在.引人式(1)的Lagrangian
形式:
minmi nL= R}一Z(R\'+f一10(x,一。}’);-
Es p; +C 云 Z, ( 2)
其中淮>0,P;>0,均为Lagrangian乘子;C为常
数,CEO;为惩罚项.根据Karush-Kuhn-Tucker条
件,将式(2)转化为Wolf。对偶形式:
ma;x W一},}(.z;)2(jt一};(3+(};}( r; )} (a ;)
s.t . 0< P,<C云91一1,,一1,二,。(3)
基 于 S VMs,用Mercer核来表示输人空间在
特征空间的点积形式,即
K( x, ,x ) = (D ( x ) · $(x) (4)
式 (3 )可 由此表示为
maxw a一,}.(3,K (x},x,’一}R:R;K<,x,)
。C Q ; ( C, 尽 一
求解 该 二 次型得到a,根据文献「4],/3;=C的
点为BSVs,O<Q,<C的点属于SVs.则任一点在
特征空间中的像到球心的距离可表示为
R\' (x) = K(二,二)一2兄(3;K( x,x. )+
ER :RjK (二 + 二)
1, 少
球 半 径 R即为任意支持向量到球心的距离:
R = R ( x; )
其巾,x为支持向量.
由此 可 知 ,聚类边界可由数据空间中满足王川
R(二)=R}条件点的包络线集来构建其中SV。在
边界上,BSVs在边界外,其他点在聚类范围内.
3 SV C 聚类算法
对 于 两 个属于不同聚类的数据点,Hilbert空
间中连接它们的任意路径上必然存在点x,有
R(x)>R(这里取其直线路径).为此,定义nX二关
联矩阵A,给定一对数据点x和二,,则对应A中元
素a ,a,,有
I1, 如 果 R (二 ,+A(x,一x;))-< R,V AE [0,1]
to 其 他
(5 )
聚类 可 由此定义为A中邻近元素的集合关联
矩阵的标识是聚类标识中计算量最大的部分设每
个数据对之间采样点数目为m,优化后的“穷举”算
法最差情况下的运算量为二〔。一1)/2,时间复杂性
为0(n\'m).运算主要部分的伪代码如下:
Ge tA d jacentMatrix (A)
初 始 化 矩 阵 A ,各 元 素 清 零
fo r i< - 2 to n
for j - 1t oi -1
ifj < i t h en
ifa (i ,j )一 1 t h en i ,j两行合并为第i行
el se
if a ( i, j) - 0 th e n
计 算 二和 二 之 间 各 样 点 .r与球心距离
d, 一 旦 有 样 点 满 足 d >R,则跳出循环
if d < R th en a (i ,j ) = a(j,i)-1
en d
en d
en d
en d
4 SV C 聚 类 算 法 在 客户 资 源 聚 类 分
析 中 的 应用
通 过 实 例说明SVC聚类算法如何应用于有关
板凳
 楼主| 雪山飞狐2028 发表于 08-3-12 20:26:11 | 只看该作者

继续发

客户资源的分类,帮助企业确定目标客户群. 类:CI(5,11,17,15,22,24,25,29,32,33,38,41,
企业 现 在 有几种新产品开发的意向,不过由于43,46,47),C2(1,2,7,13,14,19,21,26,31,34,
资源有限,仅仅能开发和投产其中的一种产品,因50),C3(3,4,6,8,11,18,20,28,35,39,42,45,
此,为了使有限资源发挥更大的作用,企业需要综48),C4(9,10,12,16,23,27,30,36,37,40,44,
合多种因素进行详细分析,然后才能决策.本文给49).为了直观分析,将聚类结果分别在二维空间进
出的分析路线简要说明如「:企业首先提供给客户行投影,如图1所示,其中图1(a)是聚类后在可靠
几种新产品的样品,并要求客户按照企业给出的样性与效率两维组成的平面上的投影,图1(b)是在
品属性给予相应的评价,然后企业将这些评价进行效率与价格维上的投影,由于四维空间向二维空间
一定方式的量化处理,得到客户对不同样品的量化投影会缺少另外两维的数据信息,因此看起来像是
评价,通过对数据进行聚类和分析,帮助企业进行只有3类,这是由于两个投影图中左下部分的数据
决策,由于仅仅是为了说明SVC聚类算法的应用, 点在该投影平面上的投影区域重合
表1的数据是随机产生的,并非实际的数据,因为通过聚类分析可以帮助企业找出目标客户群,
实际样本数据的获取有一定困难,需要投人大量的使企业在随后的成本、利润、盈亏平衡、营销策略等
人力和财力,而且对实际数据进行聚类分析前需要方面的分析更加有的放矢.例如需要分析不同的客
作大量的数据处理工作,文章中不可能占用过多篇户群对企业的重要程度,以便确定企业满足不同群
幅进行说明表1中列出了50个客户的样本数据, 体客户需求的优先级,这可以通过客户群体中每个
本文就以表中的数据为例,使用SVC聚类算法对客户重要性评价进行计算得出;在市场营销中,企
样本进行聚类. 业需要了解目标客户群体的消费能力、偏好、客户
经过 SV C聚类运算,将5。个样本数据分为4 所在的地域特征,这些分析可以以聚类分析所得的
表 1 客 户 对 样 品 的 评 价 数 据
客户可靠性效率价格重量}客户可靠性效率价格重量
:872479.235727 439250._.381235 1.: ::一
; 7140.2414 1 8 92.834 13 2 4 .4375 21 5 8 .23 93一
2012一牛,::.!一:.58371.: 一
地板
 楼主| 雪山飞狐2028 发表于 08-3-12 20:27:00 | 只看该作者
The Sphere Mapping into a 2D space-Dimensional and 2
10 厂一一一二丽邪了一一一一一一.门
The Sphere
l0 0 r -
into a 2D space-Dimension
- --~尸-- -~
.
.
竺0
2 and 3
8。0} `\'?r:i:攀::a \"\"}
剔车
剔,
.公
泞; .
.:o4 :?S,C
V.X ::g
熬帐 。
成轶黔’带
0 茄 4 0 5 0 80 100 0 2 0 40 60 80 100
可靠 性 效 率
(a) 样 本 聚 类 后在 可 靠 性 与效率维组成平面上的投影伪)样本聚类后在效率与价格维组成平面上的投影
图 1 聚 类 结 果 在 平 面 上 的 投 影
结果为基础进行. Systems,2000(12):582-588.
厂41 B en -H ur A , H orn D , S ieg elm a nn H T , V ap nik V
5 小结
本 文 研 究的SVC聚类只是聚类算法中的一
种,而且不同的聚类算法产生的结果、适用的范围
和特点也有不同,本文认为要得到对客户资源更全
面和客观的分析,需要使用不同的分析方法.将
SVC聚类应用于客户分类只是客户资源分析过程
中的步骤之一,因为产生的很多分类不一定对生产
和经营都有实际意义,我们的最终目的是找出分类
中隐含的一些有实际意义的规律和特征,利用这些
规律和特征为企业的各种经营决策服务.
参考文献:
[1] Cristianini N, Scholkopf B. Support vector machines
an d k er ne l methods: the new generation of learning
ma ch in es[ J] .A IM agazine,F all,2 002(2):55-61.
[2] Burges C J. A tutorial on support vector machines for
pa tte rn r e co gnition仁J].D ataM ininga ndK nowledge
Di sc ov e ry ,1 998(2):121-167.
[3] Scholkopf B, Williamsoo R, Smo1a A, Shawe-Taylor
J, P lat tJ .S upportv ectorm ethodf orn oveltyd etertio
n[ C] //Advancesi n NeuralI nformationP rocessing
Su pp or tv ector clustering [I]. Journalo fM achine
Le arn in g R e search,2001(2):125-137.
[5] Ben-HurA ,H ornD ,S iegelmannH T,V apnik V.
A Su p port Vector Method for Clustering[ C ] //
NI P S2 00 0 :202-211.
[6] Ben-HurA ,H ornD ,S iegelmannH T,V apnik V.
A Su pp or tV ectorM ethodf orH ierarchicalC lustering
仁C ]/ /A dvances in NeuralI nformation Processing
Sy ste m s1 3, M IT Press,2 001:115-126.
[7] HornD . Clusteringv iaH ilbertS pace仁C]//Physica
A ( 30 2) 2 001:70-79.
[8] Yang IH ,E stivill-CastroV ,C halupS K.S upport
Ve ct or C l us teringT hrough ProximityG raphM ode卜
ing 仁 C] // Pro ceedings,9 th InternationalC onference
on Ne u ra l Information Processing (ICONIP\'0 2),
20 02 : 89 8- 903.
[9] Richard0 Duda,P eterE Hart,D avid G Stork,等‘
模 式 分 类 [M ].第2版.李宏东,姚天翔译.北京机械
工 业 出 版 社 ,2003.
[10] Tax D M J, Duin R P W, Support vector domain desc
rip tio n[ J] .P attern Recognition Letters,1 999,20
11 9 1- 1 19 9 .
5#
yuxinmao 发表于 08-10-3 13:10:36 | 只看该作者
谢谢
您需要登录后才可以回帖 登录 | 注册

本版积分规则

联系我们|Free考研资料 ( 苏ICP备05011575号 )

GMT+8, 24-11-19 19:26 , Processed in 0.085158 second(s), 12 queries , Gzip On, Xcache On.

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表