High Correct Recognition Rate Classifier Design with Appropriate Rejection Mechanism

YANG Guo-wei, WAN Ming-hua, LAI Zhi-hui, ZHANG Fan-long, WONG Wai-keung

ACTA ELECTRONICA SINICA ›› 2021, Vol. 49 ›› Issue (8) : 1569-1576.

PDF(1651 KB)
CIE Homepage  |  Join CIE  |  Login CIE  |  中文 
PDF(1651 KB)
ACTA ELECTRONICA SINICA ›› 2021, Vol. 49 ›› Issue (8) : 1569-1576. DOI: 10.12263/DZXB.20190518
PAPERS

High Correct Recognition Rate Classifier Design with Appropriate Rejection Mechanism

Author information +

HeighLight

At present, some SVM(Support Vector Machines) classifiers, hypersphere SVM classifier and deep learning classifier with high correct recognition rate still have about 2% false recognition rate and weak incremental learning function. In this paper, a high correct recognition rate classifier designed with appropriate rejection mechanism and incremental learning algorithm is proposed to solve the above problems. The main work include: the construction algorithm of compact packing set of homogeneous feature set; the algorithm for solving the compact packing surface of homogeneous feature region based on homogeneous feature set and compact packing set; the method of setting all the public areas outside the compact packing surface as the rejection area of the classifier; when adding new categories, increasing or decreasing training samples, the above algorithms are incremental learning algorithms. A comparison experiment with uci data sets shows that the correct recognition rate of the classifier is greater than 99.13%, when the rejection rate is less than 1.3%.

Cite this article

Download Citations
YANG Guo-wei , WAN Ming-hua , LAI Zhi-hui , ZHANG Fan-long , WONG Wai-keung. High Correct Recognition Rate Classifier Design with Appropriate Rejection Mechanism[J]. ACTA ELECTONICA SINICA, 2021, 49(8): 1569-1576. https://doi.org/10.12263/DZXB.20190518

1 引言

几十年来,分类器设计取得了很多很好的成果.然而,目前一些正确识别率高的SVM(Support Vector Machines)分类器、超球SVM分类器、深度学习分类器在一些典型样本集上应用时仍然有2%左右的错误识别率1~19.这些分类器不能直接用于做重大疾病认证识别、人的身份认证识别、钞票认证识别、票据认证识别、恐怖分子认证识别等比较严肃的认证识别.在比较严肃的认证识别场合,往往需要引入合适的拒识机制1,以便分类器工作时,要么拒识,要么分类正确.也即要求:①拒识率(在公共测试样本库中,拒识的样本个数与测试样本库的总样本个数之比)很小;②正确识别率(在去掉拒识的样本之后的测试样本库中,正确分类样本个数与总样本数的比例)为100%或接近100%.若拒识率较大,分类器的实用范围和场合则受到限制.正确识别率不能接近100%,人们不敢直接仅用该识别器去认证一些特别重要的事物或事件.显然拒识率小与正确识别率高是矛盾事件,解决该矛盾十分困难.
要做到拒识率小、正确识别率高,实际上就是要设计识别器,使该识别器确定的同ω类样本的特征区域Cω(把区域内的任一点视为ω类样本点,而把区域之外点视为别的类点或拒识点)几乎包含了ω类所有样本点形成的实际特征区域(几乎不损失自己领域),同时几乎不侵占别的已知类的特征区域和未知可能类的特征区域.
一个很好的识别系统应该有增量学习功能2.增量学习功能使识别系统在更正训练样本、增减训练样本和增减识别类时,能继承系统已有的大部分知识,不断优化和升级.
SVM思想是支持向量机将所有特征向量映射到一个很高维的空间里.在这个空间里建有一个最大间隔超平面,该超平面对应的原始空间曲面就是分类决策面.在分开两类特征向量(数据)的超平面的两边建有两个互相平行的超平面.分隔超平面使两个平行超平面的距离最大化.显然,SVM确定的同一类特征区域往往是无界区域,而实际的同类特征区域是有界的.SVM确定的同一类特征区域侵占了其他类的实际特征区域或未知类的特征区域,而且侵占较严重,有较大错分样本的风险.因此SVM不适合直接用于做重大疾病认证识别、通过生物特征对人身份认证识别、钞票认证识别、票据认证识别、恐怖分子认证识别等分类器设计工作.又由于当增加训练样本或增加新类别时,求解SVM分类决策面的工作需要重新进行,因此SVM没有增量学习功能.在多分类的SVM分类器设计中34,改变一个训练样本或增加一个类别,相应分类器学习训练过程需要重头开始,分类器无法继承以前训练学习的任何结果,因此SVM多分类器也没有增量学习功能.在许多改进的SVM方法5~8(考虑到有时不同类特征区域不平衡等特性)中,也没有引入合适拒识机制:实际上是不方便确定拒识区域;因为当前方法下,确定了拒识区域并不一定带来正确识别率的提高.SVM确定的同一类特征区域可能会侵占未知类的特征区域,有把未知类样本错判为某已知类的风险.一般情况下,SVM分类器存在2%左右的错误识别率,正确识别率不能逼近100%:SVM确定的已知类特征区域都尽可能最大化占据未知特征空间.SVM分类器没有增量学习功能:当增减类别时,学习训练工作要彻底重来.当增加或减少训练样本时,学习训练工作也要彻底重来.
超球SVM分类算法思想9~13是将所有特征向量映射到一个很高维的空间里,在这个空间里建立一个满足某种约束的半径最小超球面,超球面包裹几乎所有同类样本点.该超球面或同心超球面对应的原始空间曲面就是分类决策面.第二节实验表明,超球SVM分类决策面包裹区域可能侵占了未知类别的特征区域,即分类决策面没有紧密包裹同类样本实际特征区域.因此在超球SVM分类器中,也存在类似问题:
(1)没有引入合适拒识机制.因为不方便确定恰当的拒识区域,或者勉强确定了拒识区域,但并不一定带来正确识别率的提高.
(2)分类决策面包裹区域可能侵占未知类的特征区域,有把未知类错判为某已知类的风险.在一般情况下,分类器还有2%左右的错误识别率,正确识别率不能接近100%.
(3)分类器没有增量学习功能.当增减类别时,学习训练工作要彻底重来.当增加或减少训练样本时,学习训练工作也基本上要彻底重来.
在大数据时代,通过不断改进各种深度学习分类器来提高正确识别率,有些对象正确识别率甚至达到99%.以前街景文字识别几乎是不可能的事情,现在街景文字正确识别率也很高14~20.很遗憾,这些分类器在一些典型样本集上的应用仍然存在2%左右的错误识别率,不适合直接做重大疾病认证识别、通过生物特征对人身份认证识别、钞票认证识别、票据认证识别、恐怖分子认证识别等比较严肃的认证识别工作,也很难通过引入拒识机制等方法改造它们.实际上,在以上深度学习分类器中也存在问题:
(1)很难确定恰当的拒识区域.分类决策面很难表达,恰当拒识区域也无法描述.
(2)分类决策面包裹区域可能会侵占未知类的特征区域,有把未知类错判为某已知类的风险.通常情况下,分类器仍有2%左右错误识别率,正确识别率不能接近100%.
(3)增量学习功能有限.当增减类别时,学习训练工作基本上要重来.当增加或减少一些训练样本时,学习训练的很多工作也要重来.
本文针对以上各种分类器设计中存在的难题,提出同类特征集合的紧密包裹集构造算法;给出基于同类特征集合、紧密包裹集的同类特征区域紧密包裹面模型和求解算法;设置了所有紧密包裹面之外的公共区域为分类器的拒识区域,从而得到一种具有合适拒识机制的高正确识别率分类器设计算法.该算法设计的分类器几乎没有错误识别率,正确识别率接近100%.

2 超球SVM分类决策面不紧密包裹同类特征的例子

例1图1所示,二维空间有正三角形围成的某事物类实际特征域.用均匀采样方法采集样本300个,用高斯核函数,并用带惩罚系数C'=0.5的超球SVM训练得出该事物决策面.该曲面近似为一个“圆”.决策面不紧密包裹同类特征.圆内是该事物的特征域,显然该特征域侵占了实际的别的已知类或未知类特征域(即正三角形外的部分领域),同时损失了自己应有的部分领域(即正三角形两个角的小领域).
图1 超球SVM分类决策面不紧密包裹同类特征的例子

Full size|PPT slide

3 同类特征集合的紧密包裹集的存在性证明

CN维特征空间RN的一点集,ε是大于零的小常数,r是大于1的常数.若对于C中任一两点XY,总存在C中不同点X1,,Xh,使距离δ(X,X1)δ(X1,X2),…,δ(Xh,Y)δ(X,Y)都不大于ε/rN,则称Cε/rN致密连通.设Cε/rNC加上所有RN中到C的距离不大于ε/rN的点的区域,当Cε/rN是数学意义上的单连通区域时,则称Cε/rN致密单连通.形象地说,单连通是没有“洞”的区域.若以C中任意两点为端点的连线都在Cε/rN中,且这些不同连线(段)上任意两点连线也在Cε/rN中,则称Cε/rN致密凸集.这时C中到Cε/rN的边界的距离等于ε/rN的点叫做Cε/rN致密边界点.令CεC加上所有RN中到C的距离不大于ε的点的区域.
定理1 (紧密包裹集存在定理)CN维特征空间RN的一个ε/rN致密单连通有界点集,且Cε/rN致密凸集.令Cε/2N致密边界点个数为Γ.对于任意点X=(x1,x2,,xi,,xN)C,定义2N个点(x1±ε,x2,,xi,,xN)(x1,x2,,xi-1,xi±ε,xi+1,,xN)(x1,x2,,xi,,xN-1,xN±ε).设ε/rNε紧密包裹集为
I(C)=(Cε-Cε/rN)           {(x1,x2,,xi±ε,,xN)(x1,x2,,xi,,xN)C}
则当r>(N+2)2N时,I(C)至少有Γ个点,且对应于每一个C的边界点,上述2N个点中至少有一个点在I(C)中,而且X=(x1,x2,,xi,,xN)I(C)Cε/rN内的立体表面距离大于ε/rN.
证明略.
注: (N+2)2NN的递减数,不大于最大值5.8289.

4 同类特征集合的紧密包裹集构造算法

由定理1可知,本文所谓ε/rNε紧密包裹集为
I(C)=(Cε-Cε/rN)           {(x1,x2,,xi±ε,,xN)(x1,x2,,xi,,xN)C}
是关于集合C的一个集合.该集合内的点被限制在一个厚度不超过ε-ε/rN的皮腔(区域)上,皮腔包裹在集合C的外侧.

4.1 致密性参数的优化算法

设有从同类特征区域TRN采集的同类特征点集合为C,该集合是ε/5.9N致密有界η凸集.不妨设C中的点足够多,r5.9,使CTCε.因此Cε/rN也称为同类特征区域T的近似覆盖区域.显然Cε/rN的体积与T的体积之差小于2N(2η+2ε/rN)N-1(ε/rN).即当ε充分小时,该差值也充分小.在包含C的同类特征区域T固定的情况下,ε越小,C中点越多,C中点分布越紧密(即从T中采集的样本越多).已知T是凸集,给定ε,构造满足ε/5.9N致密凸集性质的C并不困难.反过来,已知点集C且假定Cε/5.9N致密凸集性,要求出最小的ε十分困难.本文根据RN中不在同一超平面上N+1个点决定的单纯形是一个包含这N+1点的最小体积凸多面体的理论,给出一种估计ε的算法.设CM个点,用X1,X2,,XM表示.估计ε算法如下所示.
第一步:计算Xj的第一近邻Xj1j1=argminijXj-Xi.
第二步:计算Xj的第二近邻Xj2j2=argminij,j1Xj-Xi.
……
N+1步:计算Xj的第N+1近邻XjN+1jN+1=argminij,j1,,jNXj-Xi.
N+2步:计算Xj与近邻的最大距离:g(Xj)=maxi=j1,,jN+1Xj-Xi.
N+3步: 计算ε的次优估计:
ε5.9Nmax1jMg(Xj) =5.9Nmax1jMmaxi=j1,,jN+1Xj-Xi.
按照以上算法计算出来的ε,可以证明Cε/5.9N致密凸集.
容易看到,当M有限时,以上致密性参数的优化算法收敛,且算法复杂度为 O(M2).

4.2 紧密包裹集构造算法

下面构造设ε/5.9Nε紧密包裹集
I(C)=(Cε-Cε/5.9N)           {(xj1,xj2,,xji±ε,xjN)(xj1,xj2,,xji,,xjN)C}
第一步:构造M个点的ε/5.9N超球邻域判别函数fj(X)=ε/5.9N-X-Xj,1jM.
这里当fj(X)0时,可以判断X在以Xj为中心,ε/5.9N为半径的超球邻域ΠXj内.
第二步:由每一个Xj=(xj1,xj2,,xji,,xjN),1jM,
派生出2N个点(xj1,xj2,,xji±ε,,xjN),1iN.
第三步:检测所有派生点(xj1,xj2,,xji±ε,,xjN)1iN1jM是否在ΠXj1jM中,把不在任何一个超球邻域ΠXj内的派生点集合起来就得到ε/5.9Nε紧密包裹集I(C).
由定理1可知,I(C)中点的个数不少于C的边界点个数.而且当ε很小时,Cε/rN的体积与T的体积之差也很小,小于2N(2η+2ε/rN)N-1(ε/rN).形象地说,紧密包裹集紧密包裹Cε/rNTC周围.

5 基于紧密包裹点集的同类特征区域紧密包裹曲面的求解算法

作变换ϕ:RNH,把特征空间映射为更高维空间.k:RN×RNR是对应核函数.如图2所示,小超球半径为r,同心大超球半径为r2+ρ2,小超球内的“*”点是C中点变换到高维空间的对应点,大超球外的“+”点是I(C)中点变换到高维空间的对应点.我们的目标是找到合适变换ϕ:RNH使小超球几乎包含所有“*”点且r最小,r2+ρ2最大,即ρ2最大.这样对应于高维空间小超球面的原始空间曲面就是C的紧密包裹曲面.
图2 紧密包裹曲面示意图

Full size|PPT slide

为了方便,设C中有m1个点,I(C)中有m2=n-m1个点,c是高维空间的球心.我们建立以下优化模型,通过求解优化解来构造同类特征区域紧密包裹曲面.
minr,c,ρ,ξr2-υρ2+1υ1m1i=1m1ξi+1υ2m2j=m1+1nξjs.t.ϕ(Xi)-c2r2+ξi,    1im1   ϕ(Xj)-c2r2+ρ2-ξj,    m1jn   0ξk,    1kn
(1)
其中,ξi,ξj为松弛变量,1υ1m1,1υ2m2为惩罚系数.为求解该模型,我们引入Lagrange函数
      L(r,c,ξ,α,β)=r2-ρ2+1υ1m1i=1m1ξi+1υ2m2j=m1+1nξj+i=1m1αi(ϕ(Xi)-c2-r2-ξi)-j=m1+1nαj(ϕ(Xi)-c2-r2-ρ2+ξj)-k=1nβkξk
(2)
Lagrange函数的极值点应满足
Lr=2r(1-i=1m1αiyi)=0
(3)
Lρ=2ρ(-υ+j=m1+1nαiyi)=0
(4)
Lξi=1υ1m1-αi-βi=0,     1im1
(5)
Lξj=1υ2m2-αj-βj=0,     m1+1jn
(6)
Lc=2ci=1m1αiyi-2i=1m1αiyiϕ(Xi)=0
(7)
因此
c=i=1nαiyiϕ(Xi)i=1nαiyi=i=1nαiyiϕ(Xi)
(8)
得对偶问题模型
maxαi=1nαiyiϕ(Xi)ϕ(Xi)-i=1nj=m1+1nαiαjyiyjϕ(Xi)ϕ(Xj)s.t.0αi1υ1m1,    1im10αj1υ2m2,    m1+1jn
(9)
i=1nαiyi=1
(10)
i=1nαi=3υ+1
(11)
K(Xi,Xj)替代ϕ(Xi)ϕ(Xj),由核函数性质可知
maxαi=1nαiyik(Xi,Xi)-i=1nj=m1+1nαiαjyiyjk(Xi,Xj)s.t.0αi1υ1m1,    1im10αj1υ2m2,    m1+1jn
(12)
i=1nαiyi=1
(13)
i=1nαi=2υ+1
(14)
对偶问题是一个二次规划问题,可用二次规划问题求解方法,如序贯最小优化(Sequential Minimal Optimization, SMO)算法来求解.
在求解以上问题之后,为求出rρ2r2+ρ2,考虑两集合
S1={xi0<αi<1υ1m1,    1im1}
(15)
S2={xj0<αj<1υ2m2,    m1+1jn}
(16)
n1=S1n2=S2.由KKT条件知
r2=1n1P1     ρ2=1n2P2-1n1P1
(17)
其中
P1=xiS1ϕ(Xi)-c2     =xiS1k(Xi,Xi)-2k=1nαkykk(Xi,Xk)+<c,c>
(18)
P2=xjS2ϕ(Xi)-c2     =xjS2k(Xj,Xj)-2k=1nαkykk(Xj,Xk)+<c,c>
(19)
<c,c>=i=1nαiyiϕ(Xi),j=m1+1nαjyjϕ(Xj)            =i=1nj=m1+1nαiαjyiyjk(Xi,Xj)
(20)
分类决策函数为
f(x)=sgn(r2-ϕ(X)-c2)       =sgnr2+2k=1nαkykk(X,Xk)-k(X,X)-<c,c>
(21)
分类决策曲面W
r2-ϕ(X)-c2=r2+2k=1nαkykk(X,Xk)-k(X,X)-<c,c>=0
(22)
根据紧密包裹集和分类决策曲面W的构造过程,可得以下紧密包裹学习定理.
定理2 (紧密包裹学习定理) 设有从同类特征区域TRN采集的同类特征点集合为C,该集合是ε/rN致密有界η凸集.设δ>0r5.9CTCε/rNCεε/rNε紧密包裹集I(C)包含足够多个点.若ε<δ2NN(η+1)N-1,那么曲面W包裹区域体积与同类特征区域T的体积差小于δ.
证明略.
例2 图3是例1中正三角形围成的某事物类实际特征域(识别对象的同类特征域)的紧密包裹点集和紧密包裹面.十分明显,本文方法获得的包裹面比用超球支持向量机(也称为支持向量域描述, SVDD)获得的包裹面包裹正三角要紧密得多(参见例1).
图3 特征域的紧密包裹点集和紧密包裹面

Full size|PPT slide

6 多类分类器的合适拒识机制设置

对于ηω1,ω2,,ωη分类问题,用上述方法找到尽可能小的参数ε.用以上方法求出每类样本对应的判别函数
jf(X)=sgn(rjr2-ϕ(X)-cj2)           =sgn(rjr2+2k=1njαkykk(X,Xk)-k(X,X)-<cj,cj>)              1jη
(23)
和分类决策紧密包裹曲面
jr2-ϕ(X)-cj2=rjr2+2k=1njαkykk(X,Xk)-k(X,X)-<cj,cj>=01jη
(24)
jf(X)0时,判定Xωj类.为了防止同一点属于不同类(即不同紧密包裹区域有重叠)现象出现,规定jf(X)有优先级,标号小优先级高.当j=argminifi(X)0时,判定Xωj类.(注:当对同一点X存在多个j使jf(X)0时,也可用近邻方法类分类)
设置所有紧密包裹曲面之外的公共区域为分类器的拒识区域,即当maxjfj(X)<0时,分类器拒识X.

7 增量学习算法

当增加新类别时,以前的所有工作结果都可保留.只需要对新类别样本集求包裹点集和基于新类别样本集和包裹集求新类别的分类决策函数和分类决策紧密包裹曲面,同时对拒识区域做相应调整.
当增加训练样本且原来分类器能正确分类时,分类器不用做任何调整.否则仅对错分和拒识样本(可以判断是新边界点)所对应类别集合重新求包裹点集(以前大部分计算结果可以用上)和基于该新类别样本集及包裹集求新类别的分类决策函数与分类决策紧密包裹曲面,同时对拒识区域做相应调整.
当减去错分样本时,仅对错分样本(可以判断边界点)所对应类别集合重新求包裹点集(以前大部分计算结果可以用上)和基于该新类别样本集和包裹集求新类别的分类决策函数和分类决策紧密包裹曲面,同时对拒识区域做相应调整.

8 实验及对比分析

本文采用uci数据集来测试评价支持向量机SVM、支持向量数据描述(Support Vector Data Description, SVDD)、小球大间隔(Small Sphere Large Margin, SSLM)、深层感知网络、本文包裹学习算法性能.如表1所示,其中pos,neg分别表示正负类样本的数量,m1m2表示实验随机选取的样本个数,d表示样本的特征维度.
表1 实验数据集表
Dataset pos neg m 1 m 2 d
Iris 50 100 45 90 4
Wine 59 119 53 107 13
Blood 570 178 487 15 4
Cancer 444 239 398 12 9
实验中所有的参数通过网格搜索以及交叉验证法获得.对于所有的算法均采用高斯核函数:
K(u,v)=exp(-1δu-v2)
(25)
其中,高斯核函数中的参数δ在网格
σ0216,σ028,σ024,σ022,σ02,2σ02,4σ02,8σ02,16σ02中搜索选取,σ02为样本的平均范数.
对于SVM模型,惩罚系数C在网格{0.01, 0.05, 0.1, 0.5, 1, 5, 10, 50, 100, 500}中搜索选取.
对于SVDD,C1同样从{0.01, 0.05, 0.1, 0.5, 1, 5, 10, 50, 100, 500}中搜索,C2
14×m1m2,12×m1m2,2×m1m2,4×m1m2中搜索.
对于SSLM和包裹学习算法,参数v在网格{10,30,50,70,90}中搜索选取,v1v2在集合{0.001, 0.01,0.1}中选取,如表2所示.
表2 学习算法的几个参量
Dataset v v 1 v 2
Iris 10 0.1 0.1
Wine 10 0.1 0.1
Blood 50 0.1 0.1
Cancer 30 0.1 0.01
按照文献[13]设定从数据集中取一定正类样本和负类样本,分别运行SVM,SVDD,SSLM,深层感知网络,以及包裹学习算法进行训练,余下的样本用于测试.对于用包裹学习算法进行两分类的问题,实验做法是:先对训练样本比较多的类别(正类)执行包裹学习算法,并且执行包裹学习算法期间把另一类样本加入包裹样本集进行训练;其次用初始判别函数进行测试,优化分类判别方法.具体要缩放调节判别函数中r,或把出错样本加入训练集重新训练,使测试结果满意为止.若测试结果正确识别率为100%或相当满意,那么不用再对另一类(负类)样本执行包裹学习算法,当然也不设置拒识区域.若对测试结果不够满意,那么对另一类(负类)样本执行包裹学习算法.重复上述过程,并且设置该类(负类)判别区域为该类包裹面包裹的区域去掉另一类(正类)判别区域,即正类判别优先.或者设置该正类判别区域为正类包裹面包裹的区域去掉另一类(负类)判别区域,即负类判别优先.取正类判别优先还是负类判别优先,要根据测试结果来定.然后设置拒识区域为正类判别区域和负类判别区域之外的区域.最后计算拒识率.一般拒识区域比较大,甚至很大,但拒识率都比较小.是否优化致密参数,对识别结果影响不大.一般来说,优化致密参数后,正确识别率会有一点提高.表3是实验结果.实验结果表明,包裹学习算法有效,而且可以用来设计有合适拒识区域的高正确识别率的分类器.
表3 实验结果
Dataset SVM SVDD SSLM

深层感知

网络

包裹学习(不设置拒识区域) 包裹学习(设置拒识区域)
正确识别率 拒识率
Iris 96.3% 96.5% 98.2% 98.8% 98.5% 优化致密参数后100% 优化致密参数后1.3%
优化致密参数前99.3% 优化致密参数前1.2%
Wine 93.75% 95.34% 97.1% 98.3% 97.7% 优化致密参数后100% 优化致密参数后2.1%
优化致密参数前99.1% 优化致密参数前1.9%
Blood 68.67% 71.12% 71.33% 77.25% 72.67% 优化致密参数后99.32% 优化致密参数后2.3%
优化致密参数前99.1% 优化致密参数前1.9%
Blood 68.67% 71.12% 71.33% 77.25% 72.67% 优化致密参数后99.32% 优化致密参数后2.3%
优化致密参数前99.15% 优化致密参数前2.1%
Cancer 94.75% 93.78% 95.25% 98.54% 97.45% 优化致密参数后99.15% 优化致密参数后1.8%
优化致密参数前99.1% 优化致密参数前1.7%

9 结束语

论文讨论了面向重大疾病认证识别、通过生物特征对人身份认证识别、钞票认证识别、票据认证识别等高正确识别率分类器设计要求.指出了现有一些高正确识别率SVM分类器、超球SVM分类器、深度学习分类器在一些典型样本集上应用时仍然存在没有合适拒识机制和正确识别率不能接近100%等问题.举出了超球SVM分类决策面不紧密包裹同类特征的实例.证明了同类特征集合的紧密包裹集的存在定理.提出了致密性参数的优化算法、同类特征集合的紧密包裹集构造算法、基于同类特征集合和紧密包裹集的同类特征区域紧密包裹面的求解算法,以及紧密包裹学习定理.设置了较合适的多类分类器的拒识区域.同时给出了当增加新类别,增减训练样本时,有关算法的增量学习算法.以uci数据库做对比实验,实验表明本文提出的分类器设计算法是一种有效的高正确识别率分类器设计方法.
本文提出了带“紧密包裹集”约束超球支持向量机方法,其中紧密包裹集是本文作者提出并算法实现的独特概念.带“紧密包裹集”约束也是本文的创新点之一.正因为如此,才有紧密包裹学习方法,才有比现有一些覆盖“更紧密覆盖”,才有比现有一些分类器“更高正确识别率”的效果.

References

1
王守觉. 仿生模式识别(拓扑模式识别): 一种模式识别新模型的理论与应用[J]. 电子学报, 2002, 30(10): 1417-1420.
WangS J. Bionic (topological) pattern recognition—A new model of pattern recognition theory and its applications[J]. Acta Electronica Sinica, 2002, 30(10): 1417-1420. (in Chinese)
2
周志华. 机器学习[M]. 北京: 清华大学出版社, 2016.
ZhouZ H. Machine Learning[M]. Beijing, China: Tsinghua University Press, 2016. (in Chinese)
3
VapnikV N. The Nature of Statistical Learning Theory[M]. New York, NY, USA: Springer New York, 1995.
4
TangF Z, AdamL, SiB L. Group feature selection with multiclass support vector machine[J]. Neurocomputing, 2018, 317(23): 42-49.
5
TianY J, QiZ Q, JuX C, et al. Nonparallel support vector machines for pattern classification[J]. IEEE Transactions on Cybernetics, 2014, 44(7): 1067-1079.
6
DingL Z, LiaoS Z. An approximate approach to automatic kernel selection[J]. IEEE Transactions on Cybernetics, 2017, 47(3): 554-565.
7
CanoA, ZafraA, VenturaS. Weighted data gravitation classification for standard and imbalanced data[J]. IEEE Transactions on Cybernetics, 2013, 43(6): 1672-1687.
8
Jayadeva, KhemchandaniR, ChandraS. Twin support vector machines for pattern classification[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(5): 905-910.
9
XuY T, YangZ J, PanX L. A novel twin support-vector machine with pinball loss[J]. IEEE Transactions on Neural Networks and Learning Systems, 2017, 28(2): 359-370.
10
WuM R, YeJ P. A small sphere and large margin approach for novelty detection using training data with outliers[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(11): 2088-2092.
11
XuY T, LiuC M. A rough margin-based one class support vector machine[J]. Neural Computing and Applications, 2013, 22(6): 1077-1084.
12
ChorowskiJ, WangJ, ZuradaJ M. Review and performance comparison of SVM- and ELM-based classifiers[J]. Neurocomputing, 2014, 128: 507-516.
13
XuY T, YangZ J, ZhangY Q, et al. A maximum margin and minimum volume hyper-spheres machine with pinball loss for imbalanced data classification[J]. Knowledge-Based Systems, 2016, 95: 75-85.
14
XuY T. Maximum margin of twin spheres support vector machine for imbalanced data classification[J]. IEEE Transactions on Cybernetics, 2017, 47(6): 1540-1550.
15
LeCunY, BengioY, HintonG. Deep learning[J]. Nature, 2015, 521(7553): 436-444.
16
ShiC M, PanoutsosG, LuoB, et al. Using multiple-feature-spaces-based deep learning for tool condition monitoring in ultraprecision manufacturing[J]. IEEE Transactions on Industrial Electronics, 2019, 66(5): 3794-3803.
17
TsygvintsevA. On the overfly algorithm in deep learning of neural networks[J]. Applied Mathematics and Computation, 2019, 349: 348-358.
18
AlharbiA, DonckerE D. Twitter sentiment analysis with a deep neural network: An enhanced approach using user behavioral information[J]. Cognitive Systems Research, 2019, 54: 50-61.
19
YoungT, HazarikaD, PoriaS, et al. Recent trends in deep learning based natural language processing[J]. IEEE Computational Intelligence Magazine, 2018, 13(3): 55-75.
20
舒坚, 张学佩, 刘琳岚, 等. 基于深度卷积神经网络的多节点间链路预测方法[J]. 电子学报, 2018, 46(12): 2970-2977.
ShuJ, ZhangX P, LiuL L, et al. Multi-nodes link prediction method based on deep convolution neural networks[J]. Acta Electronica Sinica, 2018, 46(12): 2970-2977. (in Chinese)

Funding

National Key Research and Development Program of China(2017YFC080-4000)
National Natural Science Foundation of China(6177227)
Natural Science Foundation of Jiangsu Province, China(BK20171494)
Natural Science Foundation of the Jiangsu Higher Education Institutions of China(18KJA520005)
PDF(1651 KB)

1506

Accesses

0

Citation

Detail

Sections
Recommended

/