1.一种基于ART2A-DWNN的通信信号调制方式的分类识别方法,其特征在于该分类识别方法基于ART2A神经网络和DWNN神经网络实现,ART2A神经网络由注意子系统、取向子系统和调制类型二次判决模块组成,注意子系统由短期记忆特征表示场F1和短期记忆类别表示场F2组成,取向子系统中预存警戒门限值ρ,基于ART2A-DWNN的通信信号调制方式的分类识别过程为:
步骤一、对通信信号进行特征向量提取,将提取后的特征向量作为ART2A神经网络的输入向量,应用ART2A-E算法对输入ART2A神经网络的输入向量进行处理:设定输入向量为N维列向量X(k),将N维列向量X(k)输入给ART2A神经网络的短期记忆特征表示场F1的NT
个神经元,X(k)=[x1(k),...,xN(k)],k为输入N维列向量X(k)的序号;
用M表示短期记忆类别表示场F2中神经元总数,μ(k)为输入N维列向量X(k)时短期记忆类别表示场F2中被占用的神经元个数,未占用的神经元不设定权向量;
将短期记忆特征表示场F1与短期记忆类别表示场F2间的内星连接权与外星连接权合并为由短期记忆特征表示场F1→短期记忆类别表示场F2的单一方向的权向量Wj(k),Wj(k)T
=[wj1(k),...,wjN(k)],j=1~μ(k);
应用线性变换使xi(k)满足0≤xi(k)≤1,i=1-N;
步骤二、对N维列向量X(k)进行竞争和匹配学习并进行聚类:当输入N维列向量X(k)的序号k=1时,Wj(k)=W1(1)=X(1),μ(1)=0,μ(2)=1;然后执行步骤三;
当输入N维列向量X(k)的序号k>1时,竞争和匹配度计算一步完成,匹配度最高的* *
第一获胜标号用j1(k)表示,第一获胜标号j1(k)通过对X(k)与Wj*(k)(k)的欧式距离的计*
算得到,与第一获胜标号j1(k)对应的匹配度为η1,将匹配度η1与取向子系统中预存的警戒门限值ρ进行比较:
当η1<ρ时,输入N维列向量X(k)的模式与预存储的模式不相符,将μ(k)与M值进行比较判断,若μ(k)<M,开辟一个标号为μ(k)+1的新聚类区,设定Wμ(k)+1(k)=X(k);
若μ(k)=M,短期记忆类别表示场F2中神经元被占满,完成聚类,转入下一节拍学习;
当η1≥ρ时,输入N维列向量X(k)的模式与预存储的模式相符,匹配度合格,输入N*
维列向量X(k)进入自适应谐振状态,调整权向量同时完成聚类:若j≠j1(k),Wj(k+1)=*
Wj(k);若j=j1(k),Wj(k+1)=Wj(k)+α[X(k)-Wj(k)],式中α为预设定的学习率;然后执行步骤三;
步骤三、对步骤二中经过聚类后获得的向量进行粗分类:设定经过聚类后输出的向量T
为Y(k)=[Y1(k),...,YM(k)],将Y(k)输入给调制类型二次判决模块,调制类型二次判决模块将Y(k)判定为L类调制类型MTi,L≤M,1≤i≤L;
T
步骤四、精细分类:将步骤三中经过粗分类的每一类输出向量[Yi(k),...,Yj(k)] 分别作为一个DWNN神经网络的输入向量,对DWNN神经网络进行训练并调整权值,当DWNN神经网络的输出向量与预设的期望输出向量的误差小于预先设定的阈值时,完成对通信信号调制方式的分类识别,否则继续进行下一轮迭代学习。
2.根据权利要求1所述的基于ART2A-DWNN的通信信号调制方式的分类识别方法,其特*
征在于:所述的步骤二中第一获胜标号j1(k)的计算公式为:
*
j1(k)=arg(min[‖X(k)-Wj*(k)(k)‖]),j=1~μ(k),
式中:‖X(k)-Wj*(k)(k)‖表示X(k)与Wj*(k)(k)的欧式距离,
X(k)与Wj*(k)(k)的欧式距离的计算公式为:
*
与第一获胜标号j1(k)对应的匹配度η1的公式为:
3.根据权利要求1所述的基于ART2A-DWNN的通信信号调制方式的分类识别方法,其特征在于:步骤三中,调制类型二次判决模块将经过聚类后输出的向量Y(k)判定为L类调制类型MTi的调制方法为:将L类调制类型MTi中每类调制类型设定对应的警戒门限值,根据警戒门限值将一个或者多个连续输出节点[Yi(k),...,Yj(k)]T判决为一种调制类型MTi,其中1≤i≤j≤M。
基于ART2A-DWNN的通信信号调制方式的分类识别方法\n技术领域\n[0001] 本发明涉及一种基于ART2A-DWNN的通信信号调制方式的分类识别方法,属于通信信号调制方式的分类识别领域。\n背景技术\n[0002] 目前对通信信号的调制方式的识别方法主要分为基于决策理论的最大似然假设检验方法和基于特征提取的统计模式识别方法,其中基于特征提取的统计模式识别方法中的基于人工神经网络的识别方法由于具有非线性和自适应的特性而受到广泛应用。目前对通信信号进行分类的基于人工神经网络的分类器应用的网络主要有前馈BP神经网络、径向基函数RBF神经网络、小波神经网络WNN、支撑向量机SVM、自适应谐振ART神经网络等。\nBP网络有很强的非线性映射能力以及灵活性,但学习时间长、容易收敛的局部最小。RBF网络克服了BP网络的局部收敛的缺点,采用监督学习规则,但新调制方式的输入将影响已训练调制方式的模式。WNN网络将小波理论与神经理论有机融合,充分利用了小波变换良好的局部特性与神经网络的自学习功能。SVM对于解决小样本、非线性以及高维模式识别问题具有良好的效果。ART网络采用无监督的学习规则,分类器的自适应性有所提高,但是抗噪能力较差。当采用上述单个神经网络对多种通信信号的调制方式进行识别时都会存在判决周期长,识别准确性低的问题。\n[0003] 目前ART神经网络已有3种形式:ART1型处理二进制信号;ART2型是ART1的扩展形式,用于处理连续模拟信号与二进制信号;ART3型是分级搜索模型,它兼容前两种结构的功能并将两层神经元网络扩大为任意多层神经元网络,并由于在神经元的运行模型中纳入了生物神经元的生物电和化学反应机制,因而具备了较强的功能和可扩展能力。ART网络及其算法在适应新的输入模式方面具有较大的灵活性,同时能够避免对网络先前训练结果的修改,较好地解决了稳定性和灵活性兼顾问题。当网络接收来自环境的输入时,按预先设计的参考门限检查该输入模式与所有预存储模式类型向量之间的匹配程度以确定相似度。对相似度超过参考门限的所有模式类,选择最相似的作为该模式的代表类,并调整与该类别相关的权值,以使后来与该模式相似的输入再与该模式匹配时能得到更大的相似度。若相似度都不超过参考门限,就需要在网络中设立一个新的模式类,同时建立与该模式类相连的权值,用以代表和存储该模式及后来输入的所有同类模式。该理论中应用较广的是ART2网络及其改进型。\n[0004] ART2A神经网络的结构及原理:\n[0005] ART2A神经网络与ART2的结构原理基本相同,不仅能对双极型或二进制输入模式分类,而且能够对模拟输入模式的任意序列进行自组织分类,其基本设计思想是采用竞争学习策略和自稳机制。ART2/2A神经网络结构如图1所示,图2给出了第j个处理单元的拓扑结构。ART2/2A神经网络由注意子系统和取向子系统组成。注意子系统中包括短期记忆(STM,Short Time Memory)特征表示场F1和STM类别表示场F2。F1包括几个处理级增益控制系统,F2负责对当前模式进行竞争匹配。F1和F2共有N个神经元,其中F1场有M个,F2场有N-M个,共同构成了N维状态向量,代表网络的短期记忆。F1和F2之间的内外星连接权向量构成了网络的自适应长期记忆(LTM,Long Time Memory),由下至上的权值用zij表示,由上至下的权值用zji表示。\n[0006] 将提取的特征向量x输入F1层,并通过由4个神经元zi、qi、vi、ui构成的正反馈闭合回路对输入信号进行向量归一化、滤波处理和非线性变换。经迭代得到稳定中层模式u,经警戒门限ρ送入F2层,由F2层经竞争选择激活F2层对应节点,得到系统的STM模式。\nF2层的输出经LTM Zji加权后反馈回F1层,反馈信息与u一同送入取向子系统,检验系统长期记忆模式与输入模式的相似度,若通过相似程度检验,则可确定输入模式属于F2层的候选模式,并按快速学习算法,一步完成权值的学习;若未通过匹配检验,则增加一个新的输出节点,表示新的调制类型。由上面分析看出,ART2/2A神经网络有两种存储机制、两种连接权和两种抑制信号。两种存储机制指:长期记忆和短期记忆;两种连接权指:F1→F2的内星权,决定F2的获胜神经元,F1←F2的外星权,用作F1输入模式的编码;两种抑制信号指:\nF1场神经元的抑制信号来自增益控制子系统,F2场神经元的抑制信号来自取向子系统。\n[0007] 由ART2/2A神经网络结构可以看出ART2/2A算法中输入向量和各权向量都进行归一化处理,模值皆为1,丢失了向量的幅度信息。由于数字调制方式很大一部分是通过特征向量幅度信息区分的,所以这种方法不可取。\n[0008] DWNN神经网络是在小波神经网络WNN的基础上提出的,单独的DWNN神经网络对较多模式组合的训练过程振荡现象加重,训练速度优势不明显,识别性能有所降低,对于未学习模式的可扩展能力较差。\n发明内容\n[0009] 本发明的目的是为了解决采用单个神经网络对通信信号调制方式的分类识别判决周期长,识别准确性低的问题,提供了一种基于ART2A-DWNN的通信信号调制方式的分类识别方法。\n[0010] 本发明基于ART2A神经网络和DWNN神经网络实现,ART2A神经网络由注意子系统、取向子系统和调制类型二次判决模块组成,注意子系统由短期记忆特征表示场F1和短期记忆类别表示场F2组成,取向子系统中预存警戒门限值ρ,基于ART2A-DWNN的通信信号调制方式的分类识别过程为:\n[0011] 步骤一、对通信信号进行特征向量提取,将提取后的特征向量作为ART2A神经网络的输入向量,应用ART2A-E算法对输入ART2A神经网络的输入向量进行处理:设定输入向量为N维列向量X(k),将N维列向量X(k)输入给ART2A神经网络的短期记忆特征表示场F1T\n的N个神经元,X(k)=[x1(k),...,xN(k)],k为输入N维列向量X(k)的序号;\n[0012] 用M表示短期记忆类别表示场F2中神经元总数,μ(k)为输入N维列向量X(k)时短期记忆类别表示场F2中被占用的神经元个数,未占用的神经元不设定权向量;\n[0013] 将短期记忆特征表示场F1与短期记忆类别表示场F2间的内星连接权与外星连接权合并为由短期记忆特征表示场F1→短期记忆类别表示场F2的单一方向的权向量Wj(k),T\nWj(k)=[wj1(k),...,wjN(k)],j=1~μ(k);\n[0014] 应用线性变换使xi(k)满足0≤xi(k)≤1,i=1-N;\n[0015] 步骤二、对N维列向量X(k)进行竞争和匹配学习并进行聚类:当输入N维列向量X(k)的序号k=1时,Wj(k)=W1(1)=X(1),μ(1)=0,μ(2)=1;然后执行步骤三;\n[0016] 当输入N维列向量X(k)的序号k>1时,竞争和匹配度计算一步完成,匹配度最* *\n高的第一获胜标号用j1(k)表示,第一获胜标号j1(k)通过对X(k)与Wj*(k)(k)的欧式距离*\n的计算得到,与第一获胜标号j1(k)对应的匹配度为η1,将匹配度η1与取向子系统中预存的警戒门限值ρ进行比较:\n[0017] 当η1<ρ时,输入N维列向量X(k)的模式与预存储的模式不相符,将μ(k)与M值进行比较判断,若μ(k)<M,开辟一个标号为μ(k)+1的新聚类区,设定Wμ(k)+1(k)=X(k);若μ(k)=M,短期记忆类别表示场F2中神经元被占满,完成聚类,转入下一节拍学习;\n[0018] 当η1≥ρ时,输入N维列向量X(k)的模式与预存储的模式相符,匹配度合格,输*\n入N维列向量X(k)进入自适应谐振状态,调整权向量同时完成聚类:若j≠j1(k),Wj(k+1)*\n=Wj(k);若j=j1(k),Wj(k+1)=Wj(k)+α[X(k)-Wj(k)],式中α为预设定的学习率;然后执行步骤三;\n[0019] 步骤三、对步骤二中经过聚类后获得的向量进行粗分类:设定经过聚类后输出的T\n向量为Y(k)=[Y1(k),...,YM(k)],将Y(k)输入给调制类型二次判决模块,调制类型二次判决模块将Y(k)判定为L类调制类型MTi,L≤M,1≤i≤L;\n[0020] 步骤四、精细分类:将步骤三中经过粗分类的每一类输出向量[Yi(k),...,Yj(k)]T\n分别作为一个DWNN神经网络的输入向量,对DWNN神经网络进行训练并调整权值,当DWNN神经网络的输出向量与预设的期望输出向量的误差小于预先设定的阈值时,完成对通信信号调制方式的分类识别,否则继续进行下一轮迭代学习。\n[0021] 本发明的优点是:\n[0022] 本发明采用竞争学习策略和自稳机制的设计思想,利用ART神经网络提出了基于ART2A神经网络的ART2A-E神经网络算法,它具有良好的自适应学习和自归类能力,可扩展性好。ART2A-E神经网络算法主要由预处理、竞争、匹配和自适应学习三部分组成,首先对通信信号按照调制方式进行特征向量提取,将提取后的特征向量作为ART2A神经网络的输入向量,由于在对输入向量的预处理中不做向量归一化处理,保留了向量的幅度信息,使得对输入向量的区分识别更准确,同时在ART2A-E神经网络的输出节点后设计了一个调制类型二次判决模块,对经过聚类后的向量进行粗分类,能够把落在同一调制类型的任一聚类区内的样本判决为一种调制类型。在匹配度计算中比较的是两个向量的欧氏距离,即只有当二者的夹角和二者的幅度差都比较小时,其匹配度才可能比较高。对于幅度信息不可忽略的情况,这是一种合理的选择。此外,此算法计算过程简单且计算量小,并具有ART神经网络的共有特点:训练是自组织的,具有无监督学习能力;对已学习过的模式具有稳定的快速识别能力,同时又能迅速适应未学习过的新模式;能够对动态的输入模式样本进行自适应的聚类和识别,能适应非平稳环境。\n[0023] 本发明采用组合神经网络对通信信号的调制方式进行分类识别,能够识别种类较多的组合模式,识别相近模式能力增强,具有识别范围广的优点,克服了采用单独一种神经网络识别时识别种类少的缺点;对多种未训练调制方式的可扩展性好,不需使用所有的模式重新训练DWNN,只需在第一层自适应归类得到的新的类别后加入相对简单的DWNN,并用未训练模式训练DWNN,实验表明此时的训练速度很快。因此,本发明方法具有自适应性和可扩展性,从这个角度来讲它优于BP网络分类器与DWNN分类器。本发明算法不仅具有抗噪性,同时具有隔离受到噪声的影响的调制方式的能力。\n[0024] 本发明方法的训练速度大大快于单个的DWNN分类器或者ART2A-E分类器的训练速度,并且计算量小,有利于满足实时性要求,从这一角度讲,组合神经网络分类器也优于单个的DWNN分类器或者ART2A-E分类器。\n附图说明\n[0025] 图1是标准ART2/2A神经网络的网络结构图,图2是图1所示的神经网络中第j个处理单元的拓扑结构图,图3是DWNN神经网络的结构图,图4是本发明的总体流程示意图,图5是ART2A-E神经网络各类别的质心示意图,图6是图5中经ART2A-E算法识别后的不可分模式的区域的示意图,图7是将图6中的不可分模式利用Sammon非线性算法映射为可分的模式的映射图。\n具体实施方式\n[0026] 具体实施方式一:下面结合图1~图5说明本实施方式,本实施方式基于ART2A神经网络和DWNN神经网络实现,ART2A神经网络由注意子系统、取向子系统和调制类型二次判决模块组成,注意子系统由短期记忆特征表示场F1和短期记忆类别表示场F2组成,取向子系统中预存警戒门限值ρ,它的通信信号调制方式的分类识别过程为:\n[0027] 步骤一、对通信信号进行特征向量提取,将提取后的特征向量作为ART2A神经网络的输入向量,应用ART2A-E算法对输入ART2A神经网络的输入向量进行处理:设定输入向量为N维列向量X(k),将N维列向量X(k)输入给ART2A神经网络的短期记忆特征表示场F1T\n的N个神经元,X(k)=[x1(k),...,xN(k)],k为输入N维列向量的序号,T表示矩阵的转置;\n[0028] 用M表示短期记忆类别表示场F2中神经元总数,μ(k)为输入N维列向量X(k)时短期记忆类别表示场F2中被占用的神经元个数,未占用的神经元不设定权向量;\n[0029] 将短期记忆特征表示场F1与短期记忆类别表示场F2间的内星连接权与外星连接权合并为由短期记忆特征表示场F1→短期记忆类别表示场F2的单一方向的权向量Wj(k),T\nWj(k)=[wj1(k),...,wjN(k)],j=1~μ(k);\n[0030] 应用线性变换使xi(k)满足0≤xi(k)≤1,i=1-N;\n[0031] 步骤二、对N维列向量进行竞争和匹配学习并进行聚类:当输入N维列向量的序号k=1时,Wj(k)=W1(1)=X(1),μ(1)=0,μ(2)=1;然后执行步骤三;\n[0032] 当输入N维列向量的序号k>1时,竞争和匹配度计算一步完成,匹配度最高的第* *\n一获胜标号用j1(k)表示,第一获胜标号j1(k)通过对X(k)与Wj*(k)(k)的欧式距离的计算*\n得到,与第一获胜标号j1(k)对应的匹配度为η1,将匹配度η1与取向子系统中预存的警戒门限值ρ进行比较:\n[0033] 当η1<ρ时,输入N维列向量的模式与预存储的模式不相符,将μ(k)与M值进行比较判断,若μ(k)<M,开辟一个标号为μ(k)+1的新聚类区,设定Wμ(k)+1(k)=X(k);\n若μ(k)=M,短期记忆类别表示场F2中神经元被占满,完成聚类,转入下一节拍学习;\n[0034] 当η1≥ρ时,输入N维列向量的模式与预存储的模式相符,匹配度合格,输入向*\n量进入自适应谐振状态,调整权向量同时完成聚类:若j≠j1(k),Wj(k+1)=Wj(k);若j=*\nj1(k),Wj(k+1)=Wj(k)+α[X(k)-Wj(k)],式中α为预设定的学习率;然后执行步骤三;\n[0035] 步骤三、对步骤二中经过聚类后获得的向量进行粗分类:设定经过聚类后输出的T\n向量为Y(k)=[Y1(k),...,YM(k)],将Y(k)输入给调制类型二次判决模块,调制类型二次判决模块将Y(k)判定为L类调制类型MTi,L≤M,1≤i≤L;\n[0036] 步骤四、精细分类:将步骤三中经过粗分类的每一类输出向量[Yi(k),...,Yj(k)]T\n分别作为一个DWNN神经网络的输入向量,对DWNN神经网络进行训练并调整权值,当DWNN神经网络的输出向量与预设的期望输出向量的误差小于预先设定的阈值时,完成对通信信号调制方式的分类识别,否则继续进行下一轮迭代学习。\n[0037] 在预处理过程中:ART2A-E算法对于输入向量X(k)的要求是满足0≤xi(k)≤1,i=1~N,对不满足要求的采用线性变换使之得到满足,这里不做向量的归一化处理。\n[0038] 公式Wj(k+1)=Wj(k)+α[X(k)-Wj(k)]中α为学习率,它决定网络各权向量适应环境的速度。学习率的确定没有明确的计算公式,选取过大导致不能收敛,选取过小,导致学习过程过慢。对于在线学习,对学习速度要求比较高,需要学习率适中,对于非在线学习过程,只要学习率不高即可。\n[0039] 采用ART2A-E算法分类识别的通信信号,在不同调制方式信号的样本特征集的类内集群程度不同,使得一个调制方式类型存在多个聚类区,即占用多个F2场输出节点,但在一定允许误差条件下,忽略一些次要聚类区,当警戒参数ρ取值适当时,主要聚类区是比较稳定的,因此,在ART2A-E的输出节点后设计了一个调制类型二次判决模块来做最终的调制类型判决。ART2A-E网络经过训练后每种模式都占用连续的多个输出节点(代表相应多个聚类区),调制类型二次判决作用就是把落在同一调制类型的任一聚类区内的样本都判决为这种调制类型,即根据训练结果可将连续的F2场的多个相关输出节点判决为同一种调制类型。警戒参数ρ的选择对网络的识别精度有很大影响,ρ值越大网络越敏感,分类也就越细,但是在有噪声的输入环境下网络的记忆容量将迅速耗尽;ρ值越小则分类越粗,容易将不同类的信号归为一类。ART2A-E是自组织分类网络,其中,警戒参数值具有重要的作用。警戒参数值大,ART2A-E网络能够识别具有相似特征的模式,但是却不能识别噪声干扰或特征失真的模式;警戒参数值小,则多个相近的模式被归为一类,且抗噪性好。然而目前警戒参数值的确定并没有定量的理论指导,因此,只有通过实验比较分析的方法来选择相对适应的警戒参数值。\n[0040] 所有输入模式样本和突触向量都能进行归一化并映射到Rn空间。利用Sammonn 2\n的非线性映射理论可以将归一化的向量从R 空间映射到R 空间,如图5所示。这种方法基于点映射使高维空间向量转换为低维空间向量,但数据内部结构几乎不变。图5中,D1,D2,...,D5表示经ART2A-E网络后分成的五个类别,m1,m2,...,m5分别是各类别的质心。yn n 5\n表示测试模式,θ表示测试模式与类别D3质心的夹角。Dj∈R 且R =∪ j=1Dj,Di∩Dj=Φ(i≠j)。通过分析ART2A-E的竞争学习机制,可知获胜的突触权向量mj即为Dj的质心,即mj代表类别Dj的判决中心。\n[0041] 具体实施方式二:本实施方式是对实施方式一中步骤二进一步说明:所述的步骤*\n二中第一获胜标号j1(k)的计算公式为:\n[0042] j1*(k)=arg(min[‖X(k)-Wj*(k)(k)‖]),j=1~μ(k),\n[0043] 式中:‖X(k)-Wj*(k)(k)‖表示X(k)与Wj*(k)(k)的欧式距离,\n[0044] X(k)与Wj*(k)(k)的欧式距离的计算公式为:\n[0045] \n[0046] 与第一获胜标号j1*(k)对应的匹配度η1的公式为:\n[0047] \n[0048] 具体实施方式三:本实施方式是对实施方式一中步骤三进一步说明:步骤三中,调制类型二次判决模块将经过聚类后输出的向量Y(k)判定为L类调制类型MTi的调制方法为:将L类调制类型MTi中每类调制类型设定对应的警戒门限值,根据警戒门限值将一个或T\n者多个连续输出节点[Yi(k),...,Yj(k)] 判决为一种调制类型MTi,其中1≤i≤j≤M。\n[0049] 具体实施方式四:下面结合图6和图7说明本实施方式,本实施方式是对实施方式一中步骤四进一步说明:步骤四中对DWNN神经网络进行训练并调整权值的方T\n法为:设定每个DWNN神经网络中与输入向量[Yi(k),...,Yj(k)] 对应的输出向量为[0050] 式中:vn(p)为与DWNN神经网络的第p个输入向量对应的第n个节点的输出向量,n取值范围为1到B,B表示DWNN神经网络的输出层节点个数,A为DWNN神经网络的隐含层节点个数,I为输入层节点个数,wnt为中间层到输出层的连接权向量,Uts为输入层到中间j -J J\n层的连接权向量,2 为小波伸缩因子,取值范围为2 ~2,Ys(p)为第p个输入训练样本的第s个输入值,s取值范围为1到L,k1为小波变换的平移因子,取值范围-K到K,t为隐含层神经元节点的标号,t取值范围从1到(2*J+1)(2*K+1),j=t/(2*K+1)-J,A=(2*J+1)(2*K+1),p=mod(t,2*K+1)-1,mod为取余函数;\n[0051] 设定 为DWNN神经网络的期望输出向量,则DWNN神经网络的输出误差为DWNN神经网络的输出误差对输入层到中间层的连接权向量的偏微分为:\n[0052] \n[0053] DWNN神经网络的输出误差对输出层到中间层的连接权向量的偏微分为:\n[0054] \n[0055] DWNN神经网络的输入层到中间层的连接权向量的调整量为:\n[0056] \n[0057] 式中η为预设定的学习因子,γ为预设定的动量因子,\n[0058] DWNN神经网络的输出层到中间层的连接权向量的调整量为:\n[0059] \n[0060] 调整DWNN神经网络的输入层到中间层的连接权向量为:\n[0061] Utsi+1=Utsi+ΔUtsi,\n[0062] 调整DWNN神经网络的输出层到中间层的连接权向量为:\n[0063] wnti+1=wnti+Δwnti。\n[0064] DWNN算法:\n[0065] DWNN算法是在小波神经网络基础上提出的,ψ(x)为母小波函数,可以根据所要识别信号的特点选择相应的母小波。小波神经网络不仅结构和BP网络相似,其学习规则也采用了误差的反相传播算法。\n[0066] ART2A-DWNN组合神经网络:\n[0067] ART2A-DWNN的结构如图4所示。ART2A-E网络作为组合神经网络的第一层,通过选取相对较小的警戒参数值可以将相近模式归为一类,即进行粗分类;DWNN直接连在ART2A网络相应类别的输出层。DWNN采用三层网络结构,采用时域频域同时具有较高分辨率的Morlet母小波ψ(x)。通过多输入、多输出前馈型神经网络,以二进小波基函数作为神经元激活函数,构造单隐层前馈神经网络,利用误差反向传播法进行学习,采用共轭梯度法修改突触权值,直到输出在误差范围以内。经过ART2A-E层粗略分类后,每个类内的模式数目大大减少,因此DWNN能够快速收敛,且识别准确性较高。\n[0068] 如图6所示,[Ymin,Ymax]为类的界限,它们取决于ART2A-E的警戒参数值大小。警戒参数值小,则类的范围增大,即类内包含更多的模式。第二阶段利用DWNN识别一个类内的模式。这里,假设类别1包含6种模式t1,t2,t3,...,t6,质心为m1。在DWNN的输出层,给每个模式制定一个特定的输出向量,如[001]代表模式t1,[010]代表模式t2。利用Sammon的非线性映射算法,如图7所示,t1,t2,t3,...,t6分配到一个圆域的周围,说明能够找到明确的界限,所以DWNN网络可以识别这六种模式。可见,ART2A-DWNN网络提高了分类器的识别能力,它能够识别特征空间相互混叠的两种模式,而单个的ART2A-E分类器或DWNN分类器却不能成功识别这六种模式。\n[0069] 当有新的模式输入ART2A-DWNN网络时,它可以根据和各信号的相似程度聚类到已存在的类内或自动作为ART2A神经网络的一个新的类而不影响原有的聚类情况。因此,只有和加入这个新模式的类相连的DWNN需要重新训练。从可扩展性这一角度来看,这一点非常重要。相反,如果只使用一个DWNN分类器,必需用所有待识别的模式重新训练DWNN网络,训练时间很长且会导致收敛速度慢与稳定性差的问题。由于待识别的模式数目越多,ART2A-E和DWNN分类器的识别性能就越差,而ART2A-DWNN分类器比单个的ART2A-E分类器或DWNN分类器能够识别更多的模式。而且,在ART2A-DWNN分类器中,输入模式经过第一层的ART2A-E神经网络粗糙分类后,每个类别内的模式数目大大减少,这样,在每个类别内再使用DWNN分类器,每次DWNN的训练时间也将大大减少,并且各个DWNN相互独立,可以同时并行训练,从而也节省了处理时间。\n[0070] 此外,对于ART2A-DWNN分类器,由于通过Sammon的非线性映射算法,可以找到明确的判决表面,因此,组合神经网络不存在误差曲线收敛到局部极小点的问题,从而避免了采用误差反馈算法的DWNN训练时误差曲线收敛到局部极小点的问题。\n[0071] 本发明识别方法针对ART2A和DWNN两种分类器各自的特点设计类ART2A-DWNN结构的分类器,采用双层判别结构,具有很广的识别范围、较高识别率、较强的可扩展性以及很强的抗噪性,并且训练与识别速度快,弥补了单个神经网络分类器的不足。
法律信息
- 2015-12-09
未缴年费专利权终止
IPC(主分类): G06K 9/66
专利号: ZL 200910073058.8
申请日: 2009.10.15
授权公告日: 2011.07.20
- 2011-07-20
- 2010-04-28
实质审查的生效
IPC(主分类): G06K 9/66
专利申请号: 200910073058.8
申请日: 2009.10.15
- 2010-03-10
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 |
1
| |
1995-03-29
|
1994-06-17
| | |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |