著录项信息
专利名称 | 多移动机器人的智能空间系统及导航信息获取方法 |
申请号 | CN201210384363.0 | 申请日期 | 2012-10-11 |
法律状态 | 权利终止 | 申报国家 | 中国 |
公开/公告日 | 2013-02-06 | 公开/公告号 | CN102914303A |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | G01C21/00 | IPC分类号 | G;0;1;C;2;1;/;0;0;;;H;0;4;W;8;4;/;1;8查看分类表>
|
申请人 | 江苏科技大学 | 申请人地址 | 江苏省镇江市梦溪路2号
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 江苏科技大学 | 当前权利人 | 江苏科技大学 |
发明人 | 袁明新;申燚;王琪;刘萍;程帅 |
代理机构 | 南京经纬专利商标代理有限公司 | 代理人 | 楼高潮 |
摘要
本发明公开了一种多移动机器人的智能空间系统及导航信息获取方法,智能空间系统由分布式视觉系统和基于Zigbee技术的无线传感器网络系统组成。所述方法先基于最大梯度相似曲线和仿射变换模型进行图像拼接,然后基于大津阈值分割和数学形态学进行图像分割获得环境地图。导航中移动机器人的定位采用以视觉定位为主,以Zigbee和DR(航位推算)组合定位为辅来弥补视觉定位中的视觉盲区。视觉定位主要基于H IS颜色模型和数学形态学,对含有机器人位置和方向标识的图像进行处理来实现定位。组合定位是利用联合卡尔曼滤波器对Zigbee和DR(航位推算)进行信息融合定位。
1.一种多移动机器人的智能空间系统的导航信息获取方法,所述智能空间系统由分布式视觉系统和基于Zigbee技术的无线传感器网络系统组成;分布式视觉系统由多个CCD摄像机(3)通过万向支架(2)分布且垂直地安装在室内顶棚(1)上构成,多个CCD摄像机(3)再通过视频线与插在室内监控主机(6)的PCI插槽内的多路图像采集卡(5)相连;基于Zigbee的无线传感器网络系统包括:参考节点(4)、盲节点(8)和Zigbee网关(9),参考节点(4)挂靠在室内四周墙壁上,盲节点(8)安装在移动机器人(7)身上,且每个移动机器人(7)都需安装一个盲节点(8),Zigbee网关(9)通过RS232串口与监控主机(6)连接;移动机器人(7)将自身的状态信息发送给监控主机(6),并接收来自监控主机(6)的控制信息;
移动机器人(7)之间进行状态信息的无线交互;其特征在于:多移动机器人的智能空间系统的导航信息获取方法,包括环境信息获取方法和机器人定位方法,其中环境信息获取方法如下:
采用所述移动机器人(7)先进行室内环境的图像拼接;然后进行地图信息获取;
图像拼接采用如下步骤:
(1)利用分布式CCD摄像机(3)采集室内不同区域的图像;
(2)进行图像预处理:采用5×5的结构元素对步骤(1)采集的图像进行中值滤波的平滑处理,去除图像中可能存在的噪声点得到待拼接图像;
(3)利用最大梯度相似曲线法确定待拼接图像各重叠区域;
(4)利用Harris角点检测算法在各重叠区域中提取角点;
(5)利用奇异值分解算法和欧式距离法进行各重叠区域的角点匹配;
(6)找出各重叠区域最相似的三对角点,建立各重叠区域的仿射变换模型;
(7)完成整个室内环境的图像拼接;
地图信息获取采用如下步骤:
1)基于YUV色彩模型,将上述步骤(7)所得的室内环境的拼接图像转换为灰度拼接图;
2)根据大津阈值法求灰度拼接图的最佳阈值,然后根据阈值法对灰度拼接图像进行二值化处理;
3)选择一个3×3的结构元素,对二值图像进行形态学的开运算,再选择一个5×5的结构元素,对其结果进行闭运算;
4)完成室内可行区域和非可行区域的分割,实现移动机器人(7)的环境地图信息获取;
所述机器人定位方法,采用视觉定位,包括机器人的位置坐标定位和航向角定位;
机器人的位置坐标定位采用如下步骤:
a)利用CCD摄像机(3)采集含有移动机器人(7)的彩色图像;
b)基于彩色像素矢量的欧氏距离,结合背景图像,对步骤a)中获得的彩色图像进行阈值分割,从而获得差分二值图像;
c)运用开运算对二值图像进行消噪处理,从而获得比较精确的移动机器人(7)运动目标;
d)对含有移动机器人(7)的二值图像进行逐行扫描,根据扫描当前行的线段是否与前一行线段是否相邻,来判断是合成连通区域,还是初始化新的连通区域;
e)根据各连通区域的像素坐标,从而获得各移动机器人(7)的位置坐标;
机器人的航向角定位采用视觉定位,具体步骤如下:
A)利用CCD摄像机(3)采集贴有方向和标识的T型颜色块的移动机器人(7)的彩色图像;
B)将移动机器人(7)彩色图像从RGB颜色空间转换到HIS颜色空间;
C)根据预设定的H和S阈值,对移动机器人(7)的T型颜色块进行图像分割;
D)运用开运算和闭运算对分割后图像进行平滑处理;
E)对T型的标识图像进行线性拟合,获得标识颜色块的斜率,并换算到角度,最后再根据方向颜色块进行移动机器人(7)的最终航向角确定。
2.根据权利要求1所述的多移动机器人的智能空间系统的导航信息获取方法,其特征在于:当视觉定位遇到视觉盲区时,采用Zigbee和航位推算DR组合定位,具体步骤如下:
(a)基于Zigbee无线传感器网络系统,在RSSI基础上,利用极大似然法获得移动机器人(7)的无线定位坐标;
(b)利用距离传感器(11)和航向传感器(12)组成的航位推算DR传感器,获得DR定位坐标;
(c)分别进行无线定位坐标和DR定位坐标的异常点剔除;
(d)将异常点剔除后的无线定位坐标送入Zigbee子滤波器进行数字滤波处理,输出状态估计 和状态预测协方差
(e)将异常点剔除后的DR定位坐标送入DR子滤波器进行数字滤波处理,输出状态估计和状态预测协方差
(f)将 和 送入主滤波器中进行信息融合,得到系统组
合定位的全局最优估计Xg(k)和Pg(k),即获得组合定位坐标;同时根据“信息分配”原则将它们反馈到Zigbee和DR子滤波器对XZb(k-1),PZb(k-1),XDR(k-1)和PDR(k-1)进行重置。
多移动机器人的智能空间系统及导航信息获取方法\n技术领域\n[0001] 本发明涉及一种多移动机器人的智能空间构建,尤其涉及到多移动机器人导航时环境地图和定位信息的获取。\n背景技术\n[0002] 随着科学技术和社会经济的发展,机器人应用领域正日星月异地发生着变化。多机器人系统由于内在并行性,使得其在空间、时间和功能上实现了单机器人无法完成的的并行任务。为了提高多移动机器人系统的任务执行效率,需要向其提供详细的导航信息。首先是机器人运动空间的环境信息,主要包含可行区域和非可行区域的环境地图;其次是移动机器人的定位信息,主要涉及到移动机器人的位姿;最后是信息的交互,这涉及到机器人与监控主机之间以及多机器人之间的通信。\n[0003] 为了帮助移动机器人获取更为完备的导航信息,构建智能空间是近年来的主要研究方向。所谓智能空间技术,就是把感知器件、执行器件分布地安装在机器人空间的相应位置,实现机器人对空间内人和物的全面感知,从而帮助其在不确定环境中更加快捷、准确和稳定的导航。从目前的研究来看,国内外专家主要通过在室内安装诸如人工地标、射频标签、CCD传感器等,并辅以网络系统来构建智能空间。中国专利号为CN102156476的专利文献公开了“智能空间与护士机器人多传感器系统及其信息融合方法”,涉及到为护士机器人所构建的一种智能空间,该空间主要通过在室内安装人工地标和无线射频标签,利用QR-Code和RFID技术来实现全局定位,通过在护士机器人身上安装光学编码器和惯性导航模块来实现局部定位,通过在护士机器人身上安装CCD视觉传感器、激光传感器、红外传感器等来获取局部环境信息。该系统存在以下不足:\n[0004] (1)基于智能空间内人工地标和无线射频标签的识别定位,只能进行全局的粗略定位,且当环境一旦发生变换时,需要对地标和标签进行重新设置和初始化;\n[0005] (2)护士机器人的精确定位主要是在上述地标和射频标签定位基础上,基于光学编码器和惯性导航模块来实现航位推算定位。但光学编码器存在累积误差,惯性导航存在漂移,使得定位精度很难保证。\n[0006] (3)护士机器人携带的激光传感器、红外传感器不能穿透非透明的障碍物,只能获取机器人周围的局部环境信息,无法得到机器人运动空间的全局信息,不利于机器人进行全局高效导航;\n[0007] (4)护士机器人自身虽然携带了CCD视觉传感器,在用于服务功能之余也用于环境信息获取,但获取的信息仍然是局部的,且立体匹配计算量非常大,对于硬件资源有限的服务机器人而言,其信息处理量过大,实时性很难保证。\n[0008] 总之,该智能空间主要依靠地标和射频标签来给服务机器人提供全局的粗略定位信息,功能有限。机器人所需的环境地图等导航信息仍要通过机器人自身携带的传感器系统来获得,增大了服务机器人的负担,弱化了智能空间作用。此外,该空间主要是针对单机器人系统,当室内有多个机器人时,如何高效地让多机器人系统获取完备的导航信息,如何实现多机器人之间的信息交互等都未提到。\n发明内容\n[0009] 本发明的目的在于为了给室内多移动机器人系统提供完备的导航信息,进而提供一种多移动机器人的智能空间及导航信息获取方法。\n[0010] 本发明的智能空间的技术方案是:智能空间系统由分布式视觉系统和基于Zigbee技术的无线传感器网络系统组成。分布式视觉系统包括安装在室内顶棚的多个CCD摄像机,多路图像采集卡,以及监控主机等。摄像机通过视频线与安装在监控主机PCI插槽内的图像采集卡相连。基于Zigbee技术的无线传感器网络系统包括以带有路由功能的CC2430芯片为核心的参考节点,带有硬件定位引擎的CC2431芯片为核心的盲节点,以及装有CC2430芯片的Zigbee网关。参考节点挂靠在室内四周墙壁上,盲节点安装在移动机器人身上,Zigbee网关通过RS232串口与监控主机相连,从而构成一个完整的无线传感器网络系统。\n[0011] 本发明的多移动机器人的智能空间系统的导航信息获取方法,包括环境信息获取方法和机器人定位方法,其中环境信息获取方法如下:\n[0012] 采用所述移动机器人所述先进行室内环境的图像拼接;然后进行地图信息获取。\n[0013] 图像拼接采用如下步骤:\n[0014] (1)利用分布式CCD摄像机采集室内不同区域的图像;\n[0015] (2)进行图像预处理:采用5×5的结构元素对步骤(1)采集的图像进行中值滤波的平滑处理,去除图像中可能存在的噪声点得到待拼接图像;\n[0016] (3)利用最大梯度相似曲线法确定待拼接图像各重叠区域;\n[0017] (4)利用Harris角点检测算法在各重叠区域中提取角点;\n[0018] (5)利用奇异值分解算法和欧式距离法进行各重叠区域的角点匹配;\n[0019] (6)找出各重叠区域最相似的三对角点,建立各重叠区域的仿射变换模型;\n[0020] (7)完成整个室内环境的图像拼接。\n[0021] 地图信息获取采用如下步骤:\n[0022] (1)基于YUV色彩模型,将上述步骤(7)所得的室内环境的拼接图像转换为灰度拼接图;\n[0023] (2)根据大津阈值法求灰度拼接图的最佳阈值,然后根据阈值法对灰度拼接图像进行二值化处理;\n[0024] (3)选择一个3×3结构元素,对二值图像进行形态学的开运算,再选择一个5×5结构元素,对其结果进行闭运算;\n[0025] (4)完成室内可行区域和非可行区域的分割,实现移动机器人(7)的环境地图信息获取。\n[0026] 所述机器人定位方法,采用视觉定位,包括机器人的位置坐标定位和航向角定位;\n[0027] 机器人位置坐标定位采用如下步骤:\n[0028] a)利用CCD摄像机采集含有移动机器人的彩色图像;\n[0029] b)基于彩色像素矢量的欧氏距离,结合背景图像,对步骤a)中获得的彩色图像进行阈值分割,从而获得差分二值图像;\n[0030] c)运用开运算对二值图像进行消噪处理,从而获得比较精确的移动机器人运动目标;\n[0031] d)对含有移动机器人的二值图像进行逐行扫描,根据扫描当前行的线段是否与前一行线段是否相邻,来判断是合成连通区域,还是初始化新的连通区域;\n[0032] e)根据各连通区域的像素坐标,从而获得各移动机器人的位置坐标。\n[0033] 机器人的航向角定位采用视觉定位,具体步骤如下:\n[0034] A)利用CCD摄像机采集贴有方向和标识的T型颜色块的移动机器人的彩色图像;\n[0035] B)将移动机器人彩色图像从RGB颜色空间转换到HIS颜色空间;\n[0036] C)根据预设定的H和S阈值,对移动机器人的T型颜色块进行图像分割;\n[0037] D)运用开运算和闭运算对分割后图像进行平滑处理;\n[0038] E)对T型的标识图像进行线性拟合,获得标识颜色块的斜率,并换算到角度,最后再根据方向颜色块进行移动机器人的最终航向角确定。\n[0039] 当视觉定位遇到视觉盲区时,采用Zigbee和航位推算DR组合定位,具体步骤如下:\n[0040] (a)基于Zigbee无线传感器网络系统,在RSSI基础上,利用极大似然法获得移动机器人的无线定位坐标;\n[0041] (b)利用距离传感器和航向传感器组成的航位推算DR传感器,获得DR定位坐标;\n[0042] (c)分别进行无线定位坐标和DR定位坐标的异常点剔除;\n[0043] (d)将异常点剔除后的无线定位坐标送入Zigbee子滤波器进行数字滤波处理,输出状态估计 和状态预测协方差\n[0044] (e)将异常点剔除后的DR定位坐标送入DR子滤波器进行数字滤波处理,输出状态估计 和状态预测协方差\n[0045] (f)将 和 送入主滤波器中进行信息融合,得到系\n统组合定位的全局最优估计Xg(k)和Pg(k),即获得组合定位坐标;同时根据“信息分配”原则将它们反馈到Zigbee和DR子滤波器对XZb(k-1),PZb(k-1),XDR(k-1)和PDR(k-1)进行重置。\n[0046] 本发明利用分布式视觉系统和基于Zigbee技术的无线传感器网络系统构建了一种新的智能空间,该空间可以为室内多移动机器人系统提供导航时所必需的环境地图和定位信息,能实现多机器人与监控主机,以及多机器人之间的无线通信,从而完成智能空间内的信息交互。与现行研究的其它智能空间相比,首先本发明不会因室内环境改变而受到影响;其次本智能空间的功能更强大,可以为室内多机器人系统提供更丰富和更精确的导航信息,减少了机器人本身携带的感知器件,减轻了机器人自身的信息处理负担,这将有助于提高机器人在其它服务功能方面的处理能力。\n附图说明\n[0047] 图1多移动机器人的智能空间模型;\n[0048] 图2移动机器人基本配置系统;\n[0049] 图3室内环境的图像拼接算法流程;\n[0050] 图4室内环境的地图信息获取算法流程;\n[0051] 图5移动机器人的视觉位置定位算法流程;\n[0052] 图6移动机器人的视觉航向角定位算法流程;\n[0053] 图7移动机器人的Zigbee无线定位流程;\n[0054] 图8移动机器人的Zigbee/DR组合定位算法流程;\n[0055] 图中1.室内空间顶棚,2.万向支架,3.CCD摄像机,4.参考节点,5.多路图像采集卡,6.监控主机,7.移动机器人,8.盲节点,9.Zigbee网关,10.微控制器,11.距离传感器,\n12.航向传感器,13.近距离检测传感器,14.CC2431芯片,15.执行机构。\n具体实施方式\n[0056] 下面结合附图对本发明的多移动机器人的智能空间及其导航信息获取方法进行详细描述:\n[0057] 如图1所示,智能空间系统包括分布式视觉系统和基于Zigbee的无线传感器网络系统。分布式视觉系统的构建:分布式CCD摄像机3通过万向支架2垂直安装在室内顶棚\n1上,CCD摄像机3通过视频线与多路图像采集卡5相连,图像采集卡5安装在室内监控主机6的PCI插槽内。基于Zigbee的无线传感器网络系统包括参考节点4、Zigbee网关9和盲节点8。参考节点4以带有路由功能的CC2430芯片为核心,挂靠在室内四周墙壁上,一般需要3-8个。盲节点8以带有硬件定位引擎的CC2431芯片为核心,安装在移动机器人7身上,每一个移动机器人7都需安装一个盲节点8。Zigbee网关9通过RS232串口与监控主机6连接。\n[0058] 本发明的智能空间中导航信息交互的技术方案是:基于Zigbee技术的无线传感器网络系统,移动机器人一方面接收来自监控主机发送的导航信息和控制命令;另一方面将自身的状态信息反馈给监控主机以及智能空间内其他移动机器人,从而实现信息交互。\n[0059] 如图2所示,为了完成智能空间的构建以及移动机器人导航信息的获取,移动机器人7需要进行最基本的配置,即配置距离传感器11与移动机器人7的微控制器10相连,用来记录移动机器人7的移动距离。配置航向传感器12与微控制器10相连,用来记录移动机器人7运动过程中的方向。利用距离传感器11和航向传感器12组成DR(航位推算)传感器,可以实现移动机器人7的航位推算定位。配置近距离检测传感器13与微处理器10相连,用来防止移动机器人7运动过程中的近距离障碍物碰撞。配置具有定位跟踪引擎功能的CC2431芯片14与微处理器10相连,使其作为盲节点8来实现移动机器人7的无线定位,从而完成Zigbee无线传感器网络系统的完整构建。配置执行机构15与微处理器10相连,主要用来驱动移动机器人的运动。\n[0060] 本发明的导航中环境地图信息获取方法的技术方案是:移动机器人7的环境地图是基于分布式视觉系统获得。监控主机首先基于分布式摄像机采集室内不同区域的图像,然后通过图像拼接算法进行室内环境拼接,接着再对拼接后图像进行障碍物分割,从而完成移动机器人7运动空间内的环境地图信息获取。\n[0061] 为了获取移动机器人导航时所需的环境地图信息,首先需要利用智能空间中的分布式视觉系统进行室内环境的图像拼接。如图3所示,室内环境的图像拼接包括如下步骤:\n[0062] (1)利用智能空间内分布式摄像机3采集室内不同区域的图像;\n[0063] (2)进行图像预处理:采用5×5的结构元素对图像进行中值滤波的平滑处理,去除图像中可能存在的噪声点;\n[0064] (3)利用最大梯度相似曲线法进行待拼接图像重叠区域的精确确定;\n[0065] (4)利用Harris角点检测算法在各重叠区域进行角点提取;\n[0066] (5)利用奇异值分解算法和欧式距离法进行各重叠区域的角点匹配;\n[0067] (6)找出各重叠区域最相似的三对角点,建立各重叠区域的仿射变换模型;\n[0068] (7)完成整个室内环境的图像拼接。\n[0069] 在获取了室内拼接图像之后,即可进行移动机器人7的环境地图信息提取。如图\n4所示,室内地图的信息获取包括如下步骤:\n[0070] (1)基于YUV色彩模型,将将上述步骤(7)所得的室内环境的拼接图像转换为灰度拼接图;\n[0071] (2)根据大津阈值法求取灰度拼接图的最佳阈值,然后根据阈值法对灰度拼接图像进行二值化处理;\n[0072] (3)选择一个3×3结构元素,对二值图像进行形态学的开运算,再选择一个5×5结构元素,对其结果进行闭运算;\n[0073] (4)完成室内可行区域和非可行区域的分割,实现移动机器人的环境地图信息获取。\n[0074] 本发明的导航中移动机器人定位信息获取方法的技术方案是:移动机器人以视觉定位为主,以Zigbee和DR(航位推算)组合定位为辅。视觉定位首先利用摄像机采集到贴有方向和标识的T型颜色块的移动机器人图像,然后利用图像处理技术进行位置和T型颜色块的分割,从而获得移动机器人的位置坐标和航向角,进而实现基于视觉的主定位。\nZigbee和DR(航位推算)组合定位主要是用来弥补视觉定位过程中可能存在的视觉盲区,其首先基于RSSI(接收信号强度指示)模型获得移动机器人的无线定位坐标,以及基于距离和航向传感器获得DR坐标,然后利用联合卡尔曼滤波实现两者坐标的信息融合,从而实现移动机器人的组合定位。\n[0075] 如图5所示,智能空间系统内移动机器人的视觉位置定位算法包括如下步骤:\n[0076] (1)利用CCD摄像机3采集含有移动机器人7的彩色图像;\n[0077] (2)基于彩色像素矢量的欧氏距离,结合背景图像,对步骤(1)中获得的彩色图像进行阈值分割,从而获得差分二值图像;\n[0078] (3)运用开运算对二值图像进行消噪处理,从而获得比较精确的移动机器人7运动目标;\n[0079] (4)对含有移动机器人7的二值图像进行逐行扫描,根据扫描当前行的线段是否与前一行线段是否相邻,来判断是合成连通区域,还是初始化新的连通区域;\n[0080] (5)根据各连通区域的像素坐标,从而获得各移动机器人7的位置坐标。\n[0081] 如图6所示,智能空间内移动机器人的视觉航向角定位方法包括如下步骤:\n[0082] (1)利用CCD摄像机3采集贴有方向和标识的T型颜色块的移动机器人7的彩色图像;\n[0083] (2)将移动机器人7彩色图像从RGB颜色空间转换到HIS颜色空间;\n[0084] (3)根据预设定的H和S阈值,对移动机器人7的T型颜色块进行图像分割;\n[0085] (4)运用开运算和闭运算对分割后图像进行平滑处理;\n[0086] (5)对T型的标识图像进行线性拟合,获得标识颜色块的斜率,并换算到角度,最后再根据方向颜色块进行移动机器人7的最终航向角确定。\n[0087] 如图7所示,智能空间系统内移动机器人7的Zigbee无线定位流程包括如下步骤:\n[0088] (1)Zigbee网关9构建无线网络;\n[0089] (2)网络系统完成智能空间内四周所有参考节点4的配置;\n[0090] (3)网络系统完成所有移动机器人7身上盲节点8的配置;\n[0091] (4)所有移动机器人7身上盲节点8,向四周参考节点4发送含X,Y(坐标)和RSSI(接收信号强度指示)的数据包请求;\n[0092] (5)所有盲节点8根据参考节点4的XY-RSSI值,利用极大似然估计法得出各自坐标;\n[0093] (6)所有盲节点8将各自坐标信息发送给Zigbee网关9;\n[0094] (7)Zigbee网关9通过RS232串口将各机器人7的坐标传送给监控主机6。\n[0095] 当移动机器人视觉定位因视觉盲区无效时,智能空间将采用基于Zigbee/DR的组合定位来弥补。如图8所示,该组合定位流程包括如下步骤:\n[0096] (1)基于Zigbee无线传感器网络系统,在RSSI基础上,利用极大似然法获得各移动机器人7的无线定位坐标;\n[0097] (2)利用距离传感器11和惯性导航模块12组成的DR(航位推算)传感器,获得DR定位坐标;\n[0098] (3)分别进行无线定位坐标和DR定位坐标的异常点剔除;\n[0099] (4)将异常点剔除后的无线定位坐标送入Zigbee子滤波器进行数字滤波处理,输出状态估计 和状态预测协方差\n[0100] (5)将异常点剔除后的DR定位坐标送入DR子滤波器进行数字滤波处理,输出状态估计 和状态预测协方差\n[0101] (6)将 , 和 送入主滤波器中进行信息融合,得到系统\n组合定位的全局最优估计Xg(k)和Pg(k),即获得组合定位坐标;同时根据“信息分配”原则将它们反馈到Zigbee和DR子滤波器对XZb(k-1),PZb(k-1),XDR(k-1)和PDR(k-1)进行重置。
法律信息
- 2018-10-09
未缴年费专利权终止
IPC(主分类): G01C 21/00
专利号: ZL 201210384363.0
申请日: 2012.10.11
授权公告日: 2015.01.21
- 2015-01-21
- 2013-03-20
实质审查的生效
IPC(主分类): G01C 21/00
专利申请号: 201210384363.0
申请日: 2012.10.11
- 2013-02-06
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 |
1
| |
2009-10-21
|
2009-05-07
| | |
2
| | 暂无 |
2009-12-10
| | |
3
| |
2007-04-11
|
2006-10-21
| | |
4
| | 暂无 |
1989-10-03
| | |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |