著录项信息
专利名称 | 一种基于深度相关匹配模型的信息检索方法 |
申请号 | CN201811082554.5 | 申请日期 | 2018-09-17 |
法律状态 | 授权 | 申报国家 | 中国 |
公开/公告日 | 2019-01-11 | 公开/公告号 | CN109189915A |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | G06F16/335 | IPC分类号 | G;0;6;F;1;6;/;3;3;5;;;G;0;6;N;3;/;0;8查看分类表>
|
申请人 | 重庆理工大学 | 申请人地址 | 重庆市巴南区李家沱红光大道69号
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 重庆理工大学 | 当前权利人 | 重庆理工大学 |
发明人 | 朱小飞;杨州;张宜浩;王越;甄少明;兰毅 |
代理机构 | 重庆博凯知识产权代理有限公司 | 代理人 | 黄河 |
摘要
本发明公开一种基于深度相关匹配模型的信息检索方法,包括如下步骤:获取检索词及文档的文档词;构建各个文档对应不同检索词的初始交互矩阵;使用具有检索维度的k‑max池化函数对各个初始交互矩阵降维得到各个文档对应不同检索词Top‑K交互矩阵;使用多层神经网络计算各个文档的Top‑K交互矩阵的检索得分;基于各个文档的检索得分的大小对各个文档进行排序,得到检索结果。本发明充分考虑了相似检索词的重要性,显著提高了检索的性能。
1.一种基于深度相关匹配模型的信息检索方法,其特征在于,包括如下步骤:
获取检索词及文档的文档词;
随机初始化每个检索词及文档词对应的多层神经网络中的神经节点的权重;
将各个检索词以词嵌入的形式表示得到各个检索词的词嵌入矩阵;
将各个文档的文档词以词嵌入的形式表示得到各个文档的词嵌入矩阵;
基于文档词对应的神经节点的权重对各个文档的词嵌入矩阵进行映射得到各个文档
的文档词权重向量;
分别求各个检索词的词嵌入矩阵与各个文档的词嵌入矩阵的向量的点积,并添加各个
文档的文档词权重向量得到各个文档对应不同检索词的初始交互矩阵;
使用具有检索维度的k‑max池化函数对各个初始交互矩阵降维得到各个文档对应不同
检索词Top‑K交互矩阵;
使用多层神经网络计算各个文档的Top‑K交互矩阵的检索得分;
基于各个文档的检索得分的大小对各个文档进行排序,得到检索结果;
所述多层神经网络可表示为
k k
其中,w 和b分别表示第k层神经网络的权重矩阵和偏差,ak表示第k层神经网络的激活
函数,gqi表示第i个检索词的权重系数,i=1,2,…,M,M表示检索词的总个数,s表示检索得
分,k=1,2,…,L,L表示多层神经网络的网络总层数, 表示第i个检索词第k层神经网络的
Top‑K交互矩阵;
第i个检索词的权重系数gqi=softmax(wqiqi),qi表示第i个检索词的词嵌入矩阵,wqi表
示第i个检索词对应的多层神经网络中的神经节点的权重,softmax()表示归一化指数函
数;
任一文档中第i个检索词对应的降维后的Top‑K交互矩阵为 其中,
M表示检索词的总个数,Tk表示具有检索维度的k‑max池
化函数,d为所述文档的词嵌入矩阵,gd为所述文档的文档词权重向量,gd={gd1,gd2,…,
gdj,…,gdN},gdj为所述文档中第j个文档词的权重,gdj=wdjdj,wdj表示第j个文档词对应的
多层神经网络中的神经节点的权重,dj为第j个文档词的词嵌入矩阵,j=1,2,…,N,N表示
文档中包含的文档词的总个数,文档的词嵌入矩阵由所述文档中所有文档词的词嵌入矩阵
组成。
2.如权利要求1所述的基于深度相关匹配模型的信息检索方法,其特征在于,通过损失
函数L(θ)对神经网络的参数进行优化,其中,
+
θ表示神经网络中任意一种需要优化的参数,q表示检索词的集合,d来自正样本文档集
+ + ‑ ‑ ‑
D ,d 表示与检索词正相关的文档词集,d来自负样本文档集D ,d表示与检索词无关和/或
负相关的文档词集。
一种基于深度相关匹配模型的信息检索方法\n技术领域\n[0001] 本发明涉及计算机领域,尤其涉及一种基于深度相关匹配模型的信息检索方法。\n背景技术\n[0002] 在传统的信息检索模型中,它们会根据精确匹配信号测量文档的相关性。也就是\n说,相关性得分通过来自文档的检索词的频率所确定。因为忽略了相似匹配信号,这类模型\n经常面临典型的单词不匹配问题。最近,深度神经网络在许多自然语言处理任务中取得了\n巨大成功。同时,这些深度神经网络也已应用于信息检索,称为神经信息检索(即NeuIR)。他\n们用词嵌入作为单词的表达,再基于这些表达来构建一些模型,这些模型的检索性能有比\n较大的提高。\n[0003] 单词的重要性对信息检索的模型非常重要。在传统的检索模型中,他们基于逆文\n档频率(即IDF)来测量单词的重要性。由于这些模型仅考虑与检索词相同的文档词,因此仅\n考虑检索词的IDF就足够了。最近,神经检索模型采用深度神经网络来模拟检索词和文档词\n之间的相似匹配。通过这种方式,与检索词相似的词也能够被检索到。然而,现有的神经检\n索模型忽略了这些相似检索词的重要性,检索性能较差。\n[0004] 因此,如何提供一种新的技术方案,提高检索性能成为了本领域技术人员急需解\n决的问题。\n发明内容\n[0005] 针对现有技术中存在的上述不足,本发明公开了一种基于深度相关匹配模型的信\n息检索方法,充分考虑了相似检索词的重要性,显著提高了检索的性能。\n[0006] 为解决上述技术问题,本发明采用了如下的技术方案:\n[0007] 一种基于深度相关匹配模型的信息检索方法,包括如下步骤:\n[0008] 获取检索词及文档的文档词;\n[0009] 随机初始化每个检索词及文档词对应的多层神经网络中的神经节点的权重;\n[0010] 将各个检索词以词嵌入的形式表示得到各个检索词的词嵌入矩阵;\n[0011] 将各个文档的文档词以词嵌入的形式表示得到各个文档的词嵌入矩阵;\n[0012] 基于文档词对应的神经节点的权重对各个文档的词嵌入矩阵进行映射得到各个\n文档的文档词权重向量;\n[0013] 分别求各个检索词的词嵌入矩阵与各个文档的词嵌入矩阵的向量的点积,并添加\n各个文档的文档词权重向量得到各个文档对应不同检索词的初始交互矩阵;\n[0014] 使用具有检索维度的k‑max池化函数对各个初始交互矩阵降维得到各个文档对应\n不同检索词Top‑K交互矩阵;\n[0015] 使用多层神经网络计算各个文档的Top‑K交互矩阵的检索得分;\n[0016] 基于各个文档的检索得分的大小对各个文档进行排序,得到检索结果。\n[0017] 优选地,所述多层神经网络可表示为\n[0018]\n[0019]\n[0020] 其中,wk和bk分别表示第k层神经网络的权重矩阵和偏差,ak表示第k层神经网络的\n激活函数,gqi表示第i个检索词的权重系数,i=1,2,…,M,M表示检索词的总个数,s表示检\n索得分,k=1,2,…,L,L表示多层神经网络的网络总层数, 表示第i个检索词第k层神经网\n络的Top‑K交互矩阵。\n[0021] 优选地,第i个检索词的权重系数gqi=softmax(wqiqi),qi表示第i个检索词的词嵌\n入矩阵,wqi表示第i个检索词对应的多层神经网络中的神经节点的权重,softmax()表示归\n一化指数函数。\n[0022] 优选地,任一文档中第i个检索词对应的降维后的Top‑K交互矩阵为 其中,\nM表示检索词的总个数,Tk表示具有检索维度的k‑max池\n化函数,d为所述文档的词嵌入矩阵,gd为所述文档的文档词权重向量,gd={gd1,gd2,…,\ngdj,…,gdN},gdj为所述文档中第j个文档词的权重,gdj=wdjdj,wdj表示第j个文档词对应的\n多层神经网络中的神经节点的权重,dj为第j个文档词的词嵌入矩阵,j=1,2,…,N,N表示\n文档中包含的文档词的总个数,文档的词嵌入矩阵由所述文档中所有文档词的词嵌入矩阵\n组成。\n[0023] 优选地,通过损失函数L(θ)对神经网络的参数进行优化,其中,\n[0024]\n[0025] θ表示神经网络中任意一种需要优化的参数,q表示检索词的集合,d+来自正样本\n+ + ‑ ‑\n文档集D ,d 表示与检索词正相关的文档词集,d 来自负样本文档集D‑,d 表示与检索词无\n关和/或负相关的文档词集。\n[0026] 综上所述,本发明公开一种基于深度相关匹配模型的信息检索方法,包括如下步\n骤:获取检索词及文档的文档词;随机初始化每个检索词及文档词对应的多层神经网络中\n的神经节点的权重;将各个检索词以词嵌入的形式表示得到各个检索词的词嵌入矩阵;将\n各个文档的文档词以词嵌入的形式表示得到各个文档的词嵌入矩阵;基于文档词对应的神\n经节点的权重对各个文档的词嵌入矩阵进行映射得到各个文档的文档词权重向量;分别求\n各个检索词的词嵌入矩阵与各个文档的词嵌入矩阵的向量的点积,并添加各个文档的文档\n词权重向量得到各个文档对应不同检索词的初始交互矩阵;使用具有检索维度的k‑max池\n化函数对各个初始交互矩阵降维得到各个文档对应不同检索词Top‑K交互矩阵;使用多层\n神经网络计算各个文档的Top‑K交互矩阵的检索得分;基于各个文档的检索得分的大小对\n各个文档进行排序,得到检索结果。\n附图说明\n[0027] 图1为本发明公开的一种基于深度相关匹配模型的信息检索方法的流程图。\n[0028] 图2为本发明采用本发明的方法选择不同的top‑k时的性能比较。\n具体实施方式\n[0029] 下面结合附图对本发明作进一步的详细说明。\n[0030] 如图1所示,本发明公开了一种基于深度相关匹配模型的信息检索方法,包括如下\n步骤:\n[0031] S101、获取检索词及文档的文档词;\n[0032] S102、随机初始化每个检索词及文档词对应的多层神经网络中的神经节点的权\n重;\n[0033] S103、将各个检索词以词嵌入的形式表示得到各个检索词的词嵌入矩阵;\n[0034] S104、将各个文档的文档词以词嵌入的形式表示得到各个文档的词嵌入矩阵;\n[0035] S105、基于文档词对应的神经节点的权重对各个文档的词嵌入矩阵进行映射得到\n各个文档的文档词权重向量;\n[0036] gd为文档词权重向量,首先用文档中所有的文档词的词嵌入进行映射,假设,文档\n有300个词,词嵌入为50维,那么文档词嵌入矩阵为300*50维,用文档词对应的多层神经网\n络中的神经节点的权重映射为300*1维,如果检索词有5个单词,则将300*1维的矩阵扩展为\n5*300*1维,即文档词权重向量。\n[0037] S106、分别求各个检索词的词嵌入矩阵与各个文档的词嵌入矩阵的向量的点积,\n并添加各个文档的文档词权重向量得到各个文档对应不同检索词的初始交互矩阵;\n[0038] 每个文档的词嵌入矩阵与各个检索词的词嵌入矩阵都会得到一个初始交互矩阵,\n即一个文档的初始交互矩阵的个数等于检索词的个数。\n[0039] 给定检索词和文档,每个检索词和文档的文档词均处于分布式表示中,以求点积\n的方式以形成待添加重要性数据初始交互矩阵,为了强调文档中的不同单词具有不同的显\n着性水平,将文档词的重要性添加到矩阵中,即将待添加重要性数据初始交互矩阵的值和\n文档词权重向量的值相加,得到初始交互矩阵。\n[0040] S107、使用具有检索维度的k‑max池化函数对各个初始交互矩阵降维得到各个文\n档对应不同检索词Top‑K交互矩阵;\n[0041] 文档中不重要的文档词也包括在初始交互矩阵中并参与了后续计算。通过我们的\n研究,与检索词具有高相关性的文档词基本上确定了文档的检索得分,低相关的文档词,如\n停用词,对检索得分的影响很低,在此基础上,我们提出了基于检索维度的top‑k池化函数,\n以选择最优文档词,去除不良文档词。处理k‑max池层后,对于每个文档都是选取前K个最强\n的文档词,整个文档维度的长度为K,它形成一个固定值,能够有效减少计算量,提高检索效\n率,并为传入神经网络提供条件。\n[0042] 一般情况下,检索词或者文档中的文档词的词嵌入输入神经网路是不会改变的,\n但是由于词嵌入是通过其他数据训练而来,在当前数据训练或者预测时,难免会有偏差,因\n此,在当前数据训练的时候,神经网络也会像调整其他参数的值一样调整词嵌入的值,以此\n来调节数据的不一致问题。本发明充分利用现有的词嵌入来加速训练,突破了原始单词嵌\n入的局限,最大限度地避免了缺点。\n[0043] S108、使用多层神经网络计算各个文档的Top‑K交互矩阵的检索得分;\n[0044] S109、基于各个文档的检索得分的大小对各个文档进行排序,得到检索结果。\n[0045] 本发明中,检索词可以以检索词集的形式存在,一个检索词集包括多个检索词。\n[0046] 在传统的信息检索模型中,它们会根据精确匹配信号测量文档的相关性。也就是\n说,相关性得分通过来自文档的检索词的频率所确定。因为忽略了相似匹配信号,这类模型\n经常面临典型的单词不匹配问题。最近,深度神经网络在许多自然语言处理任务中取得了\n巨大成功。同时,这些深度神经网络也已应用于信息检索,称为神经信息检索(即NeuIR)。他\n们用词嵌入作为单词的表达,再基于这些表达来构建一些模型,这些模型性能上有比较大\n的提高。\n[0047] 单词的重要性对信息检索的模型非常重要。在传统的检索模型中,他们基于逆文\n档频率(即IDF)来测量单词的重要性。由于这些模型仅考虑与检索词相同的文档词,因此仅\n考虑检索词的IDF就足够了。最近,神经检索模型采用深度神经网络来模拟检索词和文档词\n之间的相似匹配。通过这种方式,与检索词相似的词也能够被检索到。然而,现有的神经检\n索模型忽略了这些相似检索词的重要性,它们对模型的贡献也很大。以下面的例子为例:\n[0048] 检索:介绍生活在水中的动物,如鲨鱼\n[0049] 文档片段A:在水中游泳的海豚正在寻找食物。\n[0050] 文档片段B:一只黄色小狗落入水中。\n[0051] 从上面的例子可以看出,与精确匹配的信号“水”相比,“海豚”和“小狗”作为相似\n的匹配信号分别出现在文件A,B中。鉴于“水”和“鲨鱼”在检索中提供的语义环境,“海豚”的\n重要性应该大于“小狗”。因此,在不强调文档单词的重要性的情况下,很容易发生匹配错\n误。当强调词语的重要性时,它将对正确的匹配产生有利的贡献。\n[0052] 因此,本发明在对检索和文档之间的相关性进行建模时考虑了文档词的重要性,\n具体来说,本发明的方法以检索和文档的文本的词嵌入为输入,通过深度神经网络自动提\n取相关信号,产生最终的检索得分,首先构建交互矩阵,其中每个元素表示相应检索词和文\n档词之间的交互。同时,我们将文档词的词嵌入压缩到一个小维度,并融合到交互矩阵中。\n这样,交互矩阵不仅可以捕获匹配信号,还可以捕获文档重要性。然后,我们在交互矩阵上\n应用top‑k池化层,并获得必要的最强的k个相关信号。最强相关性信号与每个检索项相关\n联,并投影到多层神经网络中以获得检索层面的匹配分数。最后,网络所产生的匹配分数与\n权重控制网络点积以产生检索得分。与现有技术相比,采用本发明公开的方法,能够显著提\n升检索性能。\n[0053] 本发明公开的方法,可以以一个深度相关匹配模型的形式存在,这个模型的工作\n原理即是本发明中S102至S109步骤中的方法。\n[0054] 具体实施时,所述多层神经网络可表示为\n[0055]\n[0056]\n[0057] 其中,wk和bk分别表示第k层神经网络的权重矩阵和偏差,ak表示第k层神经网络的\n激活函数,gqi表示第i个检索词的权重系数,i=1,2,…,M,M表示检索词的总个数,s表示检\n索得分,k=1,2,…,L,L表示多层神经网络的网络总层数, 表示第i个检索词第k层神经网\n络的Top‑K交互矩阵,任一文档中第i个检索词对应的降维后的Top‑K交互矩阵为 为\n多层神经网络第一层的输入。\n[0058] 本发明中,激活函数可以采用softplus函数。\n[0059] 具体实施时,第i个检索词的权重系数gqi=softmax(wqiqi),qi表示第i个检索词的\n词嵌入矩阵,wqi表示第i个检索词对应的多层神经网络中的神经节点的权重,softmax()表\n示归一化指数函数。\n[0060] 具体实施时,任一文档中第i个检索词对应的降维后的Top‑K交互矩阵为 其中,\nM表示检索词的总个数,Tk表示具有检索维度的k‑max池\n化函数,d为所述文档的词嵌入矩阵,gd为所述文档的文档词权重向量,gd={gd1,gd2,…,\ngdj,…,gdN},gdj为所述文档中第j个文档词的权重,gdj=wdjdj,wdj表示第j个文档词对应的\n多层神经网络中的神经节点的权重,dj为第j个文档词的词嵌入矩阵,j=1,2,…,N,N表示\n文档中包含的文档词的总个数,文档的词嵌入矩阵由所述文档中所有文档词的词嵌入矩阵\n组成。\n[0061] ·表示检索词和文档词之间的交互操作符,其作用是求向量的点积。\n[0062] 具体实施时,通过损失函数L(θ)对神经网络的参数进行优化,其中,\n[0063]\n[0064] θ表示神经网络中任意一种需要优化的参数,q表示检索词的集合,d+来自正样本\n+ + ‑ ‑ ‑\n文档集D,d表示与检索词正相关的文档词集,d来自负样本文档集D ,d 表示与检索词无关\n和/或负相关的文档词集。\n[0065] θ表示神经网络中任意一种需要优化的参数,例如wk或bk。正样本和负样本文档集\n是通过官方下载的标准文档库,他们是用人工标注的正负样例,规整为文档集。本发明中,\n扩大了正样本和负样本之间的差距,使得正分数大于负分大于1,通过反向传播算法优化神\n经网络。\n[0066] 如图2所示,下面为本发明的方法与传统方法的实验比较示例:\n[0067] 数据集\n[0068] Million Query Track 2007:简称MQ2007。数据集是LETOR4.0的子集,由网络爬虫\n从域名GOV2网站收集,用户点击用作文档排序的基础,包括25M文档和10000个检索词集。\nMQ2007共有58730个文档和1501个检索词集。其中,文档和检索词集中的单词是小写的和索\n引的,并且使用Krovetz词干分析器提取相应的单词。另外,参考INQUERY中的停用词列表,\n我们删除了检索词集中的停用词。表1详细列出了数据集的参数。\n[0069] Robust04:Robust04是一个小型新闻数据集。我们使用Robust04‑title作为我们\n的数据集之一。这些主题来自TREC Robust Track 2004.这里的Robust04‑Title意味着主\n题的标题被用作检索词。该集合包含0.5M文档和250个检索词集。词汇量大小为0.6M,文档\n大小为252M。在下表1中更清楚地描述。\n[0070] 表1\n[0071] MQ2007 Robust04\n检索词集数 1501 250\n文档数 58730 324541\n[0072] 基准方法\n[0073] 我们的基准包括传统模型,包括BM25,以及一些最近的神经网络模型。一种类型是\n以表示为中心的深度匹配模型,包括ACR‑I,DSSM,CDSSM,另一种以交互为中心的深度匹配\n模型如下:ACR‑II,MatchPyramid,DRMM。\n[0074] 我们选择一些神经深度匹配模型进行比较,我们将在下面介绍这些模型:\n[0075] ARC‑I:ARC‑I是一种以表示为中心的模型。ARC‑I已经在一组NLP任务上进行了测\n试,包括短语匹配,完形填空和释义识别。\n[0076] DSSM:DSSM是一个出色的网络搜索模型。原始论文提到训练DSSM需要大量数据。在\n以下实验中,它没有显示出优异的结果。\n[0077] CDSSM:DSSM是CDSSM的改进版本。它主要将DSSM中的全连接层改为卷积层,通过这\n种方式获得更多的结构信息,并且性能得到改善。\n[0078] ARC‑II:它是ACI‑I的改进版本。它已经注意到交互的重要性,并且比ARC‑I更早地\n学习了交互信息。ARC‑I和ARC‑II没有开源代码,因此它被重新实现并应用于比较模型。\n[0079] MatchPyramid:它是一种广泛使用的模型。MatchPyramid有三个版本。我们选择最\n佳模型进行比较。实验比较中使用的模型是作者提供的原始模型。\n[0080] DRMM:DRMM是以交互为中心的模型,具有不同类型的直方图映射函数(即,CH,NH和\nLCH)和权重门控函数(即,TV和IDF)。我们选择最佳的结果模型进行比较。同样,实验中使用\n的模型是作者提供的原始模型。\n[0081] 在使用中,采用本发明的方法时:\n[0082] 词嵌入尺寸:我们使用50维的词嵌入,它由GloVe模型提前训练。在培训过程中由\n于数据量较小,我们没有同步训练词嵌入。通过我们的统计,语料库的词汇是193367。\n[0083] K‑max池化层大小:k‑max池化层选择512个最佳文档词,其他不会输入神经网络。\n通过我们的研究,数据集中的不同特征和数量会影响此参数大小的设置。\n[0084] 多层神经网络规模:多层神经网络的大小设置为[512,512,256,128,64,32,16,\n1],实验使用softplus的激活函数。\n[0085] 模型优化:使用Adam优化器进行优化,e为1‑5,学习率为0.001,批量大小为100。我\n们在MatchZoo开发上进行了开发,它是一个使用keras tensorflow的开源匹配模型开发平\n台,包括当今最先进的匹配模型。\n[0086] 评估结果:\n[0087] 显然,我们提出的方法(即表中的DTMM)比基线有显着改进。MQ2007和robust04中\n的模型的实验结果如表2及表3。\n[0088] 表2\n[0089]\n[0090] 表3\n[0091]\n[0092] 在MQ2007数据集上,所有以表示为中心的模型(包括DSSM,CDSSM,ARC‑I)和大多数\n以交互为中心的模型(包括DRMM,ARC‑II,MatchPyramid)都不如BM25。在之前的模型中,只\n有DRMM的性能优于BM25。以表示为中心的模型的性能通常不如以交互为中心的模型的性\n能。在某种程度上,这说明了IR中相关性强调的三个因素的作用。在MQ2007上DTMM对最佳深\n度学习基准(即DRMM)的提升如下NDCG@1为20.6%,P@1为15%,MAP为8%,这说明了我们的\n方法在IR任务上的优越性。\n[0093] 在robust04数据集上,大多数以交互为中心的模型的性能也明显优于以表示为中\n心的模型。但是一个例外是,以交互为中心的模型ARC‑II具有与CDSSM相同的性能,并且不\n如以表示为中心的模型DSSM。这可能与该数据集中特征的不均匀分布有关。当ARC‑II截断\n文本长度时,它会删除文档末尾的重要信息,这会对模型性能产生影响。同样,除DRMM模型\n外,大多数以交互为中心的模型和以表示为中心的模型不能超过BM25性能。在此数据集上,\n与最佳模型DRMM相比,DTMM也实现了最佳效果。DTMM相对于robust04的最佳深度学习基准\n(即DRMM)的改进分别是NDCG@20为7.4%,P@20为13%,MAP为12.5%。\n[0094] 表4显示了DTMM和没有注重文档词权重的DTMM版本(DTMMno)之间的比较。DTMMno表\n示没有文档单词重要性的模型。在评估ndcg@3,ndcg@5,ndcg@10和MAP时,完整的DTMM在\nndcg@3,ndcg@5,ndcg@10和MAP指标上分别比DTMMno的性能高8.25%,7.58%,6.39%,\n2.85%。它表明强调文档中不同单词的重要性是有意义的。\n[0095] 表4\n[0096]\n[0097] 此外,在本发明进行检索时,可以先使用OKapi BM25算法初步筛选出符合的文档,\n然后使用本方法来选出更加精确的文档。\n[0098] 上述仅是本发明优选的实施方式,需指出是,对于本领域技术人员在不脱离本技\n术方案的前提下,还可以作出若干变形和改进,上述变形和改进的技术方案应同样视为落\n入本发明要求保护的范围。
法律信息
- 2021-10-15
- 2019-02-12
实质审查的生效
IPC(主分类): G06F 16/335
专利申请号: 201811082554.5
申请日: 2018.09.17
- 2019-01-11
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有引用任何外部专利数据! |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |