1.一种视频播放处理方法,其特征在于,包括:
获取移动终端所播放的3D视频的场景信息;
根据所述场景信息,配置所述3D视频当前播放场景对应的4D感官体验指令,所述4D感官体验指令用于移动终端在播放所述3D视频时根据不同场景执行对应的4D动作;
所述场景信息包括:获得移动终端在播放所述3D视频时上报的弹幕消息;
根据所述场景信息,配置所述4D感官体验指令,包括:对所述弹幕消息进行筛选和编辑,确定是否编辑4D感官体验指令;在经筛选和编辑确认需要附加4D感官体验指令的弹幕消息中附加所述4D感官体验指令,所述弹幕消息中包括:所述3D视频对应的哈希值、弹幕内容和时间戳;
所述方法还包括:当3D视频再次被点播时,向请求的移动终端提供附加了4D感官体验指令的弹幕消息。
2.如权利要求1所述的方法,其特征在于,获得移动终端所播放的3D视频的场景信息,包括:获得移动终端在播放所述3D视频的过程中检测到的声音信息;
根据所述场景信息,配置所述4D感官体验指令,包括:建立声音与4D感官体验指令映射库,对获得的声音信息进行声音识别,根据映射库匹配出4D感官体验指令。
3.如权利要求2所述的方法,其特征在于,获得移动终端所播放的3D视频的场景信息,还包括:获得移动终端所播放的所述3D视频的分类信息;
根据所述场景信息,配置所述4D感官体验指令,包括:根据所述3D视频的分类信息,对所述3D视频配置对应的4D感官体验指令。
4.一种视频播放处理方法,其特征在于,包括:
提供移动终端所播放的3D视频的场景信息;
获得根据所述场景信息配置的所述3D视频当前播放场景对应的4D感官体验指令;
在播放所述3D视频时,根据不同场景执行所述4D感官体验指令指示的4D动作;
所述场景信息包括:在移动终端播放所述3D视频时上报弹幕消息,所述弹幕消息中包括:所述3D视频对应的哈希值、弹幕内容和时间戳;
获得根据所述场景信息配置的所述4D感官体验指令,包括:获得根据所述3D视频当前播放场景附加所述4D感官体验指令的所述弹幕消息。
5.如权利要求4所述的方法,其特征在于,提供移动终端所播放的3D视频的场景信 息,包括:在移动终端播放所述3D视频当前播放场景的过程中检测声音信息;
获得根据所述场景信息配置的所述4D感官体验指令,包括:建立声音与4D感官体验指令映射库,对获得的声音信息进行声音识别,根据映射库匹配出4D感官体验指令。
6.如权利要求5所述的方法,其特征在于,提供移动终端所播放的3D视频的场景信息,还包括:获得移动终端所播放的所述3D视频的分类信息;
对所述3D视频配置对应的4D感官体验指令,包括:根据所述3D视频的分类信息,对所述
3D视频配置对应的4D感官体验指令。
7.一种视频播放处理装置,其特征在于,包括:
获得模块,用于获得移动终端所播放的3D视频的场景信息;
配置模块,用于根据所述场景信息,配置所述3D视频当前播放场景对应的4D感官体验指令,所述4D感官体验指令用于移动终端在播放所述3D视频时根据不同场景执行对应的4D动作;
所述获得模块具体用于:获得移动终端在播放所述3D视频时上报的弹幕消息;
所述配置模块具体用于:对所述弹幕消息进行筛选和编辑,确定是否编辑4D感官体验指令;在经筛选和编辑确认需要附加4D感官体验指令的弹幕消息中附加所述4D感官体验指令,所述弹幕消息中包括:所述3D视频对应的哈希值、弹幕内容和时间戳;当3D视频再次被点播时,向请求的移动终端提供附加了4D感官体验指令的弹幕消息。
8.如权利要求7所述的装置,其特征在于,所述获得模块具体用于:获得移动终端在播放所述3D视频的过程中检测到的声音信息;
所述配置模块具体用于:建立声音与4D感官体验指令映射库,对获得的声音信息进行声音识别,再根据映射库匹配出4D感官体验指令。
9.如权利要求8所述的装置,其特征在于,所述获得模块还用于:获得移动终端所播放的所述3D视频的分类信息;
所述配置模块具体用于:根据所述3D视频的分类信息,对所述3D视频配置对应的4D感官体验指令。
10.一种视频播放处理装置,其特征在于,包括:
提供模块,用于提供移动终端所播放的3D视频的场景信息;
获得模块,用于获得根据所述场景信息配置的所述3D视频当前播放场景对应的4D感官体验指令;
执行模块,用于在播放所述3D视频时,根据不同场景执行所述4D感官体验指令指示 的
4D动作;
所述提供模块具体用于:在移动终端播放所述3D视频时上报弹幕消息,所述弹幕消息中包括:所述3D视频对应的哈希值、弹幕内容和时间戳;
所述获得模块具体用于:获得根据所述3D视频当前播放场景附加所述4D感官体验指令的所述弹幕消息。
11.如权利要求10所述的装置,其特征在于,所述提供模块具体用于:在移动终端播放所述3D视频当前播放场景的过程中检测声音信息,获得移动终端所播放的所述3D视频的分类信息;
所述获得模块具体用于:建立声音与4D感官体验指令映射库,对获得的声音信息进行声音识别,根据映射库及所述3D视频的分类信息,匹配出4D感官体验指令。
视频播放处理方法及装置\n技术领域\n[0001] 本发明涉及视频技术领域,尤其涉及视频播放处理方法及装置。\n背景技术\n[0002] 技术的发展给人们带来新的视频观看体验。例如,部分电影院实现了3D(三维)播放或4D(四维)播放,电影院3D播放是从视觉上给人们带来了立体的体验;电影院的4D播放,通过电影院的椅子和外部设置的震动、吹气、喷水等方式增强观众的临场感。把这一种临场体验当作第四维,所以称4D播放。\n[0003] 现有的移动终端,可播放经3D处理过的视频文件,但无法提供除3D视频以外的互动感官体验。并且,传统的电影院4D播放,是由专门的工作人员对电影事先进行4D播放编制,以决定什么时候要进行喷气或震动等。这种只能由专门的工作人员编制的方式,不能实现和用户的互动。\n发明内容\n[0004] 本发明实施例提供一种视频播放处理方法,用以在移动终端提供4D互动感官体验,并实现与用户的实时互动,该方法包括:\n[0005] 获取移动终端所播放的3D视频的场景信息;\n[0006] 根据所述场景信息,配置所述3D视频当前播放场景对应的4D感官体验指令,所述\n4D感官体验指令用于移动终端在播放所述3D视频时根据不同场景执行对应的4D动作;\n[0007] 所述场景信息包括:获得移动终端在播放所述3D视频时上报的弹幕消息;\n[0008] 根据所述场景信息,配置所述4D感官体验指令,包括:对所述弹幕消息进行筛选和编辑,确定是否编辑4D感官体验指令;在经筛选和编辑确认需要附加4D感官体验指令的弹幕消息中附加所述4D感官体验指令,所述弹幕消息中包括:所述3D视频对应的哈希值、弹幕内容和时间戳;\n[0009] 所述方法还包括:当3D视频再次被点播时,向请求的移动终端提供附加了4D感官体验指令的弹幕消息。\n[0010] 一个实施例中,获得移动终端所播放的3D视频的场景信息,包括:获得移动终端在播放所述3D视频的过程中检测到的声音信息;\n[0011] 根据所述场景信息,配置所述4D感官体验指令,包括:建立声音与4D感官体验指令映射库,对获得的声音信息进行声音识别,根据映射库匹配出4D感官体验指令。\n[0012] 一个实施例中,获得移动终端所播放的3D视频的场景信息,还包括:获得移动终端所播放的所述3D视频的分类信息;\n[0013] 根据所述场景信息,配置所述4D感官体验指令,包括:根据所述3D视频的分类信息,对所述3D视频配置对应的4D感官体验指令。\n[0014] 本发明实施例还提供一种视频播放处理方法,用以在移动终端提供4D互动感官体验,并实现与用户的实时互动,该方法包括:\n[0015] 提供移动终端所播放的3D视频的场景信息;\n[0016] 获得根据所述场景信息配置的所述3D视频当前播放场景对应的4D感官体验指令;\n[0017] 在播放所述3D视频时,根据不同场景执行所述4D感官体验指令指示的4D动作;\n[0018] 所述场景信息包括:在移动终端播放所述3D视频时上报弹幕消息,所述弹幕消息中包括:所述3D视频对应的哈希值、弹幕内容和时间戳;\n[0019] 获得根据所述场景信息配置的所述4D感官体验指令,包括:获得根据所述3D视频当前播放场景附加所述4D感官体验指令的所述弹幕消息。\n[0020] 一个实施例中,提供移动终端所播放的3D视频的场景信息,包括:在移动终端播放所述3D视频当前播放场景的过程中检测声音信息;\n[0021] 获得根据所述场景信息配置的所述4D感官体验指令,包括:建立声音与4D感官体验指令映射库,对获得的声音信息进行声音识别,根据映射库匹配出4D感官体验指令。\n[0022] 一个实施例中,提供移动终端所播放的3D视频的场景信息,还包括:获得移动终端所播放的所述3D视频的分类信息;\n[0023] 对所述3D视频配置对应的4D感官体验指令,包括:根据所述3D视频的分类信息,对所述3D视频配置对应的4D感官体验指令。\n[0024] 本发明实施例还提供一种视频播放处理装置,用以在移动终端提供4D互动感官体验,并实现与用户的实时互动,该装置包括:\n[0025] 获得模块,用于获得移动终端所播放的3D视频的场景信息;\n[0026] 配置模块,用于根据所述场景信息,配置所述3D视频当前播放场景对应的4D感官体验指令,所述4D感官体验指令用于移动终端在播放所述3D视频时根据不同场景执行对应的4D动作;\n[0027] 所述获得模块具体用于:获得移动终端在播放所述3D视频时上报的弹幕消息;\n[0028] 所述配置模块具体用于:对所述弹幕消息进行筛选和编辑,确定是否编辑4D感官体验指令;在经筛选和编辑确认需要附加4D感官体验指令的弹幕消息中附加所述4D感官体验指令,所述弹幕消息中包括:所述3D视频对应的哈希值、弹幕内容和时间戳;当3D视频再次被点播时,向请求的移动终端提供附加了4D感官体验指令的弹幕消息。\n[0029] 一个实施例中,所述获得模块具体用于:获得移动终端在播放所述3D视频的过程中检测到的声音信息;\n[0030] 所述配置模块具体用于:建立声音与4D感官体验指令映射库,对获得的声音信息进行声音识别,再根据映射库匹配出4D感官体验指令。\n[0031] 一个实施例中,所述获得模块还用于:获得移动终端所播放的所述3D视频的分类信息;\n[0032] 所述配置模块具体用于:根据所述3D视频的分类信息,对所述3D视频配置对应的\n4D感官体验指令。\n[0033] 本发明实施例还提供一种视频播放处理装置,用以在移动终端提供4D互动感官体验,并实现与用户的实时互动,包括:\n[0034] 提供模块,用于提供移动终端所播放的3D视频的场景信息;\n[0035] 获得模块,用于获得根据所述场景信息配置的所述3D视频当前播放场景对应的4D感官体验指令;\n[0036] 执行模块,用于在播放所述3D视频时,根据不同场景执行所述4D感官体验指令指示的4D动作;\n[0037] 所述提供模块具体用于:在移动终端播放所述3D视频时上报弹幕消息,所述弹幕消息中包括:所述3D视频对应的哈希值、弹幕内容和时间戳;\n[0038] 所述获得模块具体用于:获得根据所述3D视频当前播放场景附加所述4D感官体验指令的所述弹幕消息。\n[0039] 一个实施例中,所述提供模块具体用于:在移动终端播放所述3D视频当前播放场景的过程中检测声音信息,获得移动终端所播放的所述3D视频的分类信息;\n[0040] 所述获得模块具体用于:建立声音与4D感官体验指令映射库,对获得的声音信息进行声音识别,根据映射库及所述3D视频的分类信息,匹配出4D感官体验指令。\n[0041] 本发明实施例中,在移动终端播放3D视频的过程中,根据移动终端所播放的3D视频的场景信息,配置该3D视频当前播放场景对应的4D感官体验指令,使移动终端可根据该\n4D感官体验指令在播放该3D视频时执行相应的4D动作,从而在移动终端提供除3D视频以外的互动感官体验,并且,其中的4D感官体验指令无需由专门的工作人员事先进行编制,可通过移动终端上信息或指令的传递,实现与用户的实时互动。\n附图说明\n[0042] 为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:\n[0043] 图1为本发明实施例中视频播放处理方法的处理流程图;\n[0044] 图2为本发明实施例中视频播放处理方法的处理流程图;\n[0045] 图3为本发明实施例中视频播放处理方法具体实例中的系统结构图;\n[0046] 图4为本发明实施例中基于模式匹配方法进行声音识别的流程图;\n[0047] 图5为本发明实施例中视频播放处理装置的结构示意图;\n[0048] 图6为本发明实施例中视频播放处理装置的结构示意图。\n具体实施方式\n[0049] 为使本发明实施例的目的、技术方案和优点更加清楚明白,下面结合附图对本发明实施例做进一步详细说明。在此,本发明的示意性实施例及其说明用于解释本发明,但并不作为对本发明的限定。\n[0050] 本发明实施例中提供了一种视频播放处理方法,图1为该视频播放处理方法的处理流程图。如图1所示,该视频播放处理方法可以包括:\n[0051] 步骤101、获取移动终端所播放的3D视频的场景信息;\n[0052] 步骤102、根据所述场景信息,配置所述3D视频当前播放场景对应的4D感官体验指令,所述4D感官体验指令用于移动终端在播放所述3D视频时根据不同场景执行对应的4D动作。\n[0053] 由图1所示流程可以得知,本发明实施例中,在移动终端播放3D视频的过程中,可以获得移动终端所播放的3D视频的场景信息,根据该场景信息配置该3D视频当前播放场景对应的4D感官体验指令,使移动终端能够根据该4D感官体验指令在播放该3D视频时根据不同场景执行相应的4D动作,从而在移动终端提供除3D视频以外的4D互动感官体验,并且,其中的4D感官体验指令无需由专门的工作人员事先进行编制,可根据移动终端提供的信息实时配置,并通过信息和指令传递的过程实现与用户的实时互动,不仅有效地解决了传统移动终端的3D视频播放无法提供感官体验的问题,还解决了传统4D播放只能由专门的工作人员对电影事先进行4D播放编制的不足。\n[0054] 本发明实施例中还提供了一种视频播放处理方法,图2为该视频播放处理方法的处理流程图。如图2所示,该视频播放处理方法可以包括:\n[0055] 步骤201、提供移动终端所播放的3D视频的场景信息;\n[0056] 步骤202、获得根据所述场景信息配置的所述3D视频当前播放场景对应的4D感官体验指令;\n[0057] 步骤203、在播放所述3D视频时,根据不同场景执行所述4D感官体验指令指示的4D动作。\n[0058] 由图2所示流程可以得知,本发明实施例中,在移动终端播放3D视频的过程中,可以提供移动终端所播放的3D视频的场景信息,获得根据该场景信息配置的该3D视频当前播放场景对应的4D感官体验指令,在播放该3D视频时根据不同场景执行相应的4D动作,从而在移动终端提供除3D视频以外的4D互动感官体验,并且,其中的4D感官体验指令无需由专门的工作人员事先进行编制,可根据移动终端提供的信息实时配置,并通过信息和指令传递的过程实现与用户的实时互动,不仅有效地解决了传统移动终端的3D视频播放无法提供感官体验的问题,还解决了传统4D播放只能由专门的工作人员对电影事先进行4D播放编制的不足。\n[0059] 具体实施时,图1所示流程可以由能够实现其功能的设备实施,例如该设备可以是视频播放服务器、3D资源服务器等,在以下的实施例描述中是以3D资源服务器为例进行说明。图2所示流程可以由能够实现其功能的设备实施,例如该设备可以是移动终端,在以下的实施例描述中是以移动终端为例进行说明。移动终端在播放3D视频时可以执行的4D动作包括:启动移动终端的震动器、发声器、闪光灯等之一或组合,来实现4D的互动感官体验。\n[0060] 具体实施时,本发明实施例的上述视频播放处理方法可通过在线互动播放的方式实现。例如,用户通过移动终端观看3D视频,用户在观看3D视频时发现精彩的场景,通过移动终端发送弹幕消息到3D资源服务器,3D资源服务器接收到弹幕消息后,按具体的视频场景给弹幕消息加上4D感官体验指令(如震动、闪光等指令)并保存在3D资源服务器上。用户再次播放这个视频时,移动终端可以从3D资源服务器上获取弹幕消息(例如通过网络通信方式),当视频播放到弹幕消息中的时间点时,弹幕消息显示在播放画面上,并执行弹幕消息中的4D感官体验指令,以实现4D播放。\n[0061] 具体的,通过在线互动播放的方式实现本发明实施例的视频播放处理方法时,在图1所示流程中,从移动终端获得移动终端所播放的3D视频的场景信息,可以包括:接收移动终端在播放所述3D视频时上报的弹幕消息;根据所述场景信息,配置所述3D视频当前播放场景对应的4D感官体验指令,可以包括:根据所述3D视频当前播放场景,在所述弹幕消息中附加所述4D感官体验指令。\n[0062] 在图2所示流程中,提供移动终端所播放的3D视频的场景信息,可以包括:在移动终端播放所述3D视频时上报弹幕消息;获得根据所述场景信息配置的所述3D视频当前播放场景对应的4D感官体验指令,可以包括:获得根据所述3D视频当前播放场景附加所述4D感官体验指令的所述弹幕消息。\n[0063] 具体实施时,上述在线互动播放的方式中,3D资源服务器在接收到用户通过移动终端上报的弹幕消息后,还可以由工作人员对弹幕消息进行筛选和编辑,筛选工作人员认为精彩的、准确的弹幕消息,工作人员将经筛选和编辑过的按具体的视频场景给弹幕消息加上4D感官体验指令并保存在3D资源服务器上。具体的,这在图1所示流程中可实施为:接收移动终端在播放所述3D视频时上报的弹幕消息之后,还包括:对所述弹幕消息进行筛选和编辑,确定是否编辑4D感官体验指令;在所述弹幕消息中附加所述4D感官体验指令,包括:在经筛选和编辑确认需要附加4D感官体验指令的弹幕消息中附加所述4D感官体验指令。当3D视频再次被点播时,向请求的移动终端提供附加了4D感官体验指令的弹幕消息。\n[0064] 具体实施时,上述的弹幕消息中可以包括:所述3D视频对应的哈希值、弹幕内容和时间戳。\n[0065] 具体实施时,本发明实施例的上述视频播放处理方法还可以通过声音自动识别的方式实现。例如,用户通过移动终端观看3D视频,通过移动终端上的声音识别模块,检测到播放该3D视频时的声音,确定其中特定的声音,该特定的声音对应于特定的3D视频场景,再确定该3D视频使用什么效果的4D感官体验,来实现4D播放。一个例子是:在移动端播放恐怖视频时,如果检测到尖叫声,则认为是一个应使用震动指令的场景,这时会实现电影中人物尖叫和移动终端震动同时进行,以增强用户恐惧感。\n[0066] 具体的,通过声音自动识别的方式实现本发明实施例的视频播放处理方法时,在图2所示流程中,提供移动终端所播放的3D视频的场景信息,可以包括:获得移动终端在播放所述3D视频的过程中检测到的声音信息;获得根据所述场景信息配置的所述3D视频对应的4D感官体验指令,可以包括:建立声音与4D感官体验指令映射库,对获得的声音信息进行声音识别,根据映射库匹配出4D感官体验指令。\n[0067] 具体实施时,还可以在用户通过移动终端观看3D视频时,获得该视频的分类信息,例如这个分类信息可以包括于该视频的标签中,通过获得该视频的标签获得该视频的分类信息。后续可以根据该视频的分类信息,确定该3D视频使用什么效果的4D感官体验。视频分类是指喜剧、恐怖、爱情等,例如该视频属于恐怖分类,则可以加入恐怖的音乐增强用户恐惧感。\n[0068] 下面举例说明本发明实施例中视频播放处理方法的具体实施。本例中提供了实现本发明实施例中视频播放处理方法的系统结构,如图3所示,该系统结构中可以包括3D资源服务器、弹幕消息服务器、带网络的移动客户端、声音场景识别模块、4D感官模块,其中3D资源服务器、弹幕消息服务器位于服务器端,可实施图1所示流程,带网络的移动客户端、声音场景识别模块、4D感官模块位于移动终端,可实施于图2所示流程。\n[0069] 具体的,3D资源服务器可用于将2D的视频资源文件转换为3D的视频资源文件,以用于移动端视频数据请求。弹幕消息服务器主要用于保存用户上传的、经过工作人员编辑的弹幕消息。带网络的移动客户端用于3D视频的接收和播放,弹幕消息的发送、获取和显示。声音场景识别模块用于在播放时,检测解码后的声音数据流,以识别特定的视频场景。\n4D感官模块指移动端的闪光灯、震动器等设备。\n[0070] 其量3D资源服务器将2D的视频资源文件转换为3D的视频资源文件时,可采用空分法、不闪式技术、互补色技术、时分法、光栅式、观屏式、全息式等多种技术。在现有的普通显示器上,一般采用互补色技术实现立体播放,播放简单,互补色眼镜成本也非常低廉。目前存在的3D视频并不多,主要原因是3D视频在拍摄时要考虑视差、背景效果、拍摄成本等多方面因素的限制;普通二维视频转换为三维立体视频的方法也多种多样,算法复杂,且效果并没有明显提升,可以考虑主要采用基于互补色技术的2D转3D技术。\n[0071] 互补色差技术现在比较成熟,主要是红蓝,红绿等多种模式,但使用的原理都是一样的。以红蓝为例,通把画面按rgb分离成红,蓝两个画面,再通过平移、缩放形成不同的视差,播放时把两个画面放在一起。观看时通过红蓝的眼镜,红色镜片只看到红色画面,绿色镜片只看到绿色画面。两个眼看到的不同画面在大脑中形成立体画面。\n[0072] 在3D播放方法的基础上,加上4D感官模块就能有4D播放的效果。本例中可以在移动终端和服务器端互动建立4D体验参数库。在播放时下载4D体验参数。再在播放过程中根据播放进度来控制4D感官模块,以实现4D播放效果。\n[0073] 通过在线互动播放方式实现4D播放时,可采用3D资源服务器、弹幕消息储存服务器、带网络的移动客户端和4D感官模块实施。具本流程例如:\n[0074] 用户A在通过3D资源服务器获取得某视频3D视频资源VA,在观看时,发现精彩视频场景,通过带网络的移动客户向3D资源服务器发送弹幕消息。弹幕消息附带的信息至少包括:视频对应的唯一的hash值、用户弹幕内容和时间截。\n[0075] 3D资源服务器接收到弹幕消息,由工作人员对照弹幕消息和视频VA,筛选精彩的、准确的弹幕消息。再按具体场景决定给弹幕消息增加震动、闪光灯等指令,用于控制移动终端的4D感官模块。并把这些弹幕消息保存下来。\n[0076] 用户B在也在观看视频VA(也可以是用户A第二次观看),通过hash对比,确定3D资源服务器上是否有对应的经过筛选和编辑的弹幕消息。如果有,取回弹幕消息。当播放到弹幕消息中的指定的时间载时,就会显示弹幕消息,并按根据弹幕的控制指令来控制4D感官模块,以实现4D播放效果。\n[0077] 通过场景声音识别实现4D播放时,涉及到的模块和服务器包括3D资源服务器、带网络的移动客户端、声音场景识别模块、4D感官模块。具体处理流程例如:\n[0078] 用户A在通过3D资源服务器获取得某视频3D视频资源VA的数据,并同时获取到文件的标签,标签上指出这个视频的分类(喜剧、恐怖、或爱情等)。\n[0079] 用户在播放视频VA的过程中,声音场景识别模块会按当前视频分类,去寻找视频中和样本声音匹配的声音数据,一旦发现了匹配的数据,按之前定好的规则来控制4D感官模块。规则的定义比较简单,先把响应的场景分类,再决定这些场景要做什么样的4D动作。\n例如在黑暗的环境下,如果是恐怖的场景,可以闪光。\n[0080] 在进行声音识别时,一般可以采用如下三种技术:基于声道模型的语音识别、模板匹配的方法以及利用人工神经网络的方法。就目前来说,基于模板匹配的技术比较成熟,而模块识别的方法中用到的技术有动态时间规整(DWT),隐马尔科夫模型(HMM),矢量量化(VQ)三种。例如可以基于隐马尔科夫模型进行本发明实施例中的声音识别。图4中示出了基于模式匹配方法进行声音识别的一般流程:\n[0081] 先对声音信号进行预处理,之后进行特征提取,通过识别进行声音模式匹配,根据模式匹配结果进行判决并输出结果,在模式匹配过程中需与样本模板进行匹配,对于样本模板,可以对要识别的声音片段进行学习训练,得到映射库。实施中,样本模板可以针对要识别的场景声音,预先制作好存放在移动终端。在播放时视频时,移动终端可以直接使用预先制作好的样本来匹配。\n[0082] 具体实施时,声音识别模块除了以上所述的放在移动终端进行声音识别。也可以放到服务器端,由服务器对声音进行场景识别,再把识别结果和文件一起发送给移动终端,从而减小移动终端因为进行声音场景识别而要求的CPU负载。在上述的实施例中,移动终端根据声音识别的结果,配置3D视频当前播放场景对应的4D感官体验指令,实施时也可以由服务器端根据声音识别的结果,配置3D视频当前播放场景对应的4D感官体验指令。具体的,在图1所示流程中,从移动终端获得移动终端所播放的3D视频的场景信息,可以包括:从移动终端获得移动终端在播放所述3D视频的过程中检测到的声音信息;根据所述场景信息,配置所述3D视频当前播放场景对应的4D感官体验指令,可以包括:建立声音与4D感官体验指令映射库,对获得的声音信息进行声音识别,根据映射库匹配置出对应的4D感官体验指令。\n[0083] 并且,具体的,在图1所示流程中,提供移动终端所播放的3D视频的场景信息,还可以包括:获得移动终端所播放的所述3D视频的分类信息;对所述3D视频配置对应的4D感官体验指令,可以包括:根据所述3D视频的分类信息,对所述3D视频配置对应的4D感官体验指令。\n[0084] 基于同一发明构思,本发明实施例中还提供一种视频播放处理装置,如下面的实施例所述。由于视频播放处理装置解决问题的原理与视频播放处理方法相似,因此视频播放处理装置的实施可以参见视频播放处理方法的实施,重复之处不再赘述。\n[0085] 图5为本发明实施例中视频播放处理装置的结构示意图。如图5所示,本发明实施例中视频播放处理装置可以包括:\n[0086] 获得模块501,用于获得移动终端所播放的3D视频的场景信息;\n[0087] 配置模块502,用于根据所述场景信息,配置所述3D视频当前播放场景对应的4D感官体验指令,所述4D感官体验指令用于移动终端在播放所述3D视频时根据不同场景执行对应的4D动作。\n[0088] 具体实施时,所述获得模块501具体可以用于:获得移动终端在播放所述3D视频时上报的弹幕消息;\n[0089] 所述配置模块502具体可以用于:对所述弹幕消息进行筛选和编辑,确定是否编辑\n4D感官体验指令;在经筛选和编辑确认需要附加4D感官体验指令的弹幕消息中附加所述4D感官体验指令,所述弹幕消息中包括:所述3D视频对应的哈希值、弹幕内容和时间戳;当3D视频再次被点播时,向请求的移动终端提供附加了4D感官体验指令的弹幕消息。\n[0090] 具体实施时,所述获得模块501具体可以用于:获得移动终端在播放所述3D视频的过程中检测到的声音信息;\n[0091] 所述配置模块502具体可以用于:建立声音与4D感官体验指令映射库,对获得的声音信息进行声音识别,再根据映射库匹配出4D感官体验指令。\n[0092] 具体实施时,所述获得模块501还可以用于:获得移动终端所播放的所述3D视频的分类信息;\n[0093] 所述配置模块502具体可以用于:根据所述3D视频的分类信息,对所述3D视频配置对应的4D感官体验指令。\n[0094] 图6为本发明实施例中视频播放处理装置的结构示意图。如图6所示,本发明实施例中视频播放处理装置可以包括:\n[0095] 提供模块601,用于提供移动终端所播放的3D视频的场景信息;\n[0096] 获得模块602,用于获得根据所述场景信息配置的所述3D视频当前播放场景对应的4D感官体验指令;\n[0097] 执行模块603,用于在播放所述3D视频时,根据不同场景执行所述4D感官体验指令指示的4D动作。\n[0098] 具体实施时,所述提供模块601具体可以用于:在移动终端播放所述3D视频时上报弹幕消息,所述弹幕消息中包括:所述3D视频对应的哈希值、弹幕内容和时间戳;\n[0099] 所述获得模块602具体可以用于:获得根据所述3D视频当前播放场景附加所述4D感官体验指令的所述弹幕消息。\n[0100] 具体实施时,所述提供模块601具体可以用于:在移动终端播放所述3D视频当前播放场景的过程中检测声音信息,获得移动终端所播放的所述3D视频的分类信息;\n[0101] 所述获得模块602具体可以用于:建立声音与4D感官体验指令映射库,对获得的声音信息进行声音识别,根据映射库及所述3D视频的分类信息,匹配出4D感官体验指令。\n[0102] 综上所述,本发明实施例中,在移动终端播放3D视频的过程中,根据移动终端所播放的3D视频的场景信息,配置该3D视频当前播放场景对应的4D感官体验指令,使移动终端可根据该4D感官体验指令在播放该3D视频时根据不同场景执行相应的4D动作,从而在移动终端提供除3D视频以外的互动感官体验,并且,其中的4D感官体验指令无需由专门的工作人员事先进行编制,可通过移动终端上信息或指令的传递,实现视频观看者互动参与4D播放。\n[0103] 本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。\n[0104] 本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。\n[0105] 这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。\n[0106] 这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。\n[0107] 以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
法律信息
- 2022-07-29
专利权的转移
登记生效日: 2022.07.19
专利权人由蚌埠尚维知识产权运营有限公司变更为深圳云天畅想信息科技有限公司
地址由233000 安徽省蚌埠市蚌山区光彩大市场8区32栋10号变更为518000 广东省深圳市罗湖区笋岗街道笋西社区梨园路8号HALO广场一期六层619单元
- 2020-11-13
专利权的转移
登记生效日: 2020.11.02
专利权人由南京乾颖科技发展有限公司变更为蚌埠尚维知识产权运营有限公司
地址由210000 江苏省南京市江宁区麒麟科技创新园创研路266号变更为233000 安徽省蚌埠市蚌山区光彩大市场8区32栋10号
- 2020-07-03
专利权的转移
登记生效日: 2020.06.12
专利权人由深圳市快播科技有限公司变更为南京乾颖科技发展有限公司
地址由518057 广东省深圳市南山区高新南一道009号中国科技开发院中科研发园三号楼22层A变更为210000 江苏省南京市江宁区麒麟科技创新园创研路266号
- 2016-08-17
- 2015-07-01
实质审查的生效
IPC(主分类): H04N 13/00
专利申请号: 201310608680.0
申请日: 2013.11.26
- 2015-06-03
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 |
1
| |
2010-09-08
|
2008-10-16
| | |
2
| |
2012-10-10
|
2011-03-29
| | |
3
| | 暂无 |
2007-12-19
| | |
4
| |
2012-09-19
|
2012-04-16
| | |
5
| | 暂无 |
2012-12-18
| | |
6
| |
2008-11-05
|
2007-06-11
| | |
7
| |
2009-04-22
|
2007-04-06
| | |
8
| |
2008-08-06
|
2007-11-02
| | |
9
| |
2008-07-16
|
2007-11-02
| | |
10
| |
2012-07-18
|
2010-10-27
| | |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |