著录项信息
专利名称 | 一种视频文件的编辑方法和装置 |
申请号 | CN200810116983.X | 申请日期 | 2008-07-22 |
法律状态 | 授权 | 申报国家 | 暂无 |
公开/公告日 | 2010-01-27 | 公开/公告号 | CN101635848 |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | H04N7/26 | IPC分类号 | H;0;4;N;7;/;2;6;;;G;1;1;B;2;7;/;0;3;4查看分类表>
|
申请人 | 北大方正集团有限公司;北京大学;北京北大方正电子有限公司 | 申请人地址 | 北京市海淀区成府路298号方正大厦9层
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 北大方正集团有限公司,北京大学,北京北大方正电子有限公司 | 当前权利人 | 北大方正集团有限公司,北京大学,北京北大方正电子有限公司 |
发明人 | 张磊;王常波;周期律 |
代理机构 | 北京英赛嘉华知识产权代理有限责任公司 | 代理人 | 王达佐 |
摘要
本发明公开了一种视频文件的编辑方法,包括:对采集到的视频采样Sample和音频Sample分别进行缓存;根据缓存的视频Sample和音频Sample中的开始时间戳,对缓存的视频Sample和音频Sample进行同步;从中取出同步的视频Sample和音频Sample进行解码预览,同时配置文件头,生成片段文件,将同步的视频Sample和音频Sample连续写入所述片段文件;根据片段文件中的视频Sample是否为关键帧的信息,确定片段文件的切分点,向正在写入同步视频Sample和音频Sample的片段文件添加索引信息,生成完整的片段文件;本发明还提供了一种视频文件的编辑装置,基于该方法和装置,能在对视频片段文件进行实时编辑的同时生成最终用于发布的视频片段文件,缩短了发布的流程,提高了编辑效率。
1.一种视频文件的编辑方法,其特征在于,该方法包括:
对视频数据和音频数据进行采集、压缩编码,然后按照数据结构Sample分别对压缩编码后的视频数据和音频数据进行分割,以输出视频Sample和音频Sample,每个视频Sample对应一个视频帧,所述每个视频Sample中包含视频压缩编码数据及其采集时产生的开始时间戳、持续时间和该视频Sample所对应的视频帧是否为关键帧的信息,每个音频Sample包含音频压缩编码数据及对应的开始时间戳和持续时间,其中,开始时间戳为开始采集当前Sample的时刻,持续时间为开始采集当前SamPle到开始采集下一个Sample的时间间隔;
A、对采集到的视频Sample和音频Sample分别进行缓存;
B、根据缓存的视频Sample和音频Sample中的开始时间戳,对所述缓存的视频Sample和音频Sample进行同步;
C、从缓存中取出所述同步的视频Sample和音频Sample进行解码预览,同时配置文件头,生成片段文件,将所述同步的视频Sample和音频Sample连续写入所述片段文件;
D、根据所述片段文件中的视频Sample是否为关键帧的信息,确定所述片段文件的切分点,向所述正在写入同步视频Sample和音频Sample的片段文件添加索引信息,生成完整的片段文件;
将各个完整的片段文件映射到流媒体处理开发包DES的时问线模型中的Source组件中,对片段文件进行编辑。
2.根据权利要求1所述视频文件的编辑方法,其特征在于,步骤B所述对缓存的视频Sample和音频Sample进行同步,具体包括:
a、记录第一个视频Sample进行缓存时的本地绝对时间TV1和采集该视频Sample时产生的开始时间戳tV1,以及第一个音频Sample进行缓存时的本地绝对时间TA1和开始时间戳tA1;
b、选取所述TV1和TA1中的较大者为本地绝对基准时间Tbase,设置视频Sample和音频Sample进行缓存时的缓存延时为ρ,且设置第一个视频Sample和音频Sample的本地render绝对时间为Tbase+ρ,并根据所述Tbase、ρ、tV1和tA1得到每个视频Sample和音频Sample的本地render绝对时间Tn,其中,本地render绝对时间为当前的视频Sample或者音频Sample解码预览和写入片段文件的时间,根据下面的公式得到每个视频Sample和音频Sample的本地render绝对时间:
其中,Tn表示第n个视频Sample和音频Sample的本地render绝对时间,tVn表示第n个视频Sample的开始时间戳,tAn表示第n个音频Sample的开始时间戳,n为正整数;
c、轮询缓存的视频Sample和音频Sample,在Tn≥Tcurrent时,将所述缓存的视频Sample和音频Sample从缓存中取出,其中,Tcurrent表示轮询所述视频Sample或音频Sample的当前的本地绝对时间。
3.根据权利要求1所述视频文件的编辑方法,其特征在于,所述对各个片段文件进行编辑之后,该方法还包括:对所述编辑后的片段文件进行发布。
4.一种视频文件的编辑装置,其特征在于,该装置包括:
采集编码输出模块,用于对视频数据和音频数据进行采集、压缩编码,然后按照数据结构Sample分别对压缩编码后的视频数据和音频数据进行分割,以输出视频Sample和音频Sample,每个视频Sample对应一个视频帧,所述每个视频Sample中包含视频压缩编码数据及其采集时产生的开始时间戳、持续时间和该视频Sample所对应的视频帧是否为关键帧的信息,每个音频Sample包含音频压缩编码数据及对应的开始时间戳和持续时间,其中,开始时间戳为开始采集当前Sample的时刻,持续时间为开始采集当前SamPle到开始采集下一个Sample的时间间隔;
缓存模块,用于对采集到的视频Sample和音频Sample分别进行缓存;
同步模块,用于根据视频Sample和音频Sample中的开始时间戳对所述缓存模块中的视频Sample和音频Sample进行同步;
存储模块,用于从缓存模块中取出所述同步的视频Sample和音频Sample进行解码预览,同时配置文件头,生成片段文件,将所述同步的视频Sample和音频Sample连续写入所述片段文件;
切分模块,用于根据所述存储模块中片段文件的视频Sample是否为关键帧的信息,确定所述存储模块中片段文件的切分点,向所述正在写入同步视频Sample和音频Sample的片段文件添加索引信息,生成完整的片段文件;
编辑模块,用于将所述生成模块中各个完整的片段文件映射到流媒体处理开发包DES的时问线模型中的Source组件中,对片段文件进行编辑。
5.根据权利要求4所述视频文件的编辑装置,其特征在于,所述缓存模块进一步包括:
视频缓存子模块,用于缓存视频Sample;
音频缓存子模块,用于缓存音频Sample。
6.根据权利要求4所述视频文件的编辑装置,其特征在于,所述同步模块进一步包括:
信息记录子模块,用于记录第一个视频Sample进行缓存时的本地绝对时间TV1和采集该视频Sample时产生的开始时间戳tV1,以及第一个音频Sample进行缓存时的本地绝对时间TA1和开始时间戳tA1;
时间获取子模块,用于选取所述信息记录子模块中记录的TV1和TA1中的较大者为本地绝对基准时间Tbase,设置视频Sample和音频Sample进行缓存时的缓存延时为ρ,且设置第一个视频Sample和音频Sample的本地render绝对时间为Tbase+ρ,并根据所述Tbase、ρ、和所述信息记录子模块中的tV1、tA1得到所述每个视频Sample和音频Sample的本地render绝对时间Tn,其中,本地render绝对时间为当前的视频Sample或者音频Sample解码预览和写入片段文件的时间,根据下面的公式得到每个视频Sample和音频Sample的本地render绝对时间:
其中,Tn表示第n个视频Sample和音频Sample的本地render绝对时间,tVn表示第n个视频Sample的开始时间戳,tAn表示第n个音频Sample的开始时间戳,n为正整数。
7.根据权利要求5至6中任意一项所述视频文件的编辑装置,其特征在于,该装置还包括:
发布模块,用于对所述编辑模块中编辑后的片段文件进行发布。
一种视频文件的编辑方法和装置\n技术领域\n[0001] 本发明涉及流媒体编辑技术,特别是指一种WMV格式视频文件的编辑方法和装置。\n背景技术\n[0002] 随着网络视频应用的快速发展,互联网用户对于网络视频的需求越来越大,许多网络视频服务的提供者开始使用视频与文字相结合的信息传播方案,来替代传统的以文字和图片为主的信息传播方案,一些电视台也开始采用网上直播和网上点播的视频解决方案,进而延伸到移动终端如手机,也开始给用户提供直播和点播的视频业务。\n[0003] 现有视频业务解决方案中,视频文件都需要经过视频编辑系统的处理,才能够进行发布。视频编辑系统中编辑和生成的视频文件的格式取决于整个视频解决方案采用的技术,目前主流的视频直播方案都是基于微软媒体服务(MediaService)框架的,所采用的文件格式主要是WMV格式,这种格式的视频文件在网络流媒体应用上有着较大优势。所谓WMV,是微软推出的一种流媒体格式,它是由ASF(Advanced Stream Format)格式升级延伸得到的。在视频质量相同的前提下,WMV格式文件的体积非常小,因此,这种格式的视频文件比较适合在网络上进行播放和传输。\n[0004] 一般,对文件进行视频编辑,需要先实现对文件内容的随机定位。WMV文件中用于对文件进行定位的是位于文件尾部的索引信息,没有索引信息就不能对文件进行随机定位,进而就不能对一个WMV文件中的某段文件进行视频的编辑操作,所以传统的WMV视频编辑系统是基于文件的,用户必须在一个WMV视频文件完全生成后,才能对其进行编辑操作。对于网络视频服务的提供者来讲,总希望自己的视频节目能在最短的时间内发布到网络上,特别是一些对实时性要求高的视频节目,如突发事件报道等,如果发布晚了,节目的时效性就会大大降低,从而导致节目价值的降低。\n[0005] 但是,采用传统的WMV视频编辑系统,网络视频服务提供者必须等到接收到完整的视频文件后,才能开始对文件进行编辑操作,编辑操作完成后,还要等待将编辑的结果输出,生成最终发布的视频文件。如此,编辑、生成最终发布的视频文件的效率很低;而且,对视频文件处理的整个周期也比较长,会严重影响到视频文件的时效性。\n发明内容\n[0006] 有鉴于此,本发明的主要目的在于提供一种视频文件的编辑方法和装置,能在接收采集的视音频流的同时实时地对视频数据进行编辑操作,并快速生成最终用于发布的视频片段文件,提高了对视频文件编辑的效率,保证了视频文件的时效性。\n[0007] 为达到上述目的,本发明的技术方案是这样实现的:\n[0008] 本发明提供了一种视频文件的编辑方法,该方法包括:\n[0009] A、对采集到的视频采样Sample和音频Sample分别进行缓存;\n[0010] B、根据缓存的视频Sample和音频Sample中的开始时间戳,对所述缓存的视频Sample和音频Sample进行同步;\n[0011] C、从缓存中取出所述同步的视频Sample和音频Sample进行解码预览,同时配置文件头,生成片段文件,将所述同步的视频Sample和音频Sample连续写入所述片段文件;\n[0012] D、根据所述片段文件中的视频Sample是否为关键帧的信息,确定所述片段文件的切分点,向所述正在写入同步视频Sample和音频Sample的片段文件添加索引信息,生成完整的片段文件。\n[0013] 步骤A之前,该方法还包括:\n[0014] 对视频数据和音频数据进行采集、压缩编码,并以视频Sample和音频Sample分别输出;\n[0015] 所述每个视频Sample中包含视频压缩编码数据及其采集时产生的开始时间戳、持续时间和是否为关键帧的信息,每个音频Sample包含音频压缩编码数据及对应的开始时间戳和持续时间。\n[0016] 步骤A所述一个视频Sample对应一个视频帧,所述每个视频Sample由采集到的视频数据、开始时间戳、持续时间和关键帧信息组成。\n[0017] 步骤B所述对缓存的视频Sample和音频Sample进行同步,具体包括:\n[0018] a、记录第一个视频Sample进行缓存时的本地绝对时间TV1和采集该视频Sample时产生的开始时间戳tV1,以及第一个音频Sample的本地绝对时间TA1和开始时间戳tA1;\n[0019] b、选取所述TV1和TA1中的较大者为本地绝对基准时间Tbase,设置视频Sample和音频Sample进行缓存时的缓存延时为ρ,且第一个视频Sample和音频Sample的本地render绝对时间为Tbase+ρ,并根据所述Tbase、ρ、tV1和tA1得到每个视频Sample和音频Sample的本地render绝对时间Tn。\n[0020] c、轮询缓存的视频Sample和音频Sample,在Tn≥Tcurrent时,将所述缓存的视频Sample和音频Sample从缓存中取出,其中,Tcurrent表示轮询所述视频Sample或音频Sample的当前的本地绝对时间。\n[0021] 步骤D之后,该方法还包括:将所述各个完整的片段文件所对应的文件片断映射到流媒体处理开发包DES的时间线模型中的Source组件中,对片段文件进行编辑。\n[0022] 其中,所述对各个片段文件进行编辑之后,该方法还包括:对所述编辑后的片段文件进行发布。\n[0023] 本发明还提供了一种视频文件的编辑装置,该装置包括:\n[0024] 缓存模块,用于对采集到的视频Sample和音频Sample分别进行缓存;\n[0025] 同步模块,用于根据视频Sample和音频Sample中的开始时间戳对所述缓存模块中的视频Sample和音频Sample进行同步;\n[0026] 存储模块,用于从缓存模块中取出所述同步的视频Sample和音频Sample进行解码预览,同时配置文件头,生成片段文件,将所述同步的视频Sample和音频Sample连续写入所述片段文件;\n[0027] 切分模块,用于根据所述存储模块中片段文件的视频Sample是否为关键帧的信息,确定所述存储模块中片段文件的切分点,向所述正在写入同步视频Sample和音频Sample的片段文件添加索引信息,生成完整的片段文件。\n[0028] 其中,所述缓存模块进一步包括:\n[0029] 视频缓存子模块,用于缓存视频Sample;\n[0030] 音频缓存子模块,用于缓存音频Sample。\n[0031] 所述同步模块进一步包括:\n[0032] 信息记录子模块,用于记录第一个视频Sample进行缓存时的本地绝对时间TV1和采集该视频Sample时产生的开始时间戳tV1,以及第一个音频Sample的本地绝对时间TA1和开始时间戳tA1;\n[0033] 时间获取子模块,用于选取所述信息记录子模块中记录的TV1和TA1中的较大者为本地绝对基准时间Tbase,设置视频Sample和音频Sample进行缓存时的缓存延时为ρ,且第一个视频Sample和音频Sample的本地render绝对时间为Tbase+ρ,并根据所述Tbase、ρ、和所述信息记录子模块中的tV1、TA1得到所述每个视频Sample和音频Sample的本地render绝对时间Tn。\n[0034] 本发明提供的视频文件的编辑装置还包括:\n[0035] 采集模块,用于对视频数据和音频数据进行采集、压缩编码,并以视频Sample和音频Sample分别输出给所述缓存模块;\n[0036] 编辑模块,用于将所述生成模块中各个完整的片断文件所对应的片段文件,映射到DES的时间线模型中的Source组件中,对片段文件进行编辑;\n[0037] 发布模块,用于对所述编辑模块中编辑后的片段文件进行发布。\n[0038] 本发明视频编辑的方法和装置,采用基于关键帧的切分片段文件策略,可以保证写入新片段文件中的第一视频帧为关键帧,如此可以保证文件的正常播放;在切分后的片段文件中添加索引信息和文件头,可以保证实时地对片段文件进行编辑。\n[0039] 本发明将视音频的相对开始时间戳映射到本地绝对时间上,可以防止积累性的延时,并且,通过对缓存延时的设定,还可以精确的控制延时时间,提高预览效果。基于本发明的同步策略,能对视频数据和音频数据进行同步,保证了对WMV视频文件进行预览的良好效果;同时,还支持数据写入片段文件操作和切分片段文件的操作。\n[0040] 本发明通过同步策略和关键帧切分片段文件策略,可以使视音频数据同步,并且,对视频缓存和音频缓存进行快速轮询的策略,可以尽快地将同步的视频Sample和音频Sample从缓存中取出,进而快速地写入片段文件中,如此,可以防止由于网络抖动造成视音频数据在写入片段文件时不均匀的情况。\n[0041] 基于本发明的方法和装置,可以实时地对接收到的视频文件进行编辑,因为在编辑的同时使用了一个后台线程将编辑好的片段文件实时地写入发布文件中,所以,在编辑其他片段文件的同时,可以连续、快速地将已编辑好的片段文件生成最终发布的视频片段文件,如此,能提高视频文件的编辑和发布速度,保证实时视频文件的时效性。\n附图说明\n[0042] 图1为本发明视频文件编辑方法的流程示意图;\n[0043] 图2所示为本发明缓存中的视频和音频的数据存储格式;\n[0044] 图3所示为本发明中片段文件在DES时间线模型中的映射关系;\n[0045] 图4所示为本发明视频文件编辑装置的结构关系示意图。\n具体实施方式\n[0046] 下面结合附图和具体实施例对本发明的技术方案进一步详细阐述。\n[0047] 本发明中,先将采集到的视频数据和音频数据按Sample分割,封装为视频流和音频流,经过网络传输给编辑端设备,由编辑端的视频缓存和音频缓存分别来存储视频Sample和音频Sample;之后,由于经过网络传输可能出现视频Sample和音频Sample的异步,所以需要对两个缓存中的视频Sample和音频Sample进行同步;然后,将同步的视频数据和音频数据进行解码预览,并将预览部分所对应的缓存中的数据写入片段文件中;最后,根据需要结合同步和切分片段文件策略,找到合适的切分点,向正在写入数据的片段文件添加索引信息,以生成完整的用于实时编辑的片段文件;并通过配置、添加文件头生成新的片段文件,将同步后的数据写入新的片段文件中。\n[0048] 本发明视频文件编辑方法的流程如图1所示,包括以下步骤:\n[0049] 步骤101,对视频数据和音频数据进行采集、压缩编码后,分别以视频Sample和音频Sample输出。\n[0050] 本发明中,由采集服务器来完成视频数据和音频数据的采集,在采集服务器中部署的采集硬件和相关采集程序对视频数据和音频数据进行采集,采集后由编码模块对数据进行压缩编码,然后,按采样Sample对采集到的数据进行分割,并打包成视频数据流和音频数据流,通过局域网或广域网分别输出给编辑端的视频缓存和音频缓存。\n[0051] 这里,一个Sample就是一个数据结构,一个视频Sample对应一个视频帧,一个视频Sample由采集到的视频数据、开始时间戳、持续时间和关键帧信息四个数据成员组成。\n其中,开始时间戳为采集该视频Sample的时刻;持续时间为开始采集该视频Sample到开始采集下一个视频Sample的时间间隔,可以称为视频的Sample间隔,一般视频的Sample间隔是固定不变的,如果视频的帧率为1s内25帧,那么其Sample间隔的间隔为40ms;通过关键帧信息可以判断出该视频帧是否为关键帧,只有当某段视频文件的第一帧是关键帧时,该视频文件才能正常播放,视频关键帧出现的频率由采集后的编码模块决定,采集视频Sample时由采集程序决定该视频帧是关键帧或非关键帧。\n[0052] 需要指出的是,对于音频来说,音频的Sample间隔不是固定的,一般情况下,1s内可以采集5个左右的音频数据包,一个数据包被封装在一个Sample中,一个数据包的持续时间在100ms到200ms之间。\n[0053] 步骤102,对采集到的视频Sample和音频Sample分别进行缓存。\n[0054] 将来自采集服务器的视频流和音频流分别在视频缓存中和音频缓存中进行缓存,在这两个缓存中,可采用链表节点的数据结构对视频Sample和音频Sample分别进行存储。\n采集服务器将采集到的视频数据和音频数据按Sample进行分割,一般采用链表节点的存储方式比较适合这种数据结构。图2所示为本发明缓存中的视频Sample和音频Sample的数据存储格式,其中201表示一个节点,202表示一个节点中的视频Sample或音频Sample,\n203表示指向下一个节点的指针。\n[0055] 需要指出的是,为了避免到达缓存中的数据倒序或者丢失,可以通过传输协议,如FTP等,保证从采集服务器传输到缓存的数据的可靠性,如此,每个视频Sample或音频Sample会按照采集时的开始时间戳顺序分别进入两个缓存中,在以后的处理过程中就不必再对缓存中的数据进行排序或修复。\n[0056] 步骤103~步骤104,根据缓存的视频Sample和音频Sample中的开始时间戳对缓存的视频Sample和音频Sample进行同步;将同步后的视频Sample和音频Sample分别从各自的缓存中取出,进行解码预览,同时配置文件头,生成片段文件,并且将同步的视频Sample和音频Sample写入片段文件。\n[0057] 采集服务器将采集到的视频数据和音频数据分别进行传输,那么视频数据和音频数据的网络传输链路就不同,如此,由于视频和音频数据在网络中的传输速度不同,会导致开始时间戳相同,即本来同步的视频Sample和音频Sample到达缓存的本地绝对时间不同,这样就造成两者失去同步。为了以后的处理过程顺利进行,必须对失去同步的视频Sample和音频Sample进行同步操作。\n[0058] 较佳地,可以采用以下的策略:\n[0059] 1、记录第一个视频Sample进入视频缓存中进行缓存时的本地绝对时间TV1和采集该视频Sample时产生的开始时间戳tV1,以及第一个音频Sample进入音频缓存中进行缓存时的本地绝对时间TA1和开始时间戳tA1。\n[0060] 2、选取TV1和TA1中的较大者为本地绝对基准时间Tbase,即Tbase=max(TV1,TA1),设置视频Sample和音频Sample进行缓存时的缓存延时为ρ,且第一个视频Sample和音频Sample的本地执行(render)绝对时间为Tbase+ρ,本地render绝对时间为当前的视频Sample或音频Sample解码预览和写入片段文件的时间。\n[0061] 根据下面的公式得到每个视频Sample和音频Sample的本地render绝对时间为:\n[0062] \n[0063] 其中,Tn表示第n个视频Sample和音频Sample的本地render绝对时间,tVn表示第n个视频Sample的开始时间戳,tAn表示第n个音频Sample的开始时间戳,n为正整数。\n[0064] 3、轮询视频缓存和音频缓存中的视频Sample和音频Sample,在Tn≥Tcurrent时,Tcurrent表示轮询某个视频Sample或音频Sample的当前的本地绝对时间,将视频Sample的Tn和音频Sample的Tn相等或近似相等(如,两者至之差远远小于Sample的间隔)的缓冲缓存中的视频Sample和音频Sample从缓冲缓存中取出,如此便可得到同步的视频Sample和音频Sample。这里,所说近似相等是指视频Sample的Tn和音频Sample的Tn两者之差远远小于Sample间隔。\n[0065] 其中,轮询的间隔应小于视频和音频Sample间隔的最小值,一般情况下,视频的Sample间隔小于音频的Sample间隔,如步骤101中所述,视频的Sample间隔一般为40ms,而音频的Sample间隔在100ms到200ms之间,所以轮询的间隔只要小于视频的Sample间隔即可。\n[0066] 需要指出的是,轮询的时间间隔决定了同步的精度,轮询的时间间隔越小同步的精度越高,所以在设置轮询的时间间隔时除了要小于视频的Sample间隔外,越小越好。在当前轮询的视频Sample和音频Sample写入片段文件后,在下一个轮询时刻到来时,再对缓存中的视频Sample和音频Sample进行轮询,因为轮询的间隔很小,所以在保证同步精度的同时,也保证了缓存中的数据不会溢出。\n[0067] 在得到同步的视频Sample和音频Sample后,对得到的视频Sample和音频Sample进行解压并预览,如此可以直观地判断需要编辑的某段视频文件;同时,需要配置文件头,生成片段文件,然后将所预览的没有解压的同步的视频Sample和音频Sample连续写入片段文件中。片段文件可以由一个磁盘产生,首先需要配置文件头,然后就生成了一个不完整的片段文件,因为该片段文件中不含有索引信息,因此不能对该片段文件进行编辑。其中,对于配置片段文件的文件头,可以通过配置Profile生成片段文件的文件头,将其添加进片段文件中,具体如何处理为现有技术,此处不再赘述。\n[0068] 步骤105,根据片段文件中的视频Sample是否为关键帧的信息,确定片段文件的切分点,向正在写入同步视频Sample和音频Sample的片段文件添加索引信息,生成完整的片段文件。\n[0069] 通过步骤104中的解码预览,可以直观的看到当前接收到的视频文件,如此可以确定需要编辑的片段文件,然后,需要确定该片段文件的切分点。具体的确定片段文件的切分点的方法如下:假设一个完整的WMV文件的时长为10分钟,如果通过预览看到,当前接收的文件已经到了本地时间第5分钟的内容,根据编辑需要,确定要对第0分钟到5分钟的片段文件进行编辑,那么需要找到本地时间第4分60秒所对应的视频帧,并通过该视频Sample中的关键帧信息判断出该帧是否为关键帧,如果是关键帧,那么将该关键帧对应的视频Sample切分到下一个片段文件中,该关键帧的上一个视频帧切分到当前的片段文件中,假设该视频帧对应的本地时间为第4分59秒,那么当前的片段文件中包含的数据为第\n0分0秒到第4分59秒的视频数据和与该段视频数据同步的音频数据;如果不是关键帧,那么找到距离该视频帧最近的关键帧,将该关键帧切分到下一个片段文件中,将该关键帧的上一个视频帧切分到当前的片段文件中。如此,找到片段文件的切分点后,对该片段文件添加索引信息,这样就生成了一个完整的片段文件,可以对其进行实时的编辑。其中对于添加索引信息,较佳地,可以通过使用流媒体处理开发包Windows Mdeia Format SDK提供的接口进行添加索引信息的操作,此为已有技术,这里不再详述。\n[0070] 当第一个完整的片段文件生成后,返回执行步骤104~105,磁盘重新配置文件头,生成新的片段文件,再将同步的视频Sample和音频Sample连续地写入片段文件中,然后再根据需要找到下一段需要编辑的片段文件的切分点,再添加索引信息,生成完整的片段文件,如此反复几次,直到需要编辑的该完整的视频文件传输完毕。如此,最后可生成几段完整的视频片段文件,如:一个完整的WMV文件的时长为10分钟,如果在第3分钟,第5分钟和第10分钟进行切分的话,那么最终可以产生三个片段文件,即0-3分钟,4-5分钟和\n6-10分钟的片段文件。\n[0071] 需要指出的是,在对写入片段文件的数据进行切分时,由于音频Sample的Sample间隔和视频Sample的Sample间隔不同,所以,会出现某一个音频Sample的持续时间比该音频Sample所对应的视频帧的持续时间长的情况,如果该视频帧是某一切分好的片段文件的最后一帧,则在这种情况下,将该视频帧对应的音频Sample切分到下一个片段文件中。\n[0072] 步骤106,将各个完整的片段文件映射到流媒体处理开发包DirectShowEditing Services(DES)的时间线模型中的Source组件中,对片段文件进行编辑。\n[0073] 对于已经生成的若干完整的片段文件,可以使用流媒体处理开发包DES提供的框架来实现对其进行编辑操作的回放支持。DES提供了一个时间线的模型来支持对视音频的编辑操作,将片段文件映射到DES的时间线模型中的Source组件中,具体如何将片段文件映射到DES的时间线模型中的Source组件中为现有技术,此处不再赘述。\n[0074] 图3所示为本发明中片段文件在DES时间线模型中的映射关系,其中,DES时间线模型包括:DES时间线模型(Composition)301,抽象轨道(Track)302,资源组件(Source)303;所有片段文件被映射到同一个Track 302下的多个Source组件303中,通过其他的Track 302,可以在编辑片段文件时加入logo、字幕或者其他视频、音频等,以获得叠加效果。对已生成的片段文件进行拆分、合并、移位、掐头去尾、增加标志(logo)、字幕等视频编辑操作,都是通过建立DES时间线模型,并使用其相关接口来实现的。\n[0075] 步骤107,对编辑后的片段文件进行发布。\n[0076] 为了更大的提高效率,可以使用一个后台线程对已经编辑好的部分提前写入最终用于发布的片段文件,而不必等着所有的片段文件都编辑好后再生成最终用于发布的片段文件,该步骤的实施通过现有技术便可实现,在此不再赘述。\n[0077] 为实现上述方法,本发明还提供了一种视频文件编辑装置,如图4所示,该视频文件编辑装置包括:采集模块10、缓存模块20、同步模块30、存储模块40、生成模块50、编辑模块60和发布模块70;其中,\n[0078] 采集模块10,用于对视频数据和音频数据进行采集,并进行压缩编码,最终以视频Sample和音频Sample分别输出;采集模块10可采用采集服务器。\n[0079] 缓存模块20,用于对来自采集模块20的视频Sample和音频Sample分别进行缓存。\n[0080] 缓存模块20进一步包括:视频缓存子模块21和音频缓存子模块22,其中,视频缓存子模块21,用于缓存视频Sample;音频缓存子模块22,用于缓存音频Sample。\n[0081] 同步模块30,用于根据视频Sample和音频Sample中的开始时间戳,对缓存模块\n20中的视频Sample和音频Sample进行同步。\n[0082] 同步模块30进一步包括信息记录子模块31、时间获取子模块32和数据触发子模块33,其中,\n[0083] 信息记录子模块31,用于记录第一个视频Sample进行缓存时的本地绝对时间TV1和采集该视频Sample时产生的开始时间戳tV1,以及第一个音频Sample的本地绝对时间TA1和开始时间戳tA1;\n[0084] 时间获取子模块32,用于选取信息记录子模块31中记录的TV1和TA1中的较大者为本地绝对基准时间Tbase,设置视频Sample和音频Sample进行缓存时的缓存延时为ρ,且第一个视频Sample和音频Sample的本地render绝对时间为Tbase+ρ,并根据下式得到所述每个视频Sample和音频Sample的本地render绝对时间为:\n[0085] \n[0086] 数据触发子模块33,用于轮询缓存模块20中的视频Sample和音频Sample,在Tn≥Tcurrent时,将视频Sample和音频Sample从缓存模块20中取出,其中Tcurrent表示轮询所述视频Sample或音频Sample的当前的本地绝对时间。\n[0087] 存储模块40,用于将从缓存模块20中取出的经过同步模块30同步的视频Sample和音频Sample进行解码预览,同时配置文件头,生成片段文件,将同步的视频Sample和音频Sample连续写入片段文件。\n[0088] 切分模块50,用于根据所述存储模块40中片段文件的视频Sample是否为关键帧的信息,确定存储模块40中所述片段文件的切分点,向所述正在写入同步视频Sample和音频Sample的片段文件添加索引信息,生成完整的片段文件。\n[0089] 当切分模块50生成一个完整的片段文件后,再进行存储模块40的操作,确定下一个需要片剂的片段文件,然后配置文件头生成新的片段文件,将同步的视频Sample和音频Sample连续写入片段文件;之后,再执行切分模块50的操作,确定该片段文件的切分点,然后添加索引信息,生成新的完整的片段文件,直到处理完整个视频文件。\n[0090] 编辑模块60,用于将切分模块50中各个完整的片段文件映射到流媒体处理开发包DirectShow Editing Services(DES)的时间线模型中的Source组件中,对片段文件进行编辑。\n[0091] 发布模块70,用于对编辑模块60中编辑后的片段文件进行发布。\n[0092] 其中,采集模块10、视频缓存子模块21、音频缓存子模块22、信息记录子模块31、时间获取子模块32、数据触发子模块33、编辑模块60和发布模块70是可选的。\n[0093] 以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。
法律信息
- 2022-07-01
专利权的转移
登记生效日: 2022.06.21
专利权人由北大方正集团有限公司变更为新方正控股发展有限责任公司
地址由100871 北京市海淀区成府路298号方正大厦9层变更为519031 广东省珠海市横琴新区华金街58号横琴国际金融中心大厦3007
专利权人由北京大学 北京北大方正电子有限公司 变更为北京大学 北京北大方正电子有限公司
- 2013-08-07
- 2011-06-22
实质审查的生效
IPC(主分类): H04N 7/26
专利申请号: 200810116983.X
申请日: 2008.07.22
- 2010-01-27
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 |
1
| |
2008-06-04
|
2006-11-22
| | |
2
| |
2005-09-14
|
2005-04-07
| | |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |