著录项信息
专利名称 | 视频直播方法及装置 |
申请号 | CN201410114811.4 | 申请日期 | 2014-03-25 |
法律状态 | 暂无 | 申报国家 | 中国 |
公开/公告日 | 2014-07-02 | 公开/公告号 | CN103905885A |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | H04N21/431 | IPC分类号 | H;0;4;N;2;1;/;4;3;1;;;H;0;4;N;2;1;/;4;4;0;2;;;H;0;4;N;2;1;/;4;7;2查看分类表>
|
申请人 | 广州华多网络科技有限公司 | 申请人地址 | 广东省广州市番禺区南村镇万博二路79号3108
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 广州方硅信息技术有限公司 | 当前权利人 | 广州方硅信息技术有限公司 |
发明人 | 曹楹勇 |
代理机构 | 北京三高永信知识产权代理有限责任公司 | 代理人 | 张耀光 |
摘要
本发明公开了一种视频直播方法及装置,属于多媒体数据处理领域。所述方法包括:接收视频码流,并将所述视频码流转换成视频帧;在视频帧播放过程中,接收用户交互数据;获取与所述用户交互数据相匹配的视觉效果信息;将所述视觉效果信息显示在当前播放界面的指定区域上。本发明在视频帧播放过程中,接收用户交互数据,获取与用户交互数据相匹配的视觉效果信息,并视觉效果信息显示在当前播放界面的指定区域上,由于在视频直播过程中,不仅单纯地对视频数据进行播放,还显示用户交互数据,所以可实现视频直播用户和视频接收用户之间的互动,使得视频直播的用户粘性较高。
1.一种视频直播方法,其特征在于,所述方法包括:
通过视频引擎接收视频码流,并通过视频数据读取器根据所述视频码流中包含的包头信息将所述视频码流转换成视频帧,通过指定引擎将所述视频帧从内存中加载到当前播放界面上进行播放,所述指定引擎为cocos2d引擎,所述包头信息中指明了一帧图像对应的码流长度、码流起始点以及码流终止点;
在视频帧播放过程中,通过界面数据读取器接收用户交互数据;
获取与所述用户交互数据相匹配的视觉效果信息;
将所述视觉效果信息显示在当前播放界面的指定区域上;
其中,所述用户交互数据为视频直播用户对视频接收用户的回复性内容,或视频的解释性内容;
其中,所述获取与所述用户交互数据相匹配的视觉效果信息,包括:
根据预设条件判断所述用户交互数据是否为特效数据,所述特效数据为视觉效果信息通过指定引擎显示的数据;
如果所述用户交互数据为特效数据,则将所述用户交互数据存储在数据缓存队列中,当数据缓存队列轮询器查找到所述用户交互数据后,将所述用户交互数据从所述数据缓存队列中取出,查询预先设置的用户交互数据与视觉效果信息的对应关系,获取与所述用户交互数据相匹配的视觉效果信息;
如果所述用户交互数据为非特效数据,则将所述用户交互数据作为视觉效果信息,所述非特效数据为视觉效果信息通过用户界面UI控件显示的数据;
其中,所述将所述视觉效果信息显示在当前播放界面的指定区域上,包括:
如果所述用户交互数据为特效数据,则通过指定引擎将所述视觉效果信息显示在当前播放界面的指定区域上;或,
如果所述用户交互数据为非特效数据,则通过用户界面UI控件将所述用户交互数据显示在当前播放界面的指定区域上。
2.一种视频直播装置,其特征在于,所述装置包括:
视频码流接收模块,用于通过视频引擎接收视频码流,并通过视频数据读取器根据所述视频码流中包含的包头信息将所述视频码流转换成视频帧,通过指定引擎将所述视频帧从内存中加载到当前播放界面上进行播放,所述指定引擎为cocos2d引擎,所述包头信息中指明了一帧图像对应的码流长度、码流起始点以及码流终止点;
用户交互数据接收模块,用于在视频帧播放过程中,通过界面数据读取器接收用户交互数据;
视觉信息获取模块,用于获取与所述用户交互数据相匹配的视觉效果信息;
显示模块,用于将所述视觉效果信息显示在当前播放界面的指定区域上;
其中,所述用户交互数据为视频直播用户对视频接收用户的回复性内容,或视频的解释性内容;
所述视觉信息获取模块,包括:
判断单元,用于根据预设条件判断所述用户交互数据是否为特效数据;
获取单元,用于当所述用户交互数据为特效数据时,查询预先设置的用户交互数据与视觉效果信息的对应关系,获取与所述用户交互数据相匹配的视觉效果信息,所述特效数据为视觉效果信息通过指定引擎显示的数据;
确定单元,用于当所述用户交互数据为非特效数据时,将所述用户交互数据作为视觉效果信息,所述非特效数据为视觉效果信息通过用户界面UI控件显示的数据;
其中,所述装置还包括:
存储模块,用于当所述用户交互数据为特效数据时,将所述用户交互数据存储在数据缓存队列中;
所述获取单元,用于当数据缓存队列轮询器查找到所述用户交互数据后,将所述用户交互数据从所述数据缓存队列中取出,并执行所述查询预先设置的用户交互数据与视觉效果信息的对应关系表,获取与所述用户交互数据相匹配的视觉效果信息的步骤;
其中,所述显示模块,用于当所述用户交互数据为特效数据时,通过指定引擎将所述视觉效果信息显示在当前播放界面的指定区域上;或,当所述用户交互数据为非特效数据时,通过用户界面UI控件将所述用户交互数据显示在当前播放界面的指定区域上;
其中,所述装置还包括:
加载模块,用于通过指定引擎将所述视频帧从内存中加载到所述当前播放界面上进行播放。
视频直播方法及装置\n技术领域\n[0001] 本发明涉及多媒体数据处理领域,特别涉及一种视频直播方法及装置。\n背景技术\n[0002] 随着互联网应用的兴起,用户越来越倾向于选择在线视频实时直播的方式,与他人分享一些趣闻或进行现场个人才艺表演。为了使在线实时视频接收用户获得良好的视觉效果,如何进行视频直播,成为了一个关键问题。\n[0003] 现有技术进行视频直播时,视频接收用户的客户端仅对视频数据进行播放。\n[0004] 在实现本发明的过程中,发明人发现现有技术至少存在以下问题:\n[0005] 由于视频接收用户的客户端仅单纯地对视频数据进行播放,所以视频接收用户获得的视觉效果的形式较为单一,不能够在视频直播用户和视频接收用户之间进行互动,使得视频直播的用户粘性较低。\n发明内容\n[0006] 为了解决现有技术的问题,本发明实施例提供了一种视频直播方法及装置。所述技术方案如下:\n[0007] 一方面,提供了一种视频直播方法,所述方法包括:\n[0008] 接收视频码流,并将所述视频码流转换成视频帧;\n[0009] 在视频帧播放过程中,接收用户交互数据;\n[0010] 获取与所述用户交互数据相匹配的视觉效果信息;\n[0011] 将所述视觉效果信息显示在当前播放界面的指定区域上。\n[0012] 可选地,所述获取与所述用户交互数据相匹配的视觉效果信息,包括:\n[0013] 根据预设条件判断所述用户交互数据是否为特效数据;\n[0014] 如果所述用户交互数据为特效数据,则查询预先设置的用户交互数据与视觉效果信息的对应关系,获取与所述用户交互数据相匹配的视觉效果信息;\n[0015] 如果所述用户交互数据为非特效数据,则将所述用户交互数据作为视觉效果信息。\n[0016] 可选地,所述根据预设条件判断所述用户交互数据是否为特效数据之后,所述方法还包括:\n[0017] 如果所述用户交互数据为特效数据,则将所述用户交互数据存储在数据缓存队列中;\n[0018] 当数据缓存队列轮询器查找到所述用户交互数据后,将所述用户交互数据从所述数据缓存队列中取出,并执行所述查询预先设置的用户交互数据与视觉效果信息的对应关系表,获取与所述用户交互数据相匹配的视觉效果信息的步骤。\n[0019] 可选地,所述将所述视觉效果信息显示在当前播放界面的指定区域上,包括:\n[0020] 如果所述用户交互数据为特效数据,则通过指定引擎将所述视觉效果信息显示在当前播放界面的指定区域上;或,\n[0021] 如果所述用户交互数据为非特效数据,则通过UI(User Interface,用户界面)控件将所述用户交互数据显示在当前播放界面的指定区域上。\n[0022] 可选地,所述将所述视频码流转换成视频帧之后,所述方法还包括:\n[0023] 通过指定引擎将所述视频帧从内存中加载到所述当前播放界面上进行播放。\n[0024] 另一方面,提供了一种视频直播装置,所述装置包括:\n[0025] 视频码流接收模块,用于接收视频码流,并将所述视频码流转换成视频帧;\n[0026] 用户交互数据接收模块,用于在视频帧播放过程中,接收用户交互数据;\n[0027] 视觉信息获取模块,用于获取与所述用户交互数据相匹配的视觉效果信息;\n[0028] 显示模块,用于将所述视觉效果信息显示在当前播放界面的指定区域上。\n[0029] 可选地,所述视觉信息获取模块,包括:\n[0030] 判断单元,用于根据预设条件判断所述用户交互数据是否为特效数据;\n[0031] 获取单元,用于当所述用户交互数据为特效数据时,查询预先设置的用户交互数据与视觉效果信息的对应关系,获取与所述用户交互数据相匹配的视觉效果信息;\n[0032] 确定单元,用于当所述用户交互数据为非特效数据时,将所述用户交互数据作为视觉效果信息。\n[0033] 可选地,所述装置还包括:\n[0034] 存储模块,用于当所述用户交互数据为特效数据时,将所述用户交互数据存储在数据缓存队列中;\n[0035] 所述获取单元,用于当数据缓存队列轮询器查找到所述用户交互数据后,将所述用户交互数据从所述数据缓存队列中取出,并执行所述查询预先设置的用户交互数据与视觉效果信息的对应关系表,获取与所述用户交互数据相匹配的视觉效果信息的步骤。\n[0036] 可选地,所述显示模块,用于当所述用户交互数据为特效数据时,通过指定引擎将所述视觉效果信息显示在当前播放界面的指定区域上;或,当所述用户交互数据为非特效数据时,通过UI控件将所述用户交互数据显示在当前播放界面的指定区域上。\n[0037] 可选地,所述装置还包括:\n[0038] 加载模块,用于通过指定引擎将所述视频帧从内存中加载到所述当前播放界面上进行播放。\n[0039] 本发明实施例提供的技术方案带来的有益效果是:\n[0040] 在视频帧播放过程中,接收用户交互数据,获取与用户交互数据相匹配的视觉效果信息,并视觉效果信息显示在当前播放界面的指定区域上,由于在视频直播过程中,不仅单纯地对视频数据进行播放,还显示用户交互数据,所以可实现视频直播用户和视频接收用户之间的互动,使得视频直播的用户粘性较高。\n附图说明\n[0041] 为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。\n[0042] 图1是本发明实施例一提供的一种视频直播的方法流程图;\n[0043] 图2是本发明实施例二提供的一种视频直播的方法流程图;\n[0044] 图3是本发明实施例三提供的一种视频直播装置的结构示意图;\n[0045] 图4是本发明实施例四提供的一种终端的结构示意图。\n具体实施方式\n[0046] 为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。\n[0047] 实施例一\n[0048] 图1是本发明实施例一提供的一种视频直播的方法流程图。参见图1,该方法包括:\n[0049] 101、接收视频码流,并将视频码流转换成视频帧。\n[0050] 102、在视频帧播放过程中,接收用户交互数据。\n[0051] 103、获取与用户交互数据相匹配的视觉效果信息。\n[0052] 104、将视觉效果信息显示在当前播放界面的指定区域上。\n[0053] 本实施例提供的方法,在视频帧播放过程中,接收用户交互数据,获取与用户交互数据相匹配的视觉效果信息,并视觉效果信息显示在当前播放界面的指定区域上,由于在视频直播过程中,不仅单纯地对视频数据进行播放,还显示用户交互数据,所以可实现视频直播用户和视频接收用户之间的互动,使得视频直播的用户粘性较高。\n[0054] 可选地,获取与用户交互数据相匹配的视觉效果信息,包括:\n[0055] 根据预设条件判断用户交互数据是否为特效数据;\n[0056] 如果用户交互数据为特效数据,则查询预先设置的用户交互数据与视觉效果信息的对应关系,获取与用户交互数据相匹配的视觉效果信息;\n[0057] 如果用户交互数据为非特效数据,则将用户交互数据作为视觉效果信息。\n[0058] 可选地,根据预设条件判断用户交互数据是否为特效数据之后,该方法还包括:\n[0059] 如果用户交互数据为特效数据,则将用户交互数据存储在数据缓存队列中;\n[0060] 当数据缓存队列轮询器查找到用户交互数据后,将用户交互数据从数据缓存队列中取出,并执行查询预先设置的用户交互数据与视觉效果信息的对应关系表,获取与用户交互数据相匹配的视觉效果信息的步骤。\n[0061] 可选地,将视觉效果信息显示在当前播放界面的指定区域上,包括:\n[0062] 如果用户交互数据为特效数据,则通过指定引擎将视觉效果信息显示在当前播放界面的指定区域上;或,\n[0063] 如果用户交互数据为非特效数据,则通过UI控件将用户交互数据显示在当前播放界面的指定区域上。\n[0064] 可选地,将视频码流转换成视频帧之后,该方法还包括:\n[0065] 通过指定引擎将视频帧从内存中加载到当前播放界面上进行播放。\n[0066] 上述所有可选技术方案,可以采用任意结合形成本发明的可选实施例,在此不再一一赘述。\n[0067] 实施例二\n[0068] 本发明实施例提供了一种视频直播方法,现结合上述实施例一的内容对本实施例提供的方法流程进行详细地解释说明。参见图2,本实施例提供的方法流程包括:\n[0069] 201、接收视频码流,并将视频码流转换成视频帧。\n[0070] 在视频接收客户端启动后,通过加载视频引擎便可接收来自视频直播客户端的视频码流。其中,视频码流为方便在网络之间进行传输的二进制码流。在视频引擎不断接收视频码流的过程中,视频数据读取器不断地从视频引擎中读取视频码流,并将读取到的视频码流转换成视频帧。在将读取到的视频码流转换成视频帧时,由于视频码流中包含有包头信息,而包头信息中指明了一帧图像所对应的码流长度、码流起始点及码流终止点,所以根据视频码流中包含的包头信息便可将视频码流转换成视频帧。\n[0071] 202、通过指定引擎将视频帧从内存中加载到当前播放界面上进行播放。\n[0072] 在通过上述步骤201将视频直播段传输的视频码流转换成视频帧后,该视频帧对于视频接收端用户来说并不可见,因此,需通过视频渲染技术,也即,通过指定引擎将视频帧从内存中加载到当前播放界面上进行播放。其中,在本实施例中指定引擎具体指代cocos2d引擎,其为一个基于MIT协议的开源框架,用于构建游戏、应用程序和其他图形界面交互应用,可使视频本身在播放上更加流畅。\n[0073] 需要说明的是,通过上述步骤201及步骤202便可实现视频直播,然而上述视频直播方式由于视频直播客户端和视频接收客户端、各个视频接收客户端之间根本没有交流互动,仅是视频码流从视频直播客户端到视频接收客户端这一单一枯燥模式,不但不能充分体现出视频内容提供者的与众不同,而且各个视频内容接收者也不能针对视频内容作出评论,说出自身的想法,所以上述视频直播方式的视觉效果和娱乐效果均不高,用户粘性较差。而为了解决上述问题,本发明实施例通过下述步骤203至步骤207使视频直播由视频码流从视频直播客户端到视频接收客户端这一单一枯燥模式,转变为双边交流互动模式。具体过程如下:\n[0074] 203、在视频帧播放过程中,接收用户交互数据。\n[0075] 其中,用户交互数据可为视频接收用户对视频的评论性内容,也可为视频直播用户对视频接收用户的回复性内容,还可为视频直播用户对视频的解释性内容,本实施例对用户交互数据包括的内容不进行具体限定。而各个视频接收客户端在进行视频帧播放过程中,各个视频接收客户端所有者便可通过键盘或触摸屏输入用户交互数据。\n[0076] 在本实施例中,可通过界面数据读取器接收用户交互数据,接收到的用户交互数据既可为经由网络传输的用户交互数据,也可为当前客户端所有者通过键盘或触摸屏输入的用户交互数据。其中,经由网络传输的用户交互数据可来自于其他视频接收客户端或视频直播客户端。\n[0077] 需要说明的是,本实施例对接收到的用户交互数据的来源不作具体限定。无论接收到的用户交互数据来源如何,对接收到的用户交互数据均执行同样的后续操作,具体过程详见下述步骤204。\n[0078] 204、根据预设条件判断用户交互数据是否为特效数据;如果用户交互数据为特效数据,则执行步骤205;如果用户交互数据为非特效数据,则执行步骤206。\n[0079] 在本实施例中,预设条件可视情况而设置,且可变化。比如,预设条件可为“仅包含纯文字的用户交互数据为非特效数据”,或“仅包含纯文字或表情符号的用户交互数据为非特效数据”等等。本实施例对预设条件的具体形式不作限定。其中,特效数据指代不能用常规UI控件进行效果展示的数据。\n[0080] 205、将用户交互数据存储在数据缓存队列中;当数据缓存队列轮询器查找到用户交互数据后,将用户交互数据从数据缓存队列中取出,并查询预先设置的用户交互数据与视觉效果信息的对应关系,获取与用户交互数据相匹配的视觉效果信息;并执行下述步骤\n207。\n[0081] 在用户交互数据为特效数据的情况下,由于后续过程中还需获取与该用户交互数据相匹配的视觉效果信息,而在一段时间内,接收到的特效数据可能数目众多,为了能够有条理地且按顺序对接收到的特效数据做后续处理,本实施例提供的方法,在判断某一用户交互数据为特效数据后,直接将该用户交互数据存储在数据缓存队列中,并设置数据缓存队列轮询器对缓存的用户交互数据进行管理,由该数据缓存队列轮询器判断当前该对哪个一用户交互数据进行处理。当数据缓存队列轮询器查找到某一用户交互数据后,该用户交互数据将从数据缓存队列中取出并进行后续处理。\n[0082] 其中,视觉效果信息可为一段评论性的文字、一个或多个表情符号,一个烟花动画、一段响铃或一段特效音乐等等,本实施例对视觉效果信息包括的内容不进行具体限定。\n[0083] 以包含符号“:”的用户交互数据为特效数据为例,用户交互数据与视觉效果信息的对应关系可如下表1所示:\n[0084] 表1\n[0085]\n用户交互数据 视觉效果信息\n:不错 一段good语音\n:好 一个烟花动画\n:差 一个bad语音\n[0086] 需要说明的是,上述表1仅示出了用户交互数据与视觉效果信息的一种可能的对应关系。实际中,用户交互数据与视觉效果信息之间的对应关系存在成千上万个,表1仅是为了形象地说明用户交互数据与视觉效果信息之间的对应关系而已。当用户交互数据为特效数据时,通过查询如上述表1所示的预先设置的用户交互数据与视觉效果信息的对应关系,便可获取与用户交互数据相匹配的视觉效果信息。\n[0087] 206、将用户交互数据作为视觉效果信息。\n[0088] 在用户交互数据为非特效数据的情况下,可将其自身作为视觉效果信息。如果非特效数据指代纯文字的用户交互数据,则直接将该纯文字的用户交互数据作为视觉效果信息,并将其直接进行显示。具体显示过程详见下述步骤207。\n[0089] 207、将视觉效果信息显示在当前播放界面的指定区域上。\n[0090] 由于与用户交互数据相匹配的视觉效果信息此时对视频接收客户端所有者来说并不可见,因此需通过下述步骤207a和步骤207b将视觉效果信息显示在当前播放界面的指定区域上,具体实现方式如下:\n[0091] 207a、如果用户交互数据为特效数据,则通过指定引擎将视觉效果信息显示在当前播放界面的指定区域上;\n[0092] 在本实施例中,指定引擎具体指代cocos2d引擎,其为一个基于MIT协议的开源框架,用于构建游戏、应用程序和其他图形界面交互应用,可显示各种视觉效果及进行特效展示。\n[0093] 207b、如果用户交互数据为非特效数据,则通过UI控件将用户交互数据显示在当前播放界面的指定区域上。\n[0094] 在本实施例中,由于非特效数据通常为一些文字性的数据,所以通过常规UI控件便可将其进行显示。\n[0095] 其中,指定区域可为当前播放界面对应的整个画面,也可为置于当前播放界面之上的且位于边缘处的一个固定显示窗口,本实施例对指定区域的形式不进行具体限定。\n[0096] 需要说明的是,在通过上述步骤203至步骤207的处理过程后,在视频接收客户端直播的视频可给人耳目一新的感觉,同时整个视频的氛围和交互娱乐也上了一个台阶,极大地提升了视频效果和娱乐效果。\n[0097] 本实施例提供的方法,在视频帧播放过程中,接收用户交互数据,获取与用户交互数据相匹配的视觉效果信息,并视觉效果信息显示在当前播放界面的指定区域上,由于在视频直播过程中,不仅单纯地对视频数据进行播放,还显示用户交互数据,所以可实现视频直播用户和视频接收用户之间的互动,使得视频直播的用户粘性较高。\n[0098] 实施例三\n[0099] 本发明实施例提供了一种视频直播装置,用于执行上述实施例一或实施例二所示的方法。参见图3,该装置包括:视频码流接收模块301、用户交互数据接收模块302、视觉信息获取模块303及显示模块304。\n[0100] 其中,视频码流接收模块301,用于接收视频码流,并将视频码流转换成视频帧;用户交互数据接收模块302与视频码流接收模块301连接,用于在视频帧播放过程中,接收用户交互数据;视觉信息获取模块303与用户交互数据接收模块302连接,用于获取与用户交互数据相匹配的视觉效果信息;显示模块304与视觉信息获取模块303连接,用于将视觉效果信息显示在当前播放界面的指定区域上。\n[0101] 可选地,视觉信息获取模块,包括:\n[0102] 判断单元,用于根据预设条件判断用户交互数据是否为特效数据;\n[0103] 获取单元,用于当用户交互数据为特效数据时,查询预先设置的用户交互数据与视觉效果信息的对应关系,获取与用户交互数据相匹配的视觉效果信息;\n[0104] 确定单元,用于当用户交互数据为非特效数据时,将用户交互数据作为视觉效果信息。\n[0105] 可选地,该装置还包括:\n[0106] 存储模块,用于当用户交互数据为特效数据时,将用户交互数据存储在数据缓存队列中;\n[0107] 获取单元,用于当数据缓存队列轮询器查找到用户交互数据后,将用户交互数据从数据缓存队列中取出,并执行查询预先设置的用户交互数据与视觉效果信息的对应关系表,获取与用户交互数据相匹配的视觉效果信息的步骤。\n[0108] 可选地,显示模块,用于当用户交互数据为特效数据时,通过指定引擎将视觉效果信息显示在当前播放界面的指定区域上;或,当用户交互数据为非特效数据时,通过UI控件将用户交互数据显示在当前播放界面的指定区域上。\n[0109] 可选地,该装置还包括:\n[0110] 加载模块,用于通过指定引擎将视频帧从内存中加载到当前播放界面上进行播放。\n[0111] 综上所述,本发明实施例提供的装置,在视频帧播放过程中,接收用户交互数据,获取与用户交互数据相匹配的视觉效果信息,并视觉效果信息显示在当前播放界面的指定区域上,由于在视频直播过程中,不仅单纯地对视频数据进行播放,还显示用户交互数据,所以可实现视频直播用户和视频接收用户之间的互动,使得视频直播的用户粘性较高。\n[0112] 实施例四\n[0113] 图4是终端设备的示例性结构示意图,参见图4,上述实施例中终端执行的步骤可以基于该终端设备的结构。优选的:\n[0114] 终端设备400可以包括通信单元110、包括有一个或一个以上计算机可读存储介质的存储器120、输入单元130、显示单元140、传感器150、音频电路160、WIFI(Wireless Fidelity,无线保真)模块170、包括有一个或者一个以上处理核心的处理器180、以及电源\n190等部件。本领域技术人员可以理解,图中示出的终端设备结构并不构成对终端设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:\n[0115] 通信单元110可用于收发信息或通话过程中,信号的接收和发送,该通信单元110可以为RF(Radio Frequency,射频)电路、路由器、调制解调器、等网络通信设备。特别地,当通信单元110为RF电路时,将基站的下行信息接收后,交由一个或者一个以上处理器180处理;另外,将涉及上行的数据发送给基站。通常,作为通信单元的RF电路包括但不限于天线、至少一个放大器、调谐器、一个或多个振荡器、用户身份模块(SIM)卡、收发信机、耦合器、LNA(Low Noise Amplifier,低噪声放大器)、双工器等。此外,通信单元110还可以通过无线通信与网络和其他设备通信。所述无线通信可以使用任一通信标准或协议,包括但不限于GSM(Global System of Mobile communication,全球移动通讯系统)、GPRS(General Packet Radio Service,通用分组无线服务)、CDMA(Code Division Multiple Access,码分多址)、WCDMA(Wideband Code Division Multiple Access,宽带码分多址)、LTE(Long Term Evolution,长期演进)、电子邮件、SMS(Short Messaging Service,短消息服务)等。\n存储器120可用于存储软件程序以及模块,处理器180通过运行存储在存储器120的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器120可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据终端设备400的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器120可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器120还可以包括存储器控制器,以提供处理器180和输入单元130对存储器120的访问。\n[0116] 输入单元130可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。优选地,输入单元130可包括触敏表面131以及其他输入设备132。触敏表面131,也称为触摸显示屏或者触控板,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触敏表面131上或在触敏表面131附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触敏表面131可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器180,并能接收处理器180发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触敏表面131。除了触敏表面131,输入单元130还可以包括其他输入设备132。优选地,其他输入设备132可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。\n[0117] 显示单元140可用于显示由用户输入的信息或提供给用户的信息以及终端设备\n400的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。显示单元140可包括显示面板141,可选的,可以采用LCD(Liquid Crystal Display,液晶显示器)、OLED(Organic Light-Emitting Diode,有机发光二极管)等形式来配置显示面板141。进一步的,触敏表面131可覆盖显示面板141,当触敏表面131检测到在其上或附近的触摸操作后,传送给处理器180以确定触摸事件的类型,随后处理器180根据触摸事件的类型在显示面板141上提供相应的视觉输出。虽然在图4中,触敏表面131与显示面板141是作为两个独立的部件来实现输入和输入功能,但是在某些实施例中,可以将触敏表面131与显示面板141集成而实现输入和输出功能。\n[0118] 终端设备400还可包括至少一种传感器150,比如光传感器、运动传感器以及其他传感器。光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板141的亮度,接近传感器可在终端设备400移动到耳边时,关闭显示面板141和/或背光。作为运动传感器的一种,重力加速度传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于终端设备400还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。\n[0119] 音频电路160、扬声器161,传声器162可提供用户与终端设备400之间的音频接口。\n音频电路160可将接收到的音频数据转换后的电信号,传输到扬声器161,由扬声器161转换为声音信号输出;另一方面,传声器162将收集的声音信号转换为电信号,由音频电路160接收后转换为音频数据,再将音频数据输出处理器180处理后,经RF电路110以发送给比如另一终端设备,或者将音频数据输出至存储器120以便进一步处理。音频电路160还可能包括耳塞插孔,以提供外设耳机与终端设备400的通信。\n[0120] 为了实现无线通信,该终端设备上可以配置有无线通信单元170,该无线通信单元\n170可以为WIFI模块。WIFI属于短距离无线传输技术,终端设备400通过无线通信单元170可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图中示出了无线通信单元170,但是可以理解的是,其并不属于终端设备400的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。\n[0121] 处理器180是终端设备400的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器120内的软件程序和/或模块,以及调用存储在存储器\n120内的数据,执行终端设备400的各种功能和处理数据,从而对手机进行整体监控。可选的,处理器180可包括一个或多个处理核心;优选的,处理器180可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器180中。\n[0122] 终端设备400还包括给各个部件供电的电源190(比如电池),优选的,电源可以通过电源管理系统与处理器180逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源190还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。\n[0123] 尽管未示出,终端设备400还可以包括摄像头、蓝牙模块等,在此不再赘述。在本实施例中,终端设备还包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行本发明实施例提供的方法的指令。\n[0124] 需要说明的是:上述实施例提供的视频直播装置在视频直播时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的视频直播装置与视频直播方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。\n[0125] 上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。\n[0126] 本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。\n[0127] 以上仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
法律信息
- 2021-01-19
专利权的转移
登记生效日: 2021.01.07
专利权人由广州华多网络科技有限公司变更为广州方硅信息技术有限公司
地址由511446 广东省广州市番禺区南村镇万博商务区万达广场B1座28层变更为511442 广东省广州市番禺区南村镇万博二路79号3108
- 2018-08-31
- 2017-12-08
著录事项变更
申请人由广州华多网络科技有限公司变更为广州华多网络科技有限公司
地址由510655 广东省广州市黄埔大道中309号羊城创意产业园3-08栋变更为511446 广东省广州市番禺区南村镇万博商务区万达广场B1座28层
- 2014-07-30
实质审查的生效
IPC(主分类): H04N 21/431
专利申请号: 201410114811.4
申请日: 2014.03.25
- 2014-07-02
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有引用任何外部专利数据! |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |