著录项信息
专利名称 | 控制立体图像视图的方法及使用该方法的立体图像显示器 |
申请号 | CN200910209335.3 | 申请日期 | 2009-11-04 |
法律状态 | 授权 | 申报国家 | 中国 |
公开/公告日 | 2010-08-11 | 公开/公告号 | CN101799584A |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | H04N13/00 | IPC分类号 | H;0;4;N;1;3;/;0;0;;;G;0;2;B;2;7;/;2;2查看分类表>
|
申请人 | 乐金显示有限公司 | 申请人地址 | 韩国首尔
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 乐金显示有限公司 | 当前权利人 | 乐金显示有限公司 |
发明人 | 孙眩镐;郑湖永 |
代理机构 | 北京律诚同业知识产权代理有限公司 | 代理人 | 徐金国 |
摘要
本发明提供控制立体图像视图的方法及使用该方法的立体图像显示器。所述方法包括下述步骤:根据每个用户的位置信息改变在显示器上显示的3D图像的视角和深度信息;以及将用于在空间上分割来自所述显示器的光的空间分割技术、用于在时间上分割来自所述显示器的光的时间分割技术以及用于将来自所述显示器的光分割为具有彼此不同偏振特性的光的偏振分割技术中的至少两个技术相结合,使用所结合的技术为每个用户分割所述3D图像,并为每个用户产生两眼视差。
1.一种控制立体图像视图的方法,所述方法包括下述步骤:
检测每个用户的位置信息,并根据所述位置信息改变在显示器上显示的3D图像的视角和深度信息;
在所述显示器上显示所述3D图像;
使用布置在所述显示器前方的图案延迟器将来自所述显示器的光分离为第一偏振光和第二偏振光;
使用透射所述第一偏振光的第一偏振眼镜和透射所述第二偏振光的第二偏振眼镜为每个用户分离所述3D图像的光;和
使用布置在所述显示器与所述图案延迟器之间的动态栅栏,在空间上分割所述3D图像的左眼图像光和右眼图像光,其中该动态栅栏的位置被电控。
2.根据权利要求1所述的方法,其中根据图像传感器和检测具有确定波长的光的光学传感器中的至少一个的输出,获得每个用户的所述位置信息。
3.一种控制立体图像视图的方法,所述方法包括下述步骤:
检测每个用户的位置信息,并根据所述位置信息改变在显示器上显示的3D图像的视角和深度信息;
在第一期间在所述显示器上显示第一3D图像,然后在第二期间显示第二3D图像;
使用布置在所述显示器前方且被电控以改变透射光的偏振特性的动态延迟器以及布置在所述动态延迟器前方的第一和第二偏振眼镜,在时间上分割第一偏振光和第二偏振光;以及
使用布置在所述显示器与所述动态延迟器之间的动态栅栏,在空间上分割所述3D图像的左眼和右眼图像光,其中该动态栅栏的位置被电控。
4.一种控制立体图像视图的方法,所述方法包括下述步骤:
检测每个用户的位置信息,并根据所述位置信息改变在显示器上显示的3D图像的视角和深度信息;
在第一期间在所述显示器上显示第一3D图像,并且电控在所述显示器前方布置的第一有源眼镜的左右光学快门,以在第一期间打开所述第一有源眼镜的所述左右光学快门; 在第二期间在所述显示器上显示第二3D图像,并且电控在所述显示器前方布置的第二有源眼镜的左右光学快门,以在第二期间打开所述第二有源眼镜的所述左右光学快门;
以及
使用布置在所述显示器与所述有源眼镜之间的动态栅栏,在空间上分割所述3D图像的左眼和右眼图像光,其中该动态栅栏的位置被电控。
5.一种控制立体图像视图的方法,所述方法包括下述步骤:
检测每个用户的位置信息,并根据所述位置信息改变在显示器上显示的3D图像的视角和深度信息;
在第一期间在所述显示器上显示第一3D图像,通过使用布置在所述显示器前方的图案延迟器在第一期间将所述第一3D图像的左眼图像光变为第一偏振光并且同时将所述第一3D图像的右眼图像光变为第二偏振光,并且电控在所述图案延迟器前方布置的第一有源眼镜的左右光学快门,以在第一期间打开所述第一有源眼镜的左右光学快门;以及在第二期间在所述显示器上显示第二3D图像,通过使用所述图案延迟器在第二期间将所述第二3D图像的左眼图像光变为第一偏振光并且同时将所述第二3D图像的右眼图像光变为第二偏振光,并且电控在所述图案延迟器前方布置的第二有源眼镜的左右光学快门,以在第二期间打开所述第二有源眼镜的左右光学快门,
其中所述第一和第二有源眼镜的所述左光学快门包括仅透射所述第一偏振光的第一偏振膜,所述第一和第二有源眼镜的所述右光学快门包括仅透射所述第二偏振光的第二偏振膜。
6.一种控制立体图像视图的方法,所述方法包括下述步骤:
检测每个用户的位置信息,并根据所述位置信息改变在显示器上显示的3D图像的视角和深度信息;
在第一期间在所述显示器上显示第一和第二3D图像的左眼图像,通过使用布置在所述显示器前方的图案延迟器在第一期间将所述第一3D图像的左眼图像光变为第一偏振光并将所述第二3D图像的左眼图像光变为第二偏振光,并且电控在所述图案延迟器前方布置的第一和第二有源眼镜的左光学快门,以在第一期间打开所述第一和第二有源眼镜的左光学快门;以及
在第二期间在所述显示器上显示所述第一和第二3D图像的右眼图像,通 过使用所述图案延迟器在第二期间将所述第一3D图像的右眼图像光变为所述第一偏振光并将所述第二3D图像的右眼图像光变为所述第二偏振光,并且电控所述第一和第二有源眼镜的右光学快门,以在第二期间打开所述第一和第二有源眼镜的右光学快门;
其中所述第一有源眼镜的所述左右光学快门包括仅透射所述第一偏振光的第一偏振膜,所述第二有源眼镜的所述左右光学快门包括仅透射所述第二偏振光的第二偏振膜。
7.一种立体图像显示器,包括:
控制器,其根据每个用户的位置信息改变在显示器上显示的3D图像的视角和深度信息;
布置在所述显示器前方的图案延迟器,该图案延迟器将来自所述显示器的光分离为第一偏振光和第二偏振光;
布置在所述图案延迟器前方且透射所述第一偏振光的第一偏振眼镜;
布置在所述图案延迟器前方且透射所述第二偏振光的第二偏振眼镜;和
布置在所述显示器与所述图案延迟器之间的动态栅栏,所述动态栅栏的位置被电控,以在空间上分割在所述显示器上显示的所述3D图像的左眼和右眼图像光。
8.根据权利要求7所述的立体图像显示器,还包括图像传感器和用于检测具有确定波长的光的光学传感器中的至少一个,其中所述图像传感器和光学传感器检测每个用户的位置信息并将所述位置信息提供给所述控制器。
9.一种立体图像显示器,包括:
控制器,其根据每个用户的位置信息改变在显示器上显示的3D图像的视角和深度信息;
布置在所述显示器前方的动态延迟器,该动态延迟器被电控以在第一期间将显示在所述显示器上的第一3D图像的光变为第一偏振光,然后在第二期间将显示在所述显示器上的第二3D图像的光变为第二偏振光;
布置在所述动态延迟器前方且透射所述第一偏振光的第一偏振眼镜;
布置在所述动态延迟器前方且透射所述第二偏振光的第二偏振眼镜;和
布置在所述显示器与所述动态延迟器之间的动态栅栏,所述动态栅栏的位置被电控,以在空间上分割在所述显示器上显示的所述3D图像的左眼和右眼 图像光。
10.一种立体图像显示器,包括:
控制器,其根据每个用户的位置信息改变在显示器上显示的3D图像的视角和深度信息;
布置在所述显示器前方的动态栅栏,所述动态栅栏的位置被电控,以在空间上分割在所述显示器上显示的所述3D图像的左眼和右眼图像光;
布置在所述动态栅栏前方的第一有源眼镜,该第一有源眼镜包括在所述控制器的控制下打开的左右光学快门;和
布置在所述动态栅栏前方的第二有源眼镜,该第二有源眼镜包括在所述控制器的控制下打开的左右光学快门。
11.一种立体图像显示器,包括:
控制器,其根据每个用户的位置信息改变在显示器上显示的3D图像的视角和深度信息;
布置在所述显示器前方的图案延迟器,该图案延迟器将来自所述显示器的光分离为第一偏振光和第二偏振光;
布置在所述图案延迟器前方的第一有源眼镜,该第一有源眼镜包括在所述控制器的控制下打开的左右光学快门;和
布置在所述图案延迟器前方的第二有源眼镜,该第二有源眼镜包括在所述控制器的控制下打开的左右光学快门,
其中所述第一和第二有源眼镜的左光学快门包括仅透射所述第一偏振光的第一偏振膜,所述第一和第二有源眼镜的右光学快门包括仅透射所述第二偏振光的第二偏振膜。
控制立体图像视图的方法及使用该方法的立体图像显示器\n[0001] 本申请要求2009年2月11日提交的韩国专利申请No.10-2009-0010889的优先权,为了所有目的在此援引该专利申请作为参考,就像在这里全部列出一样。\n技术领域\n[0002] 本发明涉及一种控制立体图像视图(view)的方法及使用该方法的立体图像显示器。\n背景技术\n[0003] 立体图像显示器分为使用立体技术的显示器和使用自动立体技术的显示器。\n[0004] 所述立体技术使用左眼和右眼的视差(disparity)图像,其具有较强的3D效果,在实际使用中包括使用眼镜的技术和不使用眼镜的技术。使用眼镜的技术改变左右视差图像的偏振方向,在直观(direct view)显示器或投影仪上显示左右视差图像,或者利用时间分割方法在直观显示器或投影仪上显示左右视差图像。使用眼镜的技术是使用偏振眼镜或液晶快门眼镜产生立体图像。不使用眼镜的技术是在显示屏的前方或后方设置用于彼此分离左右视差图像的光轴的光学板,如视差栅栏(parallax barrier)。\n[0005] 使用眼镜的技术在显示器上交替显示左眼和右眼图像并切换入射到偏振眼镜上的偏振光的特性。因此,使用眼镜的技术能在时间上分割左眼和右眼图像来产生立体图像,而不会降低分辨率。\n[0006] 近年来,使用立体图像的3D(三维)内容已经变得多样化,包括3D游戏、3D广告、\n3D电影等。为了扩大立体图像的应用领域和内容,需要根据用户的动作适应性控制立体图像的视角和深度。\n发明内容\n[0007] 本发明的一个目的是提供一种控制立体图像视图的方法及使用该方法的立体图像显示器,该方法根据用户的位置改变立体图像的左眼和右眼图像的视角和深度信息,从而产生不限量的立体图像视图。\n[0008] 根据本发明的一个方面,提供了一种控制立体图像视图的方法,所述方法包括:检测每个用户的位置信息并根据所述位置信息改变在显示器上显示的3D图像的视角和深度信息;以及将用于在空间上分割来自所述显示器的光的空间分割技术、用于在时间上分割来自所述显示器的光的时间分割技术以及用于将来自所述显示器的光分割为具有彼此不同偏振特性的光的偏振分割技术中的至少两个技术相结合,使用所结合的技术为每个用户分割所述3D图像,并为每个用户产生两眼视差。\n[0009] 根据本发明的另一个方面,提供了一种立体图像显示器,其包括:控制器,其根据每个用户的位置信息改变在显示器上显示的3D图像的视角和深度信息;和3D驱动元件,其通过使用用于在空间上分割来自所述显示器的光的空间分割技术、用于在时间上分割来自所述显示器的光的时间分割技术以及用于将来自所述显示器的光分割为具有彼此不同偏振特性的光的偏振分割技术中的至少两个技术,为各个用户分割所述3D图像,并为每个用户产生两眼视差。\n附图说明\n[0010] 附图包含在本申请中构成说明书的一部分,用以给本发明提供进一步的理解。附图例示了本发明的实施方式并与说明书一起用于解释本发明的原理。在附图中:\n[0011] 图1是显示根据本发明一个实施方式的控制立体图像视图的方法流程图;\n[0012] 图2是显示根据图1步骤S1中的摄像机图像,获得用户的位置信息的方法流程图;\n[0013] 图3例示了立体图像显示器和观看立体图像显示器上显示的立体图像的用户的\n3D位置信息;\n[0014] 图4例示了由图3中所示的摄像机捕获的摄像机捕获图像;\n[0015] 图5例示了根据图1步骤S1中的红外传感器输出获得用户的位置信息的方法,其显示了具有红外传感器的立体图像显示器和用户面部的3D位置信息;\n[0016] 图6例示了由图5中所示的红外传感器检测到的红外接收像素位置;\n[0017] 图7例示了图5中所示的3D偏振眼镜的红外线发射装置;\n[0018] 图8例示了产生左眼和右眼图像的摄像机的位置根据用户的3D位置信息实时改变的一个例子;\n[0019] 图9例示了3D图像的视角和深度信息根据用户位置的变化而实时调整的一个例子;\n[0020] 图10例示了根据本发明第一个实施方式的立体图像显示器;\n[0021] 图11例示了通过图10中所示的动态栅栏彼此分离的左眼图像的光和右眼图像的光;\n[0022] 图12例示了用户看到的3D物体图像;\n[0023] 图13例示了根据本发明第二个实施方式的立体图像显示器;\n[0024] 图14A,14B和14C例示了根据本发明第三个实施方式的立体图像显示器;\n[0025] 图15A,15B和15C例示了根据本发明第四个实施方式的立体图像显示器;以及[0026] 图16A和16B例示了根据本发明第五个实施方式的立体图像显示器。\n具体实施方式\n[0027] 现在将参照图1到16B详细解释本发明的实施方式。\n[0028] 参照图1,根据本发明一个实施方式的控制立体图像视图的方法在步骤S1中根据由图像传感器获得的图像或红外传感器的输出,同时获得多个用户(或观看者)的位置信息。图像传感器可以是摄像机。用户的位置信息对应于包括用户面部的X轴位置信息FaceX、用户面部的Y轴位置信息FaceY以及用户与立体图像显示器之间的距离(或Z轴位置信息Dist)的3D位置信息。\n[0029] 根据本发明实施方式的控制立体图像视图的方法在步骤S2中根据每个用户的3D位置信息,调整用于呈现立体图像显示器上所显示的左眼和右眼图像的视角和深度信息的参数。左眼图像的呈现参数FaceXL是“FaceXL=FaceX-偏移/2”,其根据每个用户面部的3D位置信息确定。右眼图像的呈现参数FaceXR是“FaceXR=FaceX+偏移/2”,其根据每个用户面部的3D位置信息确定。这里,“偏移”对应于用户左眼和右眼之间的距离,即用于产生左眼图像的摄像机和用于产生右眼图像的摄像机之间的距离。左眼和右眼图像的X轴相关参数可根据每个用户的3D位置信息变化,左眼和右眼图像的Y轴和Z轴相关参数可根据每个用户的Y轴和Z轴位置信息实时变化。\n[0030] 根据本发明实施方式的控制立体图像视图的方法在步骤S3,S4和S5中根据左眼和右眼图像呈现参数以及每个用户的位置信息产生左眼和右眼图像,并在立体图像显示器上显示左眼和右眼图像。因为只要每个用户的位置信息一改变,左眼和右眼图像的呈现参数就被刷新,所以立体图像显示器上显示的左眼和右眼图像视图根据每个用户的位置实时变化。因此,根据本发明的立体图像显示器能实时产生根据每个用户的位置而变化的立体图像的视角和深度信息,并给每个用户提供无限的立体图像视图。\n[0031] 图2是显示基于图1步骤S1中的摄像机图像的用户位置检测算法的流程图,图3例示了立体图像显示器10以及观看立体图像显示器10上显示的立体图像的用户的3D位置信息,图4例示了由附接到立体图像显示器10的摄像机11捕获的摄像机捕获图像。\n[0032] 参照图2,3和4,立体图像显示器10包括用于显示左眼和右眼图像的显示屏、包围显示屏的框架和附接到框架的摄像机11。当用户位于摄像机11的视角中时,由摄像机11捕获的图像包括用户图像。图4中所示的摄像机捕获图像包括具有根据摄像机的分辨率确定的CW(px)×CH(px)尺寸的像素矩阵。\n[0033] 本发明控制立体图像视图的方法分析如图4中所示的当前帧的摄像机捕获图像,以确定在该摄像机捕获图像中是否存在前一帧中计算的用户的位置信息。在步骤S11,S12和S13中,当在当前帧的摄像机捕获图像中存在前一帧中计算的位置信息时,本发明控制立体图像视图的方法就将用户面部检测范围设为在前一帧中计算的用户位置周围的区域。\n在步骤S11,S12和S14中,当在当前帧的摄像机捕获图像中不存在前一帧中计算的位置信息时,本发明控制立体图像视图的方法就将用户面部检测范围设为当前帧的整个摄像机捕获图像。\n[0034] 在步骤S15和S16中,本发明控制立体图像视图的方法通过利用已知的面部检测算法,在步骤S13或S14中设定的用户面部检测范围内检测用户的面部,以从摄像机捕获图像提取出与用户面部对应的XYZ 3D位置信息FaceX,FaceY和Dist。尽管可使用“Viola&Jones的面部检测算法”作为所述面部检测算法,但面部检测算法并不限于此,可使用任何面部检测算法。由等式1,2,3和4表示Viola&Jones的面部检测算法。在等式1,2,\n3和4中,参数FW(mm),SH(mm),θ(°),CW(px)和CH(px)是由图3和4中所示的立体图像显示器10、摄像机11和摄像机捕获图像确定的常数,从摄像机捕获图像计算的DW(px)和DC(px)是通过Viola&Jones的面部检测算法,根据用户的动作实时计算的变量。其中FW表示用户的面部宽度,SH表示立体显示器10的屏幕高度,θ表示用户观看立体图像的角度,CW表示摄像机捕获图像的宽度,CH表示摄像机捕获图像的高度,DW表示从摄像机捕获图像检测到的用户面部的检测宽度,DC表示从摄像机捕获图像检测到的用户面部的检测中心。\n[0035] [等式1]\n[0036] \n[0037] 这里,RPP表示“每一像素的弧度(radian)”,CW表示摄像机捕获图像的宽度。\n[0038] [等式2]\n[0039] \n[0040] 这里,Dist表示图3中的立体图像显示器10与用户之间的面部距离。\n[0041] [等式3]\n[0042] \n[0043] 这里,FaceX表示图3中用户面部在X轴上的位置,DC.X表示从摄像机捕获图像检测到的用户面部中心的X轴像素位置。\n[0044] [等式4]\n[0045] \n[0046] 这里,FaceY表示图3中用户面部在Y轴上的位置,DC.Y表示从摄像机捕获图像检测到的用户面部中心的Y轴像素位置。\n[0047] 如果在步骤S11到S16中从摄像机捕获图像检测用户面部失败,则在步骤S17和S18中,本发明控制立体图像视图的方法就在摄像机捕获图像中识别出包括最宽肤色部分的区域作为用户面部,并重新进行步骤S11到S16,以检测用户面部并提取出XYZ 3D位置信息FaceX,FaceY和Dist。\n[0048] 在步骤S19中,本发明控制立体图像视图的方法将面对立体图像显示器10的用户面部的3D位置信息FaceX,FaceY和Dist取平均,其中这些3D位置信息是通过将步骤S16,S17和S18重复预定的帧期间(例如与几十帧对应的期间)而提取的。这是为了以时间为基础使用户位置信息变平滑化以确定最终用户面部的3D位置信息的目的,因为即使当用户不移动时,用户位置信息仍可能随着摄像机捕获图像中包含的细微噪声而稍微变化。\n[0049] 图5和6例示了基于图1步骤S1中的红外传感器输出的用户位置检测算法。\n[0050] 参照图5和6,立体图像显示器10包括显示左眼和右眼图像的显示屏、包围显示屏的框架、以及附接到框架的红外传感器12。用户佩戴具有左右红外线发射装置22L和22R的3D偏振眼镜21。当佩戴3D偏振眼镜21的用户位于红外传感器12的感测范围内时,红外传感器12接收来自3D偏振眼镜21的左右红外线发射装置22L和22R的红外线。红外传感器12包括具有根据传感器分辨率确定的IRW(px)×IRH(px)尺寸的传感器矩阵,如图\n6中所示。\n[0051] 本发明控制立体图像视图的方法在图1的步骤S1中从红外传感器12的输出检测红外接收点DP1和DP2,如图6中所示,并利用等式5到11计算用户面部的检测宽度DW、用户面部中心点的XY坐标DC.X和DC.Y以及用户面部的3D位置信息FaceX,FaceY和Dist。\n[0052] [等式5]\n[0053] \n[0054] 这里,DW表示由红外传感器12检测到的左右红外线发射装置22L和22R之间的距离。\n[0055] [等式6]\n[0056] \n[0057] 这里,DC.X表示用户面部的中心点在X轴上的坐标值。\n[0058] [等式7]\n[0059] \n[0060] 这里,DC.Y表示用户面部的中心点在Y轴上的坐标值。\n[0061] [等式8]\n[0062] \n[0063] 这里,RPPIR表示“每一像素的弧度”,IRW表示红外传感器输出的宽度。\n[0064] [等式9]\n[0065] \n[0066] 这里,Dist表示图5中立体图像显示器10与用户面部之间的距离。\n[0067] [等式10]\n[0068] \n[0069] 这里,FaceX表示图5中用户面部的X轴位置,DC.X表示从红外传感器输出检测到的用户面部中心的X轴坐标值。\n[0070] [等式11]\n[0071] \n[0072] 这里,FaceY表示图5中用户面部的Y轴位置,DC.Y表示从摄像机捕获图像检测到的用户面部中心的Y轴坐标值。IRW表示红外传感器输出的宽度,SH表示立体图像显示器\n10的显示屏的屏幕高度。\n[0073] 图7具体显示了图5中所示的3D偏振眼镜21的红外线发射装置22L和22R。\n[0074] 参照图7,红外线发射装置22L和22R的每个都包括红外发光二极管(LED)模块\n23、开关元件24和电池25。红外LED模块23包括串联或并联的一个或多个红外LED。开关元件24根据用户的操作切换红外LED模块23与电池25之间的电流通路。\n[0075] 尽管图5和6例示了单个用户,但也可使用摄像机或红外传感器同时检测多个用户的位置信息。\n[0076] 本发明控制立体图像视图的方法利用步骤S1和S2中计算的用户的3D位置信息作为呈现参数来呈现左眼和右眼图像,如图8中所示。本发明的控制立体图像视图的方法不存储每一角度的3D物体的图像,该方法通过使用3D模型应用编程接口(API),如OpenGL和Direc3D产生当位于与用户左右眼彼此之间的偏移对应的距离处的左眼和右眼摄像机CAM1和CAM2面对3D物体时获得的左眼和右眼图像。本发明根据在步骤S1和S2中计算的每个用户的3D位置信息,使用API实时调整在与用户左右眼彼此之间的偏移对应的位置处的、面对同一3D物体的左眼摄像机位置和右眼摄像机位置,即用于确定左眼和右眼图像的视角和深度信息的参数。\n[0077] 本发明的立体图像显示器根据随着每个用户的3D位置信息而变化的呈现参数来呈现左眼和右眼图像,在立体图像显示器10上分离显示左眼和右眼图像,并调整立体图像的视角和深度信息。因而,本发明的立体图像显示器根据每个用户的动作实时改变左眼和右眼图像的呈现,从而根据每个用户的动作产生可被看见为无限量视图的立体图像。\n[0078] 参照图9,当用户从立体图像显示器10的前方移动到左侧时,用户的3D位置信息变化。因此,根据变化的用户3D位置信息呈现立体图像显示器10上显示的左眼和右眼图像,因而用户能看到具有从图9的中心移到左侧的视角和深度信息的3D物体图像作为立体图像。当用户从立体图像显示器10的前方移动到右侧时,如图9中所示,用户的3D位置信息变化。因此,根据变化的用户3D位置信息呈现立体图像显示器10上显示的左眼和右眼图像,因而用户能看到具有从图9的中心移到右侧的视角和深度信息的3D物体图像作为立体图像。\n[0079] 本发明利用用户位置检测算法实时检测每个用户的位置并根据每个用户的3D位置信息调整3D物体图像的呈现参数。此外,本发明结合空间分割3D技术(各种视差栅栏或透镜技术)、时间分割3D技术和偏振分割3D技术(偏振眼镜型)分离用户的3D图像,如图10到16B中所示。因为根据空间分割技术、时间分割技术或偏振分割技术分离各个用户看到的3D图像,所以每个用户能看到具有根据每个用户的位置实时调整的视角和深度信息的3D图像。\n[0080] 参照图10和11,根据本发明第一个实施方式的立体图像显示器包括显示器101、动态栅栏103、图案延迟器104、多个偏振眼镜105和106以及3D控制器100。动态栅栏\n103、图案延迟器104以及偏振眼镜105和106是为各个用户分离3D图像并产生各个用户的两眼视差的3D驱动元件。\n[0081] 显示器101可以是液晶显示器、场发射显示器、等离子体显示面板或者包括无机电致发光设备和有机发光二极管(OLED)的电致发光设备(EL)。当显示器101是液晶显示器时,在显示单元101与动态栅栏103之间布置有偏振器102。显示器101以2D模式显示\n2D图像并在3D控制器100的控制下以3D模式显示根据用户位置呈现的3D图像。\n[0082] 动态栅栏103可由液晶栅栏或者液晶透镜实现,该液晶栅栏具有其上形成有电极的两个透明基板和形成在透明基板之间的液晶层。动态栅栏103在3D控制器100的控制下电控液晶分子,以在空间上分割左眼和右眼图像的光。图11例示了动态栅栏103的操作的一个例子。动态栅栏103能电控液晶分子,以在水平方向上移动透射光的透射部和阻挡光的阻挡部的位置。因此,动态栅栏103在空间上分割入射到每个用户左眼和右眼上的光,以产生每个用户的两眼视差。\n[0083] 图案延迟器104包括具有不同光吸收轴的第一和第二延迟器,且其将3D图像光分离为用于每个用户的偏振光。第一延迟器形成在图案延迟器104的奇数线上并透射通过动态栅栏103入射的光的第一偏振光(线性偏振光或圆偏振光)。第二延迟器形成在图案延迟器104的偶数线上并透射通过动态栅栏103入射的光的第二偏振光(线性偏振光或圆偏振光)。在图10中,第一延迟器由透射右圆偏振光的偏振滤光器实现,第二延迟器由透射左圆偏振光的偏振滤光器实现。\n[0084] 根据从图案延迟器104投射的偏振光,偏振眼镜105和106具有不同的光吸收轴。\n例如,由第一用户佩戴的第一偏振眼镜105透射从图案延迟器104的第一延迟器接收的右圆偏振光并阻挡其他偏振成分。第一偏振眼镜105的左右镜片包括右圆偏振滤光器。由第二用户佩戴的第二偏振眼镜106透射从图案延迟器104的第二延迟器接收的左圆偏振光并阻挡其他偏振成分。第二偏振眼镜106的左右镜片包括左圆偏振滤光器。\n[0085] 3D控制器100通过使用前述用户位置检测算法从摄像机或红外传感器获得每个用户的3D位置信息。此外,3D控制器100根据每个用户的3D位置信息调整3D图像的左眼和右眼图像的呈现参数并控制动态栅栏103。\n[0086] 图10中所示的立体图像显示器可根据使用图案延迟器104以及偏振眼镜105和\n106进行偏振分割来分离用户,并根据使用动态栅栏103进行空间分割产生每个用户的视差。立体图像显示器通过使用摄像机或红外传感器检测每个用户的位置,调整3D图像的视角和深度信息并控制动态栅栏103,以实现多用户追踪。因此,用户能以不同的视角不同地观看立体图像显示器上显示的3D物体图像,并能观看到具有随着用户位置而变化的深度信息的3D物体,如图12中所示。\n[0087] 图13例示了根据本发明第二个实施方式的立体图像显示器。\n[0088] 参照图13,根据本发明第二个实施方式的立体图像显示器包括显示器101、动态栅栏103、动态延迟器134、多个偏振眼镜135和136,以及3D控制器130。动态栅栏103、动态延迟器134以及偏振眼镜135和136是为各个用户分离3D图像并产生每个用户的两眼视差的3D驱动元件。\n[0089] 显示器101以2D模式显示2D图像并在3D控制器130的控制下以3D模式显示根据用户位置呈现的3D图像。\n[0090] 动态栅栏103可由液晶栅栏或者液晶透镜实现,该液晶栅栏具有两个透明基板(其上形成有电极)和形成在透明基板之间的液晶层。动态栅栏103在3D控制器130的控制下电控液晶分子,以在空间上分割左眼和右眼图像的光。\n[0091] 动态延迟器134具有形成在透明基板(其上形成有电极)之间的液晶层。动态延迟器134的液晶层根据施加给液晶分子的电场改变光的相位延迟,从而调整光的偏振。动态栅栏103在3D控制器130的控制下以规则的间隔改变输入到偏振眼镜135和136的光的偏振特性。例如,在第N帧(N是正整数),动态栅栏103将传播到偏振眼镜135和136的左眼和右眼图像的光变为右圆偏振光,且在第(N+1)帧,其将传播到偏振眼镜135和136的左眼和右眼图像的光变为左圆偏振光。\n[0092] 根据从动态延迟器134投射的偏振光,偏振眼镜135和136具有不同的光吸收轴。\n例如,由第一用户佩戴的第一偏振眼镜135透射从动态延迟器134接收的右圆偏振光并阻挡其他偏振成分。第一偏振眼镜135的左右镜片包括右圆偏振滤光器。由第二用户佩戴的第二偏振眼镜136透射从动态延迟器134接收的左圆偏振光并阻挡其他偏振成分。第二偏振眼镜136的左右镜片包括左圆偏振滤光器。\n[0093] 3D控制器130通过使用前述用户位置检测算法从摄像机或红外传感器获得每个用户的3D位置信息。此外,3D控制器130根据每个用户的3D位置信息调整3D图像的左眼和右眼图像的呈现参数并改变动态栅栏103的位置和动态延迟器134的偏振特性。\n[0094] 图13中所示的立体图像显示器可根据使用动态延迟器134以及偏振眼镜135和\n136进行偏振分割来分离用户,并根据使用动态栅栏103进行空间分割产生每个用户的两眼视差。立体图像显示器检测每个用户的位置并调整3D图像的视角和深度信息,以实现多用户追踪,并以规则的间隔改变动态延迟器134的偏振特性,从而防止每个用户看到的3D图像的分辨率下降。\n[0095] 图14A,14B和14C例示了根据本发明第三个实施方式的立体图像显示器。\n[0096] 参照图14A,14B和14C,根据本发明第三个实施方式的立体图像显示器包括显示器101、动态栅栏103、多个有源眼镜145,146和147、以及3D控制器140。动态栅栏103以及有源眼镜145,146和147是为各个用户分离3D图像并产生每个用户的两眼视差的3D驱动元件。\n[0097] 显示器101以2D模式显示2D图像并在3D控制器140的控制下以3D模式显示根据用户位置呈现的3D图像。在3D控制器140的控制下,显示器101显示与有源眼镜145,\n146和147同步的为用户时间分割的3D图像。例如,在第N帧,显示器101显示与第一有源眼镜145同步的第一用户的3D图像,然后在第(N+1)帧,其与第二有源眼镜146同步地显示第二用户的3D图像。随后在第(N+2)帧,显示器101显示与第三有源眼镜147同步的第三用户的3D图像。\n[0098] 动态栅栏103可由具有两个透明基板(其上形成有电极)和形成在透明基板之间的液晶层的液晶栅栏或者液晶透镜实现。动态栅栏103在3D控制器140的控制下电控液晶分子,以在空间上分割左眼和右眼图像的光,从而产生两眼视差。\n[0099] 每个有源眼镜145,146和147的每个左右镜片都可由电控光学快门实现,该电控光学快门包括形成在透明基板(其上形成有电极)之间的液晶层、给所述电极供给驱动电压的电源以及在3D控制器140的控制下控制驱动电压的控制电路。有源眼镜145,146和\n147与为用户时间分割并在显示器101上显示的3D图像同步地依次开启/关闭(打开/遮蔽)。例如,第一有源眼镜145的左右光学快门在3D控制器140的控制下,在其中显示第一用户的3D图像的第N帧期间开启以透射光,并在第(N+1)帧和(N+2)帧期间关闭以阻挡光。第二有源眼镜146的左右光学快门在3D控制器140的控制下,在其中显示第二用户的\n3D图像的第(N+1)帧期间开启以透射光,并在第N帧和(N+2)帧期间关闭以阻挡光。第三有源眼镜147的左右光学快门在3D控制器140的控制下,在其中显示第三用户的3D图像的第(N+2)帧期间开启以透射光,并在第N帧和(N+1)帧期间关闭以阻挡光。\n[0100] 3D控制器140通过使用前述用户位置检测算法从摄像机或红外传感器获得每个用户的3D位置信息。3D控制器140根据每个用户的3D位置信息调整左眼和右眼图像的呈现参数。此外,3D控制器140通过有线/无线接口将用户的3D图像的显示时间与有源眼镜145,146和147的开启时间同步,并通过所述有线/无线接口给有源眼镜145,146和\n147传送用于控制有源眼镜145,146和147的开启/关闭的光学快门控制信号。例如,在第N帧,3D控制器140在显示器101上显示具有根据第一用户位置而变化的视角和深度信息的第一用户的3D图像,同时开启第一有源眼镜145的左右光学快门。在第(N+1)帧,3D控制器140在显示器101上显示具有根据第二用户位置而变化的视角和深度信息的第二用户的3D图像,改变动态栅栏103的位置,同时开启第二有源眼镜146的左右光学快门。随后在第(N+2)帧,3D控制器140在显示器101上显示具有根据第三用户位置而变化的视角和深度信息的第三用户的3D图像,改变动态栅栏103的位置,同时开启第三有源眼镜147的左右光学快门。\n[0101] 图14A,14B和14C中所示的立体图像显示器通过使用动态栅栏103产生每个用户的两眼视差,并且时分驱动在显示器上显示的用户的3D图像,以通过有源眼镜145,146和\n147分离用户。该立体图像显示器可检测每个用户的位置并调整3D图像的视角和深度信息,以实现多用户追踪。\n[0102] 图15A,15B和15C例示了根据本发明第四个实施方式的立体图像显示器。\n[0103] 参照图15A,15B和15C,根据本发明第四个实施方式的立体图像显示器包括显示器101、图案延迟器104、多个有源眼镜155,156和157、以及3D控制器150。图案延迟器\n104以及有源眼镜155,156和157是为用户分离3D图像并产生每个用户的两眼视差的3D驱动元件。\n[0104] 显示器101以2D模式显示2D图像并在3D控制器150的控制下以3D模式显示根据用户位置呈现的3D图像。在3D控制器150的控制下,显示器101显示与有源眼镜155,\n156和157同步的为用户时间分割的3D图像。例如,在第N帧,显示器101显示与第一有源眼镜155同步的第一用户的3D图像,然后在第(N+1)帧,其显示与第二有源眼镜156同步的第二用户的3D图像。随后,在第(N+2)帧,显示器101显示与第三有源眼镜157同步的第三用户的3D图像。参考标号“151”表示布置在液晶显示面板与图案延迟器104之间的偏振膜。\n[0105] 图案延迟器104包括具有不同光吸收轴的第一和第二延迟器,且其将用户的3D图像的左眼和右眼图像光分离为偏振光。第一延迟器形成在图案延迟器104的奇数线上并透射从显示器101接收的光的第一偏振光(线性偏振光或圆偏振光)的左眼图像光。第二延迟器形成在图案延迟器104的偶数线上并透射从显示器101接收的光的第二偏振光(线性偏振光或圆偏振光)的右眼图像光。图15A,15B和15C例示了第一延迟器由透射右圆偏振光的偏振滤光器实现,第二延迟器由透射左圆偏振光的偏振滤光器实现。\n[0106] 每个有源眼镜155,156和157的每个左右镜片都可由电控光学快门实现,该电控光学快门包括形成在透明基板(其上形成有电极)之间的液晶层、给所述电极供给驱动电压的电源以及在3D控制器150的控制下控制驱动电压的控制电路。每个有源眼镜155,156和157的左镜片包括仅透射第一偏振光(右圆偏振光)的左眼图像光的偏振膜,每个有源眼镜155,156和157的右镜片包括仅透射第二偏振光(左圆偏振光)的右眼图像光的偏振膜。有源眼镜155,156和157的光学快门与为用户时间分割并在显示器上显示的3D图像同步地依次开启/关闭,并根据偏振分割来分离左眼和右眼图像。例如,第一有源眼镜155的左右光学快门在3D控制器150的控制下,在其中显示第一用户的3D图像的第N帧期间开启以透射光,并在第(N+1)帧和(N+2)帧期间关闭以阻挡光。在第N帧期间,第一有源眼镜155的左光学快门透射第一偏振光(右圆偏振光)的左眼图像,而第一有源眼镜155的右光学快门透射第二偏振光(左圆偏振光)的右眼图像。第二有源眼镜156的左右光学快门在3D控制器150的控制下,在其中显示第二用户的3D图像的第(N+1)帧期间开启以透射光,并在第N帧和(N+2)帧期间关闭以阻挡光。在第(N+1)帧期间,第二有源眼镜156的左光学快门由于第一偏振膜而透射第一偏振光(右圆偏振光)的左眼图像,而第二有源眼镜156的右光学快门由于第二偏振膜而透射第二偏振光(左圆偏振光)的右眼图像。第三有源眼镜157的左右光学快门在3D控制器150的控制下,在其中显示第三用户的3D图像的第(N+2)帧期间开启以透射光,并在第N帧和(N+1)帧期间关闭以阻挡光。在第(N+2)帧期间,第三有源眼镜157的左光学快门由于第一偏振膜而透射第一偏振光(右圆偏振光)的左眼图像,而第三有源眼镜157的右光学快门由于第二偏振膜而透射第二偏振光(左圆偏振光)的右眼图像。\n[0107] 3D控制器150通过使用前述用户位置检测算法从摄像机或红外传感器获得每个用户的3D位置信息。3D控制器150根据每个用户的3D位置信息调整左眼和右眼图像的呈现参数。此外,3D控制器150通过有线/无线接口将用户的3D图像的显示时间与有源眼镜\n155,156和157的开启时间同步,并通过有线/无线接口给有源眼镜155,156和157传送用于控制有源眼镜155,156和157的开启/关闭的光学快门控制信号。例如,在第N帧,3D控制器150在显示器101上显示具有根据第一用户位置而变化的视角和深度信息的第一用户的3D图像,同时开启第一有源眼镜155的左右光学快门。在第(N+1)帧,3D控制器150在显示器101上显示具有根据第二用户位置而变化的视角和深度信息的第二用户的3D图像,同时开启第二有源眼镜156的左右光学快门。随后在第(N+2)帧,3D控制器150在显示器\n101上显示具有根据第三用户位置而变化的视角和深度信息的第三用户的3D图像,同时开启第三有源眼镜157的左右光学快门。\n[0108] 图15A,15B和15C中所示的立体图像显示器根据偏振分割产生每个用户的两眼视差,并时分驱动在显示器上显示的用户的3D图像,以通过有源眼镜155,156和157分离用户。该立体图像显示器可检测每个用户的位置并调整3D图像的视角和深度信息,以实现多用户追踪。\n[0109] 图16A和16B例示了根据本发明第五个实施方式的立体图像显示器。\n[0110] 参照图16A和16B,根据本发明第五个实施方式的立体图像显示器包括显示器\n101、图案延迟器104、多个有源眼镜165和166、以及3D控制器160。图案延迟器104以及有源眼镜165和166是为用户分离3D图像并产生每个用户的两眼视差的3D驱动元件。\n[0111] 显示器101以2D模式显示2D图像并在3D控制器160的控制下以3D模式显示根据用户位置呈现的3D图像。在3D控制器160的控制下,显示器101时分显示与有源眼镜\n165和166同步的每个用户的左眼和右眼图像。例如,在第N帧,显示器101显示与有源眼镜165和166的左光学快门同步的每个用户的左眼图像,然后在第(N+1)帧,其显示与有源眼镜165和166的右光学快门同步的每个用户的右眼图像。\n[0112] 图案延迟器104包括具有不同光吸收轴的第一和第二延迟器,其将用户的3D图像的左眼和右眼图像光分离为偏振光。第一延迟器形成在图案延迟器104的奇数线上并透射从显示器101接收的光的第一偏振光(线性偏振光或圆偏振光)的左眼图像光。第二延迟器形成在图案延迟器104的偶数线上并透射从显示器101接收的光的第二偏振光(线性偏振光或圆偏振光)的右眼图像光。图16A和16B例示了第一延迟器由透射右圆偏振光的偏振滤光器实现,第二延迟器由透射左圆偏振光的偏振滤光器实现。\n[0113] 每个有源眼镜165和166的每个左右镜片都可由电控光学快门实现,该电控光学快门包括形成在透明基板(其上形成有电极)之间的液晶层、给所述电极供给驱动电压的电源以及在3D控制器160的控制下控制驱动电压的控制电路。第一有源眼镜165的左右光学快门包括仅透射第一偏振光(右圆偏振光)的偏振膜,第二有源眼镜166的左右光学快门包括仅透射第二偏振光(左圆偏振光)的偏振膜。有源眼镜165和166的左右光学快门与时分显示的3D图像的左眼和右眼图像同步地交替开启/关闭。例如,第一有源眼镜165的左光学快门在3D控制器160的控制下,在第N帧期间开启以透射第一偏振光的左眼图像光,并在第(N+1)帧期间关闭以阻挡光。第一有源眼镜165的右光学快门在3D控制器160的控制下,在第N帧期间关闭以阻挡光,并在第(N+1)帧期间开启以透射第一偏振光的右眼图像光。第二有源眼镜166的左光学快门在3D控制器160的控制下,在第N帧期间开启以透射第二偏振光的左眼图像光,并在第(N+1)帧期间关闭以阻挡光。第二有源眼镜166的右光学快门在3D控制器160的控制下,在第N帧期间关闭以阻挡光,并在第(N+1)帧期间开启以透射第二偏振光的右眼图像光。\n[0114] 3D控制器160通过使用前述用户位置检测算法从摄像机或红外传感器获得每个用户的3D位置信息。3D控制器160根据每个用户的3D位置信息调整3D图像的左眼和右眼图像的呈现参数。此外,3D控制器160通过有线/无线接口将用户的3D图像的显示时间与有源眼镜165和166的开启时间同步,并通过所述有线/无线接口给有源眼镜165和\n166传送用于控制有源眼镜165和166的开启/关闭的光学快门控制信号。例如,3D控制器160在第N帧期间在显示器101上显示每个用户的左眼图像,同时开启有源眼镜165和\n166的左光学快门。3D控制器160在第(N+1)帧期间在显示器101上显示每个用户的右眼图像,同时开启有源眼镜165和166的右光学快门。\n[0115] 图16A和16B中所示的立体图像显示器根据时间分割技术分离每个用户的左眼和右眼图像,以产生每个用户的两眼视差,并根据偏振分割来分离用户。立体图像显示器可检测每个用户的位置并调整3D图像的视角和深度信息,以实现多用户追踪。\n[0116] 尽管在上述本发明实施方式中左圆偏振和右圆偏振分割方法作为偏振分割技术进行了说明,但偏振分割技术并不限于此。左圆偏振可由水平线性偏振(或垂直线性偏振)代替,右圆偏振可由垂直线性偏振(或水平线性偏振)代替。\n[0117] 如上所述,根据本发明实施方式的控制立体图像视图的方法及使用该方法的立体图像显示器能通过用户位置检测算法实时检测每个用户的位置,并根据每个用户的3D位置信息改变3D物体图像的呈现参数,以给用户提供逼真的3D图像。此外,本发明结合空间分割技术、时间分割技术和偏振分割技术为用户分离3D图像,并产生每个用户的两眼视差。\n[0118] 尽管参照典型实施方式具体地显示和描述了本发明,但所属领域技术人员应当理解,在不脱离所附权利要求限定的本发明的精神和范围的情况下,可在形式和细节上进行各种变化。
法律信息
- 2013-01-02
- 2010-09-29
实质审查的生效
IPC(主分类): G02B 27/22
专利申请号: 200910209335.3
申请日: 2009.11.04
- 2010-08-11
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 |
1
| |
2003-01-29
|
2002-06-24
| | |
2
| |
2005-03-09
|
2003-12-26
| | |
3
| | 暂无 |
2000-02-10
| | |
4
| | 暂无 |
1998-02-04
| | |
5
| |
2007-06-06
|
2005-04-29
| | |
6
| | 暂无 |
1994-05-20
| | |
7
| |
2007-01-03
|
2004-12-03
| | |
8
| |
2006-07-26
|
2004-05-21
| | |
9
| |
2007-05-16
|
2005-06-07
| | |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |