CN103517056A - 检测器、检测方法和视频显示装置 - Google Patents

检测器、检测方法和视频显示装置 Download PDF

Info

Publication number
CN103517056A
CN103517056A CN201310084421.2A CN201310084421A CN103517056A CN 103517056 A CN103517056 A CN 103517056A CN 201310084421 A CN201310084421 A CN 201310084421A CN 103517056 A CN103517056 A CN 103517056A
Authority
CN
China
Prior art keywords
remote controller
video
beholder
face
detector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201310084421.2A
Other languages
English (en)
Inventor
诸星利弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of CN103517056A publication Critical patent/CN103517056A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Details Of Television Systems (AREA)

Abstract

本发明涉及检测器、检测方法和视频显示装置,根据一个实施方式,提供了一种被配置为检测用于遥控视频显示装置的遥控器的操作者的检测器。该检测器包括脸部检测器、遥控器检测器和操作者识别器。该脸部检测器被配置为从拍摄的视频检测观看者的脸部的第一位置。该遥控器检测器被配置为从拍摄的视频检测遥控器的第二位置。该操作者识别器被配置为当多个观看者的脸部被检测到时,基于检测到的观看者的脸部的第一位置和检测到遥控器的第二位置来识别操作遥控器的观看者。

Description

检测器、检测方法和视频显示装置
相关申请的交叉引用
本申请基于并要求于2012年6月29日提交的日本在先专利申请第2012-147629号的优先权,将其全部内容通过参考结合于此。
技术领域
本文中描述的实施方式总体上涉及检测器、检测方法和视频显示装置。
背景技术
近年来,观看者在不使用特殊眼镜的情况下可自动看到立体视频所经由的立体视频显示设备(所谓的自动立体电视)越来越受到广泛使用。这种立体视频显示设备显示视点彼此不同的多个图像。光束从图像的输出方向由例如视差屏障、双凸透镜等控制,使得光束被导向至观看者的眼睛。如果观看者的位置合适,那么观看者用左眼和右眼观看不同的视差图像,并且因此观看者可以辨认出立体图像。
然而,存在的问题在于,立体电视上显示的视频会由于观看者的位置而不能被立体地观看。因此,优选对自动立体电视进行调整,以使得观看者可以立体地看到视频。
顺便提及,多个观看者会观看视频显示装置。在多种情况下,在多个观看者中,遥控视频显示装置的观看者通常具有最高的观看动机。因此,优选进行调整,以使得操作遥控器的观看者可以立体地看到视频。
发明内容
根据本发明的一个实施方式,提供一种检测器,被配置为检测用于遥控视频显示装置的遥控器的操作者,所述检测器包括:脸部检测器,被配置为从视频检测观看者的脸部的第一位置;遥控器检测器,被配置为从所述视频检测所述遥控器的第二位置;以及操作者识别器,被配置为当检测到多个观看者的脸部时,基于所检测到的观看者的脸部的第一位置和所检测的所述遥控器的第二位置来识别操作所述遥控器的观看者。
其中,当检测到多个观看者的脸部时,所述操作者识别器被配置为将第一观看者识别为操作所述遥控器的观看者,所述视频中所述第一观看者的脸部的第一水平方向位置和所述遥控器的第二水平方向位置之间的距离最小,并且所述视频中所述第一观看者的脸部的第一垂直方向位置高于所述视频中所述遥控器的第二垂直方向位置。
其中,当检测到多个观看者的脸部时,所述操作者识别器被配置为将第一观看者识别为操作所述遥控器的观看者,所述第一观看者的脸部的第一水平方向位置和所述遥控器的第二水平方向位置之间的距离为最小,并且满足以下式子(1),y>Y+f(z)(1)这里,y是所述视频中所述第一观看者的脸部的第一垂直方向位置,Y是所述视频中所述遥控器的第二垂直方向位置,f(z)是取决于所述视频显示装置和所检测到的脸部之间的距离z的值。
其中,所述遥控器检测器被配置为基于在时间t1拍摄的所述视频和在所述时间t1之后的时间t2拍摄的视频之间的差异,来检测所述遥控器的第二位置。
其中,所述遥控器检测器被配置为将第三位置检测为所述遥控器的第二位置,在时间t1拍摄的视频中位于所述第三位置的各个第一像素和在所述时间t1之后的时间t2拍摄的视频中位于所述第三位置的各个第二像素之间的差值大于第一值,并且位于所述第三位置的像素的个数等于或小于第一数量。
其中,所述遥控器被配置为产生红外信号,所述遥控检测器被配置为从由摄像机拍摄的视频,检测所述遥控器的第二位置,所述摄像机包括:第一摄像元件,所述第一摄像元件的感光度对于可见光中具有长波长的光为高;第二摄像元件,所述第二摄像元件的感光度对于可见光中具有中等波长的光为高;第三摄像元件,所述第三摄像元件的感光度对于可见光中具有短波长的光为高,所述遥控器检测器被配置为通过使用由所述第一摄像元件拍摄的像素值而不使用由所述第二摄像元件和所述第三摄像元件拍摄的像素值,来检测所述遥控器的第二位置。
其中,所述摄像机是互补金属氧化物半导体(CMOS)摄像机或电荷耦合器件(CCD)摄像机。
该检测器还包括编码检测器,所述编码检测器被配置为基于由所述遥控器产生的信号的编码来检测所述遥控器是否用于遥控所述视频显示装置,其中,所述操作者识别器被配置为在所述遥控器用于遥控所述视频显示装置时,识别操作所述遥控器的观看者。
根据本发明的另一个实施方式,提供一种视频显示装置,包括:上述的检测器;显示面板,能够显示立体视频;以及观看区域控制器,被配置为在检测到操作所述遥控器的观看者的位置设置观看区域,所述观看区域是能够立体地观看所述显示面板上显示的视频的区域。
该视频显示装置还包括光接收器,所述光接收器被配置为从所述遥控器接收信号,其中,所述观看区域控制器被配置为当所述光接收器接收由所述遥控器产生的观看区域调整指令信号时,在检测到操作所述遥控器的观看者的位置设置所述观看区域。
根据本发明的又一个实施方式,提供一种检测方法,用于检测用于遥控视频显示装置的遥控器的操作者,所述方法包括:从视频检测观看者的脸部的第一位置;从所述视频检测所述遥控器的第二位置;以及当检测到多个观看者的脸部时,基于所检测到的观看者的脸部的第一位置和所检测到的所述遥控器的第二位置来识别操作所述遥控器的观看者。
其中,在识别操作所述遥控器的观看者时,当检测到多个观看者的脸部时,第一观看者被识别为操作所述遥控器的观看者,所述视频中所述第一观看者的脸部的第一水平方向位置和所述遥控器的第二水平方向位置之间的距离为最小,并且所述视频中所述第一观看者的脸部的第一垂直方向位置高于所述视频中所述遥控器的第二垂直方向位置。
其中,在识别操作所述遥控器的观看者时,当检测到多个观看者的脸部时,第一观看者被识别为操作所述遥控器的观看者,所述视频中所述第一观看者的脸部的第一水平方向位置和所述遥控器的第二水平方向位置之间的距离为最小,并且满足以下式子(2),y>Y+f(z)(2)这里,y是所述视频中所述第一观看者的脸部的第一垂直方向位置,Y是所述视频中所述遥控器的第二垂直方向位置,f(z)是取决于所述视频显示装置和所检测到的脸部之间的距离z的值。
其中,当检测所述遥控器的第二位置时,基于在时间t1拍摄的所述视频和在所述时间t1之后的时间t2拍摄的所述视频之间的差异,来检测所述遥控器的第二位置。
其中,当检测所述遥控器的第二位置时,第三位置被检测为所述遥控器的第二位置,在时间t1拍摄的视频中位于所述第三位置的各个第一像素和在所述时间t1之后的时间t2拍摄的视频中位于所述第三位置的各个第二像素之间的差值大于第一值,并且位于所述第三位置的像素的个数等于或小于第一数量。
其中,所述遥控器被配置为产生红外信号,当检测所述遥控器的第二位置时,从由摄像机拍摄的视频检测所述遥控器的第二位置,所述摄像机包括:第一摄像元件,所述第一摄像元件的感光度对于可见光中具有长波长的光为高;第二摄像元件,所述第二摄像元件的感光度对于可见光中具有中等波长的光为高;以及第三摄像元件,所述第三摄像元件的感光度对于可见光中具有短波长的光为高,当检测所述遥控器的第二位置时,通过使用由所述第一摄像元件拍摄的像素值而不使用由所述第二摄像元件和所述第三摄像元件拍摄的像素值来检测所述遥控器的第二位置。
其中,所述摄像机是互补金属氧化物半导体(CMOS)摄像机或电荷耦合器件(CCD)摄像机。
该方法还包括基于由所述遥控器产生的信号的编码来检测所述遥控器是否用于遥控所述视频显示装置,其中,在识别操作所述遥控器的观看者时,当所述遥控器用于遥控所述视频显示装置时识别所述遥控器。
附图说明
图1是多个观看者41~43观看视频显示装置的顶视图。
图2是示出了用于检测遥控器51的操作者的遥控器操作者检测系统的示意性配置的框图。
图3是示出了由摄像机3拍摄的视频的示例的示图。
图4是示意性示出了摄像机3具有的摄像元件的光接收感光度的示图。
图5A和图5B是用于说明遥控器检测器22的操作的示图。
图6是用于说明遥控器检测器22的操作的示图。
图7是根据实施方式的视频显示装置100的外示图。
图8是示出了视频显示装置100的示意性配置的框图。
图9A至图9C是从上方看去的液晶面板1和双凸透镜2的一部分的示图。
图10A至图10E是示出了用于计算观看区域信息的技术的示例的示图。
图11是示出了视频显示装置100′的示意性配置的框图。
具体实施方式
总体上,根据一个实施方式,提供了一种检测器,其被配置为检测用于遥控视频显示装置的遥控器的操作者。该检测器包括脸部检测器、遥控检测器和操作者识别器。该脸部检测器被配置为从拍摄的视频检测观看者的脸部的第一位置。该遥控器检测器被配置为从拍摄的视频检测遥控器的第二位置。该操作者识别器被配置为当检测到多个观看者的脸部时,基于检测到的观看者的脸部的第一位置和检测到的遥控器的第二位置来识别操作遥控器的观看者。
现在将参考附图来说明实施方式。
(第一实施方式)
图1是多个观看者41~43观看视频显示装置100的顶视图。在图1中,观看者42持有并且操作遥控器51。遥控器51发射用于遥控视频显示装置100的红外信号。图2是示出了用于检测遥控器51的操作者的遥控器操作者检测系统的示意性配置的框图。
遥控器操作者检测系统包括摄像机3和遥控器操作者检测器(在下文中,简称为“检测器”)20。检测器20具有脸部检测器21、遥控器检测器22和操作者识别器23。遥控器操作者检测系统还可以包括光接收器4,并且检测器20还可以具有编码检测器24。
例如,图2的摄像机3是CMOS(互补金属氧化物半导体)摄像机或(电荷耦合器件)摄像机。摄像机3附接在或安装在视频显示装置100的边框的下部中心。然后,视频显示装置100的摄像机3和显示面板面向同一方向,并且摄像机3拍摄视频显示装置100前方的视频。例如,当摄像机3在图1的情况下拍摄视频时,获得如图3中所示的视频。
应注意,图3中的虚线和坐标用于以下解释,并且不在实际视频上显示。此外,为了方便,视频的左下角定义为原点,水平方向定义为“x”轴(对于右侧是正),而垂直方向定义为“y”轴(对于上侧是正)。此外,如图1中所示,距视频显示装置100的距离定义为“z”。
这里,摄像机3不仅可以检测可见光而且还可以检测红外光。图4是示意性示出了摄像机3具有的摄像元件的光接收感光度的示图。摄像机3具有“R”摄像元件、“G”摄像元件和“B”摄像元件。“R”摄像元件对可见光中的长波长具有高感光度,并且对于红外(IR)区域也具有感光度。因此,“R”摄像元件可以获取由遥控器51发射的红外信号,并且因此,红外信号出现在拍摄视频中。
应注意,“G”摄像元件对于可见光中的中等波长具有高感光度,而“B”摄像元件对于可见光中的短波长具有高感光度。因此,“G”和“B”摄像元件几乎不响应红外信号。
由摄像机3拍摄的视频提供至检测器20中的脸部检测器21和遥控器检测器22。
脸部检测器21从由摄像机3拍摄的视频检测脸部,并且识别脸部的位置。脸部检测器预先存储诸如眼睛、鼻子和嘴等的脸部特征并且将视频中与这些特征一致的部分检测为脸部。然后,脸部检测器21识别脸部的位置,更具体地,识别脸部的中心在“x”轴和“y”轴上的位置并且识别距视频显示装置100的距离“z”。例如,可以从脸部的宽度或从右眼和左眼之间的距离估计距视频显示装置100的距离“z”。在图3中,检测到的观看者41~43的脸部的位置分别假设为(x1,y1,z1)、(x2,y2,z2)和(x3,y3,z3)。将脸部的这些位置提供给操作者识别器23。
另一方面,遥控器检测器22从由摄像机3拍摄的视频检测遥控器51,从而识别遥控器51的位置。图5A和图5B和图6是用于说明遥控器检测器22的操作的示图。图5A和图5B分别示出了在时间t1和t2拍摄的视频。在时间t1,遥控器51未被操作,因此遥控器51不发射任何红外信号。时间t1之后的时间t2,观看者42操作遥控器51,因此遥控器51发射红外信号52。如上所述,摄像机3还拍摄红外信号52。
然后,遥控器检测器22通过各个像素计算t1时的视频和t2时的视频之间的差异。图6示意性示出了差异操作的结果。如果时间t2接近时间t1,则除了遥控器51发射红外信号52以外,t1时的视频和t2时的视频之间的差异很小。即,对应于红外信号52的像素处的差值变为高,并且其他像素处的差值几乎变为0。
这样,可以由差异操作来检测红外信号的位置。在下文中,“x”轴上和“y”轴上红外信号的检测位置被定义为(X,Y)。将遥控器51的位置(X,Y)提供给操作者识别器23。应注意,不需要获得遥控器51和视频显示装置100之间的距离。
应注意,在视频中可能存在噪声。在这种情况下,即使在拍摄时间彼此不同的视频之间进行差异操作,对应于红外信号的像素以外的像素的差值也可以变高。因此,遥控器检测器22仅在差值高于预定值的像素相邻并且相邻的像素的数量等于或小于预定数量时,才可以确定存在遥控器51的红外信号。这是因为红外信号没有那么大。
例如,如果在距视频显示装置100的距离是1m的位置发射红外信号并且在当时,差值高于预定值的像素的数量是“N”,那么以上预定数量可以被确定为“N”。如具体示例,预定数量可以是4(水平像素)x4(垂直像素)。
此外,尽管遥控器检测器22可以使用由“R”、“G”和“B”摄像元件拍摄的像素值,但是遥控器检测器22也可以只使用由“R”摄像元件拍摄的像素值。如图4中所示,相比于“G”和“B”摄像元件,“R”摄像元件对于红外信号具有最高的感光度,并且因此可以通过只考虑“R”摄像元件来检测遥控器,这可以减少差异操作工作量。此外,通过不使用由“G”和“B”摄像元件拍摄的像素值可以降低噪声的影响。
参考回图2,检测器20的操作者识别器23基于从脸部检测器21提供的脸部位置和从遥控器检测器22提供的遥控器51的位置来识别哪个观看者正在操作遥控器51。更具体地,操作者识别器23将观看者41~43中满足以下两个假设的观看者识别为遥控器操作者。
(1)|X-x|为最小。
(2)y>Y
通过遥控器操作者脸部在“x”轴上的位置比其他观看者在“x”轴上的位置更接近遥控器51的事实来获得假设(1)。因为使用手来操作遥控器,所以由遥控器操作者的脸部位置高于遥控器51的位置的事实来获得假设(2)。
在图3中,|X-x2|小于|X-x1|和|X-x3|。在图6中,满足y2>Y。因此,操作者识别器23可以将观看者42识别为遥控器操作者。应注意,当仅检测到一个脸部、没有检测到遥控器51或没有观看者满足以上两个假设时,操作者识别器23不识别遥控器操作者。
此外,为了更精确地识别遥控器操作者,可以由以下假设(2’)来替换假设(2)。
(2)y>Y+f(z)。
这里,f(z)是取决于z的值,更具体地,随着“z”变得更大,f(z)变得更小。这是因为视频中脸部和遥控器之间的距离随着用户远离视频显示装置100(即“z”更大)而变得更小。
以这种方式,检测器20可以识别遥控器操作者。
顺便提及,图2的遥控器检测器22不仅可以检测用于视频显示装置100的遥控器,而且还可以检测用于诸如空调等其他装置的遥控器。因此,操作者识别器23可能会将操作用于其他装置的遥控器的观看者识别为操作用于视频显示装置100的遥控器的观看者。
因此,可以提供编码检测器24。编码检测器24基于由光接收器4从遥控器接收的红外信号,来确定红外信号是否是至视频显示装置100的信号。编码检测器24可以通过分析红外信号的编码来确定红外信号是否是至视频显示装置100的信号。如果红外信号不是至视频显示装置100的信号,那么编码检测器24通知操作者识别器23红外信号不是至视频显示装置100的信号。
在这种情况下,即使观看者满足以上假设,操作者识别器23也不识别遥控器操作者。
如上所述,在第一实施方式中,通过使用由摄像机3拍摄的视频来检测观看者的脸部和遥控器,并且基于它们的位置关系可以识别遥控器操作者。
(第二实施方式)
第二实施方式涉及使用根据第一实施方式的遥控器操作者检测系统的立体视频显示装置,更具体地,在遥控器操作者处设置观看区域。
图7是根据实施方式的视频显示装置100的外示图。图8是示出了视频显示装置100的示意性配置的框图。视频显示装置100包括液晶面板1、双凸透镜2、摄像机3、光接收器4和控制器10。
液晶面板1例如是55-英寸尺寸的面板并且具有在水平方向上的11520(=1280×9)个像素和垂直方向上的720个像素。在各个像素中,在垂直方向上形成三个子像素,即,R子像素、G子像素和B子像素。液晶面板1受到来自设置在背面的背光器件(图7中未示出)的光照射。各个像素以根据从控制器10提供的视差图像信号(稍后描述)的强度来发光。
双凸透镜(光圈控制器)2具有沿着液晶面板1的水平方向布置的多个凸起部分。凸起部分的数量是液晶面板1水平方向上的像素个数的1/9。双凸透镜2附接至液晶面板1的表面,以使得一个凸起部分对应于水平方向上布置的9个像素。穿过各个像素的光以自凸起部分的顶点附近沿着特定方向的方向性来输出。
液晶面板1可以通过使用三个以上视差的多视差方式(全景成像(integral-imaging)方式)或二视差方式来显示立体视频。此外,液晶面板1也可以显示二维视频。
在以下描述中,将描述对于双凸透镜2的每个凸起部分设置9个像素并且可以采用9个视差的多视差方式的示例。在多视差方式中,第一到第九视差图像分别显示在对应于各个凸起部分的9个像素上。第一到第九视差图像是分别通过从沿着液晶面板1的水平方向排列的九个视点观看对象所获得的图像。观看者可以通过用左眼通过双凸透镜2观看第一到第九视差图像中的一个视差图像和用右眼通过双凸透镜2观看另一视差图像来立体地观看视频。根据多视差方式,视差的个数越大,观看区域就越大。当观看者从液晶面板1的前方观看液晶面板1时,观看区域是观看者可以立体地观看视频的区域。
另一方面,在二视差方式中,在对应于各个凸起部分的九个像素中,在四个像素中显示右眼的视差图像,而在其他的五个像素中显示左眼的视差图像。左眼的视差图像和右眼的视差图像是通过分别从水平方向上排列的两个视点中的左侧视点和右侧视点观看对象而获得的图像。观看者可以经由双凸透镜2用左眼观看左眼的视差图像和用右眼观看右眼的视差图像,从而立体地观看视频。根据二视差方式,相比于多视差系统中,更容易获得所显示的视频的立体显现,但是观看区域比多视差系统的更窄。
液晶面板1可以通过由对应于各个凸起部分的9个像素显示同一色彩来显示二维图像。
在本实施方式中,可以根据双凸透镜2的凸起部分和要显示的视差图像之间的相对位置关系(即,视差图像怎样在对应于各个凸起部分的9个像素上显示),来可变地控制观看区域。在下文中,将描述观看区域的控制。
图9A至图9C是从上方看去的液晶面板1和双凸透镜2的一部分的示图。示图中的阴影区域表示观看区域。当从观看区域观看液晶面板1时,可以立体地观看视频。在其他区域中,发生倒像(reverse view)和/或串扰并且难以立体地观看视频。
图9A至图9C示出了液晶面板1和双凸透镜2之间的相对位置关系,更具体地,示出了观看区域根据液晶面板1和双凸透镜2之间的距离或根据在液晶面板1和双凸透镜2之间在水平方向上的移动量而变化的情况。
实际上,通过将双凸透镜2准确地布置到液晶面板1,双凸透镜2附接至液晶面板1,并且因此难以物理地改变液晶面板1和双凸透镜2的相对位置。
因此,在本实施方式中,移动在液晶面板1的像素上显示的第一到第九视差图像的显示位置,使得液晶面板1和双凸透镜2之间的相对位置关系明显地改变。因此调整了观看区域。
例如,相比于分别在对应于各个凸起部分的9个像素上显示第一到第九视差图像的情况(图9A),当视差图像共同地向右移位时,观看区域向左移动(图9B)。另一方面,当视差图像共同地向左移位时,观看区域向右移动。
当视差图像在水平方向上的中心附近不移位,并且视差图像的位置距液晶面板1的外部边缘越近,视差图像就向外移动得越大(图9C)时,观看区域向液晶面板1移动。移位的视差图像和不移位的视差图像之间的像素,和/或移位不同量的视差图像之间的像素可以由根据周围像素的内插来产生。相比于图3C,当视差图像在水平方向上的中心附近不移位,并且视差图像的位置距液晶面板1的外部边缘越近,视差图像就向中心移动得越大时,观看区域从液晶面板1向外移动。
这样,通过移位和显示所有的视差图像或视差图像的一部分,观看区域可以相对于液晶面板1在左右方向上或前后方向上移动。尽管图9中为了描述简单仅示出了一个观看区域,但是实际上在视听区域P中有多个观看区域,并且如图9中所示,观看区域彼此联合地移动。观看区域由随后描述的图8中所示的控制器10来控制。
参考回图8,摄像机3以预定的倾斜角附接在液晶面板1的下部中心位置附近。摄像机3拍摄液晶面板1前方的预定范围内的视频。所拍摄的视频提供至控制器10的检测器。
例如,光接收器4设置在液晶面板1的左下部。光接收器4接收从观看者使用的遥控器发射的红外信号。红外信号包括指示是显示立体视频还是显示二维视频、当显示立体视频时是采用多视差方式还是二视差方式、是否控制观看区域等的信号。
随后,将描述控制器10的组成元件的细节。如图8中所示,控制器10包括调谐器解码器11、视差图像转换器12、检测器20、观看区域信息计算器14和图像调节器15。例如,控制器10被安装为一个IC(集成电路)并且设置在液晶面板1的背面。当然,控制器10的一部分可以实施为软件。
调谐器解码器(接收器)11接收和选择所输入的广播电波并且将所编码的输入视频信号解码。当诸如电子节目指南(EPG)的数据广播信号叠加在广播电波上时,调谐器解码器11提取数据广播信号。或,调谐器解码器11从诸如光盘、再现装置和个人计算机的视频输出设备接收所编码的输入视频信号而不是广播电波,并且将所编码的输入视频信号解码。所解码的信号也称为基带视频信号并且被提供至视差图像转换器12。当视频显示装置100接收非广播电波并且专门显示从视频输出装置接收的输入视频信号时,可以将仅具有解码功能的解码器而不是调谐器解码器11设置为接收器。
由调谐器解码器11接收的输入视频信号可以是二维视频信号或通过帧封装(FP)方式、并排(SBS)方式、上下排列方式等而包括用于左眼的图像和用于右眼的图像的三维视频信号。视频信号可以是包括三个以上视差的图像的三维视频信号。
为了立体地显示视频,视差图像转换器12将基带视频信号转换为多个视差图像信号。视差图像转换器12的处理取决于基带信号是二维视频信号还是三维视频信号。
在采用二视差方式的情况下,视差图像转换器12产生分别与左眼的视差图像和右眼的视差图像相对应的用于左眼的视差图像信号和用于右眼的视差图像信号。更具体地,将进行以下操作。
当采用二视差方式并且输入包括用于左眼的图像和用于右眼的图像的立体视频信号时,视差图像转换器12以可以在液晶面板1上显示的格式产生用于左眼的视差图像信号和用于右眼的视差图像信号。此外,当输入包括等于或多于三个图像的三维视频信号时,例如,视差图像转换器12使用它们之中的任意两个图像来产生用于左眼的视差图像信号和用于右眼的视差图像信号。
与此相反,在采用二视差方式和输入不包括视差信息的二维视频信号的情况下,视差图像转换器12基于视频信号中各个像素的深度值,来产生用于左眼的视差图像和用于右眼的视差图像。深度值是表示各个像素被显示为看起来在液晶面板1的前方或后方的程度的值。深度值可以预先添加至视频信号,或可以通过进行运动检测、构图(composition)识别、人脸检测等来产生。在用于左眼的视差图像中,观看为在前方的像素需要移位至观看为在后方的像素的右侧并且显示。因此,图像转换器12在视频信号中进行将观看为在前方的像素移位至右侧的处理以产生用于左眼的视差图像信号。深度值越大,移位量越大。
另一方面,在采用多视差方式的情况下,视差图像转换器12产生分别对应于第一到第九视差图像的第一到第九视差图像信号。更具体地,将进行以下操作。
当采用多视差系统并且输入二维视频信号或包括少于九个视差的立体视频信号时,类似于从二维视频信号产生用于左眼的视差图像信号和用于右眼的视差图像信号,视差图像转换器12基于深度信息来产生第一到第九视差图像信号。
当采用多视差方式并且输入包括九个视差的立体视频信号时,视差图像转换器12使用视频信号来产生第一到第九视差图像信号。
检测器20是在第一实施方式中说明的检测器20。检测器20通过使用由摄像机3拍摄的视频来检测观看者中的遥控器操作者,并且将位置信息提供至观看区域信息计算器14。
观看区域信息计算器14计算用于根据所检测到的观看者的位置信息来合适地设置观看区域的控制参数(例如,在图9A到图9C中说明的移位量),并且然后观看区域信息计算器14向图像调节器15提供所算得的控制参数。
图10A至图10E是示出了用于计算观看区域信息的技术的示例的示图。观看区域信息计算器14预先定义观看区域的几个可设置模式。然后,观看区域信息计算器14计算观看区域和所检测到的观看者之间的重叠区域,并且将具有最大的所算得的区域的观看区域确定为合适的观看区域。在图10的示例中,在预先定义的图10A至图10E中的观看区域(阴影区域)的五个模式之中,操作遥控器51的观看者42和观看区域之间的重叠区域在图10B中最大,其中观看区域被设置为关于液晶面板1在左侧。因此观看区域信息计算器14将图10B中的观看区域的模式判定为合适的观看区域。在这种情况下,用于显示图10B中的模式下的视差图像的控制参数被提供到图8中的图像调节器15。
更具体地,为了设置期望的观看区域,观看区域信息计算器14可以使用将控制参数与由那些控制参数设置的观看区域相关联的观看区域数据库。观看区域信息计算器14可以通过搜索观看区域数据库,来找到能够保持所选择的观看者的观看区域。
图像调节器(观看区域控制器)15根据所算得的控制参数来进行调整(诸如移位和内插视差图像信号)以控制观看区域,并且随后将视差图像信号提供到液晶面板1以使液晶面板1显示视差图像。
应注意,控制器10可以始终检测遥控器操作者,并且在每次检测到遥控器51时实时地设置观看区域。然而,如果在每次操作遥控器51时观看区域经常移动,则可能难以观看视频。因此,观看者可以控制通过使用遥控器51来设置观看区域的定时。
例如,当按下遥控器51的预定按钮时,产生和发射观看区域调整指令信号,并且光接收器4接收观看区域调整指令信号。在与观看区域调整指令信号的接收同步中,观看信息计算器14更新控制参数。换言之,即使检测器20检测到遥控器操作者,也不重新设置观看区域直至产生观看区域调整指令。
尽管在各个实施方式中,描述了使用双凸透镜2和通过移位视差图像来控制观看区域的示例,但是也可以通过其他方式来控制观看区域。例如,代替双凸透镜2,视差屏障也可以设置为光圈控制器2'。图11是示出了图8中所示的实施方式的变形例的视频显示装置100'的示意性构造的框图。如图11中所示,视频显示装置100'的控制器10'具有观看区域控制器15'而不是图像调节器15。在这种情况下,液晶面板1和光圈区域控制器2'之间的距离、液晶面板1和光圈控制器2'之间的水平移位长度等被视为控制参数,并且控制液晶面板1上显示的视差图像的输出方向,从而控制观看区域。
以上实施方式中说明的遥控器检测系统的至少一部分可以由硬件或软件形成。当遥控器检测系统部分由软件形成时,可以将实现遥控器检测系统的至少一部分功能的程序存储在诸如软盘、CD-ROM等的记录介质中,并且可以通过使计算机读取程序来执行该程序。记录介质不限于诸如磁盘、光盘等的可移除介质,并且可以是诸如硬盘装置、存储器等的固定型记录介质。
此外,实现遥控器检测系统的至少一部分功能的程序可以通过诸如因特网等的通信线(包括无线电通信)来分布。此外,被加密、调制或压缩的程序可以通过诸如因特网等的有线线路或无线电链路或通过存储该程序的记录介质来分布。
尽管描述了某些实施方式,但是这些实施方式仅作为示例来提供,并且不旨在限制本发明的范围。实际上,本文中描述的新颖的方法和系统可以以各种其他形式来实施;此外,在不偏离本发明的精神的前提下,可以对本文中描述的方法和系统的形式进行各种省略、替代和改变。所附权利要求及其等同物旨在覆盖那些将落入本发明的范围和精神内的形式或变形。

Claims (18)

1.一种检测器,被配置为检测用于遥控视频显示装置的遥控器的操作者,所述检测器包括:
脸部检测器,被配置为从视频检测观看者的脸部的第一位置;
遥控器检测器,被配置为从所述视频检测所述遥控器的第二位置;以及
操作者识别器,被配置为当检测到多个观看者的脸部时,基于所检测到的观看者的脸部的第一位置和所检测的所述遥控器的第二位置来识别操作所述遥控器的观看者。
2.根据权利要求1所述的检测器,其中,当检测到多个观看者的脸部时,所述操作者识别器被配置为将第一观看者识别为操作所述遥控器的观看者,
所述视频中所述第一观看者的脸部的第一水平方向位置和所述遥控器的第二水平方向位置之间的距离最小,并且
所述视频中所述第一观看者的脸部的第一垂直方向位置高于所述视频中所述遥控器的第二垂直方向位置。
3.根据权利要求1所述的检测器,其中,当检测到多个观看者的脸部时,所述操作者识别器被配置为将第一观看者识别为操作所述遥控器的观看者,
所述第一观看者的脸部的第一水平方向位置和所述遥控器的第二水平方向位置之间的距离为最小,并且
满足以下式子(1),
y>Y+f(z)    (1)
这里,y是所述视频中所述第一观看者的脸部的第一垂直方向位置,Y是所述视频中所述遥控器的第二垂直方向位置,f(z)是取决于所述视频显示装置和所检测到的脸部之间的距离z的值。
4.根据权利要求1所述的检测器,其中,所述遥控器检测器被配置为基于在时间t1拍摄的所述视频和在所述时间t1之后的时间t2拍摄的视频之间的差异,来检测所述遥控器的第二位置。
5.根据权利要求1所述的检测器,其中,所述遥控器检测器被配置为将第三位置检测为所述遥控器的第二位置,
在时间t1拍摄的视频中位于所述第三位置的各个第一像素和在所述时间t1之后的时间t2拍摄的视频中位于所述第三位置的各个第二像素之间的差值大于第一值,并且
位于所述第三位置的像素的个数等于或小于第一数量。
6.根据权利要求1所述的检测器,其中,所述遥控器被配置为产生红外信号,
所述遥控检测器被配置为从由摄像机拍摄的视频,检测所述遥控器的第二位置,
所述摄像机包括:
第一摄像元件,所述第一摄像元件的感光度对于可见光中具有长波长的光为高;
第二摄像元件,所述第二摄像元件的感光度对于可见光中具有中等波长的光为高;
第三摄像元件,所述第三摄像元件的感光度对于可见光中具有短波长的光为高,
所述遥控器检测器被配置为通过使用由所述第一摄像元件拍摄的像素值而不使用由所述第二摄像元件和所述第三摄像元件拍摄的像素值,来检测所述遥控器的第二位置。
7.根据权利要求6所述的检测器,其中,所述摄像机是互补金属氧化物半导体(CMOS)摄像机或电荷耦合器件(CCD)摄像机。
8.根据权利要求1所述的检测器,还包括编码检测器,所述编码检测器被配置为基于由所述遥控器产生的信号的编码来检测所述遥控器是否用于遥控所述视频显示装置,
其中,所述操作者识别器被配置为在所述遥控器用于遥控所述视频显示装置时,识别操作所述遥控器的观看者。
9.一种视频显示装置,包括:
根据权利要求1所述的检测器;
显示面板,能够显示立体视频;以及
观看区域控制器,被配置为在检测到操作所述遥控器的观看者的位置设置观看区域,所述观看区域是能够立体地观看所述显示面板上显示的视频的区域。
10.根据权利要求9所述的装置,还包括光接收器,所述光接收器被配置为从所述遥控器接收信号,
其中,所述观看区域控制器被配置为当所述光接收器接收由所述遥控器产生的观看区域调整指令信号时,在检测到操作所述遥控器的观看者的位置设置所述观看区域。
11.一种检测方法,用于检测用于遥控视频显示装置的遥控器的操作者,所述方法包括:
从视频检测观看者的脸部的第一位置;
从所述视频检测所述遥控器的第二位置;以及
当检测到多个观看者的脸部时,基于所检测到的观看者的脸部的第一位置和所检测到的所述遥控器的第二位置来识别操作所述遥控器的观看者。
12.根据权利要求11所述的方法,其中,在识别操作所述遥控器的观看者时,当检测到多个观看者的脸部时,第一观看者被识别为操作所述遥控器的观看者,
所述视频中所述第一观看者的脸部的第一水平方向位置和所述遥控器的第二水平方向位置之间的距离为最小,并且
所述视频中所述第一观看者的脸部的第一垂直方向位置高于所述视频中所述遥控器的第二垂直方向位置。
13.根据权利要求11所述的方法,其中,在识别操作所述遥控器的观看者时,当检测到多个观看者的脸部时,第一观看者被识别为操作所述遥控器的观看者,
所述视频中所述第一观看者的脸部的第一水平方向位置和所述遥控器的第二水平方向位置之间的距离为最小,并且
满足以下式子(2),
y>Y+f(z)    (2)
这里,y是所述视频中所述第一观看者的脸部的第一垂直方向位置,Y是所述视频中所述遥控器的第二垂直方向位置,f(z)是取决于所述视频显示装置和所检测到的脸部之间的距离z的值。
14.根据权利要求11所述的方法,其中,当检测所述遥控器的第二位置时,基于在时间t1拍摄的所述视频和在所述时间t1之后的时间t2拍摄的所述视频之间的差异,来检测所述遥控器的第二位置。
15.根据权利要求11所述的方法,其中,当检测所述遥控器的第二位置时,第三位置被检测为所述遥控器的第二位置,
在时间t1拍摄的视频中位于所述第三位置的各个第一像素和在所述时间t1之后的时间t2拍摄的视频中位于所述第三位置的各个第二像素之间的差值大于第一值,并且
位于所述第三位置的像素的个数等于或小于第一数量。
16.根据权利要求11所述的方法,其中,所述遥控器被配置为产生红外信号,
当检测所述遥控器的第二位置时,从由摄像机拍摄的视频检测所述遥控器的第二位置,
所述摄像机包括:
第一摄像元件,所述第一摄像元件的感光度对于可见光中具有长波长的光为高;
第二摄像元件,所述第二摄像元件的感光度对于可见光中具有中等波长的光为高;以及
第三摄像元件,所述第三摄像元件的感光度对于可见光中具有短波长的光为高,
当检测所述遥控器的第二位置时,通过使用由所述第一摄像元件拍摄的像素值而不使用由所述第二摄像元件和所述第三摄像元件拍摄的像素值来检测所述遥控器的第二位置。
17.根据权利要求16所述的方法,其中,所述摄像机是互补金属氧化物半导体(CMOS)摄像机或电荷耦合器件(CCD)摄像机。
18.根据权利要求11所述的方法,还包括基于由所述遥控器产生的信号的编码来检测所述遥控器是否用于遥控所述视频显示装置,
其中,在识别操作所述遥控器的观看者时,当所述遥控器用于遥控所述视频显示装置时识别所述遥控器。
CN201310084421.2A 2012-06-29 2013-03-15 检测器、检测方法和视频显示装置 Pending CN103517056A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012147629A JP5343156B1 (ja) 2012-06-29 2012-06-29 検出装置、検出方法および映像表示装置
JP2012-147629 2012-06-29

Publications (1)

Publication Number Publication Date
CN103517056A true CN103517056A (zh) 2014-01-15

Family

ID=49679217

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310084421.2A Pending CN103517056A (zh) 2012-06-29 2013-03-15 检测器、检测方法和视频显示装置

Country Status (3)

Country Link
US (1) US9204078B2 (zh)
JP (1) JP5343156B1 (zh)
CN (1) CN103517056A (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150002295A1 (en) * 2013-06-27 2015-01-01 Brian J. Thurmon Locatable remote control and associated content consumption devices
US9674563B2 (en) * 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
US20150237351A1 (en) * 2014-02-18 2015-08-20 Penne Lee Techniques for inclusion of region of interest indications in compressed video data
CN104378669A (zh) * 2014-09-17 2015-02-25 安科智慧城市技术(中国)有限公司 一种多用户智能电视系统及控制方法
WO2016154711A1 (en) * 2015-03-31 2016-10-06 Cae Inc. Multifactor eye position identification in a display system
RU2640222C1 (ru) * 2016-10-10 2017-12-27 Юлия Алексеевна Щепочкина Ферромагнитное стекло
EP3720126A1 (en) * 2019-04-02 2020-10-07 SeeFront GmbH Autostereoscopic multi-viewer display device
EP3720125A1 (en) * 2019-04-02 2020-10-07 SeeFront GmbH Autostereoscopic multi-viewer display device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101416235A (zh) * 2006-03-31 2009-04-22 皇家飞利浦电子股份有限公司 用于处理数据的设备和方法
CN101488030A (zh) * 2009-02-10 2009-07-22 深圳Tcl新技术有限公司 显示屏调整装置以及方法
CN101925915A (zh) * 2007-11-21 2010-12-22 格斯图尔泰克股份有限公司 设备访问控制
CN102300110A (zh) * 2010-06-24 2011-12-28 索尼公司 显示设备

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003223422A (ja) 2002-01-31 2003-08-08 Toshiba Corp 個人認証システム
JP4756980B2 (ja) 2005-09-29 2011-08-24 船井電機株式会社 テレビジョン受信装置
CN101925916B (zh) 2007-11-21 2013-06-19 高通股份有限公司 基于媒体偏好控制电子设备的方法和系统
JP2010045604A (ja) * 2008-08-13 2010-02-25 Oki Electric Ind Co Ltd 受信装置、受信方法、プログラムおよび送受信システム
JP5337609B2 (ja) * 2009-07-15 2013-11-06 日立コンシューマエレクトロニクス株式会社 放送受信装置
WO2011118836A1 (ja) * 2010-03-26 2011-09-29 シャープ株式会社 表示装置、テレビジョン受像機、表示装置の制御方法、遠隔操作装置、遠隔操作装置の制御方法、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2011239279A (ja) * 2010-05-12 2011-11-24 Hitachi Consumer Electronics Co Ltd 遠隔制御装置および遠隔制御方法
JP5494283B2 (ja) * 2010-06-24 2014-05-14 ソニー株式会社 立体表示装置及び立体表示装置の制御方法
US20130194394A1 (en) * 2012-02-01 2013-08-01 Peter Rae Shintani Energy Conserving Display

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101416235A (zh) * 2006-03-31 2009-04-22 皇家飞利浦电子股份有限公司 用于处理数据的设备和方法
CN101925915A (zh) * 2007-11-21 2010-12-22 格斯图尔泰克股份有限公司 设备访问控制
CN101488030A (zh) * 2009-02-10 2009-07-22 深圳Tcl新技术有限公司 显示屏调整装置以及方法
CN102300110A (zh) * 2010-06-24 2011-12-28 索尼公司 显示设备

Also Published As

Publication number Publication date
JP5343156B1 (ja) 2013-11-13
JP2014011673A (ja) 2014-01-20
US9204078B2 (en) 2015-12-01
US20140002619A1 (en) 2014-01-02

Similar Documents

Publication Publication Date Title
CN103517056A (zh) 检测器、检测方法和视频显示装置
CN103096103A (zh) 视频处理装置和视频处理方法
CN102970569B (zh) 视域调整装置、视频处理装置以及视域调整方法
US8477181B2 (en) Video processing apparatus and video processing method
EP3097689B1 (en) Multi-view display control for channel selection
JP5129376B1 (ja) 映像処理装置および映像処理方法
CN102907104A (zh) 形成具有感知深度的视频
CN103348682A (zh) 在多视图系统中提供单一视觉的方法和装置
KR20130106001A (ko) 입체영상 처리 장치 및 다시점 영상을 디스플레이하기 위한 스윗 스포트의 위치를 조절하는 방법
JP5156116B1 (ja) 映像処理装置および映像処理方法
US20140092224A1 (en) Video processing apparatus and video processing method
US20130050444A1 (en) Video processing apparatus and video processing method
CN103167311A (zh) 视频处理装置、视频处理方法和记录介质
JP5095851B1 (ja) 映像処理装置および映像処理方法
JP5156117B1 (ja) 映像処理装置および映像処理方法
US20130050442A1 (en) Video processing apparatus, video processing method and remote controller
JP5433763B2 (ja) 映像処理装置および映像処理方法
JP5568116B2 (ja) 映像処理装置および映像処理方法
JP5603911B2 (ja) 映像処理装置、映像処理方法および遠隔制御装置
US20130307941A1 (en) Video processing device and video processing method
JP2013055694A (ja) 映像処理装置および映像処理方法
JP2013055675A (ja) 映像処理装置および映像処理方法
JP2013055682A (ja) 映像処理装置および映像処理方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20140115