CN102270090A - 信息显示设备和显示图像控制方法 - Google Patents

信息显示设备和显示图像控制方法 Download PDF

Info

Publication number
CN102270090A
CN102270090A CN2011101441351A CN201110144135A CN102270090A CN 102270090 A CN102270090 A CN 102270090A CN 2011101441351 A CN2011101441351 A CN 2011101441351A CN 201110144135 A CN201110144135 A CN 201110144135A CN 102270090 A CN102270090 A CN 102270090A
Authority
CN
China
Prior art keywords
image
display
displaying part
user
image displaying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2011101441351A
Other languages
English (en)
Inventor
安达浩明
坂尾胜利
越山笃
大场晴夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN102270090A publication Critical patent/CN102270090A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0443Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a single layer of sensing electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0446Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Control Of Vending Devices And Auxiliary Devices For Vending Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明公开了一种信息显示设备,其包括:图像显示部分,适于显示双眼视差图像;显示图像控制部分,适于控制在图像显示部分上显示的双眼视差图像;及位置信息获取部分,适于获取代表存在于图像显示部分的显示表面上的三维空间中的目标的三维位置的位置信息,其中显示图像控制部分根据由位置信息获取部分获取的位置信息表示的目标的三维位置,控制显示在图像显示部分上的双眼视差图像。

Description

信息显示设备和显示图像控制方法
技术领域
本公开涉及信息显示设备和显示图像控制方法,更具体地涉及具有适于显示双眼视差图像的图像显示部分的信息显示设备等。
背景技术
在日本专利公报No.2005-275644(称为专利文件1)已经说明平面信息显示设备,其具有在显示表面上的透明触摸板并使用例如液晶显示元件。在这样的信息显示设备的情况下,用户通过例如从显示表面上显示的菜单选择操作的选项进行该操作。
在适于用触摸板操作的信息显示设备的情况下,用户需要直接接触显示器的表面,例如用手指进行操作。因此,例如如果手脏了,则用户不能操作该设备或者至少犹豫是否进行操作。
例如,日本专利公报No.2005-280396(称为专利文件2)描述了检测用户手指的三维位置并允许用户不需手指或其他物体接触显示表面来操作设备的操作指令装置。在这样的情况下,在用户的视点位置与显示设备之间建立目标空间,显示设备位于通过记忆用户的手的长度确定的距离。当用户将其手指移入目标空间时,选择在显示设备上显示的图标。
发明内容
在专利文件2描述的信息显示设备的情况下,二维地显示图标。也就是说,图标显示在显示设备的显示表面上。用户难于判定其是否正指向所需的图标,因为显示的图标和用于图标的目标空间相互远离。
本公开的目的是为用户提供改进的易用性,其包括改进的用户操作精确度和有效地为用户提供信息。
本公开的构思在一种于信息显示设备,包括图像显示部分、显示图像控制部分和位置信息获取部分。图像显示部分显示双眼视差图像。显示图像控制部分控制在图像显示部分上显示的双眼视差图像。位置信息获取部分获取代表目标的三维位置的位置信息,该目标存在于图像显示部分的显示表面上的三维空间中。根据由位置信息获取部分获取的位置信息表示的目标的三维位置,显示图像控制部分控制在图像显示部分上显示的双眼视差图像。
在本公开中,在图像显示部分上显示双眼视差图像(左眼和右眼图像)。随后,由显示图像控制部分控制在图像显示部分上显示的双眼视差图像。对双眼视差图像的控制包括例如控制图像的内容和控制左右眼图像之间的视差。当在图像显示部分上显示双眼视差图像时,用户能够可视地感知立体图像。应当注意,立体图像可以通过使用眼镜方法(例如快门眼镜法、偏振眼镜法)或裸眼方法(例如透镜法、视差屏障法)显示。
位置信息获取部分获取代表目标的三维位置的位置信息,该目标存在于图像显示部分的显示表面上的三维空间中。位置信息获取部分可以包括静电电容传感器和位置检测/处理部分。静电电容传感器具有多个电极,该电极位于例如图像显示部分的显示表面上并可以用作用于检测目标的三维位置的检测电极。位置检测/处理部分根据多个电极获得的值检测目标的三维位置。
要获取其位置信息的目标是例如位于图像显示部分的显示表面上的三维空间中的适于作出预定运动的用户的身体部分。在此,术语“预定运动”是指涉及由用户可视地感知的立体图像的运动。例如,如果用户将用于选择自动贩卖机中的产品的预定信息(例如产品选择按钮)可视地感知为立体图像,则预定动作是适于选择产品的动作。此外,例如,如果用户将用于操作电视接收机的预定信息(例如频道选择按钮)可视地感知为立体图像,则预定动作是适于选择电视接收机的频道的动作。进一步的,例如,如果用户将用于诸如产品或符号的公共关系的预定信息可视地感知为立体图像,则预定动作是适于伸出手以在手上放置产品或符号的动作。
根据由位置信息获取部分获取的位置信息表示的目标的三维位置,显示图像控制部分控制在图像显示部分上显示的双眼视差图像。在该情况下,由用户可视地感知的立体图像的类型和可视地感知的图像的位置根据目标的三维位置变化。例如,我们假设用户将用于选择自动贩卖机中的产品的预定信息(例如产品选择按钮)可视地感知为立体图像。在该情况下,当用户的手进入用于选择产品选择按钮的设置区域时,产品选择按钮的显示方式(例如可视感知的颜色、大小或位置)产生变化,指示正在选择产品。
此外,例如,我们假设用户将用于操作电视接收机的预定信息(例如频道选择按钮)可视地感知为立体图像。在该情况下,当用户的手接近用于频道选择的按钮的可视感知位置时,频道选择按钮的显示方式(例如可视感知的颜色、大小和位置)产生变化,指示正在选择频道。另外,例如,我们假设用户将用于诸如产品或符号的公共关系的预定信息可视地感知为立体图像。在该情况下,当用户的手接近显示表面时,产品或符号的显示方式出现变化,允许将其可视地感知在用户的手上。
如上所述,在本公开中根据目标的三维位置控制在图像显示部分上显示的双眼视差图像。这样提供了改进的用户操作精度或对用户的高效信息供给,因此为针对用户的改进的易用性作出贡献。
在本公开中,例如,位置信息获取部分可以进一步获取关于图像显示部分的显示表面与用户之间的距离的信息,显示图像控制部分可以根据位置信息获取部分获取的位置进一步控制在图像显示部分上显示的双眼视差图像。
即使在图像显示部分上显示的双眼视差图像相同,由用户可视感知的立体图像的位置也根据图像显示部分的显示表面与用户之间的距离变化。通过根据距离控制在图像显示部分上显示的双眼视差图像,能够例如不论距离保持在同一位置由用户可视感知的立体图像。此外,通过根据距离控制在图像显示部分上显示的双眼视差图像,如果用户比给定距离更靠近显示表面,则能够在图像显示部分上显示双眼视差图像。
此外,在本公开中,图像显示部分可以例如提供在自动贩卖机的外壳上,并至少显示允许可视感知为立体图像的预定产品选择信息。图像显示部分可以进一步包括适于根据目标的三维位置控制自动贩卖机的操作的系统控制部分,目标的三维位置由位置信息获取部分获取的位置信息表示。
此外,在本公开中,图像显示部分可以构成数字标志(signage)设备,并至少显示允许预定的公共关系信息可视地感知为立体图像的双眼视差图像。
此外,图像显示部分可以构成电视接收机,并至少显示允许用于操作电视接收机的预定信息可视感知为立体图像的双眼视差图像。图像显示部分可以进一步包括适于根据目标的三维位置控制电视接收机的操作的系统控制部分,目标的三维位置由位置信息获取部分获取的位置信息表示。
本公开的另一构思在于一种用于控制在图像显示部分上显示的双眼视差图像的显示图像控制方法,该图像显示部分适于显示双眼视差图像,该方法包括:获取代表目标的三维位置的位置信息,目标存在于图像显示部分的显示表面上的三维空间中;及根据目标的三维位置控制在图像显示部分上显示的双眼视差图像,目标的三维位置由位置信息获取步骤获取的位置信息表示。
本公开根据存在于图像显示部分的显示表面上的三维空间中的目标的三维位置,控制在图像显示部分上的双眼视差图像。这样提供了改进的用户操作精度或对用户的高效信息供给,因此为针对用户的改进的易用性作出贡献。
附图说明
图1是示意性地表示作为本公开第一实施例的自动贩卖机的外观的图;
图2是表示自动贩卖机的电路配置的示例的框图;
图3是说明构成位置信息获取部分的静电电容传感器的配置示例的图;
图4是说明构成位置信息获取部分的静电电容传感器的配置示例的图;
图5A-5C是表示从传感器表面到诸如指尖的目标之间的距离(传感器到传感器距离)与每一电极的检测电平之间的关系的示例的图;
图6是示意性地表示构成位置信息获取部分的位置检测/处理部分的配置示例的图;
图7A和7B是表示静电电容传感器与用户之间的位置关系和用于静电电容传感器的每一电极的检测电压Vh的示例的图;
图8是用于说明由自动贩卖机的控制部分执行的与用户动作关联的控制操作的流程图;
图9是表示显示图像的示例的图;
图10A和10B是表示显示图像的示例和此时从传感器表面到用户的手的距离的示例的图;
图11A和11B是表示显示图像的示例和此时用户的手的三维位置的示例的图;
图12A和12B是表示显示图像的示例和此时用户的手的三维位置的示例的图;
图13是表示用于确定已经作出选择的产品选择按钮的设置坐标的示例的图;
图14A-14H是表示在操作自动贩卖机的不同场景期间显示的一组图像的图;
图15是表示用于由位置检测/处理部分获取的指尖的三维位置(x,y,z2)的每一种情况的设置动作的示例的图;
图16是表示由自动贩卖机的控制部分执行的显示图像控制的示例的流程图;
图17是示意性地表示作为本公开第二实施例的数字标志设备的外观的图;
图18是表示数字标志设备的电路配置的示例的框图;
图19是用于说明由数字标志设备的控制部分执行的与用户动作关联的控制操作的流程图;
图20A和20B是表示显示图像的示例的图;
图21A和21B是表示显示图像的示例和此时用户的手的三维位置的示例的图;
图22是表示显示图像的示例和此时用户的手的三维位置的示例的图;
图23是表示由数字标志设备的控制部分执行的显示图像控制的示例的流程图;
图24是示意性地表示作为本公开第三实施例的电视接收机的外观的图;
是25是表示电视接收机的电路配置的示例的框图;
图26是用于说明由电视接收机的控制部分执行的与用户的动作关联的控制操作的流程图;
图27A和27B是表示显示图像的示例的图;
图28A和28B是表示显示图像的示例和此时用户的手的三维位置的示例的图;
图29是表示显示图像的示例和此时用户的手的三维位置的示例的图;以及
图30是表示由电视接收机的控制部分执行的显示图像控制的示例的流程图。
具体实施方式
以下将描述实施本公开的方式(以下称为实施例)。应当注意描述按以下顺序给出:
1、第一实施例
2、第二实施例
3、第三实施例
4、修改示例
<1、第一实施例>
[自动贩卖机的配置示例]
图1表示作为本公开第一实施例的自动贩卖机的外观。自动贩卖机100以整体上的矩形平行六面体的形状构成。如LCD(液晶显示器)的平面显示面板102提供在自动贩卖机100的外壳101的前面。LCD102构成适于显示双眼视差图像的图像显示部分。此外,在自动贩卖机100的外壳101的前面的底部提供出货槽103。
在LCD 102的显示表面上放置静电电容传感器104。静电电容传感器104构成位置信息获取部分。位置信息获取部分获取代表存在于LCD 102的显示表面上的三维空间中的目标的三维位置(x,y,z2)。在该实施例中,目标是用户105的手。此外,位置信息获取部分获取关于LCD 102的显示表面与用户105之间的距离z1的信息。
如果用户105比给定距离更接近LCD 102,则LCD 102显示允许由用户105可视地感知的如产品选择按钮的预定信息的双眼视差图像。接下来,当用户105的手进入用于选择产品按钮的设置区域时,产品选择按钮显示的方式(例如可视感知的颜色、大小和位置)出现变化,指示该产品正在被选择。随后,对于该所选的产品,当用户105的手进一步接近LCD 102时,确定购买所选的产品,将产品投入出货槽103。
图2表示自动贩卖机100的电路配置的示例。自动贩卖机100除了LCD102和静电电容传感器104外,还包括控制部分111、存储部分112、总线113、自动贩卖机系统部分114、三维图像生成部分115、面板驱动部分116和位置检测/处理部分117。
控制部分111控制自动贩卖机100的各个部分的操作。存储部分112预先存储控制部分111的操作程序、用于生成双眼视差图像(左眼和右眼图像)的图像数据和其他数据。三维图像生成部分115在控制部分111的控制下生成用于显示双眼视差图像(左眼和右眼图像)的显示图像数据。控制部分111通过总线113连接到存储部分112。此外,控制部分111通过总线113控制自动贩卖机系统部分114和三维图像生成部分115的运行。
面板驱动部分116根据三维图像生成部分115产生的显示图像数据驱动LCD 102,使LCD 102显示允许用户105可视地感知立体图像的双眼视差图像。位置检测/处理部分117与静电电容传感器104共同构成位置信息获取部分。位置检测/处理部分117输出关于存在于LCD 102的显示表面上的三维空间中的用户105的手(目标)的三维位置(x,y,z2)的信息。此外,位置检测/处理部分117输出关于LCD 102的显示表面与用户105之间的距离z1的信息。
在此,将给出关于位置信息获取部分(静电电容传感器104和位置检测/处理部分117)的详细说明,位置信息获取部分适于获取存在于LCD 102的显示表面上的三维空间中的目标的三维信息。应当注意,位置信息获取部分由本申请人在较早前提出,并且将通过引用日本专利公开No.2008-11737进行以下说明。
图3和4表示静电电容传感器104的配置示例。相同的传感器104具有夹在两个薄且透明的玻璃板(电介质)26和24之间的第二电极(检测电极)22。
第二电极22可以采用透明的线电极或透明的传导层构成。在这种情况下,第二电极22采用线电极构成。该第二电极22具有以预定间隔大量地水平安排的多个水平电极(水平轴检测电极)22H,如图4所示。此外,该第二电极22具有以预定间隔大量地垂直安排的多个垂直电极(垂直轴检测电极)22V,如图4所示。
用于多个水平电极22H的公共端子23H和用于多个垂直电极22V的公共端子23V从玻璃板26中引出。用于位置检测的预定的高频信号交替地从位置检测/处理部分117施加到公共端子23H和23V,如后所述。
静电电容传感器104不仅用作触摸传感器而且用作接近检测传感器。例如,当指尖接触静电电容传感器104的表面时,在接触点的水平和垂直电极22H和22V的电容值出现变化。这使得能够识别接触点的坐标。此外,当如指尖的目标与静电电容传感器104的表面(二维平面)面对面时,在面对面位置的水平和垂直电极22H和22V的电容出现变化。这使得能够确认面对面位置的坐标。此外,静电电容的变化根据从如指尖的目标到传感器表面的距离(传感器到传感器距离)而不同。这使得能够确认距离。
图5A-5C表示传感器到传感器距离与每一电极的检测电平之间的关系的示例。在这些示例中,对于面对面位置(接触点和投射点)是如图4所示的点“s”的情况下,示出垂直电极“a”到“f”的检测电平。图5A表示传感器到传感器距离大的情况,其中电极的检测电平低。图5B表示传感器到传感器距离中等的情况,其中电极的检测电平比传感器到传感器距离大时高。图5C表示在传感器到传感器距离为零的情况,表明目标接触传感器的表面,其中电极的检测电平最高。
图6示意性表示位置检测/处理部分117的配置示例。在该示例中,分别由水平和垂直电极22H和22V检测面对面位置(接触点和投射点)。根据分别从相同电极22H和22V获得的检测值确认面对面位置的坐标(x,y)。
关于由多个电极构成的水平电极22H的等效电路220H表示为震荡电路(分布常数电路),其包括电感LH、电阻RH和电容CH,如图6所示。每一电极的电容CH根据如指尖的目标的面对面位置而变化。该变化检测为频率fh的变化。频率fh按以下表达式(1)给出:
fh=1/(2π√(LH·CH))    (1)
另一方面,关于由多个电极构成的垂直电极22V的等效电路220V表示为震荡电路(分布常数电路),其包括电感LV、电阻RV和电容CV,如图6所示。每一电极的电容CV根据如指尖的目标的面对面位置而变化。该变化检测为频率fv的变化。频率fv按以下表达式(2)给出:
fv=1/(2π√(LV·CV))    (2)
串联连接到偏置源32H的AC信号源34H作为驱动源通过开关36H连接到用于水平电极等效电路220H(实际上,水平电极22H)的公共端子23H。如上所述,在水平电极等效电路220H的每一电极处的频率fh根据指尖的面对面位置(接触点和投射点)变化。在每一电极处的频率fh提供给F-V转换电路(频率-电压转换电路)40H,其中将频率fh转换为与频率fh成比例的检测电压Vh,随后检测电压Vh提供给CPU 50。
另一方面,串联连接到偏置源32V的AC信号源34V作为驱动源通过开关36V连接到用于垂直电极等效电路220V(实际上,垂直电极22V)的公共端子23V。在垂直电极等效电路220V的每一电极处的频率fv根据如上所述的指尖的面对面位置(接触点和投射点)变化。在每一电极处的频率fv提供给F-V转换电路(频率-电压转换电路)40V,其中将频率fv转换为与频率fv成比例的检测电压Vv,随后检测电压Vv提供给CPU 50。
在水平电极等效电路220H的每一电极处的频率fh和在垂直电极等效电路220V的每一电极处的频率fv交替得到。为了实现这一点,CPU 50控制开关36H和36V。开关36H接通,则开关36V断开,从而在水平电极等效电路220H的每一电极处得到频率fh。另一方面,开关36H断开,则开关36V接通,从而在垂直电极等效电路220V的每一电极处得到频率fv。
CPU 50根据从F-V转换电路40H提供的每一水平电极的检测电压Vh和从F-V转换电路40V提供的每一垂直电极的检测电压Vv,确定如指尖的目标的面对面位置(接触点和投射点)的坐标(x,y)。在该情况下,y坐标从水平电极的所有检测电压Vh中检测到峰值电压的水平电极位置确定。X坐标从垂直电极的所有检测电压Vv中检测到峰值电压的垂直电极位置确定。
此外,CPU 50根据从F-V转换电路40H提供的每一水平电极的检测电压Vh和从F-V转换电路40V提供的每一垂直电极的检测电压Vv,确定从传感器表面到如指尖的目标的距离z2。在该情况下,从峰值电压电平确定距离z2。因此,CPU 50根据每一水平电极的检测电压Vh和每一垂直电极的检测电压Vv确定指尖的三维位置(x,y,z2)。
此外,CPU 50根据从F-V转换电路40H提供的每一水平电极的检测电压Vh和从F-V转换电路40V提供的每一垂直电极的检测电压Vv,确定从传感器表面到用户105(用户105的眼睛)的距离z1。在该情况下,从不同于峰值电压的电压电平确定距离z1。
图7A表示静电电容传感器104与用户105之间的位置关系。在该情况下,例如在图7B中表示每一水平电极的检测电压Vh。因此,根据检测到峰值电压的水平电极位置确定指尖的y坐标。此外,峰值电压电平与从传感器表面到如指尖的目标的距离z2成比例。因此,根据峰值电压电平确认距离z2。另一方面,不同于峰值电平的电压电平与从传感器表面到用户105(用户105的眼睛)的距离z1成比例。因此,根据这些电压电平确认距离z1。
以下参考图8所示流程图及与用户105的动作关联地给出由图1所示自动贩卖机100的控制部分111执行的控制操作的说明。首先,在步骤ST1,用户105接近自动贩卖机100。当用户105接近自动贩卖机100时,在步骤ST2控制部分111在LCD 102上显示具有表示“将你的手放上来”的文字的图像1,如图9所示。应当注意,例如根据由位置检测/处理部分117(参考图2)获得的从传感器表面到用户105(用户105的眼睛)的距离z1,可以作出关于用户105是否已经接近自动贩卖机100的判定。可替代地,可以使用其他传感器的输出作出该判定。
响应于图像1的显示,在步骤ST3用户105使其手靠近图像。当用户105将手靠近图像时,在步骤ST4控制部分111在LCD 102上显示图像2,如图10A所示。在图像2中,立体地显示用选择产品的多个产品选择按钮。在该示例中,立体地显示用于产品1-3的三个产品选择按钮。应当注意,为了用户105方便,每一个产品选择按钮之上具有产品名称或其图示。图10A是前视图。相对地,图10B是侧视图。
响应于图像2的显示,在步骤ST5用户105通过将手放到用于产品的产品选择按钮上来选择所需的产品。当用户105选择产品时,在步骤ST6控制部分111在LCD 102上显示图像3,如图11A所示。图像3与图10A中所示的图像2相同之处在于立体地显示了用于产品1-3的三个产品选择按钮。但是,所选的产品选择按钮的显示方式已经改变。
图11A中的示例示出产品2已经被选择的情况,产品选择按钮的颜色已经改变。应当注意,在这些可能的产品选择按钮显示方式的变化中,可以是颜色、形状、按钮弹出的程度及其组合的改变。图11A是前视图。相对地,图11B是侧视图。
响应于图像3的显示,在步骤ST7用户105通过使其手靠近选择的产品选择按钮,即以不同方式显示的产品选择按钮,从而订购产品。当用户105订购产品时,在步骤ST8控制部分111在LCD 102上显示图像4,如图12A所示。
图像4与图11A中所示的图像3相同之处在于立体地显示了用于产品1-3的三个产品选择按钮。但是,所选的产品选择按钮的显示方式(例如颜色、形状和按钮弹出的程度)有进一步的变化。图12A是前视图。相对地,图12B是侧视图。在此,如果产品选择按钮弹出的程度改变,则按钮可以例如弹出较少,从而显示为被按下。
在显示图像4之后,控制部分111将订购的产品投入出货槽103。随后,在步骤ST10用户105从出货槽103中取出投入同一出货槽103的产品。
应当注意,当用户105在步骤ST5中通过将手放上选择产品时,为每一产品选择按钮设置坐标以确定用户将手放在哪个产品选择按钮上。图13表示设置坐标的示例。在该示例中,LCD 102的显示表面的左下角的坐标(x,y)是(0,0),其右上角的坐标是(100,100)。应当注意单位是例如mm。
在图13所示示例中,用于产品1的产品选择按钮的设置选择范围是x坐标从20到80,y坐标从70到100。因此,如果由位置检测/处理部分117获得的指尖三维位置(x,y,z2)的x和y坐标落入该范围内,则可以确定用户将其手放在用于产品1的产品选择按钮上,也就是说,用户正用他的或她的手指指向该产品选择按钮。
此外,在图13所示示例中,用于针对产品2的产品选择按钮的设置选择范围是x坐标从20到80,y坐标从35到65。因此,如果由位置检测/处理部分117获得的指尖三维位置(x,y,z2)的x和y坐标落入该范围内,则可以确定用户将其手放在了针对产品2的产品选择按钮上,也就是说,用户正用他的或她的手指指向该产品选择按钮。
此外,在图13所示的示例中,用于针对产品3的产品选择按钮的设置选择范围是x坐标从20到80,y坐标从0到30。因此,如果由位置检测/处理部分117(参考图2)获得的指尖三维位置(x,y,z2)的x和y坐标落入该范围内,则可以确定用户将其手放在了针对产品3的产品选择按钮上,也就是说,用户正用他的或她的手指指向该产品选择按钮。
图14A-14H表示一组图像,即在图8所示流程图中步骤ST2显示的图像1、步骤ST4显示的图像2、步骤ST6显示的图像3、及步骤ST4显示的图像4。
图14A表示步骤ST2中显示为图像1的图像(图像1-1)。图14B表示步骤ST4中显示为图像2的图像(图像2-1)。图14C、14D和14E表示步骤ST6中显示为图像3的三个不同图像(图像3-1、3-2和3-3)。图14F、14G和14H表示步骤ST8中显示为图像4的三个不同图像(图像4-1、4-2和4-3)。
图15表示用于由位置检测/处理部分117(参见图2)获取的指尖三维位置(x,y,z2)的每一情况的设置动作的示例。也就是说,当用户105接近自动贩卖机100时,动作设置为显示图像1-1。此外,当z2<300时,动作设置为显示图像2-1。
此外,当z2<150且20≤x≤80且0≤y≤30时,动作设置为显示图像3-1。此外,当z2<150且20≤x≤80且35≤y≤65时,动作设置为显示图像3-2。此外,当z2<150且20≤x≤80且70≤y≤100时,动作设置为显示图像3-3。
此外,当z2=0且20≤x≤80且0≤y≤30时,动作设置为显示图像4-1。此外,当z2=0且20≤x≤80且35≤y≤65时,动作设置为显示图像4-2。此外,当z2=0且20≤x≤80且70≤y≤100时,动作设置为显示图像4-3。
如上所述,根据图1所示自动贩卖机100中用户105的指尖的三维位置(x,y,z2),控制在LCD 102上显示的双眼视差图像,即由用户可视感知的立体图像。这样提供了改进的用户操作精确度,因此为针对用户的改进的易用性作出贡献。
应当注意,当作为将双眼视差图像显示在LCD 102上的结果用户可视地感知立体图像时,如果左眼和右眼图像之间的视差恒定,则可视地感知的立体图像的位置根据用户105(用户105的眼睛)的位置变化。在图8所示流程图的说明中,控制部分111根据指尖的三维位置(x,y,z2)控制显示图像。也就是说,控制部分111只根据指尖的三维位置(x,y,z2)控制要显示哪个图像。
可替代地,控制部分111能够根据用户105的位置调整左眼和右眼图像之间的双眼视差,从而确保总是在同一位置可视地感知立体图像,而不管用户105的位置。图16所示的流程图表示由控制部分111执行的控制操作的示例。控制部分111产生并显示与从传感器表面到指尖的距离z2关联的图像,并在同一时间根据从传感器表面到用户105(用户105的眼睛)的距离z1调整用户可视地感知立体图像的位置。
控制部分11在步骤ST11发起其控制操作,并进行步骤ST12中的处理。在步骤ST12,控制部分111从位置检测/处理部分117(参见图2)获取距离z1。下一步,控制部分111在步骤ST13确定距离z1是否小于50cm。如果该距离不小于50cm,则控制部分111返回到步骤ST12中的处理。
当在步骤ST13中距离z1小于50cm,控制部分111进行步骤ST14中的处理。在步骤ST14中,控制部分111显示使用距离z1产生的图像。在该情况下,例如显示图8所示流程图中的图像2。根据距离z1调整双眼视差图像之间的视差,从而保持用户105可视地感知立体图像的位置不变,而不管用户105的位置。
接下来,在步骤ST15,控制部分111从位置检测/处理部分117(参见图2)获取距离z1。随后,控制部分111在步骤ST16确定距离z1是否小于50cm。距离z1曾在步骤ST12获取。但是,在步骤ST15再次获取距离z1,从而在步骤ST16进行确定以处理用户已经移动的情况。如果距离不小于50cm,则控制部分111返回到步骤ST12中的处理。
当在步骤ST16中距离z1小于50cm时,控制部分111在步骤ST17从位置检测/处理部分117(参见图2)获取距离z2。接下来,在步骤ST18,控制部分111判断不等式z2<z1/2是否成立。如果不等式z2<z1/2不成立,则控制部分111返回到步骤ST15中的处理。
当在步骤ST18中不等式z2<z1/2成立时,控制部分111在步骤ST19中显示使用距离Z1和z2生成的图像。在该情况下,例如,显示图8所示流程图中的图像3和4。跟据距离z1调整双眼视差图像之间的视差,从而保持用户105可视地感知立体图像的位置不变,而不管用户105的位置。在步骤ST19之后,控制部分111返回到步骤ST15中的处理。
<2、第二实施例>
[数字标志设备的配置示例]
图17表示作为本公开第二实施例的数字标志设备200的外观。在数字标志设备200的外壳201的前面提供如LCD(液晶显示器)202的平面显示面板。LCD 202构成用于显示双眼视差图像的图像显示部分。
静电电容传感器204放置在LCD 202的显示表面上。静电电容传感器204构成位置信息获取部分。位置信息获取部分获取代表存在于LCD 202的显示表面上的三维空间中的目标的三维位置(x,y,z2)的信息。在该实施例中,目标是用户105的手。此外,位置信息获取部分获取关于LCD 202的显示表面与用户105之间的距离z1的信息。
当用户105比给定距离更接近LCD 202上的显示图像时,LCD 202将双眼视差图像显示为立体图像,双眼视差图像允许如产品或符号的预定的公共关系信息由用户105可视地感知。随后,当作为用户105伸出他的或她的手的结果、用户105的手接近显示表面时,例如产品或符号的显示方式出现变化,从而允许产品或符号在手上被可视地感知。接下来,当用户105移动手时,可视地感知例如产品或符号的位置随着手位置的变化而变化。
图18表示数字标志设备200的电路配置的示例。除了LCD 202和静电电容传感器204外,数字标志设备200还包括控制部分211、存储部分212、总线213、三维图像生成部分214、面板驱动部分216和位置检测/处理部分217。
控制部分211控制数字标志设备200的各个部分的运行。存储部分212预先存储控制部分211的运行程序、用于生成双眼视差图像(左眼和右眼图像)的图像数据和其他数据。三维图像生成部分215在控制部分211的控制下生成用于显示双眼视差图像(左眼和右眼图像)的显示图像数据。控制部分211通过总线213连接到存储部分212。此外,控制部分211通过总线213控制三维图像生成部分215的运行。
面板驱动部分216根据三维图像生成部分215产生的显示图像数据驱动LCD 202,从而使LCD 202显示允许用户105可视地感知立体图像的双眼视差图像。位置检测/处理部分217与静电电容传感器204共同构成位置信息获取部分。位置检测/处理部分217输出关于存在于LCD 202的显示表面上的三维空间中的用户105的手(目标)的三维位置(x,y,z2)的信息。此外,位置检测/处理部分217输出关于LCD 202的显示表与用户105之间的距离z1的信息。
位置信息获取部分(静电电容传感器204和位置检测/处理部分217)以与自动贩卖机100的位置信息获取部分(静电电容传感器104和位置检测/处理部分117)相同的方式配置。因此,这里省略对位置信息获取部分(静电电容传感器204和位置检测/处理部分217)的详细说明。
以下参考图19所示流程图及与用户105的动作关联地给出由图17所示数字标志设备200的控制部分211执行的控制操作的说明。当用户105接近数字标志设备200时,在步骤ST22控制部分211在LCD 202上显示具有如产品或符号的预定的公共关系信息的图像1,如图20A所示。在图20A所示的示例中,图像中包含一只小鸟。
响应于图像1的显示,在步骤ST23用户105伸出他的或她的手,如图20B所示。当用户105伸出他的或她的手时,在步骤ST24控制部分211在LCD 202上显示图像2,如图21A所示。图像2是在用户105的手上可视地感知小鸟的立体图像。
下一步,在步骤ST25,用户105移动他的或她的手,如图21B所示。在该示例中,用户105水平地移动他的或她的手。当用户105移动他的或她的手时,在步骤ST26控制部分211在LCD 202上显示图像3,如图22所示。图像3是小鸟跟随用户105的手的移动,从而在已经移动的用户105的手上可视地感知小鸟的立体图像。
图23所示流程图表示由控制部分211执行的显示图像控制操作的示例。控制部分211在步骤ST31发起控制操作并进行步骤ST32中的处理。在步骤ST32中,控制部分211从位置检测/处理部分217(参见图18)获取关于LCD202的显示表面与用户105之间的距离z1的信息。接下来,控制部分211在步骤ST33判断距离z1是否小于100cm。如果距离不小于100cm,则控制部分211返回到步骤ST32中的处理。
当在步骤ST33中距离z1小于100cm时,控制部分211进行步骤ST34中的处理。在步骤ST34中,控制部分211显示图像1(参见图20A)。随后,控制部分211在步骤ST35从位置检测/处理部分217(参见图18)获取距离z1。接下来,控制部分211在步骤ST36判断距离z1是否小于100cm。如果距离不小于100cm,则控制部分211返回到步骤ST32中的处理。
当在步骤ST36中距离z1小于100cm时,控制部分211进行步骤ST37中的处理。在步骤ST37中,控制部分211从位置检测/处理部分217(参见图18)获取关于用户105的手(目标)的三维位置(x,y,z2)的信息。下一步,控制部分211在步骤ST38判断距离z2是否小于50cm。如果距离不小于50cm,则控制部分211返回到步骤ST35中的处理。
当在步骤ST38中距离z2小于50cm,控制部分211进行到步骤ST39中的处理。在步骤ST39中,控制部分211在LCD 202上显示使用距离z1和三维位置(x,y,z2)产生的图像。也就是说,控制部分211相对于在距离z1处的位置(参见图21A和22)在位置(x,y,z2)处显示如产品或符号的立体图像。完成步骤ST39中的处理后,控制部分211返回到步骤ST35中的处理。
如上所述,根据如图17所示数字标志设备200中用户105的指尖的三维位置(x,y,z2),控制在LCD 202上显示的双眼视差图像,即由用户105可视地感知的立体图像。这有效地为用户提供信息,因此为针对用户的改进的易用性作出贡献。例如,现有的数字标志设备难以吸引注意。但是,图17所示数字标志设备200受益于其三维显示成功地吸引了注意。此外,该装置200三维地捕捉用户105的动作,因此允许更自然的交互通信。
应当注意,用于图17和18所示数字标志设备200的音频系统没有示出。例如,音频控制的一种可能是产生声音,就好像小鸟在用户105的手上喳喳叫。
<3、第三实施例>
[电视接收机的配置示例]
图24表示作为本公开第三实施例的电视接收机300的外观。在电视接收机300的外壳301的前面提供如LCD(液晶显示器)302的平面显示面板。LCD 302构成适于显示双眼视差图像的图像显示部分。
在LCD 302的显示表面上放置静电电容传感器304。静电电容传感器304构成位置信息获取部分。位置信息获取部分获取代表存在于LCD 302的显示表面上的三维空间中的目标的三维位置(x,y,z2)的信息。在该实施例中,目标是用户105的手。此外,位置信息获取部分获取关于LCD 302的显示表面与用户105之间的距离z1的信息。
如果用户105使其手靠近LCD 302上的显示图像,则LCD 302显示重叠在显示图像上的频道选择按钮。接下来,当用户105的手靠近可视地感知频道选择按钮的位置时,频道选择按钮的显示方式(例如可视感知的颜色、大小和位置)出现变化,指示该频道正在被选择。随后,在该频道被所选的情况下当用户105向前伸他的或她的手时,确定选择该频道。
图25表示电视接收机300的电路配置的示例。除了LCD 302和静电电容传感器304外,电视接收机300还包括控制部分311、存储部分312、总线313和面板驱动部分316。电视接收机300进一步包括天线端子321、数字调谐器322、三维信号处理部分323、视频处理部分324和图形数据生成部分325。
控制部分311控制电视接收机300的各个部分的运行。存储部分312预先存储控制部分311的运行程序、图形数据生成部分325用于产生图形数据的数据和其他数据。控制部分311通过总线313连接到存储部分312。
向天线端子321提供由接收天线(未示出)接收的电视广播信号。数字调谐器处理提供给天线端子321的电视广播信号,并输出用于用户选择的频道的立体图像数据。三维信号处理部分323编码从数字调谐器322输出的立体图像数据,因此产生左眼和右眼图像数据。
三维信号处理部分323以适于其传输格式的方式解码立体图像数据。用于立体图像数据的已知数据传输格式是上下、并排和帧连续。
图形数据生成部分325产生要叠加在图像数据上的各条图形信息数据(图形数据)。在该情况下,图形信息是频道选择按钮。图形数据生成部分325产生两条图形信息数据,一条将叠加在左眼图像上,另一条将叠加在右眼图像上。在此,叠加在左眼图像上的图形信息与叠加在右眼图像上的图形信息相同。但是,例如水平移动这些条信息以应用视差,从而调整可视地感知图形信息的深度位置。
视频处理部分324根据由三维信号处理部分323产生的左眼和右眼图像数据,生成用于显示双眼视差图像的图像数据。该显示图像数据依据立体图像显示方法(例如眼镜方法和裸眼方法)而变化。应当注意,视频处理部分324将图形数据生成部分325产生的图形信息数据(位图数据)叠加在图像数据上。
面板驱动部分316根据视频处理部分324产生的显示图像数据驱动LCD302,从而使LCD 302显示允许用户105可视地感知立体图像的双眼视差图像。位置检测/处理部分317与静电电容传感器304共同构成位置信息获取部分。位置检测/处理部分317输出关于存在于LCD 302的显示表面上的三维空间中的用户105的手(目标)的三维位置(x,y,z2)的信息。此外,位置检测/处理部分317输出关于LCD 302的显示表面与用户105之间的距离z1的信息。
位置信息获取部分(静电电容传感器304和位置检测/处理部分317)以与自动贩卖机100的位置信息获取部分(静电电容传感器104和位置检测/处理部分117)相同的方式配置。因此,在此省略对位置信息获取部分(静电电容传感器304和位置检测/处理部分317)的详细说明。
以下参考图26所示流程图及与用户105的动作关联地给出由图24所示电视接收机300的控制部分311执行的控制操作的说明。在用户观看期间,控制部分311在LCD 302上显示当前图像1。图27A表示图像1的示例。
在显示图像1的状态下,用户105在步骤ST42使他的或她的手靠近图像,如图27B所示。当用户105使他的或她的手靠近图像时,控制部分311在步骤ST43在LCD 302上显示图像2,如图28A所示。用于可选频道的频道选择按钮叠加在图像2上。在该示例中,频道选择按钮以频道号码的形式示出。
响应于图像2的显示,用户105在步骤ST44通过将手放在用于该频道的频道选择按钮上来选择所需的频道。当用户105选择频道时,控制部分311在步骤ST45在LCD 302上显示图像3,如图28B所示。在图像3中所选的频道表现为从屏幕突出。在该示例中,叠加在图像上的用于频道4的频道选择按钮变现为从屏幕突出,也就是说,可视感知位置向前。
响应于图3的显示,用户105通过将他的或她的手向前伸出放在用于所选频道的频道选择按钮上,来决定频道选择。响应于频道选择的决定,控制部分311改变数字调谐器322的所选频道,从而在LCD 302上显示用于新选择的频道的图像4。图29表示图像4的示例。
图30所示的流程图表示由控制部分311执行的显示图像控制的示例。控制部分311在步骤ST52发起其控制操作,并进行步骤ST52中的处理。在步骤ST52中,控制部分311从位置检测/处理部分317(参见图25)获取关于LCD 302的显示表面与用户105的指尖之间的距离z2的信息。接下来,控制部分311在步骤ST53判断距离z2是否小于50cm。如果距离z2不小于50cm,则控制部分311返回到步骤ST52中的处理。
当在步骤ST53中距离Z2小于50cm时,控制部分311进行到步骤ST54中的处理。在步骤ST54中,控制部分311从位置检测/处理部分317(参见图25)获取关于LCD 302的显示表面与用户105(用户105的眼睛)之间的距离z1的信息。随后,在步骤ST55中,控制部分311相对于在距离z1处的位置在距离z2处显示频道(频道选择按钮),从而频道(频道选择按钮)可视地感知为叠加在图像上(参见图28A)。
接下来,控制部分311在步骤ST56从位置检测/处理部分317(参见图25)获取关于用户105的指尖的位置(x,y)的信息。随后,控制部分311在步骤ST57以频道(频道选择按钮)表现为从屏幕突出的方式(参考图28B),在位置(x,y)显示频道(频道选择按钮),从而清楚地指示所选的频道。
下一步,控制部分311从位置检测/处理部分317(参考图25)获取关于LCD 302的显示表面与用户105的指尖之间的距离z2的信息。随后,控制部分311在步骤ST59判断距离z2是否小于40cm。也就是说,控制部分311在步骤ST59判断用户105是否伸出他的或她的手以进一步决定频道选择。
如果距离不小于40cm,则控制部分311在步骤ST60判断距离z2是否不小于或等于50cm。如果距离z2小于50cm,控制部分311返回到步骤ST56中的处理。另一方面,当距离z2不小于或等于50cm时,控制部分311取消频道(频道选择按钮)在图像上的叠加,并随后返回到步骤ST52中的处理。
另一方面,当在步骤ST59中距离z2小于40cm时,控制部分311进行到步骤ST62中的处理。在步骤ST62中,控制部分311决定频道选择。此时,控制部分311改变数字调谐器322的所选的频道,在LCD 302上显示用于新选择的频道的图像4。在步骤ST62的处理之后,控制部分311返回到步骤ST56中的处理。
如上所述,在图24所示的电视接收机300中,根据用户105的指尖的三维位置(x,y,z2)控制在LCD 302上显示的双眼视差图像,即由用户105可视地感知的立体图像。这样提供了包括频道选择的用户105的改进操作精度,从而为针对用户的改进的易用性作出贡献。
<4、修改示例>
应当注意,虽然本公开在上述实施例中应用于自动贩卖机100、数字标志设备200和电视接收机300,但是当然本公开可以应用于其他类型的信息显示设备。
例如在医疗部门,在模拟的人体尸体解剖过程期间显示立体图像时,本公开可以用于显示示出切割的图像,以便匹配对象所持的外科手术刀的移动。此外,在通过移动身体来玩的游戏机中,本公开可以用于检测手和整个身体而非重心的移动,并显示图像以匹配检测结果。
本公开可应用于如包括图像显示部分的如自动贩卖机、数字标志设备和电视接收机的设备,并向用户提供多种信息。
本公开包含涉及2010年6月7日在日本专利局提交的日本优先权专利申请JP 2010-129577和2009年8月6日在日本专利局提交的日本优先权专利申请JP 2009-177331的主题,其全部内容通过引用结合在此。
本领域的技术人员应当理解,可以依据设计要求和其他因素作出多种修改、组合、子组合和替代,只要其落入权利要求或其等同物的范围内。

Claims (8)

1.一种信息显示设备,包括:
图像显示部分,其适于显示双眼视差图像;
显示图像控制部分,其适于控制在所述图像显示部分上显示的双眼视差图像;及
位置信息获取部分,其适于获取代表存在于所述图像显示部分的显示表面上的三维空间中的目标的三维位置的位置信息,其中
所述显示图像控制部分根据由所述位置信息获取部分获取的位置信息表示的所述目标的三维位置,控制显示在所述图像显示部分上的所述双眼视差图像。
2.如权利要求1所述的信息显示设备,其中
所述目标是位于所述图像显示部分的显示表面上的三维空间中并适于做出给定移动的用户的身体部分。
3.如权利要求2所述的信息显示设备,其中
所述位置信息获取部分进一步获取关于所述图像显示部分的显示表面与所述用户之间的距离的信息,及
所述显示图像控制部分进一步根据由所述位置信息获取部分检测的所述距离控制在所述图像显示部分上显示的双眼视差图像。
4.如权利要求1所述的信息显示设备,其中
所述位置信息获取部分包括
静电电容传感器,其具有放置在所述图像显示部分的显示表面上并可以用作用于检测所述目标的三维位置的检测电极的多个电极,及
位置检测/处理部分,其适于根据所述多个电极获取的值检测所述目标的三维位置。
5.如权利要求1所述的信息显示设备,其中
所述图像显示部分提供在自动贩卖机的外壳上,
所述图像显示部分至少显示允许将预定的产品选择信息可视地感知为立体图像的双眼视差图像,及
所述图像显示部分进一步包括系统控制部分,所述系统控制部分适于根据由所述位置信息获取部分获取的位置信息表示的目标的三维位置控制所述自动贩卖机的运行。
6.如权利要求1所述的信息显示设备,其中
所述图像显示部分构成数字标志设备,及
所述图像显示部分至少显示允许将预定的公共关系信息可视地感知为立体图像的双眼视差图像。
7.如权利要求1所述的信息显示设备,其中
所述图像显示部分构成电视接收机,
所述图像显示部分至少显示允许将用于操作所述电视接收机的预定信息可视地感知为立体图像的双眼视差图像,及
所述图像显示部分进一步包括系统控制部分,所述系统控制部分适于根据由所述位置信息获取部分获取的位置信息表示的目标的三维位置控制所述电视接收机的运行。
8.一种用于控制显示在图像显示部分上的双眼视差图像的显示图像控制方法,所述图像显示部分适于显示双眼视差图像,所述方法包括:
获取代表目标的三维位置的位置信息,所述目标存在于所述图像显示部分的显示表面上的三维空间中;及
根据由位置信息获取步骤获取的所述位置信息表示的所述目标的三维位置,控制在所述图像显示部分上显示的双眼视差图像。
CN2011101441351A 2010-06-07 2011-05-31 信息显示设备和显示图像控制方法 Pending CN102270090A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010129577A JP5573379B2 (ja) 2010-06-07 2010-06-07 情報表示装置および表示画像制御方法
JP2010-129577 2010-06-07

Publications (1)

Publication Number Publication Date
CN102270090A true CN102270090A (zh) 2011-12-07

Family

ID=44117988

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2011101441351A Pending CN102270090A (zh) 2010-06-07 2011-05-31 信息显示设备和显示图像控制方法

Country Status (4)

Country Link
US (1) US8872821B2 (zh)
EP (1) EP2393299A3 (zh)
JP (1) JP5573379B2 (zh)
CN (1) CN102270090A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102523469A (zh) * 2011-12-21 2012-06-27 吉林大学 基于视距感知的小分辨率立体视频自适应解码方法
CN106796743A (zh) * 2014-10-08 2017-05-31 株式会社麦克斯 具有全息产品的自动售货机
CN108885499A (zh) * 2016-02-26 2018-11-23 可口可乐公司 非触摸式控制图形用户界面
CN109542654A (zh) * 2018-11-23 2019-03-29 京东方科技集团股份有限公司 自动贩卖机和确定用户选定商品的方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8421752B2 (en) * 2011-01-27 2013-04-16 Research In Motion Limited Portable electronic device and method therefor
JPWO2013046596A1 (ja) * 2011-09-26 2015-03-26 Necカシオモバイルコミュニケーションズ株式会社 携帯型情報処理端末
EP2784640A4 (en) 2011-11-21 2015-10-21 Nikon Corp DISPLAY DEVICE AND DISPLAY CONTROL PROGRAM
JP5758865B2 (ja) * 2012-11-16 2015-08-05 東芝テック株式会社 情報表示装置、端末装置、情報表示システム及びプログラム
US10261612B2 (en) * 2013-02-22 2019-04-16 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors
US10394434B2 (en) 2013-02-22 2019-08-27 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors
WO2015176039A2 (en) * 2014-05-15 2015-11-19 T-Ink, Inc. Area input device and virtual keyboard
CN105812772B (zh) * 2014-12-29 2019-06-18 深圳超多维科技有限公司 医疗图像立体显示系统及方法
US10152154B2 (en) * 2015-01-22 2018-12-11 Superd Technology Co., Ltd. 3D interaction method and display device
GB2550209A (en) * 2016-05-13 2017-11-15 Lucozade Ribena Suntory Ltd Method of controlling a state of a display of a device
JP7197171B2 (ja) * 2017-06-21 2022-12-27 日本電気株式会社 情報処理装置、制御方法、及びプログラム
US20220253148A1 (en) * 2021-02-05 2022-08-11 Pepsico, Inc. Devices, Systems, and Methods for Contactless Interfacing

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008132724A1 (en) * 2007-04-26 2008-11-06 Mantisvision Ltd. A method and apparatus for three dimensional interaction with autosteroscopic displays
CN101371593A (zh) * 2006-01-18 2009-02-18 伊斯曼柯达公司 纠正立体显示系统的方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916312A (ja) * 1995-06-28 1997-01-17 Nomura Kogeisha:Kk 立体画像表示装置用入力装置
JP3140708B2 (ja) * 1997-03-19 2001-03-05 株式会社エイ・ティ・アール知能映像通信研究所 手形状入力装置および仮想現実感生成装置
US6373265B1 (en) * 1999-02-02 2002-04-16 Nitta Corporation Electrostatic capacitive touch sensor
GB0119176D0 (en) * 2001-08-06 2001-09-26 Ocuity Ltd Optical switching apparatus
JP2003076488A (ja) * 2001-09-03 2003-03-14 Takenaka Komuten Co Ltd 指示位置判断装置及び方法
JP4286556B2 (ja) * 2003-02-24 2009-07-01 株式会社東芝 画像表示装置
JP2004280496A (ja) * 2003-03-17 2004-10-07 Kyocera Mita Corp 操作パネル装置
JPWO2004114108A1 (ja) * 2003-06-20 2006-07-20 富田 誠次郎 立体画像表示方法及び装置
JP2005196530A (ja) * 2004-01-08 2005-07-21 Alpine Electronics Inc 空間入力装置及び空間入力方法
JP2005275644A (ja) 2004-03-24 2005-10-06 Sharp Corp 液晶表示装置
JP4566596B2 (ja) 2004-03-29 2010-10-20 アルパイン株式会社 操作指示装置
JP2005295004A (ja) * 2004-03-31 2005-10-20 Sanyo Electric Co Ltd 立体画像処理方法および立体画像処理装置
WO2007013215A1 (ja) * 2005-07-25 2007-02-01 Pioneer Corporation 画像表示装置
WO2007097225A1 (ja) * 2006-02-21 2007-08-30 Pioneer Corporation 画像表示装置
JP2008011737A (ja) 2006-07-04 2008-01-24 Shimano Inc 釣竿ケース
JP4481280B2 (ja) * 2006-08-30 2010-06-16 富士フイルム株式会社 画像処理装置、及び画像処理方法
US8284165B2 (en) * 2006-10-13 2012-10-09 Sony Corporation Information display apparatus with proximity detection performance and information display method using the same
JP2008219788A (ja) * 2007-03-07 2008-09-18 Toshiba Corp 立体画像表示装置、方法およびプログラム
JP2008257216A (ja) * 2007-03-12 2008-10-23 Akira Tomono 公衆用情報提示装置
US20080231926A1 (en) * 2007-03-19 2008-09-25 Klug Michael A Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input
US20090073556A1 (en) * 2007-07-30 2009-03-19 Magnetic Media Holdings Inc. Multi-stereoscopic viewing apparatus
JP2009177331A (ja) 2008-01-22 2009-08-06 Nec Corp 画像信号転送システム、方法及び該転送システムを具備する撮像装置
GB2457691A (en) * 2008-02-21 2009-08-26 Sharp Kk Display with regions simultaneously operable in different viewing modes
US8576181B2 (en) * 2008-05-20 2013-11-05 Lg Electronics Inc. Mobile terminal using proximity touch and wallpaper controlling method thereof
JP4793422B2 (ja) * 2008-10-10 2011-10-12 ソニー株式会社 情報処理装置、情報処理方法、情報処理システムおよび情報処理用プログラム
JP4659875B2 (ja) 2008-11-25 2011-03-30 パナソニック株式会社 半導体装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101371593A (zh) * 2006-01-18 2009-02-18 伊斯曼柯达公司 纠正立体显示系统的方法
WO2008132724A1 (en) * 2007-04-26 2008-11-06 Mantisvision Ltd. A method and apparatus for three dimensional interaction with autosteroscopic displays

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102523469A (zh) * 2011-12-21 2012-06-27 吉林大学 基于视距感知的小分辨率立体视频自适应解码方法
CN106796743A (zh) * 2014-10-08 2017-05-31 株式会社麦克斯 具有全息产品的自动售货机
CN108885499A (zh) * 2016-02-26 2018-11-23 可口可乐公司 非触摸式控制图形用户界面
CN109542654A (zh) * 2018-11-23 2019-03-29 京东方科技集团股份有限公司 自动贩卖机和确定用户选定商品的方法

Also Published As

Publication number Publication date
EP2393299A3 (en) 2014-10-15
JP5573379B2 (ja) 2014-08-20
JP2011257820A (ja) 2011-12-22
US20110298791A1 (en) 2011-12-08
EP2393299A2 (en) 2011-12-07
US8872821B2 (en) 2014-10-28

Similar Documents

Publication Publication Date Title
CN102270090A (zh) 信息显示设备和显示图像控制方法
US5796373A (en) Computerized stereoscopic image system and method of using two-dimensional image for providing a view having visual depth
KR101126110B1 (ko) 3차원 입체 영상 표시 시스템 및 이를 이용한 3차원 입체 영상 표시 방법
EP2385454B1 (en) Method for displaying a 3D settings menu and corresponding device
EP2456214B1 (en) Method of providing 3D image and 3D display apparatus using the same
CN103124945B (zh) 图像识别装置和操作判断方法以及程序
EP2391140A2 (en) Display apparatus and display method thereof
EP2408215B1 (en) Electronic apparatus and method for displaying graphical user interface as 3d image
EP2326099A2 (en) Method for Changing Play Mode, Method for Changing Display Mode, and Display Apparatus and 3D Image Providing System using the Same
Järvenpää et al. Optical characterization of autostereoscopic 3‐D displays
KR20100075068A (ko) 입체영상 표시장치 및 그 제어방법
JPH09121370A (ja) 立体tv装置
EP2432233A2 (en) Display apparatus and image processing method thereof
US20120086777A1 (en) Systems and methods for detecting and displaying three-dimensional videos
CN105593789A (zh) 显示装置及其控制方法
CN103581657A (zh) 一种2d/3d显示的方法和装置
EP2398245A2 (en) Display apparatus and 3d image acquisition-examination method thereof
WO2013146040A1 (ja) 情報提示装置、情報提示システム、サーバ、情報提示方法及びプログラム
CN103294225A (zh) 立体显示设备、指点设备、立体显示系统及其操作方法
CN102970567B (zh) 视频处理装置以及视频处理方法
EP2667617A2 (en) Video signal processing apparatus
US9253477B2 (en) Display apparatus and method for processing image thereof
JP5521991B2 (ja) 立体画像表示装置
JP2011180779A (ja) 立体画像データ生成装置、立体画像データ生成方法、および立体画像データ生成プログラム
KR20130068964A (ko) 영상표시장치의 동작 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20111207