CN110275607A - 显示装置及显示控制程序 - Google Patents

显示装置及显示控制程序 Download PDF

Info

Publication number
CN110275607A
CN110275607A CN201910343811.4A CN201910343811A CN110275607A CN 110275607 A CN110275607 A CN 110275607A CN 201910343811 A CN201910343811 A CN 201910343811A CN 110275607 A CN110275607 A CN 110275607A
Authority
CN
China
Prior art keywords
picture
stereo
display
associated images
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910343811.4A
Other languages
English (en)
Inventor
栗林英范
大槻正树
千秋谦三
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Publication of CN110275607A publication Critical patent/CN110275607A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction

Abstract

一种显示装置,其具有:显示部,显示包含基于双眼视差而产生的立体图像在内的图像;检测部,对将立体图像遮蔽的遮蔽物进行检测;和控制部,基于由检测部得到的检测结果来判断基于遮蔽物所造成的立体图像的显示状态以及遮蔽状态的至少一方,并基于该判断结果来控制与立体图像关联的关联图像的显示。

Description

显示装置及显示控制程序
本申请是申请日为2012年11月20日、国际申请号为PCT/JP2012/080107、国家申请号为201280067270.3、发明名称为“显示装置及显示控制程序”的发明专利申请的分案申请。
技术领域
本发明涉及显示装置、显示控制程序。
本申请基于2011年11月21日在日本提出申请的日本特愿2011-253805号要求优先权,并将其内容援引至此。
背景技术
存在一种三维显示器,通过使左右眼中看到不同的图像而使用户看到立体图像。在专利文献1中记载了如下的情况:在使用快门式眼镜来视听影像时,若用手遮蔽影像则关闭快门式眼镜的一侧快门,而使影像仅投入至单侧眼中,由此防止双重影像的产生。
在先技术文献
专利文献
专利文献1:日本特开2011-90611号公报
但是,在三维显示器例如将对基于用户的操作手势所产生的输入进行接收的操作元素作为立体图像显示的情况下,若欲通过手指等按下操作元素,则操作元素会被手指等遮蔽而无法视觉辨认。
发明内容
本发明的技术方案提供以能够确认被遮蔽物遮蔽的立体图像的方式进行显示的显示装置和显示控制程序。
本发明的技术方案提供一种显示装置,其特征在于,具有:显示部,显示包含基于双眼视差而产生的立体图像在内的图像;检测部,对将立体图像遮蔽的遮蔽物进行检测;和控制部,基于由检测部得到的检测结果来判断基于遮蔽物所造成的立体图像的显示状态以及遮蔽状态的至少一方,并基于该判断结果来控制与立体图像关联的关联图像的显示。
另外,本发明的技术方案提供一种显示控制程序,其使显示装置的计算机中执行如下的步骤:显示包含基于双眼视差而产生的立体图像在内的图像的步骤;对将立体图像遮蔽的遮蔽物进行检测的步骤;和基于检测结果来判断基于遮蔽物所造成的立体图像的显示状态以及遮蔽状态的至少一方,并基于该判断结果来控制与立体图像关联的关联图像的显示的步骤。
发明效果
根据本发明的技术方案,能够以可确认被遮蔽物遮蔽的立体图像的方式进行显示。
附图说明
图1是表示本发明一实施方式的显示装置的构成例的框图。
图2是表示本发明一实施方式的显示装置的外观的图。
图3是表示本发明一实施方式的显示装置与用户之间的位置关系的图。
图4是表示本发明一实施方式的显示装置与用户之间的位置关系的图。
图5是表示本发明一实施方式的显示部所显示的立体图像的概要的图。
图6是表示本发明一实施方式的显示部所显示的画面的例的图。
图7是表示本发明一实施方式的显示部辅助显示关联图像的画面的例的图。
图8是表示本发明一实施方式的立体图像、遮蔽物、辅助显示的关联图像之间的关系的图。
图9是表示本发明一实施方式的立体图像、遮蔽物、辅助显示的关联图像之间的关系的图。
图10是表示本发明一实施方式的立体图像、遮蔽物、辅助显示的关联图像之间的关系的图。
图11是表示本发明一实施方式的立体图像、遮蔽物、辅助显示的关联图像之间的关系的图。
图12是表示本发明一实施方式的显示装置的动作例的流程图。
图13是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
图14是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
图15是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
图16是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
图17是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
图18是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
图19是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
图20是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
图21是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
图22是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
图23是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
图24是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
具体实施方式
以下,参照附图说明本发明的一实施方式。
图1是表示本实施方式的显示装置100的构成的框图。显示装置100具有拍摄部101、检测部102、操作判断部103、显示部104、显示图像存储部105和控制部106。
图2是表示显示装置100的外观的图。显示装置100是三维显示器,其在显示部104的显示面中显示视差图像,使用户A的左右眼看到具有双眼视差的图像,由此,使用户A看到立体图像B。显示装置100可以为由裸眼式和眼镜式的任意一种方式进行三维显示的装置,但在本实施方式中说明基于裸眼式的示例。另外,显示装置100可以为适用LCD(LiquidCrystal Display,液晶显示器)、等离子、有机EL(Electro Luminescence,电致发光)等任意一种显示器显示原理的显示装置。另外,显示装置100在前表面上部具有拍摄用户A的拍摄部101。但拍摄部101也可以不位于前表面上部,只要具备于能够拍摄画面的显示方向上的位置即可。在本实施方式中,将与显示装置100的显示部104平行(水平)方向作为X轴方向,将垂直方向作为Y轴方向,将进深方向作为Z轴方向来进行说明。
返回至图1,拍摄部101为照相机(camera),其拍摄基于显示部104而定的显示方向中的规定区域来生成拍摄图像。在此,规定区域是指包含如下空间区域在内的区域,该空间区域为在用户视觉辨认由显示部104显示的立体图像时,若存在物体则会遮蔽立体图像的空间区域。拍摄部101可以拍摄动画,也可以在每隔固定时间拍摄静止画面。另外,拍摄部101可以为1个照相机,也可以为多个照相机。另外,拍摄部101可以为可倾式照相机,也可以为鱼眼式照相机。
检测部102检测将由显示部104显示的立体图像遮蔽的遮蔽物。例如,检测部102基于拍摄部101拍摄到的拍摄图像,来检测显示部104的显示方向中的规定区域的遮蔽物的位置和用户的视线位置。例如,检测部102解析拍摄部101拍摄到的拍摄图像并检测包含在拍摄图像中的动体。检测部102能够抽取拍摄部101拍摄到的动画的每帧的差分区域,而判断在生成有差分的区域中存在动体。例如,如图3(a)所示,检测部102从基于拍摄部101所得到的拍摄图像中,检测存在于显示装置100的显示方向上的用户A。此时,在显示装置100的拍摄部101中拍摄到例如图3(b)所示的拍摄图像。
而且,检测部102检测遮蔽物在相对于显示部104的进深方向(Z轴方向)上的位置、遮蔽物在相对于显示部104的显示面的平行方向(X轴方向)上的位置、遮蔽物的大小、遮蔽物的形状中的至少1个特征量。检测部102使用脸部检测算法和/或手区域检测算法等来检测包含在拍摄图像中的用户A的脸部区域、和/或作为遮蔽物的手的区域,并检测三维空间中的脸部位置和/或手位置、脸部和/或手的大小、脸部和/或手的形状。在此,检测部102在无法从拍摄图像中检测到用户A的脸部区域的情况下,能够检测用户A的身体或者胳膊的位置来计算用户A的脸部的推定位置。另外,检测部102也能够从这样检测到的用户A的脸部位置中检测用户A的视线位置。
在此,在通过裸眼式显示立体图像的情况下,如图4所示,可观察立体图像的用户A的视线位置的区域受限。即,这种可观察区域R的位置是已知的,用户A的视线位置是预先决定的。因此,也可以将这种可观察区域的位置作为用户A的视线位置而预先存储至显示装置100的存储区域中。
操作判断部103根据检测部102检测到的动体的动作来判断相对于显示装置100的操作。即,操作判断部103对基于用户A的动作而发出的操作手势的输入进行受理。例如,若在检测部102检测到的遮蔽物的位置中显示有操作元素的立体图像,则操作判断部103就会判断为该操作元素被按下。
显示部104使所显示的图像的视差量变化而显示基于双眼视差的立体图像。图5是表示显示部104所显示的立体图像的概要的图。在从用户A的位置视觉辨认显示装置100的显示部104时,使对用户A的右眼付与的右眼图像在P1的位置上显示,并使对用户A的左眼付与的左眼图像在P2的位置上显示,由此,能够在进深方向中的P3的显示位置上,使基于双眼视差而产生的立体图像跃出显示。
图6是表示显示部104所显示的画面的示例的图。图6(a)是显示了多个图标(例如,G等)的示例。显示部104能够使各个图标G分别作为立体图像来显示。图6(b)是显示了多个操作元素(例如,H等)的示例。显示部104能够使各个操作元素H分别作为立体图像来显示。
返回至图1,在显示图像存储部105中存储有在显示部104中显示的显示图像。显示图像可以预先存储至显示图像存储部105中,也可以经由无线或者有线网络从外部接收而存储。
控制部106读取存储在显示图像存储部105中的显示图像,生成右眼图像和左眼图像的视差图像并使其显示在显示部104中。控制部106基于由检测部102所得到的检测结果,判断基于遮蔽物所产生的立体图像的显示状态以及遮蔽状态的至少一方,并基于该判断结果来控制与立体图像关联的关联图像的显示。
例如,控制部106基于由检测部102检测到的遮蔽物(例如,手等)的位置、用户的视线位置、预先决定的显示部104的位置,来判断在从用户的视线位置相对于显示部104的视觉辨认方向上的被遮蔽物所遮蔽的图像的遮蔽区域。用户的视线位置如上所述地可以为基于用户的身体或者胳膊的位置算出的用户的脸部的推定位置,也可以为预先决定的可观察区域。例如,将用户的视线位置和显示部104中的显示画面连结在直线上,并基于存在于该直线上的遮蔽物的位置、大小、形状等而将遮蔽物影射至显示画面上,由此能够判断图像的遮蔽区域。
另外,控制部106判断立体图像是否被遮蔽物遮蔽,在判断为被遮蔽的情况下,以不会被遮蔽物遮蔽的方式显示关联图像。在此,控制部106基于被遮蔽的立体图像的显示位置,而在没有被遮蔽物遮蔽的区域中控制关联图像的显示位置。即,控制部106判断被遮蔽物遮蔽的立体图像的显示状态以及遮蔽状态的至少一方来控制关联图像的显示。
例如,如图7所示,控制部106判断立体图像的显示状态以及遮蔽状态的至少一方,并将关联图像辅助性地显示在不被遮蔽物遮蔽且与立体图像相邻的区域中。图7(a)、(b)表示手指接近至图6(a)、(b)所示的立体图像的情况下的显示例。
在图7(a)中,立体图像G1(以下,简称为图标G1)被手指(遮蔽物)遮蔽。由此,控制部106使被遮蔽的图标G1的关联图像G2(以下,简称为图标G2)辅助显示在不被遮蔽物(本实施方式中,为手指)遮蔽且与图标G1相邻的区域即图标G1的上部。此时,辅助显示的图标G2例如为使与图7(a)所示地被遮蔽的图标G1同样的图标以吹出状(弹出显示)显示在图标G1的上部的图标。即,控制部106如图7(a)的图标G2和图7(b)的图标H2那样地,使关联图像弹出显示在不被遮蔽物遮蔽且与立体图像相邻的区域中。这样,控制部106判断被遮蔽物(本实施方式中,为手指)遮蔽的图像(图标G1)的遮蔽区域,并使关联图像(图标G2)显示在图像的区域中的与遮蔽区域不同的区域中,由此,用户能够视觉辨认辅助显示的关联图像(图标G2)来确认被遮蔽的立体图像(图标G1)是什么内容。
在显示的关联图像中,也可以包含与被遮蔽的立体图像相同的图像。例如,只要是与被遮蔽的立体图像关联而会联想到被遮蔽的立体图像的内容即可。例如,所显示的关联图像也可以为将被遮蔽的立体图像由文字表示的图像。
另外,在图7(a)中,表示了在与被遮蔽的立体图像(图标G1)沿Y轴方向(垂直方向)相邻的区域中显示关联图像的示例,但是,也可以在沿X轴方向(平行方向)相邻的区域中显示关联图像。即,显示在不被遮蔽物遮蔽的区域中的关联图像,能够显示在XY轴平面上的任意位置上。
同样地,在图7(b)中,立体图像H1(以下,简称为操作元素H1)被手指遮蔽,因此,控制部106将被遮蔽的图标H1的关联图像H2(以下,简称为图标H2)辅助显示在不被遮蔽物(本实施方式中,为手指)遮蔽且与图标H1相邻的区域即图标H1的上部。
辅助显示的关联图像也可以与立体图像同样地立体显示,也可以在显示部104的显示面上二维显示。另外,控制部106在判断为检测部102检测到的遮蔽物没有遮蔽立体图像时,使关联图像的辅助显示为非显示。
图8是表示显示立体图像J的显示装置100、作为遮蔽物的手K、和辅助显示的关联图像L之间的进深距离D的关系的图。进深距离D是指在Z轴方向中的进深方向上的距离。如图8所示,辅助显示的关联图像L的进深距离能够是与立体图像J同样的。这样,通过减少进深距离上的剧烈变化,能够减轻对眼睛的疲劳感。
另外,如图9所示,控制部106能够在相对于显示部104的进深方向中,使辅助显示的关联图像L显示在与立体图像J(立体图像的显示位置)相比离显示部104较远的位置上。
另外,如图10所示,控制部106能够在相对于显示部104的进深方向中,使辅助显示的关联图像L显示在与立体图像J相比离显示部104较近的位置上。另外,控制部106能够在相对于显示部104的进深方向中,使辅助显示的关联图像L显示在显示部104上的位置上。
这样,在相对于显示部104的进深方向中,使关联图像L立体显示在与立体图像J的显示位置不同的显示位置上,由此,能够强调辅助显示的关联图像L。另外,能够抑制用户的双眼拮抗。
另外,如图11所示,控制部106能够在相对于显示部104的进深方向中,以使与立体图像J相比离显示部104较远的位置、和与立体图像J相比离显示部104较近的位置随时间(每帧地)动态变化的方式对辅助显示的关联图像L进行显示。这样,使立体图像J与辅助显示的立体图像L之间的进深距离变化,由此,能够强调辅助显示的立体图像L。
另外,控制部106也能够当判断为立体图像包含在遮蔽区域中时,将没有被遮蔽物遮蔽地放大的图像作为关联图像来显示立体图像。
另外,控制部106进行与操作判断部103判断的操作对应的动作。例如,与所输入的操作手势对应地控制在显示部104中显示的图像。
接着,参照附图说明本实施方式的显示装置100的动作例。图12是表示显示装置100辅助显示关联图像的动作例的流程图。
控制部106读取存储在显示图像存储部105中的显示图像来生成视差图像,并使其在显示部104中显示。拍摄部101拍摄显示部104所显示的显示方向(例如,从显示部104朝向用户站立的方向)而生成拍摄图像。当检测部102从由拍摄部101生成的拍摄图像中检测遮蔽物时(步骤S1),控制部106判断基于遮蔽物而产生的立体图像的遮蔽区域(步骤S2)。控制部106判断立体图像的显示状态以及遮蔽状态的至少一方,而在没有被遮蔽物遮蔽的显示部104的区域中辅助显示关联图像(步骤S3)。另外,当判断为检测部102没有检测到遮蔽物时,控制部106将关联图像的辅助显示设为非显示。
如以上说明地,根据本实施方式,在显示装置100所显示的立体图像被手指等遮蔽的情况下,将关联图像辅助显示在显示部104所显示的图像中的未被遮蔽的区域中。由此,用户通过视觉辨认辅助显示的关联图像,而能够确认被遮蔽的立体图像是什么内容。在此,由于辅助显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认,不会产生双眼拮抗等不舒适感,而能够减轻眼睛的疲劳感。
此外,对于本实施方式中的显示装置100即三维显示器,能够适用例如电子相框(Digital photo frame)、电子看板(digital signage)、家用电视等。或者,也可以适用可三维显示的智能电话。在该情况下,例如能够将由触摸面板接触的部分判断为遮蔽区域。或者,若适用具有非接触的空间灵敏度的触摸面板,则即使在非接触的状态下也能够同样地判断遮蔽区域。在该情况下,例如,操作判断部103在手指与作为操作元素的立体图像接触的(触摸了的)情况下显示立体图像,并能够在按下该操作元素的情况下以使该操作元素被选择的方式进行控制。或者,在规定区域中检测到例如手指等遮蔽物的情况下,以使立体图像与手指的位置接近的方式进行控制,能够控制成:若立体图像被手指遮蔽则进行关联图像的辅助显示,若被按下则使操作元素被选择。
另外,控制部106也能够使辅助显示的关联图像的显示位置在XY轴平面上动态地变化。
另外,在本实施方式中,表示了在立体图像被遮蔽的情况下,关联图像显示在沿X轴方向或者Y轴方向与立体图像相邻的区域中的示例。但是,在根据用户的视线位置、遮蔽物、显示部之间的角度,通过变化为Z轴方向而能够显示得用户可视觉辨认的情况下,也可以将显示位置变更为Z轴方向。
另外,控制部106也可以为,判断立体图像的显示状态以及遮蔽状态的至少一方,并判断被遮蔽物遮蔽的立体图像的遮蔽区域,基于遮蔽区域相对于立体图像的比例而使辅助显示的关联图像显示。例如可以为,遮蔽区域相对于立体图像的比例越大,而将关联图像显示得越大,遮蔽区域相对于立体图像的比例越小,在关联图像未被遮蔽的程度下将关联图像显示得越小。
作为显示关联图像的其他方法而考虑到以下的示例。例如考虑了如下的示例:在立体图像被遮蔽物遮蔽的情况下,控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,并以移动显示的方式显示如使立体图像从被遮蔽之前立体图像所显示的位置向没有被遮蔽物遮蔽的区域移动那样的关联图像。
在图13(a)中,图标M1表示在被遮蔽之前显示的立体图像,图标M2表示使图标M1以移动显示的方式显示的关联图像,移动量SF表示图标M1从图标M1的位置移动到图标M2的位置地移动显示的距离。例如,在图标M1被手指等遮蔽物遮蔽的情况下,控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,并以移动显示的方式在图标M2(关联图像)的位置上显示图标M2(关联图像),该图标M2(关联图像)的位置是将图标M1(立体图像)从被遮蔽之前图标M1(立体图像)所显示的位置仅移动了移动量SF的位置。
在图13(a)中表示了如图标M1沿垂直方向移动那样的使图标M2移动显示的示例。但是,使图标M2移动显示的方向并不限于垂直方向,如图13(b)以及图13(c)所示,可以是包含相对于图标M1平行方向在内的任意方向。
此外,在图13中,表示了使图标M1的显示消失而移动显示关联图像即图标M2的示例。但是,也可以在保留图标M1的显示的状态下移动显示关联图像即图标M2。
这样,根据本实施方式,在立体图像被遮蔽物遮蔽的情况下,将如使立体图像从在被遮蔽之前立体图像所显示的位置向没有被遮蔽物遮蔽的区域移动那样的关联图像以移动显示的方式显示。由此,用户通过视觉辨认辅助显示的关联图像,而能够更明确地确认被遮蔽的立体图像是什么内容。另外,通过移动显示被遮蔽的立体图像的关联图像,而能够使立体图像的内容醒目,以便于用户容易辨别。而且,由于移动显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认关联图像,不会产生双眼拮抗等不舒适感,而能够减轻眼睛的疲劳感。
另外,作为显示关联图像的其他方法,考虑到以下的示例。例如,考虑到如下的示例:控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,并以使被遮蔽物遮蔽的立体图像的区域相对变小的方式,作为放大显示而显示将被遮蔽的立体图像放大而成的关联图像。
在图14中,图标N1表示在被遮蔽之前显示的立体图像,图标N2表示使图标N1放大显示而显示的关联图像,放大量EL表示使图标N1放大至图标N2的放大量。例如,在图标N1被手指等遮蔽物遮蔽的情况下,控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,并将在被遮蔽之前的图标N1(立体图像)放大显示而成的图标N2作为关联图像而显示。
此外,在图14中,表示了使图标N1的显示消失而放大显示作为关联图像的图标N2的示例。但是,也可以在保留图标N1的显示的状态下放大显示作为关联图像的图标N2。
这样,根据本实施方式,在立体图像被遮蔽物遮蔽的情况下,以使被遮蔽物遮蔽的立体图像的区域相对变小的方式,将使被遮蔽的立体图像放大而成的关联图像以放大显示的方式显示。由此,用户通过视觉辨认辅助显示的关联图像,而能够更明确地确认被遮蔽的立体图像是什么内容。另外,通过放大显示被遮蔽的立体图像的关联图像,而能够使立体图像的内容醒目,以便于用户容易辨别。而且,由于被放大显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认关联图像,不会产生双眼拮抗等不舒适感,而能够减轻眼睛的疲劳感。
此外,双眼拮抗随着用户所注视的对象物被遮蔽物遮蔽的区域变得越小而越难以产生。由此,如图14所示的示例那样地,通过显示将被遮蔽的立体图像放大显示的关联图像,而使在立体图像整体区域中所占的被遮蔽物遮蔽的区域相对变小,从而能够抑制双眼拮抗的发生。
另外,作为显示关联图像的其他方法,考虑到以下的示例。例如,如图15所示,考虑到如下示例:控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,并随着作为被指定的对象物的立体图像的周围的组织(texture)的密度和分布越大,越使辅助显示的关联图像显示在远离立体图像的位置上。更具体地,例如,在被遮蔽物遮蔽的立体图像的周围为组织的密度和分布较大的文件等的情况下,对于注视被遮蔽的立体图像的用户容易产生视野拮抗。由此,考虑到如下示例:与被遮蔽的立体图像的周围的组织的密度和分布的大小对应地,控制部106选择或者变更辅助显示的关联图像的显示方法来显示关联图像。
在图15中,图标Q1表示被遮蔽的立体图像,图标Q2表示以组合弹出显示以及放大显示的方式显示图标Q1的关联图像。另外,在图标Q1的周围显示有组织的密度和分布较大的例如文件等。例如,在这样被遮蔽的立体图像的周围的组织的密度和分布较大的情况下,在图标Q1被手指等遮蔽物遮蔽时,控制部106使被遮蔽的图标Q1(立体图像)弹出显示以及放大显示,作为关联图像而显示图标Q2。
在图15中,作为随着被指定的对象物即立体图像的周围的组织的密度和分布越大而越使辅助显示的关联图像显示在远离立体图像的位置上的示例,表示了组合弹出显示和放大显示的方式的显示方法。
这样,根据本实施方式,在立体图像被遮蔽物遮蔽的情况下,随着被指定的对象物即立体图像的周围的组织的密度和分布越大而越使关联图像显示在远离立体图像的位置上。由此,用户通过视觉辨认辅助显示的关联图像,能够更明确地确认被遮蔽的立体图像是什么内容。另外,通过将被遮蔽的立体图像的关联图像弹出显示以及放大显示,能够使立体图像的内容醒目以便于用户容易辩别。而且,由于所显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认关联图像,不会产生双眼拮抗等不舒适感,而能够减轻眼睛的疲劳感。
此外,在组织的密度和分布较高的区域中,更加容易产生视野拮抗。在图15所示的显示方法的示例中,通过利用使弹出显示以及放大显示组合的辅助显示,而使放大的关联图像显示在从容易产生双眼拮抗的区域离开的位置上。由此,能够更有效地抑制视野拮抗。
另一方面,在被指定的对象物即立体图像的组织的密度和分布较小情况下,即使使辅助显示的关联图像显示在离立体图像较近的位置上,也难以产生视野拮抗。由此,也可以仅使用弹出显示或仅使用移动显示来显示关联图像。
另外,作为显示关联图像的其他方法,考虑到如下的示例。例如,如图16所示考虑到如下的示例:控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,并与作为被指定的对象物的立体图像与遮蔽物(例如,手指等)之间的相对的尺寸差对应地,辅助显示关联图像。更具体地,例如考虑了如下的示例:在对上述立体图像进行遮蔽的遮蔽物为孩子的手指的情况、和遮蔽物为成人的手指的情况下,被手指遮蔽的立体图像的区域是不同的。这样,与被遮蔽的立体图像与遮蔽物之间的相对的尺寸差对应地,控制部106选择或者变更辅助显示的关联图像的显示方法来显示关联图像。
在图16中,图标Q1表示在被遮蔽之前显示的立体图像,图标Q2表示使图标Q1以移动显示的方式显示的关联图像。另外,在图标Q1的周围显示有组织的密度和分布较大的例如文件等。例如,在这样地被遮蔽的立体图像的周围的组织的密度和分布较大的情况下,在图标Q1被手指等遮蔽物遮蔽的时,控制部106将被遮蔽之前的图标Q1(立体图像)移动显示以及放大显示,作为关联图像而显示图标Q2。
在图16中,作为随着被指定的对象物即立体图像与遮蔽物(例如,手指等)之间的相对的尺寸差越小而越使辅助显示的关联图像显示在远离立体图像的位置上的示例,表示了组合移动显示和放大显示的显示方法。
这样,根据本实施方式,在立体图像被遮蔽物遮蔽的情况下,与作为被指定的对象物的立体图像与遮蔽物之间的相对的尺寸差对应地,使关联图像显示在远离遮蔽物的位置上。由此,用户通过视觉辨认辅助显示的关联图像,能够更明确地确认被遮蔽的立体图像是什么内容。另外,通过移动显示以及放大显示被遮蔽的立体图像的关联图像,而能够使立体图像的内容醒目以便于用户容易辨别。而且,由于所显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认关联图像,不会产生双眼拮抗等不舒适感,能够减轻眼睛的疲劳感。
此外,在立体图像与遮蔽物(例如,手指等)之间的相对的尺寸差较小且立体图像的大部分被遮蔽物遮蔽的情况下,更加容易产生双眼拮抗。在图16所示的显示方法的示例中,通过利用使移动显示以及放大显示组合的辅助显示,使被放大的关联图像显示在远离容易产生双眼拮抗的区域的位置上。由此,能够更有效地抑制双眼拮抗。
另一方面,在作为被指定的对象物的立体图像与遮蔽物(例如,手指等)之间的相对的尺寸差较大且立体图像的大部分没有被遮蔽物遮蔽的情况下,即使使辅助显示的关联图像显示在离立体图像较近的位置上也难以产生双眼拮抗。由此,也可以仅使用弹出显示或仅使用移动显示来显示关联图像。
另外,作为显示关联图像的其他方法,考虑了以下的示例。例如,如图17所示地考虑的如下的示例:控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,与作为被指定的对象物的立体图像与遮蔽物(例如,手指等)之间的相对的位置关系对应地,控制部106辅助显示关联图像。更具体地,例如考虑到如下的示例,即,与被遮蔽物遮蔽的立体图像的部位对应地,控制部106选择或者变更辅助显示的关联图像的显示位置或显示方法,来显示关联图像。
在图17(a)中,图标M1表示在被遮蔽之前显示的立体图像,图标M2表示使图标M1以移动显示的方式显示的关联图像,移动量SF表示图标M1以移动显示的方式从图标M1的位置移动到图标M2的位置的距离。
在图17(a)中,作为与被指定的对象物即立体图像与遮蔽物(例如,手指等)之间的相对的位置关系对应地显示关联图像的一个示例,表示了如下的显示方法,即,在立体图像的右下部被遮蔽物遮蔽的情况下,控制部106以使立体图像向被遮蔽的立体图像的左上方移动显示的方式显示。
在图17(b)中,图标M1表示被遮蔽的立体图像,图标M2表示使图标M1以弹出显示的方式显示的关联图像。
在图17(b)中,作为与被指定的对象物即立体图像与遮蔽物(例如,手指等)之间相对的位置关系对应地显示关联图像的其他示例,表示了如下的显示方法,即,在立体图像的右下部被遮蔽物遮蔽的情况下,控制部106以使立体图像向被遮蔽的立体图像的右上方弹出显示的方式进行显示。
这样,根据本实施方式,在立体图像被遮蔽物遮蔽的情况下,与被遮蔽的立体图像与遮蔽物之间的相对的位置关系对应地显示关联图像。由此,用户通过视觉辨认辅助显示的关联图像,而更明确地确认被遮蔽的立体图像是什么内容。另外,通过辅助显示被遮蔽的立体图像的关联图像,能够使立体图像的内容醒目以便于用户容易辨别。而且,由于所显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认关联图像,不会产生双眼拮抗等不舒适感,而能够减轻眼睛的疲劳感。
此外,图17所示的与被遮蔽的立体图像与遮蔽物之间相对的位置关系对应的关联图像所显示的方向并不限于上述示例,也可以为所显示的关联图像未被遮蔽的任意方向。
另外,作为显示关联图像的其他方法,考虑了以下的示例。例如,如图18所示地考虑了如下的示例,即,在作为被指定的对象物的立体图像被遮蔽物(例如,手指等)遮蔽的情况下,控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,最先移动显示立体图像,并在该状态下将遮蔽物遮蔽立体图像的状态维持了一定时间以上的情况下,变更显示方法而辅助显示关联图像。即,考虑了如下的示例:与立体图像被遮蔽物持续遮蔽的经过时间的长度对应地,控制部106变更辅助显示的关联图像的显示方法来显示关联图像。
在图18(a)中,图标M1表示被遮蔽的立体图像,图标M2表示使图标M1以移动显示的方式显示的关联图像,移动量SF表示使图标M1以移动显示的方式从图标M1的位置移动到图标M2的位置的距离。
在图18(a)中,表示了如下的显示方法,即,在作为被指定的对象物的立体图像被遮蔽物(例如,手指等)从遮蔽开始时刻起仅持续遮蔽了比规定时间T1短的期间的情况下,控制部106以移动显示的方式显示被遮蔽的立体图像。
在图18(b)中,图标M1表示从图18(a)的状况直接被遮蔽物持续遮蔽的立体图像,图标M2表示使图标M1以弹出显示的方式显示的关联图像。
在图18(b)中,表示了如下的显示方法,即,在作为被指定的对象物的立体图像被遮蔽物(例如,手指等)从遮蔽开始时刻起持续遮蔽了比规定时间T1长的时间的情况下,控制部106将被持续遮蔽的立体图像的关联图像从图18(a)所示的移动显示向弹出显示转移。
这样,根据本实施方式,在立体图像被遮蔽物遮蔽的情况下,与立体图像被遮蔽物持续遮蔽的经过时间的长度对应地变更辅助显示的关联图像的显示方法。由此,用户通过视觉辨认辅助显示的关联图像,而能够更明确地确认被遮蔽的立体图像是什么内容。另外,通过辅助显示被遮蔽的立体图像的关联图像,能够使立体图像的内容醒目以便于用户容易辨别。而且,由于所显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认关联图像,不会产生双眼拮抗等不舒适感,而能够减轻眼睛的疲劳感。
另外,在图18中,表示了如下的示例:立体图形被遮蔽的时间在经过了比规定时间T1长的时间地持续遮蔽的情况下,关联图像从移动显示向弹出显示转移。但是,关联图像的显示方法并不限于上述内容,例如,也可以使关联图像从弹出显示向移动显示转移等、使用其他的显示方法来进行显示。
另外,作为显示关联图像的其他方法,考虑了以下的示例。例如,如图19所示地考虑了如下的示例:控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,与从作为被指定的对象物的立体图像被用户用遮蔽物(例如,手指等)指示的指示开始到实际的立体图像的指定为止的时间对应地,辅助显示关联图像。即,考虑了如下的示例:与从立体图像被遮蔽物开始指示到实际上立体图像被指定为止的经过时间的长度对应地,控制部106变更辅助显示的关联图像的显示方法来显示关联图像。作为一个示例,参照图19来说明如下的关联图像的显示方法,即,在从立体图像被遮蔽物开始指示到实际上立体图像被指定为止的经过时间比规定时间长的情况下,控制部106使立体图像弹出显示。
图19是表示显示立体图像J1的显示装置100、作为遮蔽物的手K1、辅助显示的关联图像L1之间的进深距离D1的关系。进深距离D1是指,Z轴方向中的进深方向上的距离。另外,进深距离D1是检测部102用于判断遮蔽物K1是否开始指示的指示开始位置。如图19(a)所示,在遮蔽物K1存在于与进深距离D1相比离显示装置100较近的位置上的情况下,检测部102判断为用户开始了立体图像J1的指示。根据遮蔽物K1的位置与指示开始位置(进深距离D1)相比离显示装置100是近还是远的情况,检测部102判断基于遮蔽物K1所发出的指示开始。而且,如图19(b)所示,控制部106测量经过时间T2,该经过时间T2是从当用户开始立体图像J1的指示时由检测部102判断的时间到实际上用户用遮蔽物K1在进深距离D’1的位置上指定立体图像J1为止所经过的时间。在经过时间T2比规定时间长的情况下,控制部106以弹出显示的方式辅助显示关联图像L1。
另一方面,例如,在从立体图像J1被遮蔽物K1开始指示到实际上立体图像J1被指定为止的经过时间T2比规定时间短的情况下,控制部106以移动显示的方式而辅助显示关联图像L1(未图示)。
这样,根据本实施方式,在立体图像被遮蔽物遮蔽的情况下,与从立体图像被遮蔽物开始指示到实际上立体图像被指定为止的经过时间的长度对应地,变更辅助显示的关联图像的显示方法来显示关联图像。由此,用户通过视觉辨认辅助显示的关联图像,而能够更明确地确认被遮蔽的立体图像是什么内容。另外,通过辅助显示被遮蔽的立体图像的关联图像,使立体图像的内容醒目以便于用户容易辨别。而且,由于所显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认关联图像,不会产生双眼拮抗等不舒适感,而能够减轻眼睛的疲劳感。
另外,作为显示关联图像的其他方法,考虑了以下的示例。例如,如图20所示地考虑了如下的示例:控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,与作为被指定的对象物的立体图像、和在立体图像的周围显示的同立体图像不同的显示物之间的位置关系对应地,选择并显示辅助显示的关联图像的显示位置。
更具体地,例如,在控制部106辅助显示被遮蔽物遮蔽的立体图像时,在立体图像的周围显示有其他图标的情况下,在从其他图标离开的位置上辅助显示关联图像,由此,能够防止与其他图标之间的干涉,而更加提高视觉辨认性。作为一例,而参照图20来说明如下的显示方法,即,在被遮蔽的立体图像的周围显示有其他的显示物(图标)的情况下,控制部106使关联图像弹出显示。
在图20中,图标M1表示被遮蔽的立体图像,图标M2表示使图标M1以弹出显示的方式显示的关联图像。另外,在图标M1的周围显示有例如图标M3那样的、与被遮蔽的图标M1不同的图标。
例如在这种情况下,由手指等遮蔽物遮蔽图标M1时,控制部106将使被遮蔽的图标M1(立体图像)弹出显示的图标M2作为关联图像来显示。此时,控制部106考虑图标M3所显示的位置,而使图标M2在不与图标M3干涉的位置上弹出。
在图20的例子中,由于在作为被指定的对象物的立体图像M1的右侧显示有其他图标M3,所以使辅助显示的关联图像M2显示在与其他图标M3所显示的位置为相反方向的位置上,作为该示例图20中表示了使用弹出显示的显示方法。辅助显示的关联图像的显示方法并不限于弹出显示,控制部106能够与被遮蔽的立体图像的周围的画面显示状况对应地,以使辅助显示的关联图像不与周围的显示物干涉的方式判断适当的显示方法来显示关联图像。
这样,根据本实施方式,在立体图像被遮蔽物遮蔽的情况下,与作为被指定的对象物的立体图像和在立体图像的周围显示的同立体图像不同的显示物之间的位置关系对应地,变更辅助显示的关联图像的显示方法来显示关联图像。由此,用户能够通过视觉辨认辅助显示的关联图像,而更明确地确认被遮蔽的立体图像是什么内容。另外,通过辅助显示被遮蔽的立体图像的关联图像,而使立体图像的内容醒目以便于用户容易辨别。
尤其,能够与被遮蔽的立体图像的周围的画面显示状况对应地,以使辅助显示的关联图像不与周围的显示物干涉的方式判断适当的显示方法来显示关联图像,由此,能够使立体图像的内容更醒目以便于用户容易辨别。而且,由于所显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认关联图像,不会产生双眼拮抗等不舒适感,而能够减轻眼睛的疲劳感。
另外,作为显示关联图像的其他方法,考虑了以下的示例。例如,如图21所示地考虑了如下的示例:在作为被指定的对象物的立体图像被用户用遮蔽物(例如,手指等)遮蔽的情况下,控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,由与立体图像相同的视差量显示辅助显示,然后接着一边使视差量连续地变化直到规定的显示视差一边显示关联图像。作为一例,参照图21而说明如下的关联图像的显示方法,即,在控制部106由与立体图像相同的视差量显示弹出显示之后,接着一边使视差量连续地变化直到规定的显示视差一边显示该弹出显示。
图21是表示显示立体图像J2的显示装置100、作为遮蔽物的手K2、和辅助显示的关联图像L2之间的进深距离D2的关系的图。进深距离D2为从Z轴方向中的显示装置100到立体图像J2所显示的位置为止的进深方向上的距离。另外,使视差量从关联图像L2连续地变化到规定的显示视差而显示的关联图像L3,显示在进深距离D3的位置上。
当立体图像J2被作为遮蔽物的手K2遮蔽时,控制部106在进深距离D2的位置上以与立体图像J2相同的视差量弹出显示关联图像L2。接着,控制部106一边使在进深距离D2的位置上弹出显示的关联图像L2的视差量连续地变化至规定的显示视差,一边在进深距离D3的位置上以弹出显示的方式显示关联图像L3。即,控制部106一边以使被遮蔽物遮蔽的立体图像的关联图像看起来对于用户浮起来的方式,使视差量从与立体图像相同的视差量连续地变化为规定的显示视差,一边显示关联图像。
另外,例如,使在进深距离D2的位置上弹出显示的关联图像L2的视差量连续地变化的方向,并不限于如进深距离D3的位置那样地从显示装置100远离的方向,也可以为如下的显示方法:使关联图像L2的视差量沿向显示装置100接近的方向连续变化来显示关联图像。
另外,在图21中,表示了弹出显示关联图像的示例,但例如也可以为,一边使视差连续地变化一边显示的关联图像使用移动显示等其他显示方法来显示。
这样,根据本实施方式,在立体图像被遮蔽物遮蔽的情况下,在以与立体图像相同的视差量显示辅助显示之后,接着一边使视差量连续地变化至规定的显示视差一边显示关联图像。由此,用户能够通过视觉辨认辅助显示的关联图像,而更明确地确认被遮蔽的立体图像是什么内容。另外,通过辅助显示被遮蔽的立体图像的关联图像,而能够使立体图像的内容醒目以便于用户容易辨别。而且,由于所显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认关联图像,不会产生双眼拮抗等不舒适感,而能够减轻眼睛的疲劳感。
在以与被遮蔽的立体图像不同的视差量辅助显示关联图像的情况下,当在立体图像的周围瞬间显示了视差量与立体图像的视差量不同的关联图像时,用户的视差图像无法从立体图像向关联图像追随,而存在用户难以视觉辨认辅助显示的关联图像的担忧。由此,如上述显示方法那样地,通过从立体图像的视差量随时间连续地变化为规定的关联图像的视差量,而能够使用户更容易视觉辨认辅助显示的关联图像。
另外,作为显示关联图像的其他方法,考虑了以下的示例。例如,如图22所示地考虑了如下的示例:在作为被指定的对象物的立体图像被遮蔽物(例如,手指等)遮蔽的情况下,控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,并使辅助显示的关联图像的周围的显示物模糊来进行显示。更具体地,例如,考虑了如下的示例:通过使除了由三维显示欲使其醒目的部分(关联图像)以外的周围的显示物的显示变浅,由此使关联图像醒目地显示。此外,作为使关联图像的周围的显示物模糊的方法的一个示例,例如考虑到如下的显示方法,即,使周围显示物的显示变浅,或变更周围显示物的显示的对比度值,或变更周围显示物的显示的α值(透明度)。
图22表示与上述的图15同样地用如下的显示方法进行显示的示例,即,随着立体图像Q1的周围的组织密度和分布越大而控制部106越使辅助显示的关联图像Q2显示在从立体图像Q1离开的位置上。而且在图22中,控制部106通过使被遮蔽的立体图像Q1的周围显示物的显示变浅(变得模糊),而使辅助显示的关联图像Q2醒目地显示。
这样,根据本实施方式,在立体图像被遮蔽物遮蔽的情况下,将立体图像放大,并使关联图像弹出而显示在从遮蔽物离开的位置上,而且,使显示在关联图像的周围的显示物变浅(变得模糊)而显示。由此,用户能够通过视觉辨认辅助显示的关联图像,而更明确地确认被遮蔽的立体图像是什么内容。另外,通过辅助显示被遮蔽的立体图像的关联图像,而能够使立体图像的内容醒目以便于用户容易辨别。而且,由于所显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认关联图像,不会产生双眼拮抗等不舒适感,而能够减轻眼睛的疲劳感。另外,由于被遮蔽的立体图像的周围的显示物变浅(变得模糊)而显示,所以能够更有效地抑制在遮蔽物与周围显示物之间的边界上发生的用户的双眼拮抗。
此外,使被遮蔽的立体图像的周围显示物变浅来显示的方法并不限于图22所示的使周围的显示物的显示变浅的显示方法,也可以为,变更周围的显示物的对比度值或α值,而使辅助显示的关联图像醒目地显示。另外,也可以为,变更辅助显示的关联图像与周围的显示物之间的对比度值的比或α值的比,而使辅助显示的关联图像醒目地显示。
另外,作为显示关联图像的其他方法,考虑了以下的示例。关于用户的双眼拮抗,对用户的右眼付与的右眼图像与对左眼付与的左眼图像之间的差异越大,通常越容易产生用户的双眼拮抗。例如,用户的右眼图像与左眼图像的匹配度(一致度)越高,越难以产生双眼拮抗。另一方面,用户的右眼图像与左眼图像的匹配度(一致度)越低,越容易产生双眼拮抗。即,用户的右眼图像与左眼图像之间的差异越大,越容易产生双眼拮抗。
由此,例如考虑了如下的示例:在作为被指定的对象物的立体图像被遮蔽物(例如,手指等)遮蔽的情况下,控制部106判断对用户的右眼付与的右眼图像与对左眼付与的左眼图像之间的差异,与该差异的大小对应地选择或变更辅助显示的关联图像的显示方法。即,考虑了如下的示例:与注视被遮蔽物遮蔽的立体图像的用户的右眼图像与左眼图像的匹配度(一致度)对应地,变更辅助显示的关联图像的显示方法。
这样,根据本实施方式,与注视被遮蔽物遮蔽的立体图像的用户的右眼图像与左眼图像的匹配度(一致度)对应地,选择或变更难以产生用户的双眼拮抗的显示方法来显示关联图像。由此,用户能够通过视觉辨认辅助显示的关联图像,而更明确地确认被遮蔽的立体图像是什么内容。另外,通过辅助显示被遮蔽的立体图像的关联图像,能够使立体图像的内容醒目以便于用户容易辨别。而且,由于所显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认关联图像,不会产生双眼拮抗等不舒适感,而能够减轻眼睛的疲劳感。另外,能够与产生用户的双眼拮抗的难易程度对应地,选择或变更显示方法,由此,能够以更适当的显示方法来显示关联图像。
图23是在立体图像被遮蔽物遮蔽时,将作为立体图像的图标M1以弹出显示的方式显示的关联图像即图标M2的示例。例如,也可以为,在用户将图标M1所显示的区域遮蔽的过程中,控制部106如图23(a)所示地在图标M2的中央部显示标识V1。在图23(a)中,作为标识V1的一例,而表示了在图标M2的中央部显示×标记的示例。
另外,图23(b)是在立体图像被遮蔽物遮蔽时,将作为立体图像的图标M1以移动显示的方式显示的关联图像即图标M2的示例。此时,也可以为,在用户将图标M1所显示的区域遮蔽的过程中,控制部106如图23(b)所示地在图标M2的中央部显示标识V2。在图23(b)中,作为标识V2的一例表示了在图标M2上半透明地显示遮蔽物(手指等)的轮廓的示例。
另外,如图24所示地例如也能够为,将键盘KB1显示为作为被指定的对象物的立体图像,并将在该键盘KB1上进行打字动作的用户的手指作为遮蔽物,来显示与被用户的手指遮蔽的键盘对应的关联图像即键盘KB2。此时,控制部106也可以在如图24所示地辅助显示的键盘KB2上显示标识W。在图24中,作为标识W的一例,表示了在关联图像KB2上半透明地显示有遮蔽物(手指等)的轮廓的示例。
通过在所显示的关联图像上显示图23~图24所示的标识,而使得用户更容易把握自身用遮蔽物遮蔽的立体图像。即,用户更容易把握自身用遮蔽物选择或者指示的立体图像。由此,在被遮蔽的立体图像的周围通过弹出显示或移动显示来显示关联图像时,用户容易将自身所指示的立体图像与所显示的关联图像建立关联地进行辨别。因此,用户容易理解自身所指示的立体图像作为关联图像而显示的状况,由此,能够防止在以弹出显示或移动显示等方式显示关联图像时,用户发生混乱或迷惑。
此外,在上述任意一个实施例中均可以为,在立体图像被遮蔽物遮蔽的情况下,辅助显示在与立体图像相邻的区域中的关联图像的一部分以与被遮蔽的立体图像重叠的状态显示。另外,也可以为,辅助显示在与立体图像相邻的区域中的关联图像的一部分,以与遮蔽立体图像的遮蔽物重叠的状态显示。即,辅助显示的全部关联图像也可以不显示在不与被遮蔽的立体图像重叠的区域中。另外,也可以为,辅助显示的全部关联图像不显示在没有被遮蔽物遮蔽的区域中。
此外,上述任意一个实施例中的关联图像的显示方法只是显示方法的一个示例。上述说明的关联图像的显示方法全部能够适当地组合来用于关联图像的显示。
此外,也可以为,将用于实现本发明的处理部的功能的程序存储至可计算机读取的存储介质中,并使存储在该存储介质中的程序读入至计算机系统中来执行,由此进行显示控制。此外,在此所谓的“计算机系统”是指包含OS和周边设备等硬件的系统。另外,“计算机系统”也包含具有主页提供环境(或者显示环境)的万维网系统。另外,“可计算机读取的存储介质”是指软盘、磁盘、ROM、CD-ROM等可移动介质、内置于计算机系统中的硬盘等存储装置。而且“可计读的存储介质”包含如在经由互联网等网络或电话线路等通信线路来发送程序的情况下的成为服务器或客户端的计算机系统内部的易失性存储器(RAM)那样地,在一定时间内保持程序的介质。
另外,上述程序也可以从在存储装置等中存储有该程序的计算机系统经由传输介质,或者通过传输介质中的传输波而传输至其他的计算机系统。在此,传输程序的“传输介质”是指互联网等网络(通信网)或电话线路等通信线路(通信线)那样地具有传输信息的功能的介质。另外,上述程序也可以为用于实现上述功能的一部分的程序。而且,也可以为,能够通过与将上述功能全部存储在计算机系统中的程序的组合来实现的、即所谓的差分文件(差分程序)。
附图标记说明
100…显示装置,101…拍摄部,102…检测部,103…操作判断部,104…显示部,105…显示图像存储部,106…控制部。

Claims (41)

1.一种显示装置,其特征在于,具有:
显示部,在空中显示用于观察基于双眼视差而产生的立体图像的图像;
检测部,对妨碍所述立体图像的观察的物体进行检测;和
控制部,基于空中的所述立体图像、可观察到空中的所述立体图像的视线位置的区域以及所述物体的位置相关信息,将与因所述物体而妨碍了观察的所述立体图像的区域相关联的关联图像显示于所述显示部,
所述控制部控制在与显示所述立体图像的面正交的进深方向上的所述关联图像的位置,在与因所述物体而妨碍了观察的所述立体图像的区域所显示的位置不同的位置,使所述关联图像显示于所述显示部。
2.根据权利要求1所述的显示装置,其特征在于,所述控制部基于所述立体图像的显示位置来控制所述关联图像的显示位置。
3.根据权利要求1所述的显示装置,其特征在于,所述控制部基于所述立体图像、可观察到所述立体图像的区域以及所述物体的位置相关信息,在与因所述物体而妨碍了观察的所述立体图像的区域不同的区域,使所述关联图像显示于所述显示部。
4.根据权利要求3所述的显示装置,其特征在于,所述控制部基于所述立体图像、可观察到所述立体图像的区域以及所述物体的位置相关信息,判断是否因所述物体而妨碍了观察。
5.根据权利要求1所述的显示装置,其特征在于,所述物体是使用者的手或所述使用者的手指。
6.根据权利要求2所述的显示装置,其特征在于,所述控制部使所述关联图像显示在相对于所述显示部的进深方向上、与所述立体图像相同的位置。
7.根据权利要求2所述的显示装置,其特征在于,所述控制部使所述关联图像立体显示在相对于所述显示部的进深方向上、与所述立体图像的显示位置不同的显示位置上。
8.根据权利要求1所述的显示装置,其特征在于,所述控制部使所述关联图像的一部分的对比度大于所述立体图像的一部分的对比度。
9.根据权利要求1所述的显示装置,其特征在于,所述控制部使所述关联图像立体的一部分的透明度小于所述立体图像的一部分的透明度。
10.根据权利要求1所述的显示装置,其特征在于,所述显示部显示用于观察基于双眼视差而产生的立体图像的所述关联图像,所述控制部使在进深方向上的所述关联图像的显示位置随时间而变化。
11.根据权利要求1所述的显示装置,其特征在于,所述控制部基于因所述物体而妨碍了观察的时间,将所述关联图像显示于所述显示部。
12.根据权利要求1所述的显示装置,其特征在于,所述控制部将所述立体图像放大而成的图像作为所述关联图像而显示。
13.根据权利要求1所述的显示装置,其特征在于,所述控制部判断因所述物体而妨碍了观察的所述立体图像的区域,并基于被妨碍了观察的所述立体图像的区域相对于所述立体图像的比例来显示所述关联图像。
14.根据权利要求1所述的显示装置,其特征在于,所述控制部使所述显示部显示用于观察基于双眼视差而产生的立体图像的所述关联图像。
15.根据权利要求14所述的显示装置,其特征在于,所述控制部基于可观察到所述立体图像的区域和所述物体的位置相关信息,控制所述关联图像的位置。
16.根据权利要求15所述的显示装置,其特征在于,所述控制部基于可观察到所述立体图像的区域和所述物体的位置相关信息,使所述关联图像的位置在进深方向移动。
17.根据权利要求1所述的显示装置,其特征在于,所述控制部进行如下控制:在所述物体的位置位于所述立体图像的位置时,所述立体图像被选择。
18.根据权利要求1所述的显示装置,其特征在于,所述控制部在显示了所述立体图像的状态下将所述关联图像显示于所述显示部。
19.根据权利要求1所述的显示装置,其特征在于,所述控制部基于因所述物体而妨碍了观察的所述立体图像的区域的大小,改变所述关联图像的大小。
20.根据权利要求1所述的显示装置,其特征在于,所述检测部是具有拍摄元件的拍摄部。
21.一种显示方法,是利用在空中显示用于观察基于双眼视差而产生的立体图像的图像的显示装置的显示方法,所述显示方法的特征在于,包括:
检测步骤,对妨碍所述立体图像的观察的物体进行检测;和
控制步骤,基于空中的所述立体图像、可观察到空中的所述立体图像的视线位置的区域以及所述物体的位置相关信息,将与因所述物体而妨碍了观察的所述立体图像的区域相关联的关联图像显示于所述显示装置,
所述控制步骤中控制在与显示所述立体图像的面正交的进深方向上的所述关联图像的位置,在与因所述物体而妨碍了观察的所述立体图像的区域所显示的位置不同的位置,使所述关联图像显示于所述显示装置。
22.一种显示装置,其特征在于,具有:
显示部,显示包含基于双眼视差而产生的立体图像在内的图像;
检测部,对将所述立体图像遮蔽的遮蔽物进行检测;和
控制部,基于由所述检测部得到的检测结果来判断基于所述遮蔽物所造成的所述立体图像的显示状态以及遮蔽状态的至少一方,并基于该判断结果来控制与所述立体图像关联的关联图像的显示。
23.根据权利要求22所述的显示装置,其特征在于,所述控制部基于所述立体图像的显示位置来控制所述关联图像的显示位置。
24.根据权利要求22或23所述的显示装置,其特征在于,所述控制部在所述图像的区域中的没有被所述遮蔽物遮蔽的区域中控制所述关联图像的显示。
25.根据权利要求22至24中任一项所述的显示装置,其特征在于,所述控制部基于所述检测结果来判断所述立体图像是否被所述遮蔽物遮蔽,在判断为被遮蔽的情况下,以使所述关联图像不被所述遮蔽物遮蔽的方式显示所述关联图像。
26.根据权利要求22至25中任一项所述的显示装置,其特征在于,所述控制部判断被所述遮蔽物遮蔽的所述图像的遮蔽区域,并使所述关联图像显示在所述图像的区域中的与所述遮蔽区域不同的区域中。
27.根据权利要求22至26中任一项所述的显示装置,其特征在于,所述控制部使所述关联图像显示在与所述立体图像相邻的区域中。
28.根据权利要求22至27中任一项所述的显示装置,其特征在于,所述控制部使所述关联图像立体显示在相对于所述显示部的进深方向上、与所述立体图像的显示位置不同的显示位置上。
29.根据权利要求22至28中任一项所述的显示装置,其特征在于,所述控制部使所述关联图像立体显示在相对于所述显示部的进深方向上、与所述立体图像的显示位置相比离所述显示部较远的显示位置上。
30.根据权利要求22至29中任一项所述的显示装置,其特征在于,所述控制部使所述关联图像立体显示在相对于所述显示部的进深方向上、与所述立体图像的显示位置相比离所述显示部较近的显示位置上。
31.根据权利要求22至30中任一项所述的显示装置,其特征在于,所述控制部使在相对于所述显示部的进深方向上的所述关联图像的显示位置随时间变化地立体显示。
32.根据权利要求22至31中任一项所述的显示装置,其特征在于,在所述关联图像中包含有与所述立体图像相同的图像。
33.根据权利要求22至32中任一项所述的显示装置,其特征在于,所述控制部将所述立体图像放大而成的图像作为关联图像而显示。
34.根据权利要求22至33中任一项所述的显示装置,其特征在于,所述控制部判断被所述遮蔽物遮蔽的所述立体图像的遮蔽区域,并基于所述遮蔽区域相对于所述立体图像的比例来显示所述关联图像。
35.一种显示控制程序,其特征在于,使显示装置的计算机执行如下的步骤:
显示包含基于双眼视差而产生的立体图像在内的图像的步骤;
对将所述立体图像遮蔽的遮蔽物进行检测的步骤;和
基于检测结果来判断基于所述遮蔽物所造成的所述立体图像的显示状态以及遮蔽状态的至少一方,并基于该判断结果来控制与所述立体图像关联的关联图像的显示的步骤。
36.一种显示装置,其特征在于,所述立体图像的显示状态以及遮蔽状态的至少一方包含所述立体图像的周围的组织的密度以及分布。
37.一种显示装置,其特征在于,所述立体图像的显示状态以及遮蔽状态的至少一方包含所述立体图像与所述遮蔽物之间相对的尺寸差。
38.一种显示装置,其特征在于,所述立体图像的显示状态以及遮蔽状态的至少一方包含所述立体图像与所述遮蔽物之间的相对的位置关系。
39.一种显示装置,其特征在于,所述立体图像的显示状态以及遮蔽状态的至少一方包含所述立体图像被所述遮蔽物持续遮蔽的时间的长度。
40.一种显示装置,其特征在于,所述立体图像的显示状态以及遮蔽状态的至少一方包含所述立体图像与在所述显示部中显示的周围的显示物之间的相对的位置关系。
41.一种显示装置,其特征在于,所述立体图像的显示状态以及遮蔽状态的至少一方包含注视所述立体图像的用户的右眼图像与左眼图像的一致度。
CN201910343811.4A 2011-11-21 2012-11-20 显示装置及显示控制程序 Pending CN110275607A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011-253805 2011-11-21
JP2011253805 2011-11-21
CN201280067270.3A CN104054044A (zh) 2011-11-21 2012-11-20 显示装置及显示控制程序

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201280067270.3A Division CN104054044A (zh) 2011-11-21 2012-11-20 显示装置及显示控制程序

Publications (1)

Publication Number Publication Date
CN110275607A true CN110275607A (zh) 2019-09-24

Family

ID=48469780

Family Applications (3)

Application Number Title Priority Date Filing Date
CN201910343807.8A Pending CN110119203A (zh) 2011-11-21 2012-11-20 显示装置及显示控制程序
CN201910343811.4A Pending CN110275607A (zh) 2011-11-21 2012-11-20 显示装置及显示控制程序
CN201280067270.3A Pending CN104054044A (zh) 2011-11-21 2012-11-20 显示装置及显示控制程序

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201910343807.8A Pending CN110119203A (zh) 2011-11-21 2012-11-20 显示装置及显示控制程序

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201280067270.3A Pending CN104054044A (zh) 2011-11-21 2012-11-20 显示装置及显示控制程序

Country Status (8)

Country Link
US (1) US10477191B2 (zh)
EP (1) EP2784640A4 (zh)
JP (3) JPWO2013077338A1 (zh)
KR (1) KR20140097226A (zh)
CN (3) CN110119203A (zh)
BR (1) BR112014011974A2 (zh)
RU (2) RU2658790C2 (zh)
WO (1) WO2013077338A1 (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140282269A1 (en) * 2013-03-13 2014-09-18 Amazon Technologies, Inc. Non-occluded display for hover interactions
WO2014185920A1 (en) * 2013-05-16 2014-11-20 Empire Technology Development, Llc Three dimensional user interface in augmented reality
KR102297148B1 (ko) * 2014-10-31 2021-09-03 삼성메디슨 주식회사 3차원 영상을 표시하는 초음파 시스템 및 그 방법
CN104991649B (zh) * 2015-07-21 2019-01-11 小米科技有限责任公司 屏幕排版方法及装置
US10289206B2 (en) * 2015-12-18 2019-05-14 Intel Corporation Free-form drawing and health applications
CN106228110B (zh) * 2016-07-07 2019-09-20 浙江零跑科技有限公司 一种基于车载双目相机的障碍物及可行驶区域检测方法
JP2019105777A (ja) * 2017-12-14 2019-06-27 セイコーエプソン株式会社 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
JP7135324B2 (ja) * 2018-01-23 2022-09-13 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
CN110248147B (zh) 2018-09-25 2022-08-23 浙江大华技术股份有限公司 一种图像显示方法及装置
CN109550247B (zh) * 2019-01-09 2022-04-08 网易(杭州)网络有限公司 游戏中虚拟场景调整方法、装置、电子设备及存储介质
CN113077510B (zh) * 2021-04-12 2022-09-20 广州市诺以德医疗科技发展有限公司 遮蔽下的立体视功能检查系统

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1488093A (zh) * 2001-10-24 2004-04-07 ���ṫ˾ 图像信息显示装置
JP2004302124A (ja) * 2003-03-31 2004-10-28 Toshiba Corp 表示装置
CN101180599A (zh) * 2005-03-28 2008-05-14 松下电器产业株式会社 用户界面系统
CN101266530A (zh) * 2008-04-04 2008-09-17 中国海洋大学 大屏幕三维测量触摸屏
CN101553775A (zh) * 2006-12-07 2009-10-07 微软公司 操作触摸屏界面
US20090319935A1 (en) * 2008-02-04 2009-12-24 Nokia Corporation Method and Apparatus for Signaling Neighbor Cell Transmission Frame Allocations
JP2010092272A (ja) * 2008-10-08 2010-04-22 Sharp Corp 画像表示/像検知装置、補助画像表示方法、およびプログラム
JP2010092153A (ja) * 2008-10-06 2010-04-22 Sony Corp 情報処理装置、情報処理方法及びプログラム
WO2010080199A1 (en) * 2008-12-18 2010-07-15 Sony Corporation Enhanced program metadata on cross-media bar
JP2011108152A (ja) * 2009-11-20 2011-06-02 Fujitsu Toshiba Mobile Communications Ltd 3次元入力表示装置
CN102132236A (zh) * 2008-08-27 2011-07-20 富士胶片株式会社 用于在三维显示期间设置指示位置的装置和方法及程序

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) 1994-04-22 1996-01-12 Canon Inc 表示装置
JPH09190278A (ja) 1996-01-09 1997-07-22 Mitsubishi Motors Corp 機器の操作系選択装置
JP3577577B2 (ja) 1996-02-23 2004-10-13 株式会社タイテック 空中立体視装置
JP4031120B2 (ja) 1998-09-10 2008-01-09 株式会社東芝 オブジェクト強調表示方法及びその装置並びに記憶媒体
JP2003005912A (ja) 2001-06-20 2003-01-10 Hitachi Ltd タッチパネル付きディスプレイ装置及び表示方法
CN101673181A (zh) * 2002-11-29 2010-03-17 皇家飞利浦电子股份有限公司 具有触摸区域的移动表示的用户界面
CN1266653C (zh) 2002-12-26 2006-07-26 联想(北京)有限公司 一种显示三维图像的方法
JP3939709B2 (ja) 2004-04-30 2007-07-04 日本電信電話株式会社 情報入力方法および情報入出力装置
US8325220B2 (en) * 2005-12-02 2012-12-04 Koninklijke Philips Electronics N.V. Stereoscopic image display method and apparatus, method for generating 3D image data from a 2D image data input and an apparatus for generating 3D image data from a 2D image data input
JP4764305B2 (ja) * 2006-10-02 2011-08-31 株式会社東芝 立体画像生成装置、方法およびプログラム
WO2008084037A1 (en) 2007-01-09 2008-07-17 Selex Sensors & Airborne Systems Ltd. Emitter location
US8985774B2 (en) 2007-03-30 2015-03-24 National Institute Of Information And Communication Technology Floating image interaction device and its program
CN101072366B (zh) 2007-05-24 2010-08-11 上海大学 基于光场和双目视觉技术的自由立体显示系统和方法
JPWO2009025034A1 (ja) 2007-08-22 2010-11-18 パイオニア株式会社 画像表示装置
JP5087632B2 (ja) 2007-10-01 2012-12-05 パイオニア株式会社 画像表示装置
JP5036875B2 (ja) 2008-09-26 2012-09-26 パイオニア株式会社 画像表示装置及び画像表示システム
JP5328539B2 (ja) 2009-07-21 2013-10-30 京セラ株式会社 入力装置
JP2011028560A (ja) * 2009-07-27 2011-02-10 Sony Corp 情報処理装置、表示方法及び表示プログラム
US8970478B2 (en) * 2009-10-14 2015-03-03 Nokia Corporation Autostereoscopic rendering and display apparatus
JP2011090611A (ja) 2009-10-26 2011-05-06 Canon Inc 映像装置及びその制御方法
US20110102556A1 (en) * 2009-11-03 2011-05-05 Kim Sungdo Method for displaying 3d image by using the binocular disparity in mobile terminal and mobile terminal using the same
KR20110076771A (ko) 2009-12-29 2011-07-06 한국전자통신연구원 터치 기반의 멀티미디어 기기의 자판 표시 방법 및 장치
JP4900741B2 (ja) * 2010-01-29 2012-03-21 島根県 画像認識装置および操作判定方法並びにプログラム
KR101114750B1 (ko) 2010-01-29 2012-03-05 주식회사 팬택 다차원 영상을 이용한 사용자 인터페이스 장치
JP5450791B2 (ja) * 2010-03-18 2014-03-26 富士フイルム株式会社 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体
CN101808251B (zh) * 2010-04-06 2011-07-20 浙江大学 立体图像对中遮挡信息的提取方法
US8384683B2 (en) * 2010-04-23 2013-02-26 Tong Luo Method for user input from the back panel of a handheld computerized device
JP5573379B2 (ja) 2010-06-07 2014-08-20 ソニー株式会社 情報表示装置および表示画像制御方法
JP5593972B2 (ja) 2010-08-30 2014-09-24 ソニー株式会社 情報処理装置、立体視表示方法、及びプログラム
US20120056989A1 (en) 2010-09-06 2012-03-08 Shimane Prefectural Government Image recognition apparatus, operation determining method and program
US20120069055A1 (en) 2010-09-22 2012-03-22 Nikon Corporation Image display apparatus
WO2012042974A1 (ja) 2010-09-30 2012-04-05 富士フイルム株式会社 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
CN102005062A (zh) 2010-11-09 2011-04-06 福州瑞芯微电子有限公司 用于三维立体显示的三维图像的产生方法及装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1488093A (zh) * 2001-10-24 2004-04-07 ���ṫ˾ 图像信息显示装置
JP2004302124A (ja) * 2003-03-31 2004-10-28 Toshiba Corp 表示装置
CN101180599A (zh) * 2005-03-28 2008-05-14 松下电器产业株式会社 用户界面系统
CN101553775A (zh) * 2006-12-07 2009-10-07 微软公司 操作触摸屏界面
US20090319935A1 (en) * 2008-02-04 2009-12-24 Nokia Corporation Method and Apparatus for Signaling Neighbor Cell Transmission Frame Allocations
CN101266530A (zh) * 2008-04-04 2008-09-17 中国海洋大学 大屏幕三维测量触摸屏
CN102132236A (zh) * 2008-08-27 2011-07-20 富士胶片株式会社 用于在三维显示期间设置指示位置的装置和方法及程序
JP2010092153A (ja) * 2008-10-06 2010-04-22 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP2010092272A (ja) * 2008-10-08 2010-04-22 Sharp Corp 画像表示/像検知装置、補助画像表示方法、およびプログラム
WO2010080199A1 (en) * 2008-12-18 2010-07-15 Sony Corporation Enhanced program metadata on cross-media bar
JP2011108152A (ja) * 2009-11-20 2011-06-02 Fujitsu Toshiba Mobile Communications Ltd 3次元入力表示装置

Also Published As

Publication number Publication date
CN110119203A (zh) 2019-08-13
WO2013077338A1 (ja) 2013-05-30
KR20140097226A (ko) 2014-08-06
US10477191B2 (en) 2019-11-12
RU2658790C2 (ru) 2018-06-22
RU2018119502A (ru) 2018-11-15
JP2018061251A (ja) 2018-04-12
RU2018119502A3 (zh) 2019-02-27
JPWO2013077338A1 (ja) 2015-04-27
JP2019145133A (ja) 2019-08-29
JP6508280B2 (ja) 2019-05-08
EP2784640A4 (en) 2015-10-21
US20140320615A1 (en) 2014-10-30
BR112014011974A2 (pt) 2017-05-30
CN104054044A (zh) 2014-09-17
EP2784640A1 (en) 2014-10-01
RU2014124192A (ru) 2015-12-27

Similar Documents

Publication Publication Date Title
CN110275607A (zh) 显示装置及显示控制程序
US9977590B2 (en) Mobile terminal and method for controlling the same
US20170264881A1 (en) Information processing apparatus, information processing method, and program
US20190230346A1 (en) 3D User Interface - 360-degree Visualization of 2D Webpage Content
EP2458880B1 (en) Mobile terminal and operation control method thereof
US8581966B2 (en) Tracking-enhanced three-dimensional display method and system
CN104040457B (zh) 移动显示设备
Čopič Pucihar et al. The use of surrounding visual context in handheld AR: device vs. user perspective rendering
EP2608009A2 (en) Mobile terminal and control method thereof
CN105190477A (zh) 用于在增强现实环境中的用户交互的头戴式显示装置
CN103313080A (zh) 控制设备、电子装置、控制方法和程序
JP2013168897A (ja) 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
CN104270623A (zh) 一种显示方法及电子设备
EP2432236A2 (en) Information Processing Apparatus, Program and Information Processing Method
JP2010259017A (ja) 表示装置、表示方法、および表示プログラム
US20180144541A1 (en) 3D User Interface - Non-native Stereoscopic Image Conversion
US8817081B2 (en) Image processing apparatus, image processing method, and program
CN105573491A (zh) 裸眼3d私隐式虚拟人机交互系统及方法
WO2018122674A1 (en) Multi-layer display including proximity sensor and depth-changing interface elements, and/or associated methods
JP6269692B2 (ja) 表示装置、電子機器、およびプログラム
JP6424947B2 (ja) 表示装置、およびプログラム
JP5879856B2 (ja) 表示装置、表示方法及びプログラム
JP2019050583A (ja) 表示装置、およびプログラム
JP2014116843A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned
AD01 Patent right deemed abandoned

Effective date of abandoning: 20221230