CN104054044A - 显示装置及显示控制程序 - Google Patents
显示装置及显示控制程序 Download PDFInfo
- Publication number
- CN104054044A CN104054044A CN201280067270.3A CN201280067270A CN104054044A CN 104054044 A CN104054044 A CN 104054044A CN 201280067270 A CN201280067270 A CN 201280067270A CN 104054044 A CN104054044 A CN 104054044A
- Authority
- CN
- China
- Prior art keywords
- picture
- stereo
- associated images
- display
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012360 testing method Methods 0.000 claims description 32
- 230000002123 temporal effect Effects 0.000 claims 1
- 238000001514 detection method Methods 0.000 abstract description 7
- 230000000873 masking effect Effects 0.000 abstract 4
- 238000012856 packing Methods 0.000 description 39
- 230000008859 change Effects 0.000 description 22
- 238000000034 method Methods 0.000 description 21
- 239000000654 additive Substances 0.000 description 11
- 230000000996 additive effect Effects 0.000 description 11
- 238000003860 storage Methods 0.000 description 11
- 230000033228 biological regulation Effects 0.000 description 9
- 230000009471 action Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000003321 amplification Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000003199 nucleic acid amplification method Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 241000222712 Kinetoplastida Species 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000008719 thickening Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000005055 memory storage Effects 0.000 description 2
- 208000027534 Emotional disease Diseases 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000003292 diminished effect Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/31—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/003—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/14—Solving problems related to the presentation of information to be displayed
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/144—Processing image signals for flicker reduction
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Position Input By Displaying (AREA)
Abstract
一种显示装置,其具有:显示部,显示包含基于双眼视差而产生的立体图像在内的图像;检测部,对将立体图像遮蔽的遮蔽物进行检测;和控制部,基于由检测部得到的检测结果来判断基于遮蔽物所造成的立体图像的显示状态以及遮蔽状态的至少一方,并基于该判断结果来控制与立体图像关联的关联图像的显示。
Description
技术领域
本发明涉及显示装置、显示控制程序。
本申请基于2011年11月21日在日本提出申请的日本特愿2011-253805号要求优先权,并将其内容援引至此。
背景技术
存在一种三维显示器,通过使左右眼中看到不同的图像而使用户看到立体图像。在专利文献1中记载了如下的情况:在使用快门式眼镜来视听影像时,若用手遮蔽影像则关闭快门式眼镜的一侧快门,而使影像仅投入至单侧眼中,由此防止双重影像的产生。
在先技术文献
专利文献
专利文献1:日本特开2011-90611号公报
但是,在三维显示器例如将对基于用户的操作手势所产生的输入进行接收的操作元素作为立体图像显示的情况下,若欲通过手指等按下操作元素,则操作元素会被手指等遮蔽而无法视觉辨认。
发明内容
本发明的技术方案提供以能够确认被遮蔽物遮蔽的立体图像的方式进行显示的显示装置和显示控制程序。
本发明的技术方案提供一种显示装置,其特征在于,具有:显示部,显示包含基于双眼视差而产生的立体图像在内的图像;检测部,对将立体图像遮蔽的遮蔽物进行检测;和控制部,基于由检测部得到的检测结果来判断基于遮蔽物所造成的立体图像的显示状态以及遮蔽状态的至少一方,并基于该判断结果来控制与立体图像关联的关联图像的显示。
另外,本发明的技术方案提供一种显示控制程序,其使显示装置的计算机中执行如下的步骤:显示包含基于双眼视差而产生的立体图像在内的图像的步骤;对将立体图像遮蔽的遮蔽物进行检测的步骤;和基于检测结果来判断基于遮蔽物所造成的立体图像的显示状态以及遮蔽状态的至少一方,并基于该判断结果来控制与立体图像关联的关联图像的显示的步骤。
发明效果
根据本发明的技术方案,能够以可确认被遮蔽物遮蔽的立体图像的方式进行显示。
附图说明
图1是表示本发明一实施方式的显示装置的构成例的框图。
图2是表示本发明一实施方式的显示装置的外观的图。
图3是表示本发明一实施方式的显示装置与用户之间的位置关系的图。
图4是表示本发明一实施方式的显示装置与用户之间的位置关系的图。
图5是表示本发明一实施方式的显示部所显示的立体图像的概要的图。
图6是表示本发明一实施方式的显示部所显示的画面的例的图。
图7是表示本发明一实施方式的显示部辅助显示关联图像的画面的例的图。
图8是表示本发明一实施方式的立体图像、遮蔽物、辅助显示的关联图像之间的关系的图。
图9是表示本发明一实施方式的立体图像、遮蔽物、辅助显示的关联图像之间的关系的图。
图10是表示本发明一实施方式的立体图像、遮蔽物、辅助显示的关联图像之间的关系的图。
图11是表示本发明一实施方式的立体图像、遮蔽物、辅助显示的关联图像之间的关系的图。
图12是表示本发明一实施方式的显示装置的动作例的流程图。
图13是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
图14是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
图15是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
图16是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
图17是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
图18是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
图19是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
图20是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
图21是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
图22是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
图23是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
图24是表示本发明其他实施方式的显示部辅助显示关联图像的画面的例的图。
具体实施方式
以下,参照附图说明本发明的一实施方式。
图1是表示本实施方式的显示装置100的构成的框图。显示装置100具有拍摄部101、检测部102、操作判断部103、显示部104、显示图像存储部105和控制部106。
图2是表示显示装置100的外观的图。显示装置100是三维显示器,其在显示部104的显示面中显示视差图像,使用户A的左右眼看到具有双眼视差的图像,由此,使用户A看到立体图像B。显示装置100可以为由裸眼式和眼镜式的任意一种方式进行三维显示的装置,但在本实施方式中说明基于裸眼式的示例。另外,显示装置100可以为适用LCD(Liquid Crystal Display,液晶显示器)、等离子、有机EL(Electro Luminescence,电致发光)等任意一种显示器显示原理的显示装置。另外,显示装置100在前表面上部具有拍摄用户A的拍摄部101。但拍摄部101也可以不位于前表面上部,只要具备于能够拍摄画面的显示方向上的位置即可。在本实施方式中,将与显示装置100的显示部104平行(水平)方向作为X轴方向,将垂直方向作为Y轴方向,将进深方向作为Z轴方向来进行说明。
返回至图1,拍摄部101为照相机(camera),其拍摄基于显示部104而定的显示方向中的规定区域来生成拍摄图像。在此,规定区域是指包含如下空间区域在内的区域,该空间区域为在用户视觉辨认由显示部104显示的立体图像时,若存在物体则会遮蔽立体图像的空间区域。拍摄部101可以拍摄动画,也可以在每隔固定时间拍摄静止画面。另外,拍摄部101可以为1个照相机,也可以为多个照相机。另外,拍摄部101可以为可倾式照相机,也可以为鱼眼式照相机。
检测部102检测将由显示部104显示的立体图像遮蔽的遮蔽物。例如,检测部102基于拍摄部101拍摄到的拍摄图像,来检测显示部104的显示方向中的规定区域的遮蔽物的位置和用户的视线位置。例如,检测部102解析拍摄部101拍摄到的拍摄图像并检测包含在拍摄图像中的动体。检测部102能够抽取拍摄部101拍摄到的动画的每帧的差分区域,而判断在生成有差分的区域中存在动体。例如,如图3(a)所示,检测部102从基于拍摄部101所得到的拍摄图像中,检测存在于显示装置100的显示方向上的用户A。此时,在显示装置100的拍摄部101中拍摄到例如图3(b)所示的拍摄图像。
而且,检测部102检测遮蔽物在相对于显示部104的进深方向(Z轴方向)上的位置、遮蔽物在相对于显示部104的显示面的平行方向(X轴方向)上的位置、遮蔽物的大小、遮蔽物的形状中的至少1个特征量。检测部102使用脸部检测算法和/或手区域检测算法等来检测包含在拍摄图像中的用户A的脸部区域、和/或作为遮蔽物的手的区域,并检测三维空间中的脸部位置和/或手位置、脸部和/或手的大小、脸部和/或手的形状。在此,检测部102在无法从拍摄图像中检测到用户A的脸部区域的情况下,能够检测用户A的身体或者胳膊的位置来计算用户A的脸部的推定位置。另外,检测部102也能够从这样检测到的用户A的脸部位置中检测用户A的视线位置。
在此,在通过裸眼式显示立体图像的情况下,如图4所示,可观察立体图像的用户A的视线位置的区域受限。即,这种可观察区域R的位置是已知的,用户A的视线位置是预先决定的。因此,也可以将这种可观察区域的位置作为用户A的视线位置而预先存储至显示装置100的存储区域中。
操作判断部103根据检测部102检测到的动体的动作来判断相对于显示装置100的操作。即,操作判断部103对基于用户A的动作而发出的操作手势的输入进行受理。例如,若在检测部102检测到的遮蔽物的位置中显示有操作元素的立体图像,则操作判断部103就会判断为该操作元素被按下。
显示部104使所显示的图像的视差量变化而显示基于双眼视差的立体图像。图5是表示显示部104所显示的立体图像的概要的图。在从用户A的位置视觉辨认显示装置100的显示部104时,使对用户A的右眼付与的右眼图像在P1的位置上显示,并使对用户A的左眼付与的左眼图像在P2的位置上显示,由此,能够在进深方向中的P3的显示位置上,使基于双眼视差而产生的立体图像跃出显示。
图6是表示显示部104所显示的画面的示例的图。图6(a)是显示了多个图标(例如,G等)的示例。显示部104能够使各个图标G分别作为立体图像来显示。图6(b)是显示了多个操作元素(例如,H等)的示例。显示部104能够使各个操作元素H分别作为立体图像来显示。
返回至图1,在显示图像存储部105中存储有在显示部104中显示的显示图像。显示图像可以预先存储至显示图像存储部105中,也可以经由无线或者有线网络从外部接收而存储。
控制部106读取存储在显示图像存储部105中的显示图像,生成右眼图像和左眼图像的视差图像并使其显示在显示部104中。控制部106基于由检测部102所得到的检测结果,判断基于遮蔽物所产生的立体图像的显示状态以及遮蔽状态的至少一方,并基于该判断结果来控制与立体图像关联的关联图像的显示。
例如,控制部106基于由检测部102检测到的遮蔽物(例如,手等)的位置、用户的视线位置、预先决定的显示部104的位置,来判断在从用户的视线位置相对于显示部104的视觉辨认方向上的被遮蔽物所遮蔽的图像的遮蔽区域。用户的视线位置如上所述地可以为基于用户的身体或者胳膊的位置算出的用户的脸部的推定位置,也可以为预先决定的可观察区域。例如,将用户的视线位置和显示部104中的显示画面连结在直线上,并基于存在于该直线上的遮蔽物的位置、大小、形状等而将遮蔽物影射至显示画面上,由此能够判断图像的遮蔽区域。
另外,控制部106判断立体图像是否被遮蔽物遮蔽,在判断为被遮蔽的情况下,以不会被遮蔽物遮蔽的方式显示关联图像。在此,控制部106基于被遮蔽的立体图像的显示位置,而在没有被遮蔽物遮蔽的区域中控制关联图像的显示位置。即,控制部106判断被遮蔽物遮蔽的立体图像的显示状态以及遮蔽状态的至少一方来控制关联图像的显示。
例如,如图7所示,控制部106判断立体图像的显示状态以及遮蔽状态的至少一方,并将关联图像辅助性地显示在不被遮蔽物遮蔽且与立体图像相邻的区域中。图7(a)、(b)表示手指接近至图6(a)、(b)所示的立体图像的情况下的显示例。
在图7(a)中,立体图像G1(以下,简称为图标G1)被手指(遮蔽物)遮蔽。由此,控制部106使被遮蔽的图标G1的关联图像G2(以下,简称为图标G2)辅助显示在不被遮蔽物(本实施方式中,为手指)遮蔽且与图标G1相邻的区域即图标G1的上部。此时,辅助显示的图标G2例如为使与图7(a)所示地被遮蔽的图标G1同样的图标以吹出状(弹出显示)显示在图标G1的上部的图标。即,控制部106如图7(a)的图标G2和图7(b)的图标H2那样地,使关联图像弹出显示在不被遮蔽物遮蔽且与立体图像相邻的区域中。这样,控制部106判断被遮蔽物(本实施方式中,为手指)遮蔽的图像(图标G1)的遮蔽区域,并使关联图像(图标G2)显示在图像的区域中的与遮蔽区域不同的区域中,由此,用户能够视觉辨认辅助显示的关联图像(图标G2)来确认被遮蔽的立体图像(图标G1)是什么内容。
在显示的关联图像中,也可以包含与被遮蔽的立体图像相同的图像。例如,只要是与被遮蔽的立体图像关联而会联想到被遮蔽的立体图像的内容即可。例如,所显示的关联图像也可以为将被遮蔽的立体图像由文字表示的图像。
另外,在图7(a)中,表示了在与被遮蔽的立体图像(图标G1)沿Y轴方向(垂直方向)相邻的区域中显示关联图像的示例,但是,也可以在沿X轴方向(平行方向)相邻的区域中显示关联图像。即,显示在不被遮蔽物遮蔽的区域中的关联图像,能够显示在XY轴平面上的任意位置上。
同样地,在图7(b)中,立体图像H1(以下,简称为操作元素H1)被手指遮蔽,因此,控制部106将被遮蔽的图标H1的关联图像H2(以下,简称为图标H2)辅助显示在不被遮蔽物(本实施方式中,为手指)遮蔽且与图标H1相邻的区域即图标H1的上部。
辅助显示的关联图像也可以与立体图像同样地立体显示,也可以在显示部104的显示面上二维显示。另外,控制部106在判断为检测部102检测到的遮蔽物没有遮蔽立体图像时,使关联图像的辅助显示为非显示。
图8是表示显示立体图像J的显示装置100、作为遮蔽物的手K、和辅助显示的关联图像L之间的进深距离D的关系的图。进深距离D是指在Z轴方向中的进深方向上的距离。如图8所示,辅助显示的关联图像L的进深距离能够是与立体图像J同样的。这样,通过减少进深距离上的剧烈变化,能够减轻对眼睛的疲劳感。
另外,如图9所示,控制部106能够在相对于显示部104的进深方向中,使辅助显示的关联图像L显示在与立体图像J(立体图像的显示位置)相比离显示部104较远的位置上。
另外,如图10所示,控制部106能够在相对于显示部104的进深方向中,使辅助显示的关联图像L显示在与立体图像J相比离显示部104较近的位置上。另外,控制部106能够在相对于显示部104的进深方向中,使辅助显示的关联图像L显示在显示部104上的位置上。
这样,在相对于显示部104的进深方向中,使关联图像L立体显示在与立体图像J的显示位置不同的显示位置上,由此,能够强调辅助显示的关联图像L。另外,能够抑制用户的双眼拮抗。
另外,如图11所示,控制部106能够在相对于显示部104的进深方向中,以使与立体图像J相比离显示部104较远的位置、和与立体图像J相比离显示部104较近的位置随时间(每帧地)动态变化的方式对辅助显示的关联图像L进行显示。这样,使立体图像J与辅助显示的立体图像L之间的进深距离变化,由此,能够强调辅助显示的立体图像L。
另外,控制部106也能够当判断为立体图像包含在遮蔽区域中时,将没有被遮蔽物遮蔽地放大的图像作为关联图像来显示立体图像。
另外,控制部106进行与操作判断部103判断的操作对应的动作。例如,与所输入的操作手势对应地控制在显示部104中显示的图像。
接着,参照附图说明本实施方式的显示装置100的动作例。图12是表示显示装置100辅助显示关联图像的动作例的流程图。
控制部106读取存储在显示图像存储部105中的显示图像来生成视差图像,并使其在显示部104中显示。拍摄部101拍摄显示部104所显示的显示方向(例如,从显示部104朝向用户站立的方向)而生成拍摄图像。当检测部102从由拍摄部101生成的拍摄图像中检测遮蔽物时(步骤S1),控制部106判断基于遮蔽物而产生的立体图像的遮蔽区域(步骤S2)。控制部106判断立体图像的显示状态以及遮蔽状态的至少一方,而在没有被遮蔽物遮蔽的显示部104的区域中辅助显示关联图像(步骤S3)。另外,当判断为检测部102没有检测到遮蔽物时,控制部106将关联图像的辅助显示设为非显示。
如以上说明地,根据本实施方式,在显示装置100所显示的立体图像被手指等遮蔽的情况下,将关联图像辅助显示在显示部104所显示的图像中的未被遮蔽的区域中。由此,用户通过视觉辨认辅助显示的关联图像,而能够确认被遮蔽的立体图像是什么内容。在此,由于辅助显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认,不会产生双眼拮抗等不舒适感,而能够减轻眼睛的疲劳感。
此外,对于本实施方式中的显示装置100即三维显示器,能够适用例如电子相框(Digital photo frame)、电子看板(digital signage)、家用电视等。或者,也可以适用可三维显示的智能电话。在该情况下,例如能够将由触摸面板接触的部分判断为遮蔽区域。或者,若适用具有非接触的空间灵敏度的触摸面板,则即使在非接触的状态下也能够同样地判断遮蔽区域。在该情况下,例如,操作判断部103在手指与作为操作元素的立体图像接触的(触摸了的)情况下显示立体图像,并能够在按下该操作元素的情况下以使该操作元素被选择的方式进行控制。或者,在规定区域中检测到例如手指等遮蔽物的情况下,以使立体图像与手指的位置接近的方式进行控制,能够控制成:若立体图像被手指遮蔽则进行关联图像的辅助显示,若被按下则使操作元素被选择。
另外,控制部106也能够使辅助显示的关联图像的显示位置在XY轴平面上动态地变化。
另外,在本实施方式中,表示了在立体图像被遮蔽的情况下,关联图像显示在沿X轴方向或者Y轴方向与立体图像相邻的区域中的示例。但是,在根据用户的视线位置、遮蔽物、显示部之间的角度,通过变化为Z轴方向而能够显示得用户可视觉辨认的情况下,也可以将显示位置变更为Z轴方向。
另外,控制部106也可以为,判断立体图像的显示状态以及遮蔽状态的至少一方,并判断被遮蔽物遮蔽的立体图像的遮蔽区域,基于遮蔽区域相对于立体图像的比例而使辅助显示的关联图像显示。例如可以为,遮蔽区域相对于立体图像的比例越大,而将关联图像显示得越大,遮蔽区域相对于立体图像的比例越小,在关联图像未被遮蔽的程度下将关联图像显示得越小。
作为显示关联图像的其他方法而考虑到以下的示例。例如考虑了如下的示例:在立体图像被遮蔽物遮蔽的情况下,控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,并以移动显示的方式显示如使立体图像从被遮蔽之前立体图像所显示的位置向没有被遮蔽物遮蔽的区域移动那样的关联图像。
在图13(a)中,图标M1表示在被遮蔽之前显示的立体图像,图标M2表示使图标M1以移动显示的方式显示的关联图像,移动量SF表示图标M1从图标M1的位置移动到图标M2的位置地移动显示的距离。例如,在图标M1被手指等遮蔽物遮蔽的情况下,控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,并以移动显示的方式在图标M2(关联图像)的位置上显示图标M2(关联图像),该图标M2(关联图像)的位置是将图标M1(立体图像)从被遮蔽之前图标M1(立体图像)所显示的位置仅移动了移动量SF的位置。
在图13(a)中表示了如图标M1沿垂直方向移动那样的使图标M2移动显示的示例。但是,使图标M2移动显示的方向并不限于垂直方向,如图13(b)以及图13(c)所示,可以是包含相对于图标M1平行方向在内的任意方向。
此外,在图13中,表示了使图标M1的显示消失而移动显示关联图像即图标M2的示例。但是,也可以在保留图标M1的显示的状态下移动显示关联图像即图标M2。
这样,根据本实施方式,在立体图像被遮蔽物遮蔽的情况下,将如使立体图像从在被遮蔽之前立体图像所显示的位置向没有被遮蔽物遮蔽的区域移动那样的关联图像以移动显示的方式显示。由此,用户通过视觉辨认辅助显示的关联图像,而能够更明确地确认被遮蔽的立体图像是什么内容。另外,通过移动显示被遮蔽的立体图像的关联图像,而能够使立体图像的内容醒目,以便于用户容易辨别。而且,由于移动显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认关联图像,不会产生双眼拮抗等不舒适感,而能够减轻眼睛的疲劳感。
另外,作为显示关联图像的其他方法,考虑到以下的示例。例如,考虑到如下的示例:控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,并以使被遮蔽物遮蔽的立体图像的区域相对变小的方式,作为放大显示而显示将被遮蔽的立体图像放大而成的关联图像。
在图14中,图标N1表示在被遮蔽之前显示的立体图像,图标N2表示使图标N1放大显示而显示的关联图像,放大量EL表示使图标N1放大至图标N2的放大量。例如,在图标N1被手指等遮蔽物遮蔽的情况下,控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,并将在被遮蔽之前的图标N1(立体图像)放大显示而成的图标N2作为关联图像而显示。
此外,在图14中,表示了使图标N1的显示消失而放大显示作为关联图像的图标N2的示例。但是,也可以在保留图标N1的显示的状态下放大显示作为关联图像的图标N2。
这样,根据本实施方式,在立体图像被遮蔽物遮蔽的情况下,以使被遮蔽物遮蔽的立体图像的区域相对变小的方式,将使被遮蔽的立体图像放大而成的关联图像以放大显示的方式显示。由此,用户通过视觉辨认辅助显示的关联图像,而能够更明确地确认被遮蔽的立体图像是什么内容。另外,通过放大显示被遮蔽的立体图像的关联图像,而能够使立体图像的内容醒目,以便于用户容易辨别。而且,由于被放大显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认关联图像,不会产生双眼拮抗等不舒适感,而能够减轻眼睛的疲劳感。
此外,双眼拮抗随着用户所注视的对象物被遮蔽物遮蔽的区域变得越小而越难以产生。由此,如图14所示的示例那样地,通过显示将被遮蔽的立体图像放大显示的关联图像,而使在立体图像整体区域中所占的被遮蔽物遮蔽的区域相对变小,从而能够抑制双眼拮抗的发生。
另外,作为显示关联图像的其他方法,考虑到以下的示例。例如,如图15所示,考虑到如下示例:控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,并随着作为被指定的对象物的立体图像的周围的组织(texture)的密度和分布越大,越使辅助显示的关联图像显示在远离立体图像的位置上。更具体地,例如,在被遮蔽物遮蔽的立体图像的周围为组织的密度和分布较大的文件等的情况下,对于注视被遮蔽的立体图像的用户容易产生视野拮抗。由此,考虑到如下示例:与被遮蔽的立体图像的周围的组织的密度和分布的大小对应地,控制部106选择或者变更辅助显示的关联图像的显示方法来显示关联图像。
在图15中,图标Q1表示被遮蔽的立体图像,图标Q2表示以组合弹出显示以及放大显示的方式显示图标Q1的关联图像。另外,在图标Q1的周围显示有组织的密度和分布较大的例如文件等。例如,在这样被遮蔽的立体图像的周围的组织的密度和分布较大的情况下,在图标Q1被手指等遮蔽物遮蔽时,控制部106使被遮蔽的图标Q1(立体图像)弹出显示以及放大显示,作为关联图像而显示图标Q2。
在图15中,作为随着被指定的对象物即立体图像的周围的组织的密度和分布越大而越使辅助显示的关联图像显示在远离立体图像的位置上的示例,表示了组合弹出显示和放大显示的方式的显示方法。
这样,根据本实施方式,在立体图像被遮蔽物遮蔽的情况下,随着被指定的对象物即立体图像的周围的组织的密度和分布越大而越使关联图像显示在远离立体图像的位置上。由此,用户通过视觉辨认辅助显示的关联图像,能够更明确地确认被遮蔽的立体图像是什么内容。另外,通过将被遮蔽的立体图像的关联图像弹出显示以及放大显示,能够使立体图像的内容醒目以便于用户容易辩别。而且,由于所显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认关联图像,不会产生双眼拮抗等不舒适感,而能够减轻眼睛的疲劳感。
此外,在组织的密度和分布较高的区域中,更加容易产生视野拮抗。在图15所示的显示方法的示例中,通过利用使弹出显示以及放大显示组合的辅助显示,而使放大的关联图像显示在从容易产生双眼拮抗的区域离开的位置上。由此,能够更有效地抑制视野拮抗。
另一方面,在被指定的对象物即立体图像的组织的密度和分布较小情况下,即使使辅助显示的关联图像显示在离立体图像较近的位置上,也难以产生视野拮抗。由此,也可以仅使用弹出显示或仅使用移动显示来显示关联图像。
另外,作为显示关联图像的其他方法,考虑到如下的示例。例如,如图16所示考虑到如下的示例:控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,并与作为被指定的对象物的立体图像与遮蔽物(例如,手指等)之间的相对的尺寸差对应地,辅助显示关联图像。更具体地,例如考虑了如下的示例:在对上述立体图像进行遮蔽的遮蔽物为孩子的手指的情况、和遮蔽物为成人的手指的情况下,被手指遮蔽的立体图像的区域是不同的。这样,与被遮蔽的立体图像与遮蔽物之间的相对的尺寸差对应地,控制部106选择或者变更辅助显示的关联图像的显示方法来显示关联图像。
在图16中,图标Q1表示在被遮蔽之前显示的立体图像,图标Q2表示使图标Q1以移动显示的方式显示的关联图像。另外,在图标Q1的周围显示有组织的密度和分布较大的例如文件等。例如,在这样地被遮蔽的立体图像的周围的组织的密度和分布较大的情况下,在图标Q1被手指等遮蔽物遮蔽的时,控制部106将被遮蔽之前的图标Q1(立体图像)移动显示以及放大显示,作为关联图像而显示图标Q2。
在图16中,作为随着被指定的对象物即立体图像与遮蔽物(例如,手指等)之间的相对的尺寸差越小而越使辅助显示的关联图像显示在远离立体图像的位置上的示例,表示了组合移动显示和放大显示的显示方法。
这样,根据本实施方式,在立体图像被遮蔽物遮蔽的情况下,与作为被指定的对象物的立体图像与遮蔽物之间的相对的尺寸差对应地,使关联图像显示在远离遮蔽物的位置上。由此,用户通过视觉辨认辅助显示的关联图像,能够更明确地确认被遮蔽的立体图像是什么内容。另外,通过移动显示以及放大显示被遮蔽的立体图像的关联图像,而能够使立体图像的内容醒目以便于用户容易辨别。而且,由于所显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认关联图像,不会产生双眼拮抗等不舒适感,能够减轻眼睛的疲劳感。
此外,在立体图像与遮蔽物(例如,手指等)之间的相对的尺寸差较小且立体图像的大部分被遮蔽物遮蔽的情况下,更加容易产生双眼拮抗。在图16所示的显示方法的示例中,通过利用使移动显示以及放大显示组合的辅助显示,使被放大的关联图像显示在远离容易产生双眼拮抗的区域的位置上。由此,能够更有效地抑制双眼拮抗。
另一方面,在作为被指定的对象物的立体图像与遮蔽物(例如,手指等)之间的相对的尺寸差较大且立体图像的大部分没有被遮蔽物遮蔽的情况下,即使使辅助显示的关联图像显示在离立体图像较近的位置上也难以产生双眼拮抗。由此,也可以仅使用弹出显示或仅使用移动显示来显示关联图像。
另外,作为显示关联图像的其他方法,考虑了以下的示例。例如,如图17所示地考虑的如下的示例:控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,与作为被指定的对象物的立体图像与遮蔽物(例如,手指等)之间的相对的位置关系对应地,控制部106辅助显示关联图像。更具体地,例如考虑到如下的示例,即,与被遮蔽物遮蔽的立体图像的部位对应地,控制部106选择或者变更辅助显示的关联图像的显示位置或显示方法,来显示关联图像。
在图17(a)中,图标M1表示在被遮蔽之前显示的立体图像,图标M2表示使图标M1以移动显示的方式显示的关联图像,移动量SF表示图标M1以移动显示的方式从图标M1的位置移动到图标M2的位置的距离。
在图17(a)中,作为与被指定的对象物即立体图像与遮蔽物(例如,手指等)之间的相对的位置关系对应地显示关联图像的一个示例,表示了如下的显示方法,即,在立体图像的右下部被遮蔽物遮蔽的情况下,控制部106以使立体图像向被遮蔽的立体图像的左上方移动显示的方式显示。
在图17(b)中,图标M1表示被遮蔽的立体图像,图标M2表示使图标M1以弹出显示的方式显示的关联图像。
在图17(b)中,作为与被指定的对象物即立体图像与遮蔽物(例如,手指等)之间相对的位置关系对应地显示关联图像的其他示例,表示了如下的显示方法,即,在立体图像的右下部被遮蔽物遮蔽的情况下,控制部106以使立体图像向被遮蔽的立体图像的右上方弹出显示的方式进行显示。
这样,根据本实施方式,在立体图像被遮蔽物遮蔽的情况下,与被遮蔽的立体图像与遮蔽物之间的相对的位置关系对应地显示关联图像。由此,用户通过视觉辨认辅助显示的关联图像,而更明确地确认被遮蔽的立体图像是什么内容。另外,通过辅助显示被遮蔽的立体图像的关联图像,能够使立体图像的内容醒目以便于用户容易辨别。而且,由于所显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认关联图像,不会产生双眼拮抗等不舒适感,而能够减轻眼睛的疲劳感。
此外,图17所示的与被遮蔽的立体图像与遮蔽物之间相对的位置关系对应的关联图像所显示的方向并不限于上述示例,也可以为所显示的关联图像未被遮蔽的任意方向。
另外,作为显示关联图像的其他方法,考虑了以下的示例。例如,如图18所示地考虑了如下的示例,即,在作为被指定的对象物的立体图像被遮蔽物(例如,手指等)遮蔽的情况下,控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,最先移动显示立体图像,并在该状态下将遮蔽物遮蔽立体图像的状态维持了一定时间以上的情况下,变更显示方法而辅助显示关联图像。即,考虑了如下的示例:与立体图像被遮蔽物持续遮蔽的经过时间的长度对应地,控制部106变更辅助显示的关联图像的显示方法来显示关联图像。
在图18(a)中,图标M1表示被遮蔽的立体图像,图标M2表示使图标M1以移动显示的方式显示的关联图像,移动量SF表示使图标M1以移动显示的方式从图标M1的位置移动到图标M2的位置的距离。
在图18(a)中,表示了如下的显示方法,即,在作为被指定的对象物的立体图像被遮蔽物(例如,手指等)从遮蔽开始时刻起仅持续遮蔽了比规定时间T1短的期间的情况下,控制部106以移动显示的方式显示被遮蔽的立体图像。
在图18(b)中,图标M1表示从图18(a)的状况直接被遮蔽物持续遮蔽的立体图像,图标M2表示使图标M1以弹出显示的方式显示的关联图像。
在图18(b)中,表示了如下的显示方法,即,在作为被指定的对象物的立体图像被遮蔽物(例如,手指等)从遮蔽开始时刻起持续遮蔽了比规定时间T1长的时间的情况下,控制部106将被持续遮蔽的立体图像的关联图像从图18(a)所示的移动显示向弹出显示转移。
这样,根据本实施方式,在立体图像被遮蔽物遮蔽的情况下,与立体图像被遮蔽物持续遮蔽的经过时间的长度对应地变更辅助显示的关联图像的显示方法。由此,用户通过视觉辨认辅助显示的关联图像,而能够更明确地确认被遮蔽的立体图像是什么内容。另外,通过辅助显示被遮蔽的立体图像的关联图像,能够使立体图像的内容醒目以便于用户容易辨别。而且,由于所显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认关联图像,不会产生双眼拮抗等不舒适感,而能够减轻眼睛的疲劳感。
另外,在图18中,表示了如下的示例:立体图形被遮蔽的时间在经过了比规定时间T1长的时间地持续遮蔽的情况下,关联图像从移动显示向弹出显示转移。但是,关联图像的显示方法并不限于上述内容,例如,也可以使关联图像从弹出显示向移动显示转移等、使用其他的显示方法来进行显示。
另外,作为显示关联图像的其他方法,考虑了以下的示例。例如,如图19所示地考虑了如下的示例:控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,与从作为被指定的对象物的立体图像被用户用遮蔽物(例如,手指等)指示的指示开始到实际的立体图像的指定为止的时间对应地,辅助显示关联图像。即,考虑了如下的示例:与从立体图像被遮蔽物开始指示到实际上立体图像被指定为止的经过时间的长度对应地,控制部106变更辅助显示的关联图像的显示方法来显示关联图像。作为一个示例,参照图19来说明如下的关联图像的显示方法,即,在从立体图像被遮蔽物开始指示到实际上立体图像被指定为止的经过时间比规定时间长的情况下,控制部106使立体图像弹出显示。
图19是表示显示立体图像J1的显示装置100、作为遮蔽物的手K1、辅助显示的关联图像L1之间的进深距离D1的关系。进深距离D1是指,Z轴方向中的进深方向上的距离。另外,进深距离D1是检测部102用于判断遮蔽物K1是否开始指示的指示开始位置。如图19(a)所示,在遮蔽物K1存在于与进深距离D1相比离显示装置100较近的位置上的情况下,检测部102判断为用户开始了立体图像J1的指示。根据遮蔽物K1的位置与指示开始位置(进深距离D1)相比离显示装置100是近还是远的情况,检测部102判断基于遮蔽物K1所发出的指示开始。而且,如图19(b)所示,控制部106测量经过时间T2,该经过时间T2是从当用户开始立体图像J1的指示时由检测部102判断的时间到实际上用户用遮蔽物K1在进深距离D’1的位置上指定立体图像J1为止所经过的时间。在经过时间T2比规定时间长的情况下,控制部106以弹出显示的方式辅助显示关联图像L1。
另一方面,例如,在从立体图像J1被遮蔽物K1开始指示到实际上立体图像J1被指定为止的经过时间T2比规定时间短的情况下,控制部106以移动显示的方式而辅助显示关联图像L1(未图示)。
这样,根据本实施方式,在立体图像被遮蔽物遮蔽的情况下,与从立体图像被遮蔽物开始指示到实际上立体图像被指定为止的经过时间的长度对应地,变更辅助显示的关联图像的显示方法来显示关联图像。由此,用户通过视觉辨认辅助显示的关联图像,而能够更明确地确认被遮蔽的立体图像是什么内容。另外,通过辅助显示被遮蔽的立体图像的关联图像,使立体图像的内容醒目以便于用户容易辨别。而且,由于所显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认关联图像,不会产生双眼拮抗等不舒适感,而能够减轻眼睛的疲劳感。
另外,作为显示关联图像的其他方法,考虑了以下的示例。例如,如图20所示地考虑了如下的示例:控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,与作为被指定的对象物的立体图像、和在立体图像的周围显示的同立体图像不同的显示物之间的位置关系对应地,选择并显示辅助显示的关联图像的显示位置。
更具体地,例如,在控制部106辅助显示被遮蔽物遮蔽的立体图像时,在立体图像的周围显示有其他图标的情况下,在从其他图标离开的位置上辅助显示关联图像,由此,能够防止与其他图标之间的干涉,而更加提高视觉辨认性。作为一例,而参照图20来说明如下的显示方法,即,在被遮蔽的立体图像的周围显示有其他的显示物(图标)的情况下,控制部106使关联图像弹出显示。
在图20中,图标M1表示被遮蔽的立体图像,图标M2表示使图标M1以弹出显示的方式显示的关联图像。另外,在图标M1的周围显示有例如图标M3那样的、与被遮蔽的图标M1不同的图标。
例如在这种情况下,由手指等遮蔽物遮蔽图标M1时,控制部106将使被遮蔽的图标M1(立体图像)弹出显示的图标M2作为关联图像来显示。此时,控制部106考虑图标M3所显示的位置,而使图标M2在不与图标M3干涉的位置上弹出。
在图20的例子中,由于在作为被指定的对象物的立体图像M1的右侧显示有其他图标M3,所以使辅助显示的关联图像M2显示在与其他图标M3所显示的位置为相反方向的位置上,作为该示例图20中表示了使用弹出显示的显示方法。辅助显示的关联图像的显示方法并不限于弹出显示,控制部106能够与被遮蔽的立体图像的周围的画面显示状况对应地,以使辅助显示的关联图像不与周围的显示物干涉的方式判断适当的显示方法来显示关联图像。
这样,根据本实施方式,在立体图像被遮蔽物遮蔽的情况下,与作为被指定的对象物的立体图像和在立体图像的周围显示的同立体图像不同的显示物之间的位置关系对应地,变更辅助显示的关联图像的显示方法来显示关联图像。由此,用户能够通过视觉辨认辅助显示的关联图像,而更明确地确认被遮蔽的立体图像是什么内容。另外,通过辅助显示被遮蔽的立体图像的关联图像,而使立体图像的内容醒目以便于用户容易辨别。
尤其,能够与被遮蔽的立体图像的周围的画面显示状况对应地,以使辅助显示的关联图像不与周围的显示物干涉的方式判断适当的显示方法来显示关联图像,由此,能够使立体图像的内容更醒目以便于用户容易辨别。而且,由于所显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认关联图像,不会产生双眼拮抗等不舒适感,而能够减轻眼睛的疲劳感。
另外,作为显示关联图像的其他方法,考虑了以下的示例。例如,如图21所示地考虑了如下的示例:在作为被指定的对象物的立体图像被用户用遮蔽物(例如,手指等)遮蔽的情况下,控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,由与立体图像相同的视差量显示辅助显示,然后接着一边使视差量连续地变化直到规定的显示视差一边显示关联图像。作为一例,参照图21而说明如下的关联图像的显示方法,即,在控制部106由与立体图像相同的视差量显示弹出显示之后,接着一边使视差量连续地变化直到规定的显示视差一边显示该弹出显示。
图21是表示显示立体图像J2的显示装置100、作为遮蔽物的手K2、和辅助显示的关联图像L2之间的进深距离D2的关系的图。进深距离D2为从Z轴方向中的显示装置100到立体图像J2所显示的位置为止的进深方向上的距离。另外,使视差量从关联图像L2连续地变化到规定的显示视差而显示的关联图像L3,显示在进深距离D3的位置上。
当立体图像J2被作为遮蔽物的手K2遮蔽时,控制部106在进深距离D2的位置上以与立体图像J2相同的视差量弹出显示关联图像L2。接着,控制部106一边使在进深距离D2的位置上弹出显示的关联图像L2的视差量连续地变化至规定的显示视差,一边在进深距离D3的位置上以弹出显示的方式显示关联图像L3。即,控制部106一边以使被遮蔽物遮蔽的立体图像的关联图像看起来对于用户浮起来的方式,使视差量从与立体图像相同的视差量连续地变化为规定的显示视差,一边显示关联图像。
另外,例如,使在进深距离D2的位置上弹出显示的关联图像L2的视差量连续地变化的方向,并不限于如进深距离D3的位置那样地从显示装置100远离的方向,也可以为如下的显示方法:使关联图像L2的视差量沿向显示装置100接近的方向连续变化来显示关联图像。
另外,在图21中,表示了弹出显示关联图像的示例,但例如也可以为,一边使视差连续地变化一边显示的关联图像使用移动显示等其他显示方法来显示。
这样,根据本实施方式,在立体图像被遮蔽物遮蔽的情况下,在以与立体图像相同的视差量显示辅助显示之后,接着一边使视差量连续地变化至规定的显示视差一边显示关联图像。由此,用户能够通过视觉辨认辅助显示的关联图像,而更明确地确认被遮蔽的立体图像是什么内容。另外,通过辅助显示被遮蔽的立体图像的关联图像,而能够使立体图像的内容醒目以便于用户容易辨别。而且,由于所显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认关联图像,不会产生双眼拮抗等不舒适感,而能够减轻眼睛的疲劳感。
在以与被遮蔽的立体图像不同的视差量辅助显示关联图像的情况下,当在立体图像的周围瞬间显示了视差量与立体图像的视差量不同的关联图像时,用户的视差图像无法从立体图像向关联图像追随,而存在用户难以视觉辨认辅助显示的关联图像的担忧。由此,如上述显示方法那样地,通过从立体图像的视差量随时间连续地变化为规定的关联图像的视差量,而能够使用户更容易视觉辨认辅助显示的关联图像。
另外,作为显示关联图像的其他方法,考虑了以下的示例。例如,如图22所示地考虑了如下的示例:在作为被指定的对象物的立体图像被遮蔽物(例如,手指等)遮蔽的情况下,控制部106判断被遮蔽的立体图像的显示状态以及遮蔽状态的至少一方,并使辅助显示的关联图像的周围的显示物模糊来进行显示。更具体地,例如,考虑了如下的示例:通过使除了由三维显示欲使其醒目的部分(关联图像)以外的周围的显示物的显示变浅,由此使关联图像醒目地显示。此外,作为使关联图像的周围的显示物模糊的方法的一个示例,例如考虑到如下的显示方法,即,使周围显示物的显示变浅,或变更周围显示物的显示的对比度值,或变更周围显示物的显示的α值(透明度)。
图22表示与上述的图15同样地用如下的显示方法进行显示的示例,即,随着立体图像Q1的周围的组织密度和分布越大而控制部106越使辅助显示的关联图像Q2显示在从立体图像Q1离开的位置上。而且在图22中,控制部106通过使被遮蔽的立体图像Q1的周围显示物的显示变浅(变得模糊),而使辅助显示的关联图像Q2醒目地显示。
这样,根据本实施方式,在立体图像被遮蔽物遮蔽的情况下,将立体图像放大,并使关联图像弹出而显示在从遮蔽物离开的位置上,而且,使显示在关联图像的周围的显示物变浅(变得模糊)而显示。由此,用户能够通过视觉辨认辅助显示的关联图像,而更明确地确认被遮蔽的立体图像是什么内容。另外,通过辅助显示被遮蔽的立体图像的关联图像,而能够使立体图像的内容醒目以便于用户容易辨别。而且,由于所显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认关联图像,不会产生双眼拮抗等不舒适感,而能够减轻眼睛的疲劳感。另外,由于被遮蔽的立体图像的周围的显示物变浅(变得模糊)而显示,所以能够更有效地抑制在遮蔽物与周围显示物之间的边界上发生的用户的双眼拮抗。
此外,使被遮蔽的立体图像的周围显示物变浅来显示的方法并不限于图22所示的使周围的显示物的显示变浅的显示方法,也可以为,变更周围的显示物的对比度值或α值,而使辅助显示的关联图像醒目地显示。另外,也可以为,变更辅助显示的关联图像与周围的显示物之间的对比度值的比或α值的比,而使辅助显示的关联图像醒目地显示。
另外,作为显示关联图像的其他方法,考虑了以下的示例。关于用户的双眼拮抗,对用户的右眼付与的右眼图像与对左眼付与的左眼图像之间的差异越大,通常越容易产生用户的双眼拮抗。例如,用户的右眼图像与左眼图像的匹配度(一致度)越高,越难以产生双眼拮抗。另一方面,用户的右眼图像与左眼图像的匹配度(一致度)越低,越容易产生双眼拮抗。即,用户的右眼图像与左眼图像之间的差异越大,越容易产生双眼拮抗。
由此,例如考虑了如下的示例:在作为被指定的对象物的立体图像被遮蔽物(例如,手指等)遮蔽的情况下,控制部106判断对用户的右眼付与的右眼图像与对左眼付与的左眼图像之间的差异,与该差异的大小对应地选择或变更辅助显示的关联图像的显示方法。即,考虑了如下的示例:与注视被遮蔽物遮蔽的立体图像的用户的右眼图像与左眼图像的匹配度(一致度)对应地,变更辅助显示的关联图像的显示方法。
这样,根据本实施方式,与注视被遮蔽物遮蔽的立体图像的用户的右眼图像与左眼图像的匹配度(一致度)对应地,选择或变更难以产生用户的双眼拮抗的显示方法来显示关联图像。由此,用户能够通过视觉辨认辅助显示的关联图像,而更明确地确认被遮蔽的立体图像是什么内容。另外,通过辅助显示被遮蔽的立体图像的关联图像,能够使立体图像的内容醒目以便于用户容易辨别。而且,由于所显示的关联图像没有被遮蔽物遮蔽,所以用户能够由双眼视觉辨认关联图像,不会产生双眼拮抗等不舒适感,而能够减轻眼睛的疲劳感。另外,能够与产生用户的双眼拮抗的难易程度对应地,选择或变更显示方法,由此,能够以更适当的显示方法来显示关联图像。
图23是在立体图像被遮蔽物遮蔽时,将作为立体图像的图标M1以弹出显示的方式显示的关联图像即图标M2的示例。例如,也可以为,在用户将图标M1所显示的区域遮蔽的过程中,控制部106如图23(a)所示地在图标M2的中央部显示标识V1。在图23(a)中,作为标识V1的一例,而表示了在图标M2的中央部显示×标记的示例。
另外,图23(b)是在立体图像被遮蔽物遮蔽时,将作为立体图像的图标M1以移动显示的方式显示的关联图像即图标M2的示例。此时,也可以为,在用户将图标M1所显示的区域遮蔽的过程中,控制部106如图23(b)所示地在图标M2的中央部显示标识V2。在图23(b)中,作为标识V2的一例表示了在图标M2上半透明地显示遮蔽物(手指等)的轮廓的示例。
另外,如图24所示地例如也能够为,将键盘KB1显示为作为被指定的对象物的立体图像,并将在该键盘KB1上进行打字动作的用户的手指作为遮蔽物,来显示与被用户的手指遮蔽的键盘对应的关联图像即键盘KB2。此时,控制部106也可以在如图24所示地辅助显示的键盘KB2上显示标识W。在图24中,作为标识W的一例,表示了在关联图像KB2上半透明地显示有遮蔽物(手指等)的轮廓的示例。
通过在所显示的关联图像上显示图23~图24所示的标识,而使得用户更容易把握自身用遮蔽物遮蔽的立体图像。即,用户更容易把握自身用遮蔽物选择或者指示的立体图像。由此,在被遮蔽的立体图像的周围通过弹出显示或移动显示来显示关联图像时,用户容易将自身所指示的立体图像与所显示的关联图像建立关联地进行辨别。因此,用户容易理解自身所指示的立体图像作为关联图像而显示的状况,由此,能够防止在以弹出显示或移动显示等方式显示关联图像时,用户发生混乱或迷惑。
此外,在上述任意一个实施例中均可以为,在立体图像被遮蔽物遮蔽的情况下,辅助显示在与立体图像相邻的区域中的关联图像的一部分以与被遮蔽的立体图像重叠的状态显示。另外,也可以为,辅助显示在与立体图像相邻的区域中的关联图像的一部分,以与遮蔽立体图像的遮蔽物重叠的状态显示。即,辅助显示的全部关联图像也可以不显示在不与被遮蔽的立体图像重叠的区域中。另外,也可以为,辅助显示的全部关联图像不显示在没有被遮蔽物遮蔽的区域中。
此外,上述任意一个实施例中的关联图像的显示方法只是显示方法的一个示例。上述说明的关联图像的显示方法全部能够适当地组合来用于关联图像的显示。
此外,也可以为,将用于实现本发明的处理部的功能的程序存储至可计算机读取的存储介质中,并使存储在该存储介质中的程序读入至计算机系统中来执行,由此进行显示控制。此外,在此所谓的“计算机系统”是指包含OS和周边设备等硬件的系统。另外,“计算机系统”也包含具有主页提供环境(或者显示环境)的万维网系统。另外,“可计算机读取的存储介质”是指软盘、磁盘、ROM、CD-ROM等可移动介质、内置于计算机系统中的硬盘等存储装置。而且“可计读的存储介质”包含如在经由互联网等网络或电话线路等通信线路来发送程序的情况下的成为服务器或客户端的计算机系统内部的易失性存储器(RAM)那样地,在一定时间内保持程序的介质。
另外,上述程序也可以从在存储装置等中存储有该程序的计算机系统经由传输介质,或者通过传输介质中的传输波而传输至其他的计算机系统。在此,传输程序的“传输介质”是指互联网等网络(通信网)或电话线路等通信线路(通信线)那样地具有传输信息的功能的介质。另外,上述程序也可以为用于实现上述功能的一部分的程序。而且,也可以为,能够通过与将上述功能全部存储在计算机系统中的程序的组合来实现的、即所谓的差分文件(差分程序)。
附图标记说明
100…显示装置,101…拍摄部,102…检测部,103…操作判断部,104…显示部,105…显示图像存储部,106…控制部
Claims (20)
1.一种显示装置,其特征在于,具有:
显示部,显示包含基于双眼视差而产生的立体图像在内的图像;
检测部,对将所述立体图像遮蔽的遮蔽物进行检测;和
控制部,基于由所述检测部得到的检测结果来判断基于所述遮蔽物所造成的所述立体图像的显示状态以及遮蔽状态的至少一方,并基于该判断结果来控制与所述立体图像关联的关联图像的显示。
2.根据权利要求1所述的显示装置,其特征在于,所述控制部基于所述立体图像的显示位置来控制所述关联图像的显示位置。
3.根据权利要求1或2所述的显示装置,其特征在于,所述控制部在所述图像的区域中的没有被所述遮蔽物遮蔽的区域中控制所述关联图像的显示。
4.根据权利要求1至3中任一项所述的显示装置,其特征在于,所述控制部基于所述检测结果来判断所述立体图像是否被所述遮蔽物遮蔽,在判断为被遮蔽的情况下,以使所述关联图像不被所述遮蔽物遮蔽的方式显示所述关联图像。
5.根据权利要求1至4中任一项所述的显示装置,其特征在于,所述控制部判断被所述遮蔽物遮蔽的所述图像的遮蔽区域,并使所述关联图像显示在所述图像的区域中的与所述遮蔽区域不同的区域中。
6.根据权利要求1至5中任一项所述的显示装置,其特征在于,所述控制部使所述关联图像显示在与所述立体图像相邻的区域中。
7.根据权利要求1至6中任一项所述的显示装置,其特征在于,所述控制部使所述关联图像立体显示在相对于所述显示部的进深方向上、与所述立体图像的显示位置不同的显示位置上。
8.根据权利要求1至7中任一项所述的显示装置,其特征在于,所述控制部使所述关联图像立体显示在相对于所述显示部的进深方向上、与所述立体图像的显示位置相比离所述显示部较远的显示位置上。
9.根据权利要求1至8中任一项所述的显示装置,其特征在于,所述控制部使所述关联图像立体显示在相对于所述显示部的进深方向上、与所述立体图像的显示位置相比离所述显示部较近的显示位置上。
10.根据权利要求1至9中任一项所述的显示装置,其特征在于,所述控制部使在相对于所述显示部的进深方向上的所述关联图像的显示位置随时间变化地立体显示。
11.根据权利要求1至10中任一项所述的显示装置,其特征在于,在所述关联图像中包含有与所述立体图像相同的图像。
12.根据权利要求1至11中任一项所述的显示装置,其特征在于,所述控制部将所述立体图像放大而成的图像作为关联图像而显示。
13.根据权利要求1至12中任一项所述的显示装置,其特征在于,所述控制部判断被所述遮蔽物遮蔽的所述立体图像的遮蔽区域,并基于所述遮蔽区域相对于所述立体图像的比例来显示所述关联图像。
14.一种显示控制程序,其特征在于,使显示装置的计算机执行如下的步骤:
显示包含基于双眼视差而产生的立体图像在内的图像的步骤;
对将所述立体图像遮蔽的遮蔽物进行检测的步骤;和
基于检测结果来判断基于所述遮蔽物所造成的所述立体图像的显示状态以及遮蔽状态的至少一方,并基于该判断结果来控制与所述立体图像关联的关联图像的显示的步骤。
15.一种显示装置,其特征在于,所述立体图像的显示状态以及遮蔽状态的至少一方包含所述立体图像的周围的组织的密度以及分布。
16.一种显示装置,其特征在于,所述立体图像的显示状态以及遮蔽状态的至少一方包含所述立体图像与所述遮蔽物之间相对的尺寸差。
17.一种显示装置,其特征在于,所述立体图像的显示状态以及遮蔽状态的至少一方包含所述立体图像与所述遮蔽物之间的相对的位置关系。
18.一种显示装置,其特征在于,所述立体图像的显示状态以及遮蔽状态的至少一方包含所述立体图像被所述遮蔽物持续遮蔽的时间的长度。
19.一种显示装置,其特征在于,所述立体图像的显示状态以及遮蔽状态的至少一方包含所述立体图像与在所述显示部中显示的周围的显示物之间的相对的位置关系。
20.一种显示装置,其特征在于,所述立体图像的显示状态以及遮蔽状态的至少一方包含注视所述立体图像的用户的右眼图像与左眼图像的一致度。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910343807.8A CN110119203A (zh) | 2011-11-21 | 2012-11-20 | 显示装置及显示控制程序 |
CN201910343811.4A CN110275607A (zh) | 2011-11-21 | 2012-11-20 | 显示装置及显示控制程序 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011253805 | 2011-11-21 | ||
JP2011-253805 | 2011-11-21 | ||
PCT/JP2012/080107 WO2013077338A1 (ja) | 2011-11-21 | 2012-11-20 | 表示装置、表示制御プログラム |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910343811.4A Division CN110275607A (zh) | 2011-11-21 | 2012-11-20 | 显示装置及显示控制程序 |
CN201910343807.8A Division CN110119203A (zh) | 2011-11-21 | 2012-11-20 | 显示装置及显示控制程序 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104054044A true CN104054044A (zh) | 2014-09-17 |
Family
ID=48469780
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910343807.8A Pending CN110119203A (zh) | 2011-11-21 | 2012-11-20 | 显示装置及显示控制程序 |
CN201280067270.3A Pending CN104054044A (zh) | 2011-11-21 | 2012-11-20 | 显示装置及显示控制程序 |
CN201910343811.4A Pending CN110275607A (zh) | 2011-11-21 | 2012-11-20 | 显示装置及显示控制程序 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910343807.8A Pending CN110119203A (zh) | 2011-11-21 | 2012-11-20 | 显示装置及显示控制程序 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910343811.4A Pending CN110275607A (zh) | 2011-11-21 | 2012-11-20 | 显示装置及显示控制程序 |
Country Status (8)
Country | Link |
---|---|
US (1) | US10477191B2 (zh) |
EP (1) | EP2784640A4 (zh) |
JP (3) | JPWO2013077338A1 (zh) |
KR (1) | KR20140097226A (zh) |
CN (3) | CN110119203A (zh) |
BR (1) | BR112014011974A2 (zh) |
RU (2) | RU2018119502A (zh) |
WO (1) | WO2013077338A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104991649A (zh) * | 2015-07-21 | 2015-10-21 | 小米科技有限责任公司 | 屏幕排版方法及装置 |
CN109550247A (zh) * | 2019-01-09 | 2019-04-02 | 网易(杭州)网络有限公司 | 游戏中虚拟场景调整方法、装置、电子设备及存储介质 |
CN110248147A (zh) * | 2018-09-25 | 2019-09-17 | 浙江大华技术股份有限公司 | 一种图像显示方法及装置 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140282269A1 (en) * | 2013-03-13 | 2014-09-18 | Amazon Technologies, Inc. | Non-occluded display for hover interactions |
US9489774B2 (en) * | 2013-05-16 | 2016-11-08 | Empire Technology Development Llc | Three dimensional user interface in augmented reality |
KR102297148B1 (ko) * | 2014-10-31 | 2021-09-03 | 삼성메디슨 주식회사 | 3차원 영상을 표시하는 초음파 시스템 및 그 방법 |
US10289206B2 (en) * | 2015-12-18 | 2019-05-14 | Intel Corporation | Free-form drawing and health applications |
CN106228110B (zh) * | 2016-07-07 | 2019-09-20 | 浙江零跑科技有限公司 | 一种基于车载双目相机的障碍物及可行驶区域检测方法 |
JP2019105777A (ja) * | 2017-12-14 | 2019-06-27 | セイコーエプソン株式会社 | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 |
JP7135324B2 (ja) * | 2018-01-23 | 2022-09-13 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、情報処理システム及びプログラム |
CN113077510B (zh) * | 2021-04-12 | 2022-09-20 | 广州市诺以德医疗科技发展有限公司 | 遮蔽下的立体视功能检查系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101529924A (zh) * | 2006-10-02 | 2009-09-09 | 株式会社东芝 | 用于产生立体图像的方法、装置和计算机程序产品 |
CN101553775A (zh) * | 2006-12-07 | 2009-10-07 | 微软公司 | 操作触摸屏界面 |
JP2010092272A (ja) * | 2008-10-08 | 2010-04-22 | Sharp Corp | 画像表示/像検知装置、補助画像表示方法、およびプログラム |
CN101808251A (zh) * | 2010-04-06 | 2010-08-18 | 浙江大学 | 立体图像对中遮挡信息的提取方法 |
US20110102556A1 (en) * | 2009-11-03 | 2011-05-05 | Kim Sungdo | Method for displaying 3d image by using the binocular disparity in mobile terminal and mobile terminal using the same |
WO2011114567A1 (ja) * | 2010-03-18 | 2011-09-22 | 富士フイルム株式会社 | 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体 |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH086708A (ja) | 1994-04-22 | 1996-01-12 | Canon Inc | 表示装置 |
JPH09190278A (ja) | 1996-01-09 | 1997-07-22 | Mitsubishi Motors Corp | 機器の操作系選択装置 |
JP3577577B2 (ja) * | 1996-02-23 | 2004-10-13 | 株式会社タイテック | 空中立体視装置 |
JP4031120B2 (ja) | 1998-09-10 | 2008-01-09 | 株式会社東芝 | オブジェクト強調表示方法及びその装置並びに記憶媒体 |
JP2003005912A (ja) | 2001-06-20 | 2003-01-10 | Hitachi Ltd | タッチパネル付きディスプレイ装置及び表示方法 |
WO2003036452A1 (fr) * | 2001-10-24 | 2003-05-01 | Sony Corporation | Dispositif servant a afficher une information d'image |
JP4518955B2 (ja) * | 2002-11-29 | 2010-08-04 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 接触エリアの移動させられた表現を用いたユーザインタフェース |
CN1266653C (zh) | 2002-12-26 | 2006-07-26 | 联想(北京)有限公司 | 一种显示三维图像的方法 |
JP3874737B2 (ja) * | 2003-03-31 | 2007-01-31 | 株式会社東芝 | 表示装置 |
JP3939709B2 (ja) | 2004-04-30 | 2007-07-04 | 日本電信電話株式会社 | 情報入力方法および情報入出力装置 |
CN101180599A (zh) * | 2005-03-28 | 2008-05-14 | 松下电器产业株式会社 | 用户界面系统 |
WO2007063478A2 (en) * | 2005-12-02 | 2007-06-07 | Koninklijke Philips Electronics N.V. | Stereoscopic image display method and apparatus, method for generating 3d image data from a 2d image data input and an apparatus for generating 3d image data from a 2d image data input |
US20120032851A1 (en) | 2007-01-09 | 2012-02-09 | Selex Sensors & Airborne Systeme Limited | Emitter location |
EP2144448B1 (en) | 2007-03-30 | 2019-01-09 | National Institute of Information and Communications Technology | Floating Image Interaction Device |
CN101072366B (zh) | 2007-05-24 | 2010-08-11 | 上海大学 | 基于光场和双目视觉技术的自由立体显示系统和方法 |
JPWO2009025034A1 (ja) | 2007-08-22 | 2010-11-18 | パイオニア株式会社 | 画像表示装置 |
US8416268B2 (en) | 2007-10-01 | 2013-04-09 | Pioneer Corporation | Image display device |
US9092134B2 (en) | 2008-02-04 | 2015-07-28 | Nokia Technologies Oy | User touch display interface providing an expanded selection area for a user selectable object |
CN101266530B (zh) * | 2008-04-04 | 2012-12-12 | 中国海洋大学 | 大屏幕三维测量触摸屏 |
JP4657331B2 (ja) * | 2008-08-27 | 2011-03-23 | 富士フイルム株式会社 | 3次元表示時における指示位置設定装置および方法並びにプログラム |
JP5036875B2 (ja) | 2008-09-26 | 2012-09-26 | パイオニア株式会社 | 画像表示装置及び画像表示システム |
JP4650549B2 (ja) * | 2008-10-06 | 2011-03-16 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US8228435B2 (en) * | 2008-12-18 | 2012-07-24 | Sony Corporation | Enhanced metadata presented in a pop-up window on cross-media bar user interface when a user hovers a screen cursor over a TV channel icon |
JP5328539B2 (ja) * | 2009-07-21 | 2013-10-30 | 京セラ株式会社 | 入力装置 |
JP2011028560A (ja) * | 2009-07-27 | 2011-02-10 | Sony Corp | 情報処理装置、表示方法及び表示プログラム |
CN102640502B (zh) * | 2009-10-14 | 2015-09-23 | 诺基亚公司 | 自动立体渲染和显示装置 |
JP2011090611A (ja) | 2009-10-26 | 2011-05-06 | Canon Inc | 映像装置及びその制御方法 |
JP5446769B2 (ja) * | 2009-11-20 | 2014-03-19 | 富士通モバイルコミュニケーションズ株式会社 | 3次元入力表示装置 |
KR20110076771A (ko) * | 2009-12-29 | 2011-07-06 | 한국전자통신연구원 | 터치 기반의 멀티미디어 기기의 자판 표시 방법 및 장치 |
KR101114750B1 (ko) | 2010-01-29 | 2012-03-05 | 주식회사 팬택 | 다차원 영상을 이용한 사용자 인터페이스 장치 |
JP4900741B2 (ja) | 2010-01-29 | 2012-03-21 | 島根県 | 画像認識装置および操作判定方法並びにプログラム |
US8384683B2 (en) * | 2010-04-23 | 2013-02-26 | Tong Luo | Method for user input from the back panel of a handheld computerized device |
JP5573379B2 (ja) | 2010-06-07 | 2014-08-20 | ソニー株式会社 | 情報表示装置および表示画像制御方法 |
JP5593972B2 (ja) | 2010-08-30 | 2014-09-24 | ソニー株式会社 | 情報処理装置、立体視表示方法、及びプログラム |
US20120056989A1 (en) | 2010-09-06 | 2012-03-08 | Shimane Prefectural Government | Image recognition apparatus, operation determining method and program |
US20120069055A1 (en) | 2010-09-22 | 2012-03-22 | Nikon Corporation | Image display apparatus |
WO2012042974A1 (ja) | 2010-09-30 | 2012-04-05 | 富士フイルム株式会社 | 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム |
CN102005062A (zh) | 2010-11-09 | 2011-04-06 | 福州瑞芯微电子有限公司 | 用于三维立体显示的三维图像的产生方法及装置 |
-
2012
- 2012-11-20 JP JP2013545939A patent/JPWO2013077338A1/ja active Pending
- 2012-11-20 RU RU2018119502A patent/RU2018119502A/ru not_active Application Discontinuation
- 2012-11-20 KR KR1020147014205A patent/KR20140097226A/ko not_active Application Discontinuation
- 2012-11-20 BR BR112014011974A patent/BR112014011974A2/pt not_active Application Discontinuation
- 2012-11-20 US US14/359,166 patent/US10477191B2/en active Active
- 2012-11-20 EP EP12851046.8A patent/EP2784640A4/en not_active Withdrawn
- 2012-11-20 WO PCT/JP2012/080107 patent/WO2013077338A1/ja active Application Filing
- 2012-11-20 CN CN201910343807.8A patent/CN110119203A/zh active Pending
- 2012-11-20 CN CN201280067270.3A patent/CN104054044A/zh active Pending
- 2012-11-20 CN CN201910343811.4A patent/CN110275607A/zh active Pending
- 2012-11-20 RU RU2014124192A patent/RU2658790C2/ru active
-
2017
- 2017-10-02 JP JP2017192348A patent/JP6508280B2/ja active Active
-
2019
- 2019-04-01 JP JP2019069836A patent/JP2019145133A/ja not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101529924A (zh) * | 2006-10-02 | 2009-09-09 | 株式会社东芝 | 用于产生立体图像的方法、装置和计算机程序产品 |
CN101553775A (zh) * | 2006-12-07 | 2009-10-07 | 微软公司 | 操作触摸屏界面 |
JP2010092272A (ja) * | 2008-10-08 | 2010-04-22 | Sharp Corp | 画像表示/像検知装置、補助画像表示方法、およびプログラム |
US20110102556A1 (en) * | 2009-11-03 | 2011-05-05 | Kim Sungdo | Method for displaying 3d image by using the binocular disparity in mobile terminal and mobile terminal using the same |
WO2011114567A1 (ja) * | 2010-03-18 | 2011-09-22 | 富士フイルム株式会社 | 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体 |
CN101808251A (zh) * | 2010-04-06 | 2010-08-18 | 浙江大学 | 立体图像对中遮挡信息的提取方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104991649A (zh) * | 2015-07-21 | 2015-10-21 | 小米科技有限责任公司 | 屏幕排版方法及装置 |
CN104991649B (zh) * | 2015-07-21 | 2019-01-11 | 小米科技有限责任公司 | 屏幕排版方法及装置 |
CN110248147A (zh) * | 2018-09-25 | 2019-09-17 | 浙江大华技术股份有限公司 | 一种图像显示方法及装置 |
CN110248147B (zh) * | 2018-09-25 | 2022-08-23 | 浙江大华技术股份有限公司 | 一种图像显示方法及装置 |
CN109550247A (zh) * | 2019-01-09 | 2019-04-02 | 网易(杭州)网络有限公司 | 游戏中虚拟场景调整方法、装置、电子设备及存储介质 |
CN109550247B (zh) * | 2019-01-09 | 2022-04-08 | 网易(杭州)网络有限公司 | 游戏中虚拟场景调整方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
BR112014011974A2 (pt) | 2017-05-30 |
KR20140097226A (ko) | 2014-08-06 |
EP2784640A1 (en) | 2014-10-01 |
WO2013077338A1 (ja) | 2013-05-30 |
JP2018061251A (ja) | 2018-04-12 |
EP2784640A4 (en) | 2015-10-21 |
JP6508280B2 (ja) | 2019-05-08 |
CN110119203A (zh) | 2019-08-13 |
JP2019145133A (ja) | 2019-08-29 |
US20140320615A1 (en) | 2014-10-30 |
RU2018119502A3 (zh) | 2019-02-27 |
RU2014124192A (ru) | 2015-12-27 |
CN110275607A (zh) | 2019-09-24 |
JPWO2013077338A1 (ja) | 2015-04-27 |
RU2018119502A (ru) | 2018-11-15 |
US10477191B2 (en) | 2019-11-12 |
RU2658790C2 (ru) | 2018-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104054044A (zh) | 显示装置及显示控制程序 | |
EP2458880B1 (en) | Mobile terminal and operation control method thereof | |
CN104040457B (zh) | 移动显示设备 | |
EP2469866B1 (en) | Information processing apparatus, information processing method, and program | |
US9348612B2 (en) | Storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method | |
CN104914587A (zh) | 显示设备、终端设备和显示方法 | |
US20120075352A1 (en) | Storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method | |
EP2529805B1 (en) | Information processing apparatus, information processing method, and program, which upon display of an image take into account the position of a physical object placed on the display | |
US11711507B2 (en) | Information processing apparatus, program and information processing method | |
US20170185147A1 (en) | A method and apparatus for displaying a virtual object in three-dimensional (3d) space | |
US8988500B2 (en) | Information processing apparatus, stereoscopic display method, and program | |
CN102981605A (zh) | 信息处理装置、信息处理方法和程序 | |
CN102572466A (zh) | 显示处理装置、显示处理方法、以及显示处理程序 | |
CN103455294A (zh) | 用于同时示出多个信息的设备 | |
EP2803198B1 (en) | 3d display apparatus and method thereof | |
JP2012103980A5 (zh) | ||
KR20100093507A (ko) | 입체 메인화면이 표시되는 휴대단말기 | |
JP6424947B2 (ja) | 表示装置、およびプログラム | |
JP6269692B2 (ja) | 表示装置、電子機器、およびプログラム | |
JP5879856B2 (ja) | 表示装置、表示方法及びプログラム | |
JP2019050583A (ja) | 表示装置、およびプログラム | |
CN110581987A (zh) | 具备手势感测功能的三维显示器 | |
JP2014116843A (ja) | 画像処理装置、画像処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20140917 |
|
RJ01 | Rejection of invention patent application after publication |