CN102595159A - 信息处理装置、立体显示方法以及程序 - Google Patents

信息处理装置、立体显示方法以及程序 Download PDF

Info

Publication number
CN102595159A
CN102595159A CN2011103534914A CN201110353491A CN102595159A CN 102595159 A CN102595159 A CN 102595159A CN 2011103534914 A CN2011103534914 A CN 2011103534914A CN 201110353491 A CN201110353491 A CN 201110353491A CN 102595159 A CN102595159 A CN 102595159A
Authority
CN
China
Prior art keywords
display position
stereophotograph
display
locus
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2011103534914A
Other languages
English (en)
Inventor
野田卓郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN102595159A publication Critical patent/CN102595159A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus

Abstract

一种信息处理装置、立体显示方法以及程序。该信息处理装置可包括确定单元,该确定单元被配置为确定被设置为距确定单元的表面在阈值距离之内的操作工具的一部分的第一空间位置。该第一空间位置可以是相对于确定单元表面在深度方向上被确定的。该装置还可以包括控制单元,该控制单元被配置为生成第一信号以在第一显示位置向用户显示立体图像。该第一显示位置可以被设置为距第一空间位置在预定距离之内。

Description

信息处理装置、立体显示方法以及程序
相关申请的交叉引用
本申请基于并要求2010年11月11日提交的日本专利申请JP2010-253150的优先权,其全部内容通过引用而结合于此。
技术领域
所公开的示例实施例涉及信息处理装置、立体显示方法以及计算机可读介质。
背景技术
近年来,能够立体显示诸如图像内容(比如,立体相片)等的显示对象以及操作对象的立体显示设备正投入实践使用,并越来越普及。例如,能够立体显示的个人计算机(在下文中,PC)、便携式游戏机和电视机的一些显示设备已经投放市场。对于这种立体显示设备,例如日本专利申请JP 2010-045584A公开了用于修正能够准确表示由显示对象的创建者预期的突出量、回缩量(在下文中,深度量)等的立体图像的方法。
发明内容
然而,当在虚拟三维空间中立体显示图像时,产生在二维显示图像的情况下不会发生的问题。具体地,当真实空间中的对象与虚拟三维空间中立体显示的对象重叠时,在实际上具有三维形状的对象与通过虚拟实现视差立体示出的显示对象之间出现关于距离感的不匹配,从而给观看用户以奇怪感觉。例如,有时引起真实空间中将不会出现的视觉不匹配,如,应当在前景中的部分被背景中的物体遮挡,而给用户以不愉快感觉。
鉴于以上内容,期望提供新型和改进的、能够减少真实空间中的对象靠近立体显示显示对象的显示表面时用户体验的不愉快感觉或奇怪感觉的信息处理装置、立体显示方法以及程序。
根据示例实施例,一种信息处理装置,包括:确定单元,被配置为确定设置为距所述确定单元的表面在阈值距离之内的操作工具的一部分的第一空间位置。该第一空间位置是相对于确定单元的表面在深度方向上被确定的。控制单元,被配置为生成第一信号以在第一显示位置向用户显示立体图像。该第一显示位置距第一空间位置在预定距离之内。
根据附加示例实施例,一种计算机实施的方法,包括:确定设置为距确定单元的表面在阈值距离之内的操作工具的一部分的第一空间位置。该第一空间位置是相对于确定单元的表面在深度方向上被确定的。生成第一信号以在第一显示位置向用户显示立体图像。第一显示位置距第一空间位置在预定距离之内。
根据附加示例实施例,一种存储指令的非易失的计算机可读介质,所述指令当被处理器执行时使处理器执行包括以下步骤的方法:确定设置为距确定单元的表面在阈值距离之内的操作工具的一部分的第一空间位置。第一空间位置是相对于确定单元的表面在深度方向上被确定的。生成第一信号以在第一显示位置向用户显示立体图像。第一显示位置距第一空间位置在预定距离之内。
根据所公开的示例实施例,可以减少真实空间中的对象靠近立体显示显示对象的显示表面时用户体验的不愉快感觉或奇怪感觉。
附图说明
图1是根据所公开的示例性实施例的信息处理装置的硬件配置图;
图2是根据第一示例性实施例的信息处理装置的功能配置图;
图3是用于说明立体显示原理的图;
图4是用于说明根据第一示例实施例的立体显示设备进行的深度控制的图;
图5是用于说明根据第一示例实施例的立体显示设备进行的深度控制的图;
图6是示出了根据第一实施例的立体显示设备进行的深度控制处理的流程图;
图7是用于说明根据第一实施例的立体显示设备进行的XY坐标控制的图;
图8是描述根据第二和第三示例实施例的信息处理装置的功能配置图;
图9是用于说明根据第二示例实施例的立体显示设备进行的深度/编辑控制的图;
图10是用于说明根据第二示例实施例的立体显示设备进行的深度/编辑控制的图;
图11是示出了根据第二示例实施例的立体显示设备进行的深度/编辑控制处理的流程图;
图12是用于说明图11的深度/编辑控制处理的图;
图13是示出了作为根据第二示例实施例的立体显示设备进行的深度/编辑控制结果的显示屏幕的图;
图14是示出了根据第二示例实施例的修改例1的立体显示设备进行的深度/编辑控制处理的流程图;
图15是用于说明图14的深度/编辑控制处理的图;
图16是示出了根据第二示例实施例的修改例2的立体显示设备进行的深度/编辑控制处理的流程图;
图17是用于说明图16的深度/编辑控制处理的图;
图18是示出了根据第三示例实施例的立体显示设备进行的深度控制处理的流程图;
图19是用于说明根据第三示例实施例的立体显示设备进行的深度/编辑控制处理的图;
图20是示出了作为根据第三示例实施例的立体显示设备进行的深度/编辑控制结果的显示屏幕的图;
图21是用于说明根据附加的示例实施例的深度/编辑控制处理的图;
图22是用于说明根据附加的示例实施例的深度/编辑控制处理的图;
图23是用于说明屏幕转换的图;以及
图24是用于说明深度调整的图。
具体实施方式
本申请涉及一种信息处理装置10,包括:确定单元42,被配置为确定设置为距确定单元42的表面在阈值距离之内的操作工具的一部分的第一空间位置,第一空间位置是相对于确定单元表面在深度方向上被确定的;以及控制单元44,被配置为生成第一信号以在第一显示位置显示立体图像,第一显示位置距第一空间位置在预定距离之内。
在下文中,将参照附图详细描述示例实施例。应注意,在本说明书和附图中,功能和配置基本上一样的结构元件用同样的附图标记标注,略去了对这些结构元件的重复说明。
附加地,将按以下次序给出说明。
1.立体显示设备的硬件配置
2.立体显示设备的功能配置(第一示例实施例)
3.立体显示设备进行的深度控制(第一示例实施例)
4.深度控制处理(第一示例实施例)
5.XY坐标的控制(第一示例实施例)
6.立体显示设备的功能配置(第二示例实施例)
7.立体显示设备进行的深度/编辑控制(第二示例实施例)
8.立体显示设备进行的深/度编辑控制(第二示例实施例)
9.示例性深度/编辑控制处理(第二示例实施例)
10.附加的示例性深度/编辑控制处理(第二示例实施例)
11.立体显示设备进行的缩小/放大控制(第三示例实施例)
12.组合
信息处理装置通常包括触摸屏。信息处理装置可以是个人计算机(PC)、智能电话、个人数字助理、音乐播放器、游戏终端、数字家用电器等。信息处理装置也可以是要与以上设备相连的外围设备。此外,根据各示例实施例的信息处理装置是能够显示以下对象的立体显示设备:该对象立体显示(三维显示)在可以立体观看的显示器上。以下,将把立体相片作为在立体显示图像内容中包括的一个或更多个显示对象的示例给出说明。
以下,将把立体显示设备10作为示例描述根据第一至第三示例实施例的信息处理装置。本实施例提出了能够减少当真实空间中的对象靠近立体显示设备10上立体显示的显示对象时用户体验的不愉快感觉或奇怪感觉的立体显示方法。
1.立体显示设备的硬件配置
图1是示出了根据所公开的示例实施例的立体显示设备10的硬件配置示例的框图。参照图1,立体显示设备10包括触摸屏20、总线30、CPU(中央处理单元)32、ROM(只读存储器)34以及RAM(随机存取存储器)36。
触摸屏20包括确定表面22和显示表面(触摸表面)24,确定表面22的示例是检测表面22。检测表面22检测操作工具(用户的手指或笔)与触摸屏20的接触或接近,以及生成表明接近位置或接触位置的电信号。触摸屏20是用于输入信息的输入设备的示例。检测表面22可以例如根据任意触摸检测方法(诸如压敏性方法、电容性方法或红外方法等)形成。触摸屏20可以是能够只检测对显示表面24的接触的触摸屏,但是,优选地,它能够检测接近和接触。
显示表面24显示来自立体显示设备10的输出图像。显示表面24可以例如通过使用液晶、有机发光二极管(例如,有机EL:OLED)或阴极射线管(CRT)实现。可以把使用玻璃的方法、使用视差屏障或柱状透镜的自动立体方法等用于允许立体观看的显示器。
总线30把检测表面22、显示表面24、CPU 32、ROM 34以及RAM36互连。CPU 32控制立体显示设备10的整体操作。ROM 34存储构建要由CPU 32执行的软件的数据和程序。RAM 36暂时存储由CPU 32进行处理时的数据和程序。附加地,立体显示设备10还可以包括除了图1中示出的结构元件以外的结构元件。
2.立体显示设备的功能配置(第一示例实施例)
接下来,将参照图2描述根据第一示例实施例的立体显示设备10的功能配置。根据本示例实施例的立体显示设备10包括立体显示单元40、确定单元、显示控制单元44以及存储单元60,确定单元的示例是接近检测单元42。
在立体显示单元40的显示表面上提供触摸屏20。立体显示单元40立体显示图像内容。图像内容是具有视差信息的静止图像或视频,诸如,立体视频等。此处,下面把包括立体相片的图像内容作为每个都具有个体视差信息的一个或更多个显示对象作为示例给出说明。
接近检测单元42检测操作工具向立体显示单元40的触摸表面的接近。此处,将把用户的手指作为操作工具的示例给出说明。在检测到操作工具的接近的情形中,显示控制单元44把操作工具接近位置的深度方向上显示的图像内容中包括的一个或更多个立体相片之中的一个立体相片作为控制目标,控制此立体相片的位置使其更接近操作工具的接近位置。存储单元60存储图像内容、图像内容中包括的立体相片的深度量等。
显示控制单元44读取存储单元60中存储的图像数据,以及使得立体显示单元40显示已读取的图像数据。显示控制单元44还使得立体显示单元40显示视频内容、图形用户接口(GUI)等。此时,显示控制单元44执行用于立体显示显示对象(诸如图像数据、视频内容、GUI等)的运算。例如,显示控制单元44执行用于使得显示对象突出立体显示单元40的显示表面或者回退到显示表面后方的深度量的运算。
在虚拟三维空间中显示立体相片的情况中,除了由虚拟三维空间本身含有的深度信息之外,立体相片本身也含有视差信息。图3中示出了在三维空间中存在立体相片的情形的示意图。在此情形中,由于右眼的相片和左眼的相片在显示表面24上,所以在显示表面24上看到它们,但是看到相片中示出的A突出到显示表面24外。下面简要描述此立体显示的原理。为了立体示出显示对象,在显示表面上彼此独立地显示右眼的显示对象和左眼的显示对象,如图3中所示,使得只有右眼看到右眼的显示对象,只有左眼看到左眼的显示对象。为了使只有右眼看到右眼的显示对象以及只有左眼看到左眼的显示对象,在许多情形中使用偏振。例如,通过第一方向上线性偏振的光显示右眼的显示对象,通过与第一方向正交的第二方向上线性偏振的光显示左眼的显示对象。此外,通过佩戴让第一方向上线性偏振的光在右眼上通过的透镜以及让第二方向上线性偏振的光在左眼上通过的透镜,可以形成右眼只可以看到右眼的显示对象以及左眼只可以看到左眼的显示对象的情况。
当形成这种情况时,在连接右眼和右眼的显示对象的视线以及连接左眼和左眼的显示对象的视线交叉的位置处看到立体显示的显示对象。另外,通过控制右眼的显示对象与左眼的显示对象之间的距离,可以调整交汇角。立体显示的显示对象的突出程度随着交汇角的改变而改变。
即,通过改变显示表面上左眼和右眼显示对象的深度量控制显示位置,可以控制立体显示的显示对象的回退程度或突出程度。另外,此处描述了通过使用偏振实现立体显示的方法,但是本示例实施例不限于此,可以应用能够立体显示显示对象的任何立体显示方法。
下面再次参照图1,如上所述,显示控制单元44通过控制左眼和右眼显示对象的显示使得显示对象被立体显示。把表明由显示控制单元44确定的显示对象回退程度或突出程度的信息(在下文中,深度量或深度信息)输入到立体显示单元40。把由显示控制单元44从存储单元60读取的显示对象的数据也输入到立体显示单元40。当输入深度量时,立体显示单元40基于所输入的深度量来显示显示对象。
附加地,使用CPU 32等实现显示控制单元44的功能。另外,通过ROM 34或RAM 36(或者未示出的可移除记录介质等)实现存储单元60的功能。
3.立体显示设备进行的深度控制(第一示例实施例)
在使用触摸屏20执行操作的情形中,突出表面的立体相片的部分以及操作工具有时彼此重叠。例如,在图3中,当操作工具靠近显示表面24时发生这种状况。在深度信息中发生不一致,而引起关于外观的奇怪感觉。例如,针对突出于显示表面显示的立体相片,操作工具被显示为仿佛它沉入到立体相片中,从而向用户给出奇怪感觉或不愉快感觉。相应地,本示例实施例执行以下自动深度控制作为用于解决此现象的解决方案。根据此自动深度控制,触摸屏20检测到操作工具将要与立体相片重叠,基于根据立体相片含有的视差信息获得的深度信息来自动改变立体相片在深度方向上的位置,以使得立体相片与操作工具不重叠。
附加地,立体相片本身包括具有视差的多个构造(在此情形中,立体相片),但是下面以存在两个视差的情形作为示例对所公开的示例实施例给出说明。此时,立体相片包括要向左眼以及右眼投射的构造(在此情形中,左眼的相片和右眼的相片),因而,可以估算构造中的一个构造中的哪个点对应于另一构造中的哪个点。这种方法包括称为模板匹配的方法。
下面参照图3和4进一步描述根据本示例实施例的立体显示设备10进行的深度控制。如图4中所示,在检测到操作工具在显示表面24上的接触(触摸检测)的情形中,显示控制单元44把作为在触摸位置的深度方向上显示的显示对象的立体相片作为控制目标,并计算立体相片在深度方向上的位置(深度量)。
当使用模板匹配时,例如,沿着水平方向查找图3中右眼的图像A中的任意点Pa靠近左眼的图像A中的什么位置。右眼的图像A中的点Pa与左眼的图像A中的目标点Pa’之间的相对偏移(像素差)是视差,用通过把相对偏移应用于立体空间获得的点表示距触摸表面(显示表面24)的深度量。
具体地,当把图4左图的立体相片的左与右图像之间的相对偏移作为D、眼睛与显示表面24之间的距离作为Lc、左与右眼之间的空间作为Dc、以及要获得的立体相片在深度方向上的位置(深度量)作为Z时,当使得显示表面24的深度为0时,用公式(1)表示立体相片的深度量Z,如下:
Z=D/Dc×Lc    (1)
以此方式,计算出操作工具的接触位置或接近位置处的深度量Z,通过深度量Z把立体相片偏移得较深以使得从右图向图4的左图做出转换,使得立体相片距显示表面的深度为Z。这使得状态从手指沉入到立体相片的凸出部分中的状态(图4的右图)转变为立体相片的凸出部分与操作工具(手指)或显示表面24重合的状态(图4的左图),可以减少用户体验的不愉快感觉或奇怪感觉。
附加地,也可以把快速立体匹配的技术而非模板匹配用于深度量Z的计算,快速立体匹配的技术用于基于由立体摄像装置获取的两个图像之间的视差来测量到目标对象的距离。当使用此技术时,可以增加深度量计算的准确性。
如上所述,当接近检测单元42检测到操作工具在显示表面24上的接触时,显示控制单元44执行控制以使得作为控制目标的显示对象在深度方向上的位置与显示表面24重合。
接下来,将参照图5针对不仅关于接触状态而且关于接近状态的情形描述立体显示设备10进行的深度控制。如图5的左图中所示,在接近检测单元42检测到操作工具向显示表面24接近的情形(即,接近检测单元42确定距显示表面在阈值距离之内的操作工具的一部分的第一空间位置)中,显示控制单元44把在接近位置的深度方向上显示的立体相片作为控制目标,以及计算立体相片在深度方向上的第一显示位置(深度量Z)。显示控制单元44基于接近位置与显示表面之间的距离以及计算出的深度量Z,执行控制以使得作为控制目标的立体相片在深度方向上的位置靠近操作工具的接近位置或与操作工具的接近位置重合。
此外,如图5的中间和右图中所示,检测到操作工具的移动,随着检测,显示控制单元44重复深度量的运算。随着操作工具的接近位置(第二空间位置)与显示表面24之间的距离减小,显示控制单元44自动控制深度以使得立体相片在深度方向上的位置(即,第二显示位置)靠近显示表面24或与显示表面24重合。接近检测单元42重复上述深度控制直到操作工具与显示表面24隔开至少预定距离为止。
4.深度控制处理(第一示例实施例)
接下来,将描述根据本示例实施例的立体显示设备10的操作。图6是示出了立体显示设备10的操作的深度控制处理的流程图。当开始深度控制处理时,显示控制单元44判断接近检测单元42是否检测到操作工具的接触或接近(步骤S605)。在既未检测到接近也未检测到接触的情形中,显示控制单元44立即结束处理。另一方面,在检测到接近或接触的情形中,显示控制单元44判断是否在检测到的接近位置或接触位置的深度方向上显示有立体相片(步骤S610)。附加地,即使在相对于检测到的接近位置或接触位置的深度方向有一些偏离的位置处显示有立体相片的情况下,显示控制单元44也可以判断在检测到的接近位置或接触位置的深度方向上显示有立体相片。
在未以这种方式显示立体相片的情形中,显示控制单元44判断不存在控制目标,以及立即结束处理。另一方面,在以这种方式显示立体相片的情形中,显示控制单元44根据上述计算方法来计算作为控制目标的立体相片的深度量(即,深度方向上的第一位移)(步骤S615)。
接下来,显示控制单元44基于计算出的深度量,计算从立体相片至接近位置或接触位置的距离(步骤S620)。基于计算结果改变立体相片在深度方向上的位置,以使得立体相片贴近或与操作工具重合(步骤S625)。在这样的实施例中,如上面参照图4描述的那样,第一空间位置和第一显示位置之间在深度方向上的位移超过第二空间位置和第二显示位置之间的对应位移,即,立体图片被设置为:相对于距离第二空间位置而言,更接近于操作工具部分。
如上所述,根据第一示例实施例的立体显示设备10,当操作工具贴近或触摸显示表面24时,检测接近位置或接触位置。随后,当在接触位置或接近位置的深度方向上显示的立体相片突出于显示表面24时,把立体相片的位置偏移得更深以使得将会在彼此不重叠的情况下显示操作工具和立体相片。另一方面,当显示的立体相片比显示表面24下陷时,立体相片被显示为其位置向前偏移,以使得立体相片被拉向操作工具并触摸操作工具。这使得能够在防止立体相片的凹陷或凸出在立体空间中与操作工具重叠的情况下移动要显示的立体相片以贴近或与操作工具重合,以及用二维应用(诸如,敲击、拖动以及点击操作等)执行的操作可以在没有奇怪感觉的情况下用包括立体相片的三维应用实现。
5.XY坐标的控制(第一示例实施例)
移动立体相片显示位置的方向可以是如上所述的深度方向或者与显示表面24平行的竖直和水平方向中的任一个。例如,在图7的顶部图中,立体相片Ps和Pt显示为突出显示表面24。图7示出了立体相片显示为彼此重叠的情形。此处,立体相片Pt中包括主体Pt’(显示对象),立体相片Ps中包括主体Ps’(显示对象)。立体相片Ps的主体Ps’位于立体相片Pt的前方而立体相片Pt的主体Pt’位于立体相片Ps的后部,以及,当作为整体观看时,看到后部的立体相片Pt的主体Pt’部分地阻挡前方的立体相片Ps的主体Ps’(凸出部分)。这种立体显示在真实空间中不出现,并因此使得用户体验奇怪感觉。
如图7的顶部图中所示,在此显示状态中使操作工具向立体相片Ps和Pt贴近。随后,根据操作工具的移动,显示控制单元44朝向显示表面24的方向推后立体相片Ps和立体相片Pt。接下来,如图7的中间图中所示,当操作工具在与显示表面24平行的方向(在此情形中,左方)上移动作为控制目标的立体相片Ps时,显示控制单元44在与显示表面24平行的方向上移动立体相片Ps的位置以及执行控制以使得立体相片Ps的位置贴近操作工具的接近位置或与操作工具的接近位置重合。这使得在立体相片Pt的左方显示立体相片Ps。作为结果,如图7的底部图中所示,可以解决后部的立体相片Pt的主体Pt’阻挡前方的立体相片Ps的主体Ps’的状态。附加地,可以在改变立体相片Ps的深度方向之后在XY方向(与显示表面24平行的方向)上偏移立体相片Ps,如图7中所示,或者可以在不改变立体相片Ps的深度方向的情况下在XY方向上偏移立体相片Ps。
6.立体显示设备的功能配置(第二示例实施例)
接下来,将参照图8描述根据第二示例实施例的立体显示设备10的功能配置。根据第二示例实施例的立体显示设备10,与第一示例实施例中描述的自动深度控制一起执行诸如写入等的编辑控制。
根据第二示例实施例的立体显示设备10包括立体显示单元40、接近检测单元42、显示控制单元44、深度调整单元46、图像编辑单元48以及存储单元60。在以上之中,将主要描述第一示例实施例的功能配置中未包括的深度调整单元46和图像编辑单元48。深度调整单元46根据用户进行的操作来在深度方向上调整作为控制目标的显示对象的位置。图像编辑单元48通过在立体相片上虚拟覆盖的图层表面或者立体相片上绘制图像,执行在立体显示图像内容的立体空间中获得期望图像的编辑。此时在上面执行绘制的图层(构造)可以是相片本身的构造(显示表面24),或者可以通过提供用于在与相片本身的构造一样的位置处写入的构造(图层表面)来单独管理原始的立体相片和编辑内容。此处,将描述在图层表面上绘制图像的情形。
7.立体显示设备进行的深度/编辑控制(第二示例实施例)
图9示出了根据本示例实施例的立体显示设备10进行的深度/编辑控制的示例。显示控制单元44首先执行自动深度控制。具体地,当检测到操作工具向显示表面24的接近或接触时,显示控制单元44把在接近位置或接触位置的深度方向上显示的立体相片作为控制目标,并计算立体相片在深度方向上的位置(深度量)。在图9的左图中,显示控制单元44基于深度量向前偏移立体相片以使得立体相片的凸出部分WA到达显示表面24。作为以此方式执行自动深度控制的结果,立体相片的凸出部分WA的显示位置达到与操作工具接近或接触的位置。
接下来,如在图9的中间图中一样,深度调整单元46调整立体相片要被显示的深度。此处,把立体相片调整为显示在比自动控制之后的位置深Z’的量的位置处。通过以此方式调整立体空间中深度方向上的位置,可以指向立体空间中的任意位置。在图9的右图中,在立体空间中立体相片的图层表面(与立体相片相同的位置)上被指的写入位置处用笔执行写入。这意味着通过在立体相片前方的立体空间中写入任意图案或字母来执行编辑。
作为用于用户输入深度调整量Z’的方法,存在通过操作显示表面24上提供的滑动体24a输入调整量Z’的方法,如图24的右下图中所示。还可以通过未示出的按钮或旋钮的操作而非滑动体24a的操作输入调整量Z’。还可以如图24的左下图中所示通过用户控制夹捏缩放24b来输入调整量Z’。还可以通过与触摸屏20的组合,通过使得在空气中夹捏旋钮以及检测它的接近位置来输入调整量Z’。还可以通过用户控制旋转体24c输入调整量Z’,如图24的左上图中所示。可以通过敲击或双敲击,把立体相片24d的深度调整为0,以使得敲击或双敲击位置处显示的立体相片24d的显示位置与显示表面24重合,如图24的右上图中所示。通过以此方式通过用户操作输入调整量Z’,可以在立体空间中的任意位置处绘制图案。
例如,可以在立体空间中的立体相片中写入任意图案。写入位置以如下方式计算。如在以上内容中一样,把立体相片本身包括两个视差的情形作为示例。如图10的左图中所示,当把作为目标的眼睛的位置向量作为Vc、笔尖的位置向量作为Vp、眼睛与显示表面之间的距离作为Lc、以及显示表面与立体相片之间的距离作为Li时,通过公式(2)示出写入位置的位置向量Vw。
Vw=(Lc+Li)/Lc×(Vp-Vc)+Vc    (2)
在显示表面24后部的立体相片中绘制的情形中,在连接写入位置和左眼虚拟位置的直线与立体相片相交的点处在左眼的图层表面(作为图层表面示出)上写入斑点。类似地,在连接写入位置和右眼虚拟位置的直线与立体相片相交的点处在右眼的图层表面(作为图层表面示出)上写入斑点。通过同时执行以上内容,看上去仿佛在立体相片上执行绘制。
在如图10的中间图中所示在显示表面的后部显示立体相片的情形中,如果在立体相片上虚拟覆盖的图层表面上用笔执行写入,则将会假定在立体相片前方的空间中写入了图像。另一方面,如图10的右图中所示,在显示表面的前方显示立体相片的情形中,如果用笔在图层表面上执行写入,则会认为在立体相片后部的空间中写入了图像。
8.立体显示设备进行的深度/编辑控制(第二示例实施例)
接下来,将描述根据本示例实施例的立体显示设备10的操作。图11是示出了立体显示设备10操作的深度/编辑控制处理的流程图。当开始深度/编辑控制处理时,显示控制单元44执行图6的步骤S605至S625示出的深度控制处理(步骤S1105)。在第一示例实施例中描述了图6的深度控制处理,此处将略去它的说明。图12的“b”和“a”示出了深度控制处理中执行的自动深度控制和接近检测。立体相片此处包括深度不同的主体m、n以及o。
接下来,深度调整单元46判断是否从用户接收到深度调整的指令(步骤S1110)。在不存在关于深度调整量Z’的来自用户的输入操作的情形中,深度调整单元46跳过步骤S1115。另一方面,在存在关于深度调整量Z’的来自用户的输入操作的情形中,深度调整单元46调整作为控制目标的立体相片的深度(步骤S1115)。在图12的“c”中,调整深度以使得把立体相片显示得更靠后。
接下来,接近检测单元42检测操作工具(在此情形中,手指)是否在预定时间内接触了显示表面(步骤S1120)。在未检测到接触的情形中,结束处理。另一方面,在检测到接触的情形中,图像编辑单元48在图层表面上的写入位置处执行期望的写入/编辑(步骤S1125)。执行此写入/编辑处理直到与显示表面24接触的操作工具从显示表面24移除为止(步骤S1125和S1130的重复)。作为结果,在图12的“d”中,在主体m的前方写入图像,以及,在“e”中,在主体n的后部写入图像。主体m和n对应于操作工具接近位置的深度方向上显示的作为控制目标的显示对象。
当从显示表面24移除与显示表面24接触的操作工具时,处理返回步骤S1110,深度调整单元46再次判断是否从用户接收到深度调整的指令。在存在指令的情形中,深度调整单元46再次调整立体相片的深度(步骤S1115:见图12,“f”)。随后,在再次检测到操作工具的接触的情形中,图像编辑单元48在图层表面上的写入位置处再次执行期望的写入/编辑(步骤S1125)。在图12的“g”中,在立体相片中主体n右侧的图层表面上的写入位置处写入图像。
在从显示表面24移除了操作工具(步骤S1130)、不存在深度调整的指令(步骤S1110、S1115)、以及在操作工具不接触显示表面24的情况下逝去了预定时间(步骤S1120)的情形中,结束写入/编辑处理。
如上所述,根据第二示例实施例的立体显示设备10,可以通过自动深度控制使得操作工具发出了指令的主体浮动到显示表面,可以在立体相片上写入任何图案或字母。例如,在图13的右图中,使操作工具接近作为主体示例的背景中的山脉,以及,作为结果,自动控制山脉在与显示表面重合的状态中。可以从山脉的图案不包括相对偏移(视差)看出这一点。当在此状态中用笔在山脉上写入“Mt.”时,执行编辑以在山脉的图像上写入手写的“Mt.”。附加地,在图13的右图中,把显示表面后部或前方的主体图像的相对偏移的大小以二维表示成视差。中间的御用守护犬和右边的建筑物的图像包括相对偏移。相应地,可以理解立体显示的建筑物和御用守护犬向前方突出或者向后部陷入。
例如,在期望在立体相片前方的空间中写入的情形中,根据来自用户的深度调整指令,调整深度,以使得在显示表面的后部显示立体相片和图层表面。当在此状态中在图层表面上执行写入时,可以在立体相片的图像前方的空间中三维地执行写入。
另一方面,在期望在立体相片后部的空间中写入的情形中,例如,根据来自用户的深度调整指令,调整深度,以使得在显示表面的前方显示立体相片。当在此状态中在图层表面上执行写入时,可以在立体相片的图像后部的空间中三维地执行写入。在图13的左图中,把显示表面后部或前方写入的一对曲线的相对偏移的大小以二维表示成视差。虽然从图中不能理解到,但最贴近女子的曲线对被写入前方以及具有相对较小的偏移。相应地,曲线对被显示为向女子的前方稍微突出。另一方面,虽然从图中无法理解到,但远离女子的两对曲线被写入后部以及具有相对较大的偏移。因此,可以理解一对曲线越偏向侧部,它就显示为越在后部的深处。以此方式,根据第二示例实施例的立体显示设备10可以在立体相片的后部或前方或者在立体相片上写入图像,可以执行编辑。
9.示例性深度/编辑控制处理(第二示例实施例)
如上所述,当变得可以在立体相片的立体空间中自由绘制时,会发生关于针对写入图像和原始立体相片的视差的显示引起奇怪感觉的情形。例如,如果可以在来到前方的立体相片的后部执行写入,则对于立体显示会发生不愉快感觉或奇怪感觉。为了防止这种情形,根据修改例1,通过预先计算原始立体相片的左与右图像的像素之间的每个相对偏移以及把其与根据写入位置计算出的左与右之间的相对偏移相比较,来确定图像的写入位置与立体相片在深度方向上的位置之间的位置关系,从而防止在立体相片的后部写入图像。以下,将参照示出了深度/编辑控制处理的图14的流程图来描述根据本实施例的修改例1的立体显示设备10的操作。
当开始深度控制处理时,显示控制单元44执行图6中示出的深度控制处理(步骤S1105)。深度控制处理与第二示例实施例的一样,此处将略去它的说明。
接下来,在从用户接收到深度调整的指令的情形中,深度调整单元46调整立体相片的深度(步骤S1110、S1115)。深度调整处理也与第二示例实施例的一样,此处将略去它的说明。
接下来,将描述修改例1的写入控制。接近检测单元42检测操作工具是否在预定时间内接触了显示表面24(步骤S1120),以及,在未检测到接触的情形中,结束处理。另一方面,在检测到接触的情形中,图像编辑单元48判断图层表面上的写入位置是否位于立体相片的后部(步骤S1405)。如上所述,通过预先计算原始立体相片的左与右图像的像素之间的每个相对偏移以及把其与根据写入位置计算出的左与右之间的相对偏移相比较,来判断图层表面上的写入位置是否位于立体相片的后部。在写入位置未位于立体相片的后部的情形中,图像编辑单元48照常在写入位置处执行期望的写入/编辑(步骤S1125)。执行此写入/编辑处理直到从显示表面24移除与显示表面24接触的操作工具为止(步骤S1130和S1125的重复)。
另一方面,在写入位置位于立体相片的后部的情形中,由于必须在来到前方的立体相片的后部执行写入,所以图像编辑单元48禁止该写入位置处的写入(步骤S1410)。在图15的“h”中,禁止在显示表面前方显示的主体n后部的写入。
当从显示表面24移除与显示表面24接触的操作工具(步骤S1130)时或者当禁止写入(步骤S1410)时,处理返回步骤S1110,深度调整单元46再次判断是否从用户接收到深度调整的指令。在存在指令的情形中,深度调整单元46重新调整立体相片的深度(见图15,“j”),以及在图层表面上的写入位置处再次执行期望的写入/编辑。在图15的“k”中,示出了在重新调整之后在显示表面24后部显示的主体n的前方写入图像的状态。
在从显示表面24移除了操作工具(步骤S1130)、不存在深度调整的指令(步骤S1110、S1115)、以及在操作工具不接触显示表面24的情况下逝去了预定时间(步骤S1120)的情形中,结束写入/编辑处理。
如上所述,根据第二实施例的修改例1,通过禁止立体相片后部的图像写入,变得可以防止关于针对写入图像和原始立体相片的视差的显示引起奇怪感觉。
10.附加的示例深度/编辑控制处理(第二示例实施例)
在修改例1中,禁止了立体相片后部的写入以防止关于针对写入和原始立体相片的视差的显示引起奇怪感觉。另一方面,在修改例2中,与图像的写入/编辑一起执行自动深度控制以使得在立体相片上写入图像。以下,将参照示出了深度/编辑控制处理的图16的流程图来描述根据本示例实施例的修改例2的立体显示设备10的操作。
当开始深度控制处理时,显示控制单元44执行图6中示出的深度控制处理(步骤S1105:见图17,“p”)。深度控制处理(自动)与第二示例实施例的一样,此处将略去它的说明。
接下来,将描述修改例2的写入控制。接近检测单元42检测操作工具是否在预定时间内接触了显示表面24(步骤S1120),以及,在未检测到接触的情形中,结束处理。另一方面,在检测到接触的情形中,图像编辑单元48在执行图6的自动深度控制处理的情况下在图层表面上的写入位置处执行期望的写入/编辑(步骤S1605)。执行此写入/编辑处理直到从显示表面24移除与显示表面24接触的操作工具为止(步骤S1130和S1605的重复)。在图17的“q”中,在自动控制深度的情况下执行主体m上的写入以使得主体m与显示表面重合。在图17的“r”中,在自动控制深度的情况下在主体n上执行写入以使得主体n与显示表面重合。在图17的“s”中,在自动控制深度的情况下在主体o上执行写入以使得主体o与显示表面重合。
当从显示表面24移除与显示表面24接触的操作工具(步骤S1130)时,处理返回步骤S1120,以及,在操作工具不接触显示表面24的情况下逝去了预定时间(步骤S1120)的情形中,结束写入/编辑处理。
如上所述,根据第二示例实施例的修改例2,与图像的写入/编辑一起执行自动深度控制以使得在立体相片上写入图像。这可以防止关于针对写入图像和原始立体相片的显示引起奇怪感觉。
11.立体显示设备进行的缩小/放大控制(第三示例实施例)
接下来,将描述根据本公开第三示例实施例的立体显示设备10的操作和功能。根据第三示例实施例的立体显示设备10的功能由图8中示出的功能块的每个单元执行。然而,使用第三示例实施例的显示控制单元44,在检测到操作工具的接触或接近的情形中,在缩小到期望尺寸之后显示包括立体相片的图像内容。以下,将描述根据第三示例实施例的立体显示设备10进行的深度控制处理,关注于该差别。
图18是示出了根据第三示例实施例的立体显示设备10进行的缩小/放大控制处理的流程图。当开始缩小/放大控制处理时,显示控制单元44判断接近检测单元42是否检测到接近或接触(步骤S605)。在既未检测到接近也未检测到接触的情形中,结束处理。另一方面,在检测到接近或接触的情形中,显示控制单元44把显示表面24上显示的图像内容(包括立体相片)缩小到预定尺寸(步骤S1805)。图19示出了在检测到操作工具的接近时自动缩小立体相片的状态。
接下来,显示控制单元44判断是否把操作工具移动到接近检测单元42将不会检测到接近的位置(步骤S1810)。在未移动操作工具的情形中,在把图像内容缩小到预定尺寸的情况下结束处理。在把操作工具移动到将不会检测到接近的位置的情形中,显示控制单元44把显示表面24上显示的图像内容返回到它的原始尺寸(步骤S1815),以及结束处理。
如上所述,根据第三示例实施例的立体显示设备10,在突出显示表面的立体相片的部分与操作工具重叠或有可能重叠的情形中,改变立体相片的视觉尺寸以去除基于不匹配的奇怪感觉,仿佛操作工具沉入到立体相片中。例如,当把图20的左图中示出的整个图像缩小成图20的右图时,在女子两侧写入的曲线的相对偏移变小。通过借由改变立体相片的视觉尺寸以此方式针对视差改变左与右图像之间的相对差别,可以减少立体相片的深度感。这可以减少操作工具与立体相片之间的覆盖,以及减少关于外观的奇怪感觉。
例如,如果把突出量是1cm的立体相片的图像缩小到一半,则相片的突出量将会是0.5cm。虚拟空间中的对象与真实空间中的操作工具之间的覆盖引起的关于显示的奇怪感觉可以通过此方式减少。特别地,根据本示例实施例,通过计算深度量控制立体相片的深度(如在第一示例实施例中一样)对于缩小/放大整个图像没有必要。因此,根据本示例实施例,深度控制的计算变得没有必要,可以简化处理。
此外,显示控制单元44也可以根据图像内容中包括的一个或更多立体相片之中具最大有深度的立体相片的深度量来确定图像内容的缩小速率。操作工具和立体相片彼此重叠时引起的奇怪感觉随着最大凸出量变大而变大。因此,在此情形中通过增加缩小率,可以减少用户体验的奇怪感觉。
附加地,还可以组合所公开的示例实施例中一个或更多个实施例的深度控制和本示例实施例的图像缩小/放大处理。除了图18的缩小/放大控制处理之外,还可以根据用户进行的操作执行深度调整单元46对作为控制目标的立体相片在深度方向上的位置的调整。
12.附加示例实施例的组合
可以对于应用酌情组合上述公开的示例实施例的立体显示方法。例如,显示控制单元44可以在图像编辑单元48编辑图像之前,在控制作为控制目标的显示对象在深度方向上的位置与显示表面(触摸表面)重合或者在触摸表面的后部之后,执行控制以放大和显示图像内容。
此外,例如,在检测到操作工具的接近的情形中,显示控制单元44可以与缩小和显示图像内容一起把在操作工具的接近位置的深度方向上显示的显示对象作为控制目标并控制显示对象在深度方向上的位置,以贴近操作工具的接近位置或与操作工具的接近位置重合。
将参照图21和22具体描述所公开的示例实施例的组合示例。在如在图21的左上图中一样在立体显示设备10的显示表面24后部排列多个立体相片的缩略图Ps的情形中,通过使得操作工具触摸显示表面24上的任意位置选择期望的立体相片。在图21的右上图中,通过触摸选择两个立体相片Ps1和Ps2,通过根据第一示例实施例的深度控制使得立体相片的深度量为0来使得立体相片Ps1和Ps2的显示位置与显示表面24重合。在图22中,当使手部向显示表面24贴近时,控制立体相片的深度以使得它贴近手部的位置以及立体相片Ps1浮动(图22的右上图),以及,通过手部触摸显示表面24,在与显示表面24重合的位置处显示立体相片Ps1(图22的左上图)。当移除手部时,执行向立体相片Ps1的全屏显示的切换(图22的右下图)。还可以通过其它姿态(图21的左下图)显示期望的立体相片Ps1和把期望的立体相片Ps1放大到全屏。在此状态中,如第二示例实施例中所表明的,用与立体相片Ps1接触的手部开始写入(图21的右上图)。
当在以放大方式显示立体相片Ps1的情况下尝试用手部触摸显示表面24时,有可能出现手部与立体相片Ps1之间的干扰,但是可以通过执行深度调整以在深度方向上拉回立体相片Ps1的图像来减少干扰。此外,可以通过与执行深度调整一起缩小立体相片Ps1的图像来减少干扰(图21的右下图)。
附加地,作为用于改变屏幕显示的姿态,可构思如图23的左上图中所示通过在近处摆动手部来移动到前一张或下一张相片或者如图23的右上图中所示通过拖动来移动到前一张或下一张相片,在向前一张或下一张相片移动期间,可以通过借由缩小相片的尺寸减少深度感来减少由于至操作工具的距离感与至立体显示的显示对象的距离感之间的不匹配而引起的奇怪感觉。
还可以通过双敲击从如图23的左下图中所示以放大方式显示一个立体相片的状态向一列缩略图的显示移动。如图23的右下图中所示,也可以通过夹捏缩放以及在立体相片足够小时移动到一列缩略图的显示。另外在这些情形中,在立体相片的放大显示期间,执行深度调整以把相片拉到后部,减少由于至操作工具的距离感与至立体显示的显示对象的距离感之间的不匹配而引起的奇怪感觉。随后,当移动到一列缩略图的显示时,执行深度调整以使相片临近显示表面24,从而改进用户的可操作性。
以此方式,在检测到操作工具的接近的情形中,显示控制单元44可以与执行图像内容的缩小显示一起,把操作工具的接近位置的深度方向上显示的显示对象作为控制目标以及把显示对象在深度方向上的位置移动得更加向后。此外,随着操作工具的接近位置与显示表面24之间的距离变小,显示控制单元44可以把图像内容显示为更缩小,以及随着操作工具与显示表面24之间的距离变大可以把图像内容显示为更放大。
如所述,根据本公开的示例实施例,可以通过根据操作工具的接触或接近适当地控制显示对象的显示方法,来减少由于操作工具与立体显示的显示对象之间针对距离感的不匹配而引起的奇怪感觉。
例如,在第一示例实施例中,根据操作工具贴近了的点处左与右图之间的相对偏移(视差),通过使用能够进行接近检测的触摸屏20,估算立体相片距显示表面24的深度量,控制立体相片的位置以使得深度量和操作工具的接近位置彼此重合。这可以消除由于操作工具与显示对象之间针对距离感的不匹配而引起的奇怪感觉,以及此外,可以改进用户的可操作性。
此外,例如,在第二示例实施例中,通过使用能够进行接近检测的触摸屏20,通过操控XY坐标(在该坐标处期望进行写入)并使得Z坐标匹配显示表面(触摸表面),可以与指定二维位置相同的方式指定三维的位置,可以在显示立体相片的立体空间中的任意位置中写入字母或图案。
此外,例如,在第三示例实施例中,当在突出触摸屏20的显示表面24的位置处形成立体相片的情况下检测到操作工具的接近时,缩小立体相片的尺寸。这可以在维持用户良好可操作性的情况下轻松减少关于深度方向上显示的奇怪感觉。
此外,通过适当地组合以上示例实施例的立体显示方法,可以有效地减少由于操作工具与显示对象之间针对距离感的不匹配而引起的奇怪感觉。
在上述修改例和第一至第三示例实施例中,各单元的操作彼此相关,在考虑它们的关系的情况下用一系列处理或一系列操作替换是可以的。这可以使得信息处理装置的示例实施例执行立体显示方法,信息处理装置的处理器可以执行在有形非易失的计算机可读介质上存储的指令以使得处理器实现信息处理装置的功能。
本领域技术人员应当理解,根据设计需要和其它因素,可以进行各种修改、组合、子组合和替换,只要它们在所附权利要求或其等同内容的范围内。
例如,在上述示例实施例中的每个示例实施例中,描述了以下方法:触摸屏检测三个状态(即,未接近、接近和接触)以及根据检测结果来控制显示对象的显示方法,但是根据本公开的立体显示方法不限于这种。例如,在触摸屏可以按顺序或逐步检测显示对象与显示表面之间的距离的情形中,可以根据距离连续或逐步在深度方向上拉回显示对象。这种修改也在本公开的技术范围内。

Claims (20)

1.一种信息处理装置,包括:
确定单元,被配置为确定设置为距所述确定单元的表面在阈值距离之内的操作工具的一部分的第一空间位置,所述第一空间位置是相对于所述确定单元的所述表面在深度方向上被确定的;以及
控制单元,被配置为生成第一信号以在第一显示位置显示立体图像,所述第一显示位置距所述第一空间位置在预定距离之内。
2.如权利要求1所述的信息处理装置,其中,所述预定距离是相对于与所述深度方向垂直的至少一个方向限定的。
3.如权利要求1所述的信息处理装置,其中,所述控制单元进一步被配置为基于至少所述第一空间位置来确定所述第一显示位置。
4.如权利要求3所述的信息处理装置,其中,所述确定单元进一步被配置为确定设置在所述阈值距离之内的所述操作工具的所述部分的第二空间位置,所述第二空间位置在所述深度方向上设置在所述第一空间位置和所述确定单元的所述表面之间。
5.如权利要求4所述的信息处理装置,其中,所述第二空间位置的确定是响应于所述操作工具在所述深度方向上的运动进行的。
6.如权利要求5所述的信息处理装置,其中,所述控制单元被进一步配置为生成第二信号以在第二显示位置显示所述立体图像,所述第二显示位置在所述深度方向上设置在所述第一显示位置和所述确定单元的所述表面之间。
7.如权利要求6所述的信息处理装置,其中,所述控制单元被进一步配置为至少基于所述立体图像的所述第一显示位置和所述操作工具的所述部分的所述第二空间位置来确定所述立体图像的所述第二显示位置。
8.如权利要求7所述的信息处理装置,其中,所述控制单元被进一步配置为:
计算所述确定单元表面和所述第一显示位置之间在所述深度方向的第一位移;
至少基于所述第一位移,计算所述第一显示位置和所述第一空间位置之间在所述深度方向上的第二位移;以及
至少基于计算出的第二位移来确定所述立体图像的所述第二显示位置。
9.如权利要求8所述的信息处理装置,其中:
所述深度方向上的第三位移使所述第二空间位置与所述第二显示位置分离;以及
所述第二位移超过所述第三位移。
10.如权利要求7所述的信息处理装置,其中,所述控制单元被进一步配置为:
基于第一图像到第一眼睛的投影和第二图像到第二眼睛的投影来生成所述立体图像的用户感知;以及
确定所述第一图像和所述第二图像之间在所述第一显示位置处的偏移值。
11.如权利要求10所述的信息处理装置,其中,所述控制单元被进一步配置为至少基于所述立体图像的偏移位置和所述操作工具的所述部分的第二空间位置来确定所述第二显示位置。
12.如权利要求1所述的信息处理装置,其中,所述确定单元被进一步配置为检测所述操作工具的所述部分和所述确定单元的所述表面之间的接触。
13.如权利要求12所述的信息处理装置,其中,所述控制单元被进一步配置为在所述深度方向上与所述确定单元表面重合的第二显示位置显示所述立体图像。
14.如权利要求13所述的信息处理装置,其中,所述控制单元被进一步配置为生成所述操作工具的所述部分在接触显示在所述第二显示位置的所述立体图像的至少一部分时的用户感知。
15.如权利要求13所述的信息处理装置,其中,所述控制单元被进一步配置为确定所述立体图像的第二显示位置,所述第二显示位置在所述深度方向上相对于所述确定单元的所述表面移动。
16.如权利要求15所述的信息处理装置,其中,所述确定单元的所述表面在深度方向上被设置在所述操作工具的所述部分的所述第二空间位置和所述第二显示位置之间。
17.如权利要求1所述的信息处理装置,还包括被配置为响应于所述第一信号来显示所述第一显示位置处的所述立体图像的显示单元。
18.如权利要求17所述的信息处理装置,其中:
所述显示单元包括显示表面;以及
所述显示单元的所述显示表面的至少一部分与所述确定单元的所述表面重合。
19.一种计算机实施的方法,包括:
使用处理器来确定设置为距确定单元的表面在阈值距离之内的操作工具的一部分的第一空间位置,所述第一空间位置是相对于所述确定单元的所述表面在深度方向上被确定的;以及
使用所述处理器来生成第一信号以在第一显示位置显示立体图像,所述第一显示位置距所述第一空间位置在预定距离之内。
20.一种存储指令的有形非易失的计算机可读介质,所述指令当被处理器执行时使所述处理器执行包括以下步骤的方法:
确定设置为距确定单元的表面在阈值距离之内的操作工具的一部分的第一空间位置,所述第一空间位置是相对于所述确定单元的所述表面在深度方向上被确定的;以及
生成第一信号以在第一显示位置显示立体图像,所述第一显示位置距所述第一空间位置在预定距离之内。
CN2011103534914A 2010-11-11 2011-11-04 信息处理装置、立体显示方法以及程序 Pending CN102595159A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-253150 2010-11-11
JP2010253150A JP5703703B2 (ja) 2010-11-11 2010-11-11 情報処理装置、立体視表示方法及びプログラム

Publications (1)

Publication Number Publication Date
CN102595159A true CN102595159A (zh) 2012-07-18

Family

ID=44992618

Family Applications (2)

Application Number Title Priority Date Filing Date
CN2011103534914A Pending CN102595159A (zh) 2010-11-11 2011-11-04 信息处理装置、立体显示方法以及程序
CN201120454637XU Expired - Fee Related CN202738034U (zh) 2010-11-11 2011-11-04 信息处理装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201120454637XU Expired - Fee Related CN202738034U (zh) 2010-11-11 2011-11-04 信息处理装置

Country Status (7)

Country Link
US (4) US8988499B2 (zh)
EP (2) EP3048515A1 (zh)
JP (1) JP5703703B2 (zh)
KR (1) KR20120050900A (zh)
CN (2) CN102595159A (zh)
BR (1) BRPI1106895A2 (zh)
RU (1) RU2011144878A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107783702A (zh) * 2016-08-31 2018-03-09 阿里巴巴集团控股有限公司 显示数据的控制方法、装置和系统
CN109643208A (zh) * 2016-06-28 2019-04-16 株式会社尼康 显示装置、程序、显示方法及控制装置

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9789392B1 (en) * 2010-07-09 2017-10-17 Open Invention Network Llc Action or position triggers in a game play mode
US9983685B2 (en) * 2011-01-17 2018-05-29 Mediatek Inc. Electronic apparatuses and methods for providing a man-machine interface (MMI)
JP2012208595A (ja) * 2011-03-29 2012-10-25 Jvc Kenwood Corp 立体画像表示装置および立体画像表示方法
JP2012256110A (ja) * 2011-06-07 2012-12-27 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP5989315B2 (ja) * 2011-09-22 2016-09-07 任天堂株式会社 表示制御プログラム、表示制御システム、表示制御装置、および、表示制御方法
US9628770B2 (en) * 2012-06-14 2017-04-18 Blackberry Limited System and method for stereoscopic 3-D rendering
US8947385B2 (en) 2012-07-06 2015-02-03 Google Technology Holdings LLC Method and device for interactive stereoscopic display
CN103676164A (zh) * 2012-09-19 2014-03-26 瀚宇彩晶股份有限公司 局部立体影像显示系统、局部立体影像显示方法及其调整方法
TWI590099B (zh) * 2012-09-27 2017-07-01 緯創資通股份有限公司 互動系統及移動偵測方法
JP6248533B2 (ja) * 2013-10-22 2017-12-20 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US10116914B2 (en) * 2013-10-31 2018-10-30 3Di Llc Stereoscopic display
US10652525B2 (en) 2013-10-31 2020-05-12 3Di Llc Quad view display system
US9883173B2 (en) 2013-12-25 2018-01-30 3Di Llc Stereoscopic display
US9986228B2 (en) 2016-03-24 2018-05-29 3Di Llc Trackable glasses system that provides multiple views of a shared display
US11343487B2 (en) 2013-10-31 2022-05-24 David Woods Trackable glasses system for perspective views of a display
KR102120864B1 (ko) 2013-11-06 2020-06-10 삼성전자주식회사 영상 처리 방법 및 장치
JP7135324B2 (ja) * 2018-01-23 2022-09-13 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
JP7186640B2 (ja) * 2019-03-04 2022-12-09 株式会社東芝 測定方法及び測定装置
TWI796022B (zh) * 2021-11-30 2023-03-11 幻景啟動股份有限公司 在立體影像上執行互動的方法與立體影像顯示系統
US20230306701A1 (en) * 2022-03-25 2023-09-28 Tencent America LLC Parallel approach to dynamic mesh alignment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060203085A1 (en) * 2002-11-28 2006-09-14 Seijiro Tomita There dimensional image signal producing circuit and three-dimensional image display apparatus
WO2008111495A1 (en) * 2007-03-07 2008-09-18 Kabushiki Kaisha Toshiba Apparatus, method, and computer program product for displaying stereoscopic images
US20100095206A1 (en) * 2008-10-13 2010-04-15 Lg Electronics Inc. Method for providing a user interface using three-dimensional gestures and an apparatus using the same

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6417969B1 (en) * 1988-07-01 2002-07-09 Deluca Michael Multiple viewer headset display apparatus and method with second person icon display
JPH0816137A (ja) * 1994-06-29 1996-01-19 Nec Corp 3次元座標入力装置及びカーソル表示制御方式
JP3741764B2 (ja) * 1996-02-09 2006-02-01 シャープ株式会社 三次元画像作成装置
JP3971694B2 (ja) * 2002-12-11 2007-09-05 日本電信電話株式会社 オブジェクト表示方法及びその実施装置
JP4076090B2 (ja) * 2005-04-14 2008-04-16 日本電信電話株式会社 画像表示システム
JP4807708B2 (ja) * 2006-02-21 2011-11-02 パイオニア株式会社 画像表示装置
US7884823B2 (en) * 2007-06-12 2011-02-08 Microsoft Corporation Three dimensional rendering of display information using viewer eye coordinates
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
US9658765B2 (en) 2008-07-31 2017-05-23 Northrop Grumman Systems Corporation Image magnification system for computer interface
JP2010045584A (ja) 2008-08-12 2010-02-25 Sony Corp 立体画像補正装置、立体画像補正方法、立体画像表示装置、立体画像再生装置、立体画像提供システム、プログラム及び記録媒体
US20100053151A1 (en) 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
JP2010253150A (ja) 2009-04-28 2010-11-11 Hoya Corp 内視鏡用シース装置
US8601402B1 (en) * 2009-09-29 2013-12-03 Rockwell Collins, Inc. System for and method of interfacing with a three dimensional display
US8547327B2 (en) * 2009-10-07 2013-10-01 Qualcomm Incorporated Proximity object tracker
JP5446769B2 (ja) * 2009-11-20 2014-03-19 富士通モバイルコミュニケーションズ株式会社 3次元入力表示装置
JP2012032964A (ja) * 2010-07-29 2012-02-16 Olympus Imaging Corp 表示装置
US10146426B2 (en) 2010-11-09 2018-12-04 Nokia Technologies Oy Apparatus and method for user input for controlling displayed information

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060203085A1 (en) * 2002-11-28 2006-09-14 Seijiro Tomita There dimensional image signal producing circuit and three-dimensional image display apparatus
WO2008111495A1 (en) * 2007-03-07 2008-09-18 Kabushiki Kaisha Toshiba Apparatus, method, and computer program product for displaying stereoscopic images
US20100095206A1 (en) * 2008-10-13 2010-04-15 Lg Electronics Inc. Method for providing a user interface using three-dimensional gestures and an apparatus using the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109643208A (zh) * 2016-06-28 2019-04-16 株式会社尼康 显示装置、程序、显示方法及控制装置
CN107783702A (zh) * 2016-08-31 2018-03-09 阿里巴巴集团控股有限公司 显示数据的控制方法、装置和系统

Also Published As

Publication number Publication date
US20150195511A1 (en) 2015-07-09
US9456203B2 (en) 2016-09-27
BRPI1106895A2 (pt) 2015-08-04
RU2011144878A (ru) 2013-05-10
KR20120050900A (ko) 2012-05-21
EP3048515A1 (en) 2016-07-27
US20120120060A1 (en) 2012-05-17
CN202738034U (zh) 2013-02-13
US8988499B2 (en) 2015-03-24
JP5703703B2 (ja) 2015-04-22
US20170013249A1 (en) 2017-01-12
US10652515B2 (en) 2020-05-12
US20190313076A1 (en) 2019-10-10
US10349034B2 (en) 2019-07-09
EP2453344A1 (en) 2012-05-16
JP2012103981A (ja) 2012-05-31

Similar Documents

Publication Publication Date Title
CN202738034U (zh) 信息处理装置
CN102469333B (zh) 信息处理设备、立体显示方法和程序
US9432652B2 (en) Information processing apparatus, stereoscopic display method, and program
US20130106694A1 (en) Three-dimensional display device, three-dimensional image capturing device, and pointing determination method
US20160266765A1 (en) Information processing apparatus, information processing method, and program
JP2012248066A (ja) 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置
US20150033157A1 (en) 3d displaying apparatus and the method thereof
JP2012247838A (ja) 表示装置、表示制御方法及びプログラム
JP6065908B2 (ja) 立体画像表示装置、そのカーソル表示方法及びコンピュータプログラム
JP2011180690A (ja) 表示制御装置、表示制御方法、および表示制御プログラム
JP5976174B2 (ja) 画像処理装置及びその制御方法、並びにプログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20120718

RJ01 Rejection of invention patent application after publication