CN102547333A - 信息处理设备、立体显示方法以及程序 - Google Patents

信息处理设备、立体显示方法以及程序 Download PDF

Info

Publication number
CN102547333A
CN102547333A CN201110351020XA CN201110351020A CN102547333A CN 102547333 A CN102547333 A CN 102547333A CN 201110351020X A CN201110351020X A CN 201110351020XA CN 201110351020 A CN201110351020 A CN 201110351020A CN 102547333 A CN102547333 A CN 102547333A
Authority
CN
China
Prior art keywords
display
stereo
picture
unit
display position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201110351020XA
Other languages
English (en)
Other versions
CN102547333B (zh
Inventor
野田卓郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN102547333A publication Critical patent/CN102547333A/zh
Application granted granted Critical
Publication of CN102547333B publication Critical patent/CN102547333B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

一种设备和方法提供了用于处理信息的逻辑。在一个实现方式中,该设备可以包括确定单元,该确定单元被配置确定在该确定单元的表面上的、与在操作工具的部分和确定单元表面之间的接触相对应的位置。该设备还可以包括限定单元和生成单元,限定单元被配置为限定第一立体图像的第一显示位置,生成单元被配置为响应于接触而生成第二立体图像。控制单元被配置为生成信号来在第一显示位置处显示第一立体图像并在第二显示位置处显示第二立体图像,第一显示位置和第二显示位置位于接触位置的预定距离之内。

Description

信息处理设备、立体显示方法以及程序
相关申请的交叉引用
本申请基于2010年11月11日提交的日本专利申请JP 2010-253152并且要求该申请的优先权权益,该申请全部内容通过引用合并于此。
技术领域
所公开的示例性实施例涉及一种信息处理设备、立体显示方法以及计算机可读介质。
背景技术
近年来,能够对诸如图像内容(例如立体照片)的显示对象以及操作对象进行立体显示的立体显示装置正投入实际应用,并且变得普遍。例如,一些用于电视机、便携式游戏机和个人计算机(下文中的PC)的、能够立体显示的显示装置已经投入市场。关于这样的立体显示装置,例如日本专利申请JP 2010-045584A公开了一种用于对立体图像进行校正的方法,该立体图像能够精确表示显示对象的创造者所意图的突出量或拉回量(下文中的深度量)等。
发明内容
然而,当立体显示虚拟三维空间中的图像时,则出现了在二维显示图像时所不会出现的问题。具体地,当真实空间中的对象与立体显示在虚拟三维空间中的对象重叠时,则在实际具有三维形状的对象和通过虚拟地实现视差而示出的显示对象之间出现关于距离感的失配,从而给观看的用户带来怪异感。例如,有时会引起真实空间中不会出现的视觉失配,诸如本应当处于前景中的部分被背景中的东西所隐藏的失配,给用户带来不舒服感。
鉴于上述情形,期望提供一种能够减少当真实空间的对象接近在其上立体地显示有显示对象的显示表面时用户所经历的怪异感或不适感的新的且改进的信息处理设备、立体显示方法和程序。
与示例性实施例相一致,一种信息处理设备包括确定单元,该确定单元被配置为确定在该确定单元的表面上的、与在操作工具的部分和确定单元表面之间的接触相对应的位置。该设备还包括限定单元和生成单元,限定单元被配置为限定第一立体图像的第一显示位置,而生成单元被配置为响应于接触而生成第二立体图像。控制单元可以被配置为生成信号来在第一显示位置处显示第一立体图像并在第二显示位置处显示第二立体图像,第一显示位置和第二显示位置位于接触位置的预定距离之内。
与附加的示例性实施例相一致,一种计算机实现方法包括:确定在确定单元的表面上的、与在操作工具的部分和确定单元表面之间的接触相对应的位置。该方法还包括:限定第一立体图像的第一显示位置,以及响应于接触而生成第二立体图像。该方法还包括:生成信号来在第一显示位置处显示第一立体图像并在第二显示位置处显示第二立体图像,第一显示位置和第二显示位置位于接触位置的预定距离之内。
与另一个示例性实施例相一致,一种有形、非瞬时计算机可读介质存储了当被处理器执行时使得该处理器执行以下方法的指令,该方法包括:确定在确定单元的表面上的、与在操作工具的部分和确定单元表面之间的接触相对应的位置。该方法还包括:限定第一立体图像的第一显示位置,以及响应于接触而生成第二立体图像。该方法还包括:生成信号来在第一显示位置处显示第一立体图像并在第二显示位置处显示第二立体图像,第一显示位置和第二显示位置位于接触位置的预定距离之内。
根据所公开的示例性实施例,可以减少当真实空间的对象接近在其上立体地显示有显示对象的显示表面时用户所经历的怪异感或不适感。
附图说明
图1是根据示例性公开实施例的信息处理设备的硬件配置视图;
图2是根据第一示例性实施例的信息处理设备的功能配置视图;
图3是用于说明立体显示的原理的视图;
图4是用于说明根据第一示例性实施例的立体显示装置的深度控制的视图;
图5是用于说明根据第一示例性实施例的立体显示装置的深度控制的视图;
图6是示出根据第一示例性实施例的立体显示装置的深度控制处理的流程图;
图7是用于说明根据第一示例性实施例的立体显示装置的XY坐标控制的视图;
图8是根据第二和第三示例性实施例的信息处理设备的硬件配置视图;
图9是用于说明根据第二示例性实施例的立体显示装置的深度/编辑控制的视图;
图10是用于说明根据第二示例性实施例的立体显示装置的深度/编辑控制的视图;
图11是示出说明根据第二示例性实施例的立体显示装置的深度/编辑控制处理的流程图;
图12是用于说明图11的深度/编辑控制处理的视图;
图13是示出根据第二示例性实施例的立体显示装置的深度/编辑控制的结果的显示屏幕的视图;
图14是示出根据第二示例性实施例的修改示例1的立体显示装置的深度/编辑控制处理的流程图;
图15是用于说明图14的深度/编辑控制处理的视图;
图16是示出根据第二示例性实施例的修改示例2的立体显示装置的深度/编辑控制处理的流程图;
图17是用于说明图16的深度/编辑控制处理的视图;
图18是示出根据第三示例性实施例的立体显示装置的深度/编辑控制处理的流程图;
图19是用于说明根据第三示例性实施例的立体显示装置的深度/编辑控制处理的视图;
图20是示出根据第三示例性实施例的立体显示装置的深度/编辑控制的结果的显示屏幕的视图;
图21是用于说明根据另外的示例性实施例的深度/编辑控制处理的示例的视图;
图22是用于说明根据另外的示例性实施例的深度/编辑控制处理的示例的视图;
图23是用于说明屏幕过渡的视图;
图24是用于说明深度调节的视图。
具体实施方式
在下文中,将参考附图来详细描述示例性实施例。注意,在本说明书和附图中,用相同的附图标记来表示具有基本上相同的功能和配置的结构元件,并且省略了对这些结构元件的重复说明。
根据本公开的实施例,提供了一种信息处理设备,包括:确定单元,被配置为确定在确定单元的表面上的、与在操作工具的部分和确定单元表面之间的接触相对应的位置;限定单元,被配置为限定第一立体图像的第一显示位置;生成单元,被配置为响应于接触而生成第二立体图像;以及控制单元,被配置为生成信号来在第一显示位置处显示第一立体图像并在第二显示位置处显示第二立体图像,第一显示位置和第二显示位置位于接触位置的预定距离之内。
根据本公开的实施例,还提供了一种用于显示图像的计算机实现方式方法,包括:利用处理器,确定在确定单元的表面上的、与在操作工具的部分和确定单元表面之间的接触相对应的位置;利用处理器,限定第一立体图像的第一显示位置;利用处理器,响应于接触而生成第二立体图像;以及利用处理器,生成信号来在第一显示位置处显示第一立体图像并在第二显示位置处显示第二立体图像,第一显示位置和第二显示位置位于接触位置的预定距离之内。
此外,将按照以下顺序给出说明。
1.立体显示装置的硬件配置
2.立体显示装置的功能配置(第一示例性实施例)
3.立体显示装置的深度控制(第一示例性实施例)
4.深度控制处理(第一示例性实施例)
5.XY坐标的控制(第一示例性实施例)
6.立体显示装置的功能配置(第二示例性实施例)
7.立体显示装置的深度/编辑控制(第二示例性实施例)
8.立体显示装置的深度/编辑控制(第二示例性实施例)
9.示例性深度/编辑控制处理(第二示例性实施例)
10.另外的示例性深度编辑控制处理(第二示例性实施例)
11.立体显示装置的缩小/放大控制(第三示例性实施例)
12.另外的示例性实施例的组合
信息处理设备通常包括触摸屏。信息处理设备可以是个人计算机(PC)、智能手机、个人数字助理、音乐播放器、游戏终端、数字家用电器等。信息处理设备还可以是要与上述装置相连接的外围装置。此外,根据各示例性实施例的信息处理设备是立体显示装置,能够对立体地显示(三维地显示)在可立体地观看的显示器上的对象进行显示。在下文中,将以立体照片作为包括于立体显示图像内容中的一个或多个显示对象的示例来给出说明。
在下文中,将以立体显示装置10为例来描述根据第一至第三示例性实施例的信息处理设备。这些实施例提出一种立体显示方法,该方法能够减少当真实空间中的对象接近立体显示装置10上立体显示的显示对象时用户所经历的怪异感或不适感。
1.立体显示装置的硬件配置
图1是示出根据示例性公开实施例的立体显示装置10的硬件配置示例的框图。参考图1,立体显示装置10包括触摸面板20、总线30、CPU(中央处理单元)32、ROM(只读存储器)34和RAM(随机存取存储器)36。
触摸面板20包括确定表面(例如检测表面22)和显示表面(触摸表面)24。检测表面22检测操作工具(用户手指或笔)与触摸面板20的接近或接触,并生成指示接近位置或接触位置的电信号。触摸面板20是用于输入信息的输入装置的示例。例如可以根据诸如压敏方法、电容式方法或红外线方法的任意触摸检测方法来形成检测表面22。触摸面板20可以是只能够检测到与显示表面24的接触的触摸面板,但是,优选地,触摸面板20能够检测接近和接触。
显示表面24对来自立体显示装置10的输出图像进行显示。例如可以通过使用液晶、有机发光二极管(例如,有机EL:OLED)或阴极射线管(CRT)来实现显示表面24。可以将使用眼镜的方法或者使用视差屏障(parallax barrier)或柱状透镜(1enticular lens)的裸眼立体(autostereoscopic)方法等用于允许立体观看的显示。
总线30将检测表面22、显示表面24、CPU 32、ROM 34和RAM 36互相连接。CPU 32控制立体显示装置10的全部操作。ROM 34存储构成要由CUP 32执行的软件的数据和程序。RAM 36临时存储CPU 32执行处理时的数据和程序。此外,立体显示装置10还可以包括除了图1中所示的结构元件之外的结构元件。
2.立体显示装置的功能配置(第一示例性实施例)
接下来,将参考图2来描述根据第一示例性实施例的立体显示装置10的功能配置。根据本示例性实施例的立体显示装置10包括立体显示单元40、确定单元(例如接近检测单元42)、显示控制单元44和存储单元60。
触摸面板20设于立体显示单元40的显示表面上。立体显示单元40立体地显示图像内容。图像内容是诸如立体视频等的具有视差信息的视频或静止图像。这里,将以这样的图像内容为例来给出说明:该图像内容包括作为各自具有单独视差信息的一个或多个显示对象的立体照片。
接近检测单元42检测操作工具对立体显示单元40的触摸表面的接近。这里,将以用户手指作为操作工具的示例来给出说明。在检测到操作工具接近的情况下,在图像内容中包括的一个或多个立体照片之中,显示控制单元44将显示在操作工具的接近位置的深度方向上的立体照片作为控制目标,并控制该立体照片的位置使其更靠近操作工具的接近位置。存储单元60存储图像内容以及图像内容中包括的立体照片的深度量等。
显示控制单元44读取存储于存储单元60中的图像数据,并使立体显示单元40显示已读取的图像数据。显示控制单元44还使立体显示单元40显示视频内容和图形用户界面(GUI)等。此时,显示控制单元44执行用于对诸如图像数据、视频内容或GUI等的显示对象进行立体显示的计算。例如,显示控制单元44执行对这样的深度量的计算:用于使显示对象从立体显示单元40的显示表面突出或者被推回到显示表面之后的深度量。
在虚拟三维空间中显示立体图像的情况下,除虚拟三维空间本身持有的深度信息之外,立体照片本身也持有视差信息。图3中示出了三维空间中存在立体照片的情况的示意图。在这种情况下,由于用于右眼的图像和用于左眼的图像位于显示表面24上,因此在显示表面24上看到这些图像,但看到照片中示出的A从显示表面24突出。将对这种立体显示进行简要描述。为了立体地示出显示对象,如图3所示,在显示表面上相互分离地显示用于右眼的显示对象和用于左眼的显示对象,并且使得用于右眼的显示对象只被右眼所看到,而用于左眼的显示对象只被左眼所看到。为了使用于右眼的显示对象只被右眼所看到而用于左眼的显示对象只被左眼所看到,在很多情况下使用偏振。例如,通过在第一方向上线性偏振的光来显示用于右眼的显示对象,而通过在与第一方向正交的第二方向上线性偏振的光来显示用于左眼的显示对象。此外,通过在右眼上佩戴使得在第一方向上线性偏振的光通过的透镜而在左眼上佩戴使得在第二方向上线性偏振的光通过的透镜,可以创造右眼只能看到用于右眼的显示对象而左眼只能看到用于左眼的显示对象的情形。
当创造了这样的情形时,用户感知到显示对象立体显示在连接右眼与用于右眼的显示对象的视线和连接左眼与用于左眼的显示对象的视线相交的位置。而且,通过控制用于右眼的显示对象与用于左眼的显示对象之间的距离,可以调节会聚角度。立体显示的显示对象的突出程度随着会聚角度的变化而变化。
即,通过经过改变显示表面上用于右眼和左眼的显示对象的深度量来控制显示位置,可以控制立体显示的显示对象的突出程度或推回程度。此外,虽然这里描述了通过利用偏振来实现立体显示的方法,但本示例性实施例并不局限于此,并且可能应用能够立体地显示显示对象的任意立体显示方法。
返回参考图1,显示控制单元44通过控制用于右眼和左眼的显示对象的显示,来使显示对象被立体显示。由显示控制单元44确定的指示显示对象的突出程度或推回程度的信息(下文中的深度量或深度信息)被输入到立体显示单元40。由显示控制单元44从存储单元60读取的显示对象的数据也被输入到立体显示单元40。当输入深度量时,立体显示单元40基于输入的深度量来显示显示对象。
此外,利用CPU 32等来实现显示控制单元44的功能。而且,通过ROM 34或RAM 36(或未示出的有形、非瞬时可移除记录介质等)来实现存储单元60的功能。
3.立体显示装置的深度控制(第一示例性实施例)
在利用触摸面板20来执行操作的情况下,从表面突出的立体照片的部分和操作工具有时候相互重叠。例如,在图3中,当操作工具靠近显示表面24时出现这样的情形。深度信息中出现了不一致,引起关于外观的怪异感。例如,对于从显示表面突出地显示的立体照片来说,操作工具显示为像凹陷到该立体照片中一样,从而给用户带来怪异感或不适感。因此,本示例性实施例执行以下自动深度控制来作为用于解决该现象的解决方案。根据该自动深度控制,触摸面板20检测到操作工具即将与立体照片相重叠,并且立体照片在深度方向上的位置基于根据立体照片所持有的视差信息获得的深度信息而自动改变,使得立体照片不会与操作工具相重叠。
此外,立体照片本身包括具有视差的多个构造(textures)(在这种情况下为立体照片),但对于所公开的示例性实施例,将以存在两种视差的情况为例来给出说明。此时,立体照片包括将要被投射到左右双眼的构造(在这种情况下为用于右眼的照片和用于左眼的照片),并且因而可以估计出构造之一中的哪个点对应于另一个构造中的哪个点。这样的方法包括被称为模板匹配的方法。
将参考图3和4来进一步描述根据本示例性实施例的立体显示装置10的深度控制。如图4所示,在检测到操作工具在显示表面24上的接触的情况下(触摸检测),显示控制单元44将作为显示在触摸位置的深度方向上的显示对象的立体照片视为控制目标,并计算该立体照片在深度方向上的位置(深度量)。
当使用模板匹配时,例如关于图3中用于右眼的图像A中的任意点Pa接近于用于左眼的图像A中的哪点而沿着水平方向执行搜索。用于右眼的图像A中的点Pa与用于左眼的图像A中的目标点Pa’之间的相对移位(像素差)是视差,并且以通过将相对移位应用于立体空间而获得的点来表示自触摸表面(显示表面24)起的深度量。
特别地,当令图4左图的立体照片的左图像和右图像之间的相对移位为D、眼睛和显示表面24之间的距离为Lc、左眼和右眼之间的空间为Dc、并且要获得的立体照片在深度方向上的位置(深度量)为Z时,并且当使得显示表面24的深度为0时,立体照片的深度量Z由公式(1)表示如下:
Z=D/DcxLc.            (1)
以这种方式,计算了操作工具的接近位置处或接触位置处的深度量Z,立体照片以深度量Z更深地移位,以使得做出从图4的右图到左图的转换,并使得立体照片自显示表面起的深度为Z。这使得状态从手指凹陷到立体照片的凸出部分中(图4右图)的状态转变为立体照片的凸出部分与操作工具(手指)或显示表面24相一致(图4左图)的状态,并可以减少用户所经历的怪异感或不适感。
此外,可以使用快速立体匹配技术取代模板匹配来计算深度量Z,快速立体匹配技术用于基于由立体相机获取的两幅图像之间的视差来测量到目标对象的距离。当使用该技术时,能够提高深度量的计算精度。
如前所述,当通过接近检测单元42检测到操作工具在显示表面24上的接触时,显示控制单元44执行控制,使得作为控制目标的显示对象在深度方向上的位置与显示表面24相一致。
接下来,将参考图5来描述用于不只涉及接触状态而且还涉及接近状态的情况的立体显示装置10的深度控制。如图5左图中所示,在通过接近检测单元42检测到操作工具对显示表面24的接近(即,接近检测单元42确定了操作工具中落入显示表面的阈值距离内的那部分的第一空间位置)的情况下,显示控制单元44把显示在接近位置(即,第一空间位置)的深度方向上的立体照片作为控制目标,并计算立体照片在深度方向上的第一显示位置(深度量Z)。显示控制单元44基于所计算的深度量Z以及接近位置与显示表面之间的距离来执行控制,使得作为控制目标的立体照片在深度方向上的位置与操作工具的接近位置相靠近或相一致。
此外,如图5的中图和右图中所示,检测到操作工具的移动,并且连同该检测一起来通过显示控制单元44重复对深度量的计算。随着显示表面24与操作工具的接近位置(即,第二空间位置)之间的距离的减小,显示控制单元44对深度进行自动控制,使得立体照片在深度方向上的位置(即,第二显示位置)变得与显示表面24相靠近或相一致。接近检测单元42重复上述深度控制,直到操作工具与显示表面24分开至少预定距离为止。
4.深度控制处理(第一示例性实施例)
接下来,将描述根据本示例性实施例的立体显示装置10的操作。图6是示出用于立体显示装置10的操作的深度控制处理的流程图。当开始深度控制处理时,显示控制单元44确定接近检测单元42是否检测到操作工具的接近或接触(步骤S605)。在未检测到任何接近或接触的情况下,显示控制单元44立即结束处理。另一方面,在检测到接近或接触的情况下,显示控制单元44确定检测到的接近位置或接触位置的深度方向上是否显示有立体照片(步骤S610)。此外,即使在立体照片显示在与检测到的接近位置或接触位置的深度方向稍微偏离的位置的情况下,显示控制单元44也可以确定在检测到的接近位置或接触位置的深度方向上显示有立体照片。
在未以这种方式显示立体照片的情况下,显示控制单元44确定不存在控制目标,并立即结束处理。另一方面,在以这种方式显示立体照片的情况下,显示控制单元44通过上述计算方法来计算作为控制目标的立体照片的深度量(即,深度方向上的第一位移)(步骤S615)。
接下来,显示控制单元44基于所计算的深度量来计算从立体照片到接近位置或接触位置的距离(即,深度方向上的第二位移)(步骤S620)。立体照片在深度方向上的位置基于计算结果而变化,使得立体照片与操作工具相靠近或相一致(步骤S625)。在该实施例中,如以上参考图4所述,第一空间位置与第一显示位置之间在深度方向上的位移超过第二空间位置与第二显示位置之间的对应位移,即,立体照片被布置成比第二空间位置更接近于操作工具部分。
如前所述,根据第一示例性实施例的立体显示装置10,当操作工具靠近或触摸到显示表面24时,检测到接近位置或接触位置。然后,当显示在接近位置或接触位置的深度方向上的立体照片正从显示表面24突出时,立体照片的位置被移至更深处,使得将在彼此不相重叠的情况下显示操作工具和立体照片。另一方面,当立体照片在被压下得比显示表面24更深的情况下而被显示时,以立体照片的位置被向前移位的方式来显示立体照片,使得立体照片被拖拽至操作工具并触摸到操作工具。这能够使将要显示的立体照片被移动以便与操作工具相靠近或相一致,同时阻止了立体照片的凸出或凹进在立体空间中与操作工具相重叠,并且,可以在不存在怪异感的情况下,用包括立体照片的三维应用来实现诸如轻击、拖动以及轻弹之类的用二维应用所执行的操作。
5.XY坐标的控制(第一示例性实施例)
立体照片的显示位置被移动的方向可以是如前所述的深度方向,或者是与显示表面24平行的水平方向和垂直方向中的任一方向。例如,在图7的上图中,从显示表面24突出地显示立体照片Ps和Pt。图7示出了立体照片被显示成相互重叠的情况。这里,主体Pt’(显示对象)包含在立体照片Pt中,而主体Ps’(显示对象)包含在立体照片Ps中。立体照片Ps的主体Ps’位于立体照片Pt前面,而立体照片Pt的主体Pt’位于立体照片Ps后面,而且,当作为整体来看时,看到后面的立体照片Pt的主体Pt’部分地挡住了前面的立体照片Ps的主体Ps’(凸出部分)。这样的立体显示不会出现在真实空间中,并且因而导致用户经历怪异感。
如图7的上图中所示,在该显示状态下,操作工具接近于立体照片Ps和Pt。然后,根据操作工具的移动,显示控制单元44将立体照片Ps和立体照片Pt朝显示表面24的方向推回。接下来,如图7的中图中所示,当操作工具在与显示表面24平行的方向上(在该情况下为左)移动作为控制目标的立体照片Ps时,显示控制单元44在与显示表面24平行的方向上移动立体照片Ps的位置,并执行控制来使得立体照片Ps的位置与操作工具的接近位置相靠近或相一致。这使得立体照片Ps被显示在立体照片Pt的左边。结果,如图7的下图中所示,可以解决前面的立体照片Ps的主体Ps’被后面的立体照片Pt的主体Pt’所阻挡的情况。此外,可以如图7所示,在改变立体照片Ps在深度方向上的位置之后在XY方向(与显示表面24平行的方向)上移位立体照片Ps,或者可以在不改变立体照片Ps在深度方向上的位置的情况下在XY方向上移位立体照片Ps。
6.立体显示装置的功能配置(第二示例性实施例)
接下来,将参考图8来描述根据第二实施例的立体显示装置10的功能配置。根据第二示例性实施例的立体显示装置10,连同在第一示例性实施例中描述的自动深度控制一起来执行诸如书写的编辑控制。
根据第二实施例的立体显示装置10包括立体显示单元40、确定单元(例如接近检测单元42)、显示控制单元44、限定单元(例如深度调节单元46)、生成单元(例如图像编辑单元48)和存储单元60。在以上各项中,将主要描述未包括在第一实施例的功能配置中的深度调节单元46和图像编辑单元48。在实施例中,可以通过由计算机(例如由图1的CPU 32)所执行的模块、通过一般或专用硬件或其任意组合来提供显示控制单元44、确定单元、限定单元和生成单元中的一个或多个单元的功能。深度调节单元46根据用户进行的操作来调节作为控制目标的显示对象在深度方向上的位置。图像编辑单元48通过在立体照片上或在虚拟地覆盖于立体照片上的页表面上绘制图像,执行在立体地显示了图像内容的三维空间中获得期望图像的编辑。此时在其上执行绘制的页(构造)可以是照片本身的构造(显示表面24),或者可以通过提供用于在与照片本身的构造相同的位置处进行书写的构造(页表面)来分开管理原始立体照片和编辑内容。这里将描述在页表面上绘制图像的情况。
7.立体显示装置的深度/编辑控制(第二示例性实施例)
图9示出了根据本示例性实施例的立体显示装置10的深度/编辑控制的示例。显示控制单元44首先执行自动深度控制。具体地,当检测到操作工具对显示表面24的接触或接近时,显示控制单元44把显示在接触位置或接近位置的深度方向上的立体照片作为控制目标,并计算该立体照片在深度方向上的位置(深度量)。在图9的左图中,基于深度量来通过显示控制单元44使立体照片朝前移位,使得立体照片的凸出部分WA达到显示表面24。以此方式来执行自动深度控制的结果是,立体照片的凸出部分WA的显示位置达到与操作工具接触或接近的位置。
接下来,如图9的中图中,深度调节单元46对立体照片将要显示的深度进行调节。这里,将立体照片调节为显示在比自动控制之后的位置更深了Z’的量的位置处。通过以该方式调节立体空间中深度方向上的位置,可以指向立体空间中的任意位置。在图9的右图中,在立体空间中立体照片的页表面(与立体照片相同的位置)上,用笔在已被指向的书写位置执行书写。这意味着,通过在立体照片前面的立体空间中书写任意图形或文字来执行编辑。
作为用户输入深度的调节量Z’的方法,如图24右下图中所示,存在通过对设于显示表面24上的滑动器24a进行操作而输入调节量Z’的方法。也可以通过对把手(knob)或按钮(未示出)的操作来代替滑动器24a的操作而输入调节量Z’。如图24左下图中所示,还可能通过用户对捏合24b进行操作来输入调节量Z’。通过结合触摸面板20,还可能通过使得在空气中捏把手并检测把手的接近位置,输入调节量Z’。如图24左上图中所示,也可以通过用户对旋转器24c进行操作来输入调节量Z’。如图24右上图中所示,可以通过轻击或双击来把立体照片24d的深度调节为0,使得在轻击位置或双击位置处显示的立体照片24d的显示位置与显示表面24相一致。通过以这种方式由用户操作来输入调节量Z’,可以在立体空间中的任意位置绘制图形。
例如,可以在立体空间中的立体照片中书写任意图形。按照以下方式来计算书写位置。如上文中那样,以立体照片本身包括两种视差的情况为例。如图10的左图中所示,当令被视作目标的眼睛的位置向量为Vc、笔尖的位置向量为Vp、眼睛与显示表面之间的距离为Lc、而显示表面与立体照片之间的距离为Li时,书写位置的位置向量Vw由公式(2)示出如下:
Vw=(Lc+Li)/Lcx(Vp-Vc)+Vc.        (2)
在位于显示表面24后面的立体照片中进行绘制的情况下,在连接左眼的虚拟位置和书写位置的直线与立体照片的交点处,在用于左眼的页表面(被示出为页表面)上书写圆点。同样,在连接右眼的虚拟位置和书写位置的直线与立体照片的交点处,在用于右眼的页表面(被示出为页表面)上书写圆点。通过同时执行上述动作,看起来像是在立体照片上执行绘制一样。
如图10的中图中所示,在显示表面的后面显示立体照片的情况下,如果用笔在虚拟覆盖于立体照片上的页表面上执行书写,则将假设在立体照片前面的空间中书写了图像。另一方面,如图10右图中所示,在显示表面的前面显示立体照片的情况下,如果用笔在页表面上执行书写,则将假设在立体照片后面的空间中书写了图像。
8.立体显示装置的深度/编辑控制(第二示例性实施例)
接下来,将描述根据本示例性实施例的立体显示装置10的操作。图11是示出用于立体显示装置10的操作的深度/编辑控制处理的流程图。当开始深度/编辑控制处理时,显示控制单元44执行由图6的步骤S605到S625示出的深度控制处理(步骤S1105)。在第一示例性实施中已经描述了图6的深度控制处理,这里将省略对它的说明。例如,图12的部分“a”和“b”示出在深度控制处理中执行的接近检测和自动深度控制。这里的立体照片包括具有不同深度的主体m、n和o。
接下来,深度调节单元46确定是否从用户收到用于深度调节的指令(步骤S1110)。在不存在来自用户的关于深度调节量Z’的输入指令的情况下,深度调节单元46跳过步骤S1115。另一方面,在存在来自用户的关于深度调节量Z’的输入指令的情况下,深度调节单元46调节作为控制目标的立体照片的深度(步骤S1115)。在图12的“c”中,调节深度以使立体照片显示在更后面。
接下来,接近检测单元42检测操作工具(例如,人的手指,其他的人类附属肢体以及尖笔)是否在预定时间内接触到了显示表面(步骤S1120)。在未检测到接触的情况下,结束处理。另一方面,在检测到接触的情况下,在步骤S1125中,图像编辑单元48在页表面上的书写位置(即,确定单元的表面上对应于接触的位置)处执行所需的书写/编辑。执行这个书写/编辑处理直到与显示表面24相接触的操作工具从显示表面24移开(重复步骤S1130和S1125)为止。结果,在图12的“d”中,将图像书写在了主体m的前面,并且在“e”中,将图像书写在了主体n的后面。主体m和n对应于显示在操作工具的接近位置处的深度方向上的显示对象(控制目标)。
当与显示表面24相接触的操作工具从显示表面24移开时,处理返回至步骤S1110,并且深度调节单元46再次确定是否从用户收到用于深度调节的指令。在存在指令的情况下,深度调节单元46再次调节立体照片的深度(步骤S1115:见图12,“f”)。然后,在再次检测到操作工具的接触的情况下,图像编辑单元48在页表面上的书写位置再次执行期望的书写/编辑(步骤S1125)。在图12的“g”中,在立体照片中主体n右侧的页表面上的书写位置处书写图像。
在操作工具已经从显示表面24移开(步骤S1130),未曾有过用于深度调节的指令(步骤S1110和S1115),并且预定时间已经过去而操作工具并未接触显示表面24(步骤S1120)的情况下,结束书写/编辑处理。
如上所述,根据第二示例性实施例的立体显示装置10,通过自动深度控制可以使操作工具已对其发布指令的主体浮动至显示表面(即,至少对象的部分可以与确定单元表面在深度方向上相一致),并且可以在立体照片上书写任何图形或文字。例如,在图13的右图中,使操作工具接近作为主体示例的背景中的山,结果,山被自动控制成处于与显示表面一致的状态。这可以从山的图形未包括相对移位(视差)来看出。当在这种状态下用笔在山上书写“Mt.”时,执行编辑,以在山的图像上书写手写的“Mt.”。此外,在图13的右图中,在二维中将位于显示表面前面或者后面的主体的图像的相对移位幅度表示为视差。右边的建筑以及中间的石狮子的图像包括相对移位。因此,可以理解为,建筑和石狮子被立体显示为向前突出或者向后突入。
例如,在希望在立体照片前面的空间中书写的情况下,根据来自用户的深度调节指令而调节深度,使得将立体照片和页表面显示在显示表面的后面。当在这种情形下在页表面上执行书写时,可以在立体照片的图像前面的空间中执行三维书写。
另一方面,例如在希望在立体照片后面的空间中书写的情况下,根据来自用户的深度调节指令而调节深度,使得将立体照片和页表面显示在显示表面的前面。当在这种情形下在页表面上执行书写时,可以在立体照片的图像后面的空间中执行三维书写。在图13的左图中,在二维中将书写在显示表面的前面或后面的一对曲线的相对移位幅度表示为视差。虽然不能从图中知晓,但是离该女人最近的那对曲线书是写在前面的,并且具有小的相对移位。因此,这对曲线被显示为向该女人的前面凸出一点。另一方面,虽然不能从图中知晓,但是远离该女人的那两对曲线书是写在后面的,并有大的相对移位。因此,可以理解,一对曲线越靠向侧面,则这对曲线就被显示得越深入后面。用这种方式,根据第二示例性实施例的立体显示装置10,可以将图像书写在立体照片上或者立体照片的前面或者后面,并且可以执行编辑。
9.示例性深度/编辑控制处理(第二示例性实施例)
如上所述,当能够自由地在立体照片内的立体空间中进行绘制时,可能出现的情况是,产生了与原始立体照片和书写图像的视差有关的关于显示的怪异感。例如,如果可以在被移至前面的立体照片的后面执行书写,则关于立体显示可能出现怪异感或者不适感。为了防止这种情况,根据修改示例1,通过预先计算原始立体照片的左图像和右图像的像素之间的各相对移位、并且将这些相对移位与根据书写位置来计算的左右之间的相对移位进行比较,来确定立体照片在深度方向上的位置与图像的书写位置之间的位置关系,从而防止在立体照片的后面书写图像。下文中,将参考示出深度/编辑控制处理的图14的流程图来描述根据本实施例的修改示例1的立体显示装置10的操作。
当开始深度控制处理时,显示控制单元44执行图6中所示的深度控制处理(步骤S1105)。该深度控制处理与第二实施例的深度控制处理相同,这里将省略对它的说明。
接下来,在从用户接收到用于深度调节的指令的情况下,深度调节单元46对立体照片的深度进行调节(步骤S1110和S1115)。该深度调节处理也与第二实施例的深度调节处理相同,这里将省略对它的说明。
接下来,将描述修改示例1的书写控制。接近检测单元42检测操作工具是否在预定时间内接触到了显示表面24(步骤S1120),并且,在未检测到接触的情况下,结束处理。另一方面,在检测到接触的情况下,图像编辑单元48确定页表面上的书写位置是否位于立体照片的后面(步骤S1405)。如上所述,通过预先计算原始立体照片的左图像和右图像的像素之间的各相对移位、并且将这些相对移位与根据书写位置来计算的左右之间的相对移位进行比较,来确定页表面上的书写位置是否位于立体照片的后面。在书写位置未位于立体照片后面的情况下,图像编辑单元48照常在书写位置执行期望的书写/编辑(步骤S1125)。执行该书写/编辑处理,直到与显示表面24相接触的操作工具从显示表面24移开为止(重复步骤S1130和S1125)。
另一方面,在书写位置位于立体照片后面的情况下,由于将必须在被移至前面的立体照片的后面执行书写,因此图像编辑单元48禁止在该书写位置进行书写(步骤S1410)。在图15的“h”中,禁止在显示于显示表面前面的主体n的后面进行书写。
当与显示表面24相接触的操作工具从显示表面24移开时(步骤S1130)或者当书写被禁止时(步骤S1410),处理返回步骤S1110,并且深度调节单元46再次确定是否从用户收到用于深度调节的指令。在存在指令的情况下,深度调节单元46再次调节立体照片的深度(见图15中“j”),并且在页表面上的书写位置再次执行期望的书写/编辑。在图15的“k”中,示出一种在再次调节之后、在显示于显示表面24后面的主体n的前面书写图像的情形。
在操作工具已经从显示表面24移开(步骤S1130),不曾存在用于深度调节的指令(步骤S1110和S1115),并且在预定时间已过去而操作工具并未与显示表面24相接触的情况下(步骤S1120),结束书写/编辑处理。[0083]如上所述,根据第二实施例的修改示例1,通过禁止在立体照片的后面书写图像,能够防止引起与原始立体照片和书写图像的视差有关的关于显示的怪异感。
10.另外的示例性深度/编辑控制处理(第二示例性实施例)
在修改示例1中,禁止了在立体照片的后面进行书写,以防止与原始立体照片和书写图像的视差有关的关于显示的怪异感。另一方面,在修改示例2中,连同图像的书写/编辑一同执行自动深度控制,使得图像被书写在立体照片上。下文中,将参考示出深度/编辑控制处理的图16的流程图来描述根据本示例性实施例的修改示例2的立体显示装置10的操作。
当开始深度控制处理时,显示控制单元44执行图6中所示的深度控制处理(例如参见步骤S1105以及图17的“p”)。该(自动的)深度控制处理与第二示例性实施例的深度控制处理相同,这里将省略对它的说明。
接下来,将描述修改示例2的书写控制。接近检测单元42检测操作工具是否在预定时间内接触到了显示单元24(步骤S1120),并且,在未检测到接触的情况下,结束处理。另一方面,在检测到接触的情况下,图像编辑单元48在页表面上的书写位置执行期望的书写/编辑,同时执行图6的自动深度控制处理(步骤S1605)。执行该书写/编辑处理,直到与显示表面24相接触的操作工具从显示表面24移开为止(重复步骤S1130和S1605)。在图17的“q”中,执行主体m上的书写,同时将深度自动控制为使得主体m与显示表面相一致。在图17的“r”中,执行主体n上的书写,同时将深度自动控制为使得主体n与显示表面相一致。在图17的“s”中,执行主体o上的书写,同时将深度自动控制为使得主体o与显示表面相一致。
当与显示表面24相接触的操作工具从显示表面24移开(步骤S1130)时,处理返回步骤S1120,而且,在预定时间已过去而操作工具并未与显示表面24相接触(步骤S1120)的情况下,结束书写/编辑处理。
如上所述,根据第二示例性实施例的修改示例2,连同图像的书写/编辑一起来执行自动深度控制,使得在立体照片上书写图像。这可以防止引起与原始立体照片和书写图像的视差有关的关于显示的怪异感。此外,在第二实施例及其改进示例中,在深度控制期间由接近检测单元42所检测的操作工具对应于第一操作工具,并且在编辑处理期间由接近检测单元42所检测的操作工具对应于第二操作工具。
11.立体显示装置的缩小/放大控制(第三示例性实施例)
接下来,将对根据本公开的第三示例性实施例的立体显示装置10的功能和操作进行描述。通过图8中所示的功能模块的各个单元来实现根据第三示例性实施例的立体显示装置10的功能。然而,利用第三示例性实施例的显示控制单元44,在检测到操作工具的接近或者接触的情况下,在包括立体照片的图像内容被缩小到期望尺寸之后显示该图像内容。下面,将以这个区别为重点来对根据第三示例性实施例的立体显示装置10的深度控制处理进行描述。
图18是示出根据第三示例性实施例的立体显示装置10的缩小/放大控制处理的流程图。当开始缩小/放大控制处理时,显示控制单元44确定接近检测单元42是否检测到接近或者接触(步骤S605)。在既未检测到接近、也未检测到接触的情况下,结束处理。另一方面,在检测到接近或者接触(即,在显示表面的阈值距离内检测到操作工具的一部分的第一空间位置)的情况下,显示控制单元44将显示表面24上显示的图像内容(包括立体照片)缩小至第一尺寸,并且该第一尺寸的示例是与第一空间位置相关联的预定尺寸(步骤S1805)。图19示出了在检测到操作工具的接近时自动缩小立体照片的情形。
接下来,在步骤S1810中,显示控制单元44确定操作工具是否被移开至第二空间位置,接近检测单元42在该第二空间位置无法检测到接近(即,第二空间位置未落入阈值距离之内)。在操作工具未被移开的情况下,在图像内容被缩小至预定尺寸的情况下结束处理。在操作工具被移开至无法检测到接近的位置时,显示控制单元44将显示表面24上显示的图像内容恢复至其原始尺寸(步骤S1815),并结束处理。
如上所述,根据第三示例性实施例的立体显示装置10,在从显示表面凸出的立体照片的一部分与操作工具重叠或者可能重叠的情况下,改变立体照片的视觉尺寸以消除基于失配的怪异感,如同操作工具凹陷到立体照片中一样。例如,当图20的左图中所示的整个图像被缩小为图20的右图时,书写在女人两侧的曲线的相对移位变小。通过经由改变立体照片的视觉尺寸来以这种方式改变左图像和右图像之间关于视差的相对差异,可以减少立体照片的深度感。这能够减少操作工具与立体照片之间的重叠,并减少关于外观的怪异感。
例如,如果将突出量为1cm的立体照片缩小一半,则照片的突出量将为0.5cm。用这种方式可以减少由真实空间中的操作工具与虚拟空间中的对象之间的重叠引起的关于显示的怪异感。特别地,根据本本示例性实施例,对于缩小/放大整个图像,不必如第一示例性实施例那样通过计算深度量来控制立体照片的深度。这样,根据本本示例性实施例,用于深度控制的计算变得非必要,并且处理能够得到简化。
此外,显示控制单元44也可以根据图像内容中包括的一个或多个立体照片当中具有最大深度的那个立体照片的深度量,来确定图像内容的缩小比例。操作工具与立体照片彼此重叠时所引起的怪异感随着最大突出量的增加而增加。因此,在该情况下通过增大缩小比例,可以减少用户所经历的怪异感。
此外,还能够将本本示例性实施例的图像缩小/放大处理与一个或多个所公开的示例性实施例的深度控制相结合。除了图18的缩小/放大控制处理外,还可以根据用户的操作,通过深度调节单元46来执行对作为控制目标的立体照片在深度方向上的位置调节。
12.另外的示例性实施例的组合
可以针对应用来酌情对上述公开示例性实施例的立体显示方法进行组合。例如,在图像编辑单元48对图像进行编辑之前,显示控制单元44可以在控制作为控制目标的显示对象在深度方向上的位置之后,执行控制来放大并显示图像内容,从而与显示表面(触摸表面)相一致或者位于触摸表面的后面。
此外,例如,在检测到操作工具的接近的情况下,显示控制单元44可以连同缩小并显示图像内容一起,将显示在操作对象的接近位置的深度方向上的显示对象作为控制目标,并控制该显示对象在深度方向上的位置,从而与操作工具的接近位置相靠近或相一致。
将参考图21和图22来具体描述公开的示例性实施例的组合示例。在多个立体照片的缩略图Ps如图21的左上图中那样列队于立体显示装置10的显示表面24的后面的情况下,通过使操作工具触摸到显示表面24上的任意位置来选择期望的立体照片。在图21的右上图中,通过触摸来选择两个立体照片Ps1和Ps2,并通过利用第一示例性实施例的深度控制使得立体照片的深度量为0,令立体照片Ps1和Ps2的显示位置与显示表面24相一致。在图22中,当手接近显示表面24时,控制立体照片的深度以使它更靠近手的位置,并且立体照片Ps1浮动(图22的右上图),并且,通过使手触摸显示表面24,将立体照片Ps1显示在与显示表面24相一致的位置(图22的左下图)。当手移开时,执行向立体照片Ps1的全屏显示的切换(图22的右下图)。期望的立体照片Ps1也可以通过其它手势来被放大至全屏并显示(图21的左下图)。在这种情形下,如第二示例性实施例中所指示的那样,利用与立体照片Ps1相接触的手来开始书写(图21的右下图)。
当在以放大方式显示立体照片Ps1的情况下尝试用手触摸显示表面24时,很可能在手和立体照片Ps1之间出现干扰,但可以通过执行深度调节以在深度方向上将立体照片Ps1的图像拉回,来减小这种干扰。此外,也可以通过连同执行深度调节一起来缩小立体照片Ps1的图像(图21的右下图),来减少这种干扰。
此外,作为用于改变屏幕显示的手势,可以想到,如图23的左上图中所示那样通过在附近晃动手来移至上一照片或下一照片,或者如图23的右上图中所示那样通过拖拽来移至上一照片或下一照片,并且,在移至上一照片或下一照片期间,可以通过经由减小照片尺寸而减小深度感,减少由于到立体显示的显示对象的距离感与到操作工具的距离感之间的失配引起的怪异感。
如图23的左下图中所示,还能够通过双击来从以放大方式显示一个立体照片的情形转至显示缩略图列表。如图23的右下图所示,还能够通过捏合来进行缩放,并在立体照片充分小时转至显示缩略图列表。而且在这些情况下,在立体照片的放大显示期间,执行深度调节来将照片拉到后面,并且减少了由于到立体显示的显示对象的距离感与到操作工具的距离感之间的失配而引起的怪异感。然后,当已经转至显示缩略图列表时,执行深度调节来使照片接近于显示表面24,从而提高用户的可操作性。
用这种方式,在检测到操作工具的接近的情况下,显示控制单元44可以把显示在操作工具的接近位置的深度方向上的显示对象作为控制目标,并连同执行图像内容的缩小显示一起,移动显示对象在深度方向上的位置以使显示对象更加向后。此外,随着显示表面24与操作工具的接触位置之间的距离变得更短,显示控制单元44可以将图像内容显示为更加缩小,并且随着显示表面24与操作工具之间的距离变得更长,可以将图像内容显示为更加放大。
如上所述,根据公开的示例性实施例,通过根据操作工具的接近或接触而对显示对象的显示方法进行适当控制,可以减少由于立体显示的显示对象与操作工具之间关于距离感的失配而引起的怪异感。
例如,在第一示例性实施例中,通过使用能够进行接近检测的触摸面板20,根据操作工具接近的那个点处左图像与右图像之间的相对移位(视差)而估计出立体照片自显示表面24起的深度量,并且控制立体照片的位置以使操作工具的接近位置与该深度量彼此一致。这可以消除由于显示对象与操作工具之间关于距离感的失配而引起的怪异感,并且还可以提高用户的可操作性。
此外,例如,在第二示例性实施例中,经由利用能够进行接近检测的触摸面板20,通过操纵期望进行书写的XY坐标并且使Z坐标与显示表面(触摸表面)相匹配,可以用与指定二维中的位置相同的方式来指定三维中的位置,并且可以在显示立体照片的立体空间中的任意位置中书写文字或图形。
此外,例如,在第三示例性实施例中,当在从触摸面板20的显示表面24突出的位置处形成立体照片的情况下检测到操作工具的接近时,立体照片的尺寸被缩小。这可以容易地减少有关深度方向上的显示的怪异感,同时为用户保持良好的可操作性。
此外,通过将以上示例性实施例的立体显示方法进行适当结合,可以有效减少由于显示对象与操作工具之间关于距离感的失配而引起的怪异感。
在第一至第三示例性实施例以及上述修改示例中,各单元的操作是相互关联的,并且能够以考虑到各单元的关系的一系列操作或一系列处理来进行替代。这可以使得信息处理设备的示例性实施例执行立体显示方法,并且信息处理设备的处理器可以执行有形、非瞬时计算机可读介质中存储的指令,来使处理器实现信息处理设备的功能。
本领域的技术人员应当理解,根据设计需求和其它因素可以出现各种修改、合并、子合并以及替换,只要它们在所附权利要求或其等价物的范围之内。
例如,在上述每一个示例性实施例中,虽然已描述了根据其使得触摸面板检测三种情形(即,非接近、接近和接触)的方法以及根据检测结果来控制显示对象的显示方法。但是根据本公开的立体显示方法并不局限于此。例如,在通过触摸面板可以逐步地或顺序地检测显示表面和显示对象之间的距离的情况下,根据该距离可以在深度方向上逐步地或连续地向后推动显示对象。这样的修改也在本公开的技术范畴内。
本公开包含于在2010年11月11日向日本专利局提交的日本优先权专利申请JP 2010-253152当中所公开的主题,该申请的全部内容通过引用合并于此。

Claims (20)

1.一种信息处理设备,包括:
确定单元,被配置为确定在所述确定单元的表面上的、与在操作工具的部分和所述确定单元表面之间的接触相对应的位置;
限定单元,被配置为限定第一立体图像的第一显示位置;
生成单元,被配置为响应于所述接触而生成第二立体图像;以及
控制单元,被配置为生成信号来在所述第一显示位置处显示所述第一立体图像并且在第二显示位置处显示所述第二立体图像,所述第一显示位置和第二显示位置位于接触位置的预定距离之内。
2.根据权利要求1所述的信息处理设备,其中,所述预定距离是相对于与深度方向垂直的至少一个方向而限定的。
3.根据权利要求1所述的信息处理设备,其中,所述生成单元还被配置为,基于所述操作工具部分和所述确定单元表面之间的接触来生成电子内容。
4.根据权利要求2所述的信息处理设备,其中,所述电子内容包括从所述操作工具的用户接收的文字或绘画中的至少一个。
5.根据权利要求2所述的信息处理设备,其中,所述第二立体图像包括所述电子内容。
6.根据权利要求1所述的信息处理设备,其中,响应于所述接触,所述限定单元还被配置为,将所述第一显示位置限定为与所述确定单元表面在深度方向上相一致。
7.根据权利要求6所述的信息处理设备,其中,所述控制单元还被配置为生成如下的用户感知:所述第二立体图像的至少一部分被叠加在所述第一立体图像的对应部分上。
8.根据权利要求6所述的信息处理设备,其中,所述控制单元还被配置为,当接触到显示于所述第一显示位置处的所述第一立体图像的至少一部分时,生成对所述操作工具部分的用户感知。
9.根据权利要求8所述的信息处理设备,其中,所述控制单元还被配置为,当在显示于所述第一显示位置处的所述第一立体图像的部分之上进行书写时,生成对所述操作工具部分的用户感知。
10.根据权利要求1所述的信息处理设备,其中,所述限定单元还被配置为:
从用户接收指示所述第一立体图像的第一显示位置的信息;以及
基于至少接收到的信息来限定所述第一立体图像的所述第一显示位置。
11.根据权利要求1所述的信息处理设备,其中,所述确定单元还被配置为检测用户的手势。
12.根据权利要求11所述的信息处理设备,其中,所述限定单元还被配置为基于至少检测到的手势来限定所述第一显示位置。
13.根据权利要求1所述的信息处理设备,其中,所述确定单元还被配置为确定被布置于所述确定单元表面的阈值距离之内的操作工具部分的第一空间位置。
14.根据权利要求13所述的信息处理设备,其中,所述限定单元还被配置为基于所述第一空间位置来限定所述第一显示位置,所述第一显示位置是在深度方向上相对于所述检测单元表面而限定的。
15.根据权利要求13所述的信息处理设备,其中,所述确定单元还被配置为确定被布置于所述阈值距离之内的操作工具部分的连续空间位置,所述连续空间位置的确定响应于所述操作工具在深度方向上的运动。
16.根据权利要求15所述的信息处理设备,其中:
所述限定单元还被配置为,基于至少所述第一立体图像的第一显示位置和所述操作工具的连续空间位置来确定所述第一立体图像的连续的显示位置;并且
所述控制单元还被配置为,生成信号来在连续的第一显示位置处显示所述第一立体图像。
17.根据权利要求1所述的信息处理设备,还包括显示单元,所述显示单元被配置为,响应于所述信号来在所述第一显示位置显示所述第一立体图像以及在所述第二显示位置显示所述第二立体图像。
18.根据权利要求17所述的信息处理设备,其中:
所述显示单元包括显示表面;并且
所述显示单元表面的至少一部分与所述确定单元表面相一致。
19.一种用于显示图像的计算机实现的方法,包括:
利用处理器,确定在确定单元的表面上的、与在操作工具的部分和所述确定单元表面之间的接触相对应的位置;
利用所述处理器,限定第一立体图像的第一显示位置;
利用所述处理器,响应于所述接触而生成第二立体图像;以及
利用所述处理器,生成信号来在所述第一显示位置处显示所述第一立体图像并在第二显示位置处显示所述第二立体图像,所述第一显示位置和第二显示位置位于接触位置的预定距离之内。
20.一种用于存储指令的有形、非瞬时计算机可读介质,所述指令在被处理器执行时使得所述处理器执行一种方法,所述方法包括:
确定在确定单元的表面上的、与在操作工具的部分和所述确定单元表面之间的接触相对应的位置;
限定第一立体图像的第一显示位置;
响应于所述接触而生成第二立体图像;以及
生成信号来在所述第一显示位置处显示所述第一立体图像并在第二显示位置处显示所述第二立体图像,所述第一显示位置和第二显示位置位于接触位置的预定距离之内。
CN201110351020.XA 2010-11-11 2011-11-04 信息处理设备以及立体显示方法 Expired - Fee Related CN102547333B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-253152 2010-11-11
JP2010253152A JP5640681B2 (ja) 2010-11-11 2010-11-11 情報処理装置、立体視表示方法及びプログラム

Publications (2)

Publication Number Publication Date
CN102547333A true CN102547333A (zh) 2012-07-04
CN102547333B CN102547333B (zh) 2016-03-16

Family

ID=45350625

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201110351020.XA Expired - Fee Related CN102547333B (zh) 2010-11-11 2011-11-04 信息处理设备以及立体显示方法
CN2011204400240U Expired - Fee Related CN202738033U (zh) 2010-11-11 2011-11-04 信息处理设备

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN2011204400240U Expired - Fee Related CN202738033U (zh) 2010-11-11 2011-11-04 信息处理设备

Country Status (7)

Country Link
US (2) US9176624B2 (zh)
EP (1) EP2453340B1 (zh)
JP (1) JP5640681B2 (zh)
KR (1) KR20120050901A (zh)
CN (2) CN102547333B (zh)
BR (1) BRPI1107087A2 (zh)
RU (1) RU2011144884A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104519331A (zh) * 2013-09-27 2015-04-15 联想(北京)有限公司 一种数据处理方法及电子设备

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5640681B2 (ja) * 2010-11-11 2014-12-17 ソニー株式会社 情報処理装置、立体視表示方法及びプログラム
EP2715581B1 (en) * 2011-05-25 2022-07-06 Centric Software, Inc. Mobile app for design management framework
JP5989315B2 (ja) * 2011-09-22 2016-09-07 任天堂株式会社 表示制御プログラム、表示制御システム、表示制御装置、および、表示制御方法
CN106572389A (zh) * 2015-10-08 2017-04-19 小米科技有限责任公司 调节显示图像方法及装置
JP6092446B1 (ja) * 2015-10-23 2017-03-08 デクセリアルズ株式会社 部分駆動型光源装置及びそれを用いた画像表示装置
TWI796022B (zh) * 2021-11-30 2023-03-11 幻景啟動股份有限公司 在立體影像上執行互動的方法與立體影像顯示系統

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1643939A (zh) * 2002-03-27 2005-07-20 三洋电机株式会社 立体图像处理方法及装置
US20100095206A1 (en) * 2008-10-13 2010-04-15 Lg Electronics Inc. Method for providing a user interface using three-dimensional gestures and an apparatus using the same
CN202738033U (zh) * 2010-11-11 2013-02-13 索尼公司 信息处理设备

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816137A (ja) * 1994-06-29 1996-01-19 Nec Corp 3次元座標入力装置及びカーソル表示制御方式
JP3741764B2 (ja) * 1996-02-09 2006-02-01 シャープ株式会社 三次元画像作成装置
JP3971694B2 (ja) * 2002-12-11 2007-09-05 日本電信電話株式会社 オブジェクト表示方法及びその実施装置
US7483017B2 (en) 2003-08-21 2009-01-27 Microsoft Corporation Ink collection and rendering
JP4076090B2 (ja) * 2005-04-14 2008-04-16 日本電信電話株式会社 画像表示システム
JP4933164B2 (ja) * 2005-07-01 2012-05-16 キヤノン株式会社 情報処理装置、情報処理方法、プログラムおよび記憶媒体
GB2462579A (en) * 2008-06-10 2010-02-17 Sony Service Ct Touch screen display including proximity sensor
JP2010045584A (ja) 2008-08-12 2010-02-25 Sony Corp 立体画像補正装置、立体画像補正方法、立体画像表示装置、立体画像再生装置、立体画像提供システム、プログラム及び記録媒体
JP2010253152A (ja) 2009-04-28 2010-11-11 Asahi Kasei Kuraray Medical Co Ltd 成分献血装置、及び成分献血装置の作動方法
WO2011148544A1 (ja) 2010-05-27 2011-12-01 任天堂株式会社 携帯型電子機器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1643939A (zh) * 2002-03-27 2005-07-20 三洋电机株式会社 立体图像处理方法及装置
US20100095206A1 (en) * 2008-10-13 2010-04-15 Lg Electronics Inc. Method for providing a user interface using three-dimensional gestures and an apparatus using the same
CN202738033U (zh) * 2010-11-11 2013-02-13 索尼公司 信息处理设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JOCHEN EHNES等: "The pen and paper paradigm-supporting multiple users on the virtual table", 《PROCEEDINGS OF THE VIRTUAL REALITY 2001 CONFERENCE IEEE》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104519331A (zh) * 2013-09-27 2015-04-15 联想(北京)有限公司 一种数据处理方法及电子设备
CN104519331B (zh) * 2013-09-27 2019-02-05 联想(北京)有限公司 一种数据处理方法及电子设备

Also Published As

Publication number Publication date
JP5640681B2 (ja) 2014-12-17
CN102547333B (zh) 2016-03-16
US9176624B2 (en) 2015-11-03
EP2453340A1 (en) 2012-05-16
RU2011144884A (ru) 2013-05-10
KR20120050901A (ko) 2012-05-21
US20160007004A1 (en) 2016-01-07
EP2453340B1 (en) 2016-04-27
BRPI1107087A2 (pt) 2013-04-09
JP2012103983A (ja) 2012-05-31
US20120120061A1 (en) 2012-05-17
CN202738033U (zh) 2013-02-13
US9432652B2 (en) 2016-08-30

Similar Documents

Publication Publication Date Title
US10652515B2 (en) Information processing apparatus, stereoscopic display method, and program
CN202738033U (zh) 信息处理设备
CN102469333B (zh) 信息处理设备、立体显示方法和程序
KR101748668B1 (ko) 이동 단말기 및 그의 입체영상 제어방법
US10146426B2 (en) Apparatus and method for user input for controlling displayed information
JP5446769B2 (ja) 3次元入力表示装置
KR20120015168A (ko) 3차원 영상의 편집 방법 및 이를 이용하는 이동 단말기
CN103092399A (zh) 信息处理设备,信息处理方法和程序
JP6065908B2 (ja) 立体画像表示装置、そのカーソル表示方法及びコンピュータプログラム
CN104349157A (zh) 3d显示装置及其方法
CN102469330A (zh) 图像处理设备、图像处理方法和程序
US9674501B2 (en) Terminal for increasing visual comfort sensation of 3D object and control method thereof
CN104378621A (zh) 立体场景处理方法及装置
KR20120095139A (ko) 양안 카메라가 적용된 사용자 인터페이스 장치 및 매뉴얼 컨버전스 제어방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160316