CN102685526A - 图像处理设备和方法,和计算机程序产品 - Google Patents
图像处理设备和方法,和计算机程序产品 Download PDFInfo
- Publication number
- CN102685526A CN102685526A CN2012100524597A CN201210052459A CN102685526A CN 102685526 A CN102685526 A CN 102685526A CN 2012100524597 A CN2012100524597 A CN 2012100524597A CN 201210052459 A CN201210052459 A CN 201210052459A CN 102685526 A CN102685526 A CN 102685526A
- Authority
- CN
- China
- Prior art keywords
- display
- icon
- screen
- touch
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/31—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/356—Image reproducers having separate monoscopic and stereoscopic modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2101/00—Still video cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
一种协同提供图形用户界面的至少一部分的可控显示深度的控制单元,方法和计算机程序产品。此外,控制单元包括控制作为图形用户界面的一部分的图标的深度显示,所述图标可以是用户可选图标。当检测到物体接近显示器时,控制电路增大图标的显示深度。这样,当用户与图形用户界面互动时,向用户提供视觉反馈。
Description
技术领域
本公开涉及图像处理设备、方法和计算机程序产品,更具体地说,涉及能够允许用户可靠地认识不可选的图标等,和允许以更愉快的方式显示所述图标等的图像处理设备、方法和计算机程序产品。
背景技术
现有技术已尝试GUI(图形用户界面)功能的扩展。
例如,作为采用图标的GUI,GUI被显示在由显示图标等的诸如液晶面板之类显示面板,和检测用户的手指触摸的触摸面板共同构成的触摸屏上。
在利用触摸屏的GUI中,当显示在触摸屏上的图标被触摸时,执行分配给该图标的功能。
另外,还提出一种其中检测手指对显示屏的接近,并放大和显示图标的技术(例如,参见PTL1和PTL2)。
引用列表
PTL1:JP-A-2006-236143
PTL2:JP-A-2005-51876
发明内容
但是,在现有技术的GUI(图形用户界面)等中,通常以变灰的状态显示不可选的部分(图标等)。
不过,最新的触摸屏的显示功能已稳步改善,于是,就不可选的图标来说,可期待相对令人愉快的显示。
另外,例如,在具有小尺寸触摸屏的便携式电子设备等中,有时从用户看来,难以判别显示的图标是否是变灰的图标。在这种情况下, 即使该图标不可选,用户也可能多次重复选择操作。
在这样的情况下,理想的是使用户能可靠地认识不可选的图标等,和能够以令人愉快的方式显示所述图标等。
在一个例证实施例中,控制单元包括:
控制电路,所述控制电路控制显示在显示器上的图形用户界面的一部分的深度显示,当检测到物体接近显示器时,所述控制电路加深所述部分的显示深度。
所述实施例的一个方面在于:
控制单元通过增大显示器上的所述部分的视差,加深显示深度。
所述实施例的另一个方面在于:
所述部分是显示在显示器上的图标。
所述实施例的另一个方面在于:
图标是用户可选图标,当检测到物体在离图标的预定距离之内时,控制电路加深显示深度。
所述实施例的另一个方面在于:
控制电路把图标从第一种状态改变成视觉感知不同于第一种状态的第二种状态。
所述实施例的另一个方面在于它包括:
检测物体何时离显示器预定距离的传感器。
所述实施例的另一个方面在于它包括:
显示器,所述显示器是3维显示器。
所述实施例的另一个方面在于:
3维显示器呈现左图像和右图像。
所述实施例的另一个方面在于:
当检测到物体接近图标时,在显示器上沿着除深度方向外的方向,移动图标。
所述实施例的另一个方面在于:
当检测到物体接近图标时,在显示器上沿着除物体接近图标的方向外的方向,移动图标。
所述实施例的另一个方面在于:
当控制电路朝着显示器的内部移动图标时,控制电路改变图标的颜色。
所述实施例的另一个方面在于:
当控制电路朝着显示器的内部移动图标时,控制电路改变图标的形状。
在一个方法实施例中,所述方法包括:
在显示器上显示图形用户界面;
检测接近显示器的物体;和
用控制电路控制图形用户界面的一部分的深度显示,所述控制包括当检测到物体接近显示器时,加深所述部分的显示深度。
按照所述实施例的一个方面,
所述控制包括通过增大显示器上的所述部分的视差,加深显示深度。
所述实施例的另一个方面在于:
所述部分是显示在显示器上的图标。
所述实施例的另一个方面在于:
图标是用户可选图标,当检测到物体在离图标的预定距离之内时,控制电路加深显示深度。
按照一个非临时性计算机可读存储介质实施例,所述介质具有保存于其中的指令,当被处理电路执行时,所述指令使处理电路执行一种方法,所述方法包括:
在显示器上显示图形用户界面;
检测接近显示器的物体;和
用控制电路控制图形用户界面的一部分的深度显示,所述控制包括当检测到物体接近显示器时,加深所述部分的显示深度。
所述实施例的一个方面在于:
所述控制包括通过增大显示器上的所述部分的视差,加深显示深度。
所述实施例的另一个方面在于:
所述部分是显示在显示器上的图标。
所述实施例的另一个方面在于:
图标是用户可选图标,当检测到物体在离图标的预定距离之内时,控制电路加深显示深度。
按照本公开的实施例,能够使用户可以可靠地认识到不可选的图标等,并且允许用有趣的方式显示所述图标等。
附图说明
图1是图解说明生成3D图像的方法的示图。
图2是图解说明显示3D图像的显示器的结构例子的示图。
图3是图解说明在当视差栅格开启时,显示图像图像的情况下的例子的示图。
图4是图解说明在当视差栅格关闭时,显示图像图像的情况下的例子的示图。
图5A和5B是图解说明作为应用本公开的技术的图像处理设备的实施例的成像设备的外观结构例子的示图。
图6是图解说明图5A和5B中的成像设备的内部结构例子的方框图。
图7是图解说明CPU执行的软件的功能结构例子的方框图。
图8是图解说明显示在显示屏上的图像的例子的示图。
图9A和9B是图解说明在选择图标的情况下,触摸屏的显示画面的转变的示图。
图10A和10B是图解说明在选择图标的情况下,触摸屏的显示画面的转变的示图。
图11A和11B是图解说明在选择图标的情况下,触摸屏的显示画面的转变的示图。
图12是图解说明图标选择和显示控制处理的例子的示图。
图13A和13B是图解说明在选择图标的情况下,触摸屏的显示 画面的转变的再一个例子的示图。
图14A和14B是图解说明在选择图标的情况下,触摸屏的显示画面的转变的另一个例子的示图。
图15A和15B是图解说明在选择图标的情况下,触摸屏的显示画面的转变的另一个例子的示图。
图16A和16B是图解说明在选择图标的情况下,触摸屏的显示画面的转变的另一个例子的示图。
图17A和17B是图解说明在选择图标的情况下,触摸屏的显示画面的转变的另一个例子的示图。
图18A和18B是图解说明在选择图标的情况下,触摸屏的显示画面的转变的另一个例子的示图。
图19A和19B是图解说明在选择图标的情况下,触摸屏的显示画面的转变的另一个例子的示图。
图20是图解说明个人计算机的结构例子的方框图。
图21是图解说明本公开的控制单元的硬件结构示例的方框图。
图22是图解说明本公开的图像处理设备的硬件结构示例的方框图。
具体实施方式
下面参考附图,说明本公开的一个实施例。
在下面说明的实施例中,显示3D图像(三维显示的图像)。于是,在说明本公开的实施例之前,将提供生成包括左眼图像和右眼图像的3D图像的方法的概况,以易于理解本公开的实施例。
图1表示图解说明生成3D图像的方法的示图。
第一种生成方法是利用其中设置两个镜头的成像设备的方法。即,在第一种生成方法中,用户按照沿着大体水平的方向布置所述两个镜头,并同时进行摄影的方式,保持成像设备。随后,在所述两个镜头中,透过左侧镜头的光生成左眼图像的数据,透过右侧镜头的光生成右眼图像的数据。
另外,可在不利用成像设备等的情况下,对应于用CG(计算机图形学)生成的图像,生成左眼图像数据和右眼图像数据。
按照这种方式生成的左眼图像和右眼图像都包括在与成像设备的两个镜头之间的距离相应地隔开的位置的对应对象。这里,分别包括在左眼图像和右眼图像中的对应对象在大体水平方向的布置位置之间的差异(即,距离)被称为视差。视差越大,三维显示的对象的深度变得越深。即,凹凸度变得越强。于是,具有上述特性的视差可用作确定三维显示的对象的凹凸度的参数。
图2表示图解说明显示上述3D图像的显示器的结构例子的示图。图2中所示的显示器是用称为视差栅格(barrier)系统的系统,显示3D图像的3D显示器30,使用户可通过用裸眼观察3D显示器30,感知三维显示的对象的凹凸性。
如图2中所示,3D显示器30包括显示层31和视差栅格层32。在显示层31中,对于水平方向的每个单元像素(1列),交替显示左眼图像和右眼图像。在图2中,其中显示左眼图像的一列显示层31用“L”表示,其中显示右眼图像的一列用“R”表示。
视差栅格层32由具有与显示层31上的图像的各列相同的周期性各列的格子状栅格形成,栅格的开口部分的宽度被设定成与显示层31上的一个图像列的宽度相同。当用户通过视差栅格层32,从隔开预定距离的位置观看显示在显示层31上的图像时,“L”和“R”图像被分别呈现给用户的左眼和右眼,于是产生视差。
例如,如图3中所示,当用户40通过视差栅格层32,从隔开预定距离的位置观看显示在显示层31上的图像时,由各列左眼图像构成的图像被呈现给用户40的左眼,由各列右眼图像构成的图像被呈现给用户40的右眼。在图3的例子中,由每一列的“L1(代表第一个左眼图像)”,...,“Ln(代表第n个左眼图像)”,...,“LN(代表第N个左眼图像)”构成的图像被呈现给用户40的左眼。另外,由每一列的“R1(代表第一个右眼图像)”,...,“Rn(代表第n个右眼图像)”,...,“RN(代表第N个右眼图像)”构成的图像被呈现给用户40的右眼。
这样,能够允许用户40通过用裸眼观察3D显示器30,感知三维显示的对象的凹凸性。另外,通过视差栅格层32观察的图像能够表现显示层31本来在水平方向具有的分辨率的一半。于是,3D显示器30能够在视差栅格被开启的情况下显示图像,如图3中所示,并且能够在视差栅格被关闭的情况下显示图像,如图4中所示。
图4表示图解说明其中在视差栅格被关闭的情况下,显示图像的例子的示图。在图4中的例子的情况下,显示在显示层31的各列中的图像被分别呈现给用户40的左眼和右眼。于是,在当视差栅格被关闭时,显示图像的情况下,同时呈现给左眼和右眼的图像“LR1”,“LR2”,...,被显示在显示层31的各列中,于是,能够以显示层31本来在水平方向具有的分辨率显示图像。不过,在图4的情况下,由于未向用户呈现具有视差的图像,因此难以三维显示图像,从而只可以进行二维显示(2D显示)。
这样,3D显示器30被配置成三维显示图像,如图3中所示,或者2D显示图像,如图4中所示。
图5A和5B表示图解说明作为应用本公开的技术的图像处理设备的实施例的成像设备50的外观结构例子的示图。
图5A表示成像设备50的正面,图5B表示成像设备50的背面。
如图5A中所示,例如,在作为数字照相机构成的成像设备50的正面的右侧,设置镜头单元111。镜头单元111包括光学系统,比如会聚从被摄物体发出的光的透镜,调整焦点的聚焦透镜,光圈和其它组件(都未示出)。当成像设备50的电源被开启时,镜头单元111从成像设备50的外壳突出,当所述电源被关闭时,镜头单元111被收纳在成像设备50的外壳中。在图5A中,镜头单元111被收纳在成像设备50的外壳中。
在位于成像设备50的正面的镜头单元111的右上方,设置AF(自动聚焦)辅助光发射单元112。AF辅助光发射单元112沿着镜头单元111的光学系统的光轴方向,发出作为AF辅助光的光,从而照亮被摄物体。按照这种方式,例如,所谓的自动聚焦功能起作用,即使在 较暗的地方,也能够拍摄被摄物体的图像,从而根据所述图像,使被摄物体聚焦。
在成像设备50的正面的中上方,布置闪光灯113。
在当从正面一侧观察时成像设备50的顶面的右侧,设置当开启和关闭电源时操作的电源按钮114,在当从正面一侧观察时成像设备50的顶面的左侧,设置当记录拍摄的图像时操作的快门按钮(释放按钮)115。
如图5B中所示,在成像设备50的背面的右上方,设置变焦按钮116。
例如,当用户利用成像设备50拍摄被摄物体的图像时,当发出远摄(Tele)指令时,用户按下变焦按钮116中用“T”标记的部分(下面称为T按钮)。另一方面,当发出广角(Wide)指令时,用户按下变焦按钮116中用“W”标记的部分(下面称为W按钮)。另外,通过保持T按钮或W按钮的按下状态,用户可连续发出远摄(Tele)或广角(Wide)指令。
在变焦按钮116的下方,设置模式盘117。当选择成像设备50的各种模式等时,操作所述模式盘117。作为成像设备50的操作模式,可以列举的是拍摄被摄物体的摄影模式,或者显示通过被摄物体的摄影而获得的摄影图像的图像显示模式。另外,作为与摄影模式下的各种操作相关的模式,可以列举的是强制开启或关闭闪光灯113的照明的模式,使用自拍器的模式,在后面说明的液晶面板120上显示菜单画面的模式,等等。
在模式盘117的下方,设置操作按钮118。当用户进行预先分配的指令操作时,使用所述操作按钮118。
例如,用户操纵操作按钮118,从而在菜单屏幕上移动光标,结果能够选择存在于光标的放置位置的项目。
触摸屏119包括液晶面板120和置于液晶面板120上的接近面板121,液晶面板120和接近面板121是一体形成的。触摸屏119用液晶面板120显示各种图像,并借助接近面板121接收用户的操作。
作为与上面参考图2-4说明的3D显示器30具有相同结构的显示 器,构成液晶面板120,并且液晶面板120被配置成根据需要,二维或三维显示图像。
接近面板121通过和静电电容方式的触摸屏相同的方式,检测静电电容的变化,从而检测到用户的手指等逼近所述接近面板121。接近面板121检测在面板上的预定位置的静电电容的变化,然后输出指示用户的手指等逼近所述位置的程度的信号。
图6表示图解说明图5A和5B中的成像设备50的内部结构的方框图。
另外,在图6中,未示出图5A和5B中的AF辅助光发射单元112和闪光灯113。
CCD(电荷耦合器件)131按照从定时信号发生器(TG)141供给的定时信号工作。CCD 131接收通过镜头单元111入射的来自被摄物体的光,并进行光电转换,然后以对应于受光量的电信号的形式,把模拟图像信号提供给模拟信号处理单元132。
模拟信号处理单元132按照CPU(中央处理器)136的控制,进行从CCD 131供给的模拟图像信号的模拟信号处理,比如放大,然后把通过模拟信号处理获得的图像信号提供给A/D(模拟/数字)转换单元133。
A/D转换单元133按照CPU 136的控制,A/D转换作为从模拟信号处理单元132供给的模拟信号的图像信号,然后把作为通过转换获得的数字信号的图像数据提供给数字信号处理单元134。
按照CPU 136的控制,数字信号处理单元134对从A/D转换单元133供给的图像数据,进行诸如消噪之类的数字信号处理,然后把处理后的图像数据提供给液晶面板120。按照这种方式,在液晶面板120上,显示与供给图像的数据对应的图像,即,摄影时的摄影图像(下面称为预览图像)。另外,数字信号处理单元134通过例如JPEG(联合图像专家组)方法等,压缩和编码从A/D转换单元133供给的图像数据,然后把作为结果获得的压缩和编码数据提供给记录设备135,以便记录在其中。另外,数字信号处理单元134解压缩和解码记录在记录设 备135中的压缩和编码数据,把作为结果获得的图像数据提供给液晶面板120。按照这种方式,在液晶面板120上,显示与供给图像的数据对应的图像,即,记录的摄影图像。
另外,数字信号处理单元134按照CPU 136的控制,控制显示在液晶面板120上的GUI(例如,后面说明的菜单画面)的显示。
记录设备135包括例如诸如DVD(数字通用光盘)之类的光盘,诸如存储卡之类的半导体存储器,和其它可拆卸记录介质,并被设置成易于从成像设备50处分开。在记录设备135中,记录摄影图像的数据。
CPU 136执行记录在程序ROM(只读存储器)139中的程序,控制构成成像设备50的每个单元,并按照从接近面板121供给的信号,或者从操作单元137供给的信号,进行各种处理。
操作单元137由用户操作,把对应于操作的信号提供给CPU 136。另外,操作单元137包括图5A和5B中所示的电源按钮114,快门按钮115,变焦按钮116,模式盘117,操作按钮118等。
按照CPU 136的控制,除了保存对成像设备50设定的各种信息之外,EEPROM(电可擦可编程ROM)138还保存即使当成像设备50的电源被关闭时,也需要保持的数据等。
程序ROM 139保存CPU 136执行的程序,和为了使CPU 136可以执行程序而需要的数据。RAM(随机存取存储器)140临时保存为了使CPU 136可以进行各种处理而需要的程序或数据。
定时信号发生器141按照CPU 136的控制,向CCD 131提供定时信号。CCD 131中的曝光时间(快门速度)等由从定时信号发生器141提供给CCD 131的定时信号控制。
电动机驱动器142按照CPU 136的控制,驱动包括电动机的促动器143。当促动器143被驱动时,镜头单元111从成像设备50的外壳突出,或者被收纳在成像设备50的外壳中。另外,当促动器143被驱动时,进行构成镜头单元111的光圈的调整,或者构成镜头单元111的聚焦透镜的移动。
在如上所述构成的成像设备50中,CCD 131接收通过镜头单元 111入射的来自被摄物体的光,并进行光电转换,然后输出通过转换获得的模拟图像信号。当通过模拟信号处理单元132和A/D转换单元133时,从CCD 131输出的模拟图像信号被转变为数字信号的图像数据,然后被提供给数字信号处理单元134。
数字信号处理单元134把从A/D转换单元133供给的图像数据提供给液晶面板120,结果,在液晶面板120上,显示预览图像。
当用户操作快门按钮115(图5A和5B)时,对应于操作的信号从操作单元137被提供给CPU 136。当从操作单元137供给与快门按钮115的操作对应的信号时,CPU 136控制数字信号处理单元134压缩从A/D转换单元133提供给数字信号处理单元134的图像数据,把通过压缩获得的压缩图像数据记录在记录设备135中。
按照这种方式,进行所谓的摄影。
另外,CPU 136执行预定程序,从而生成3D图像的图像数据。
在生成3D图像的情况下,CPU 136设定视差d。在视差d被设定成具有较大值的情况下,利用具有视差的图像显示的对象的透视感(三维显示的对象的凹凸度)变大。例如,在视差d被设定成具有较大值的情况下,在观察画面的用户一方,感到对象好像从画面向前大大突出(或者好像画面被深深往里拉入)。
另一方面,当视差d被设定成具有较小值时,利用具有视差的图像显示的对象的透视感(三维显示的对象的凹凸度)变小。例如,在视差d被设定成具有较小值的情况下,在观察画面的用户一方,感到对象好像大体与画面齐平。
CPU 136获得变成3D图像的生成起源的图像数据,设定其中显示待三维显示的对象的待处理区域,和在待处理区域的水平方向的预定位置设定基准点P。CPU 136生成与基准点P隔开对应于视差d确定的相同距离的左右区域的相应数据,作为左眼图像数据和右眼图像数据。
与按照上述方式生成并且具有视差d的左眼图像数据和右眼图像数据对应的图像被显示在触摸屏119上,于是,用户能够观察3D 图像。
图7表示图解说明由CPU 136执行的程序等的软件的功能结构例子的方框图。
接近判定单元181根据从接近面板121输出的接近检测信号,判定用户的手指等相对于触摸屏119的接近度。例如,当用户的手指等逼近触摸屏119,直到离触摸屏119的距离变得小于预定阈值时,接近判定单元181生成和输出指示这种情况的预定数据。另外,当逼近触摸屏119的用户的手指等离开触摸屏119,直到离触摸屏119的距离变得等于或大于预定阈值时,接近判定单元181生成和输出指示这种情况的数据。另外,在接近判定单元181生成的数据中,包含指示用户的手指等是否逼近触摸屏119(接近面板121)等的一部分的信息。
选择可能性判定单元182根据包含在从接近判定单元181输出的数据中,并指示用户的手指等是否逼近触摸屏119的哪个部分的信息,确定用户将选择的对象。例如,显示在触摸屏119上的图标等被指定为用户将选择的对象。
另外,选择可能性判定单元182判定指定的对象是否是可选对象。即,判定是否允许分配给诸如图标之类对象的功能等的执行。例如,当按强制关闭闪光灯113的照明的模式,进行摄影时,确定进行使闪光灯113发光的设定的图标是不可选对象。
在确定指定对象不是可选对象(不可选对象)的情况下,选择可能性判定单元182把指示这种情形的信息输出给视差调整单元183。
在选择可能性判定单元182指定的对象是不可选对象的情况下,视差调整单元183设定与关于所述对象的3D显示有关的视差。例如,根据从接近判定单元181输出的数据,指定用户的手指等的接近度,然后根据该接近度,设定3D图像的视差。例如,在确定用户的手指逼近到小于第一阈值的距离的情况下,设定视差d1,在确定用户的手指逼近到小于第二阈值(第二阈值小于第一阈值)的距离的情况下,设定大于视差d1的视差d2。
另外,视差调整单元183获得成为3D图像的生成起源的图像(例 如,后面说明的菜单画面的图像)的数据,并指定其中显示待三维显示的对象的待处理区域。此时,例如,选择可能性判定单元182指定的对象被指定为待三维显示的对象。视差调整单元183例如在待三维显示的对象的中心位置设定基准点P。
与视差调整单元183设定的视差和基准点P相关的信息被输出给3D图像生成单元184。
3D图像生成单元184生成与上述基准点隔开与视差相应地确定的相同距离的左右区域的相应数据,作为左眼图像数据和右眼图像数据。按照这种方式,生成3D图像的数据。
图8表示显示在触摸屏119上的图像的例子。图8被看作当在成像设备50中,利用上述模式盘117选择其中显示菜单画面的模式时,显示的菜单画面。
在该菜单画面中,显示各种图标。例如,在图8中的右上方,显示垃圾箱图标201。
用户利用手指逼近显示在触摸屏119上的图标,从而可选择期望的图标。当选择了该图标时,执行对应于该图标的功能,或者进行预定设置。
例如,当在选择了预先记录在记录设备135中的摄影图像数据的缩略图(未示出)等的状态下,用户选择图标201,那么,对应于该缩略图的图像数据被删除。
另一方面,在用户没有选择摄影图像数据的缩略图等的状态下,图标201变成不可选图标。
参考图9A-11B,说明在用户选择图标201的情况下,触摸屏119的显示画面的转变。
图9A表示图解说明当用用户的眼睛观察触摸屏119时,获得的图像的例子的示图。如图9A中所示,用户利用手指221,接近触摸屏119的显示图标201的部分。此时,假定手指221未充分接近触摸屏119。例如,假定手指221和触摸屏119之间的距离等于或大于阈值Th1。
图9B表示当用户从图9A的左侧方向观察触摸屏119时获得的示图,该示图图解说明通过观察触摸屏119,用户感知的触摸屏119的图标201和手指221之间的距离的虚拟感。另外,图9B图解说明用户从3D图像感知的透视感,实际上,图标201只是显示在触摸屏119的表面上的图像(即,不具有厚度和深度的平面物体)。
如图9B中所示,图标201未被拉向触摸屏119的内部。即,手指221和触摸屏119之间的距离等于或大于阈值Th1,以致不生成具有视差的图像,从用户看来的图标201好像位于触摸屏119的表面上。
图10A图解说明当用用户的眼睛观察触摸屏119时获得的图像的另一个例子。如图10A中所示,用户利用手指221,进一步接近触摸屏119的显示图标201的部分。此时,例如,假定手指221和触摸屏119之间的距离小于阈值Th1,并且等于或大于阈值Th2。
图10B表示当从图10A的左侧方向观察触摸屏119时获得的示图,图10B图解说明通过观察触摸屏119,用户感知的触摸屏119的图标201和手指221之间的距离的虚拟感。另外,图10B图解说明用户从3D图像感知的透视感,实际上,图标201只是显示在触摸屏119的表面上的图像(即,不具有厚度和深度的平面物体)。
如图10B中所示,图标201沿着触摸屏119的深度方向,被拉向触摸屏119的内部,远离手指221。即,手指221和触摸屏119之间的距离小于阈值Th1,以致生成具有视差的图像,从而从用户看来的图标201看起来好像被拉向触摸屏119的内部。
另外,这里,图中图标沿着向下方向移动(看来似乎移动)离开触摸屏119的表面的状态用“被拉向触摸屏119的内部”表示。
图11A图解说明当用用户的眼睛观察触摸屏119时获得的图像的另一个例子。如图11A中所示,用户利用手指221,进一步接近触摸屏119的显示图标201的部分。此时,例如,假定手指221和触摸屏119之间的距离小于阈值Th2。
图11B表示当从图11A的左侧方向观察触摸屏119时获得的示图,图11B图解说明通过观察触摸屏119,用户感知的触摸屏119的 图标201和手指221之间的距离的虚拟感。另外,图11B图解说明用户从3D图像感知的透视感,实际上,图标201只是显示在触摸屏119的表面上的图像(即,不具有厚度和深度的平面物体)。
如图11B中所示,图标201被进一步拉向触摸屏119的内部。即,手指221和触摸屏119之间的距离小于阈值Th2,以致生成具有更大视差的图像,从而从用户看来的图标201看起来好像被进一步拉向触摸屏119的内部。
按照这种方式,用户可清楚地感到图标201是不可以选择的图标。另外,按照这种方式,能够把图标的选择操作反馈给用户,以致能够使用户可以清楚地感到图标201不能被选择。
另外,与仅仅使图标201变灰的情况不同能够用3D显示呈现令人愉快的画面。
另外,当三维显示菜单画面时,可以输出预定效果的声音等。
下面参考图12的流程图,说明由成像设备50进行的图标选择和显示控制处理的例子。当成像设备50通过触摸屏119收到用户的操作时,进行所述处理。
在步骤S21,CPU 136控制数字信号处理单元134,把菜单画面显示在液晶面板120(触摸屏119)上。
按照这种方式,例如,显示上面参考图8说明的菜单画面。
在步骤S22,接近判定单元181判定是否检测到用户手指221的逼近,当判定手指221还未逼近时,处理返回步骤S21。例如,在图9A和9B中所示状态的情况下,判定用户的手指221还未逼近。
如果在步骤S22中,判定检测到用户的手指221的接近时,处理进入步骤S23。例如,在图10A和10B中所示的状态下,判定检测到用户的手指221的接近。例如,在手指221和触摸屏119之间的距离小于阈值Th1的情况下,判定检测到用户的手指221的接近。
在步骤S23,选择可能性判定单元182指定用户将选择的图标。此时,例如,根据包括在从接近判定单元181输出的数据中,并且指示用户的手指接近触摸屏119的哪个部分的信息,指定用户将要选择 的图标。
在步骤S24,选择可能性判定单元182判定用步骤S23中的处理指定的对象是否是可选对象。在步骤S24,在判定对象是不可以选择的对象的情况下,处理进入步骤S25。
在步骤S25,视差调整单元183指定触摸屏119和手指221之间的距离。触摸屏119和手指221之间的距离是根据接近度指定的,所述接近度是根据从接近判定单元181输出的数据获得的。
在步骤S26,视差调整单元183设定由3D图像生成单元184生成的3D图像的视差。此时,例如,设定与在步骤S25中指定的距离对应的视差。例如,在确定用户的手指逼近到小于第一阈值的距离的情况下,设定视差d1,在确定用户的手指逼近到小于第二阈值(第二阈值小于第一阈值)的距离的情况下,设定大于视差d1的视差d2。
另外在此时,例如,选择可能性判定单元182指定的对象被指定为待三维显示的对象,视差调整单元183在待三维显示的对象的中心位置设定基准点P。
在步骤S27,3D图像生成单元184根据在步骤S26的处理中设定的视差和基准点,生成作为左眼图像数据和右眼图像数据的数据。按照这种方式,生成3D图像数据。另外,根据该3D图像数据,三维显示触摸屏119的菜单屏幕。
按照这种方式,进行图标选择和显示控制处理。这样,例如,如上参考图9A-图11B所述,当用户的手指221接近图标201时,看起来图标201好像被拉向触摸屏119的内部。另外,当用户的手指221进一步接近图标201时,看起来图像201好像被进一步拉向触摸屏119的内部。
于是,借助利用3D显示的有趣表现,能够使用户可以清楚地感到图标201是不可以选择的图标。
另外,在上述例子中,说明了其中当手指接近时,图标被显示成看起来被拉向触摸屏的内部的例子,不过,可按照其它方式显示图标。例如,可按照当手指接近图标时,看来好像从触摸屏突出的图标似乎 下沉的方式进行显示。要点是可生成显示数据,以致当手指接近图标时,图标看起来似乎离开手指。
不过,在上面参考图9A-11B说明的例子中,说明了其中当用户的手指221接近时,图标201沿着触摸屏119的屏幕的垂直向下方向移动(看来好像移动)的例子,不过图标201可沿着另一个方向移动。
图13A-14B表示图解说明当用户选择图标201时,触摸屏119的显示画面的转变的另一个例子的示图。
图13A表示图解说明当用用户的眼睛观察触摸屏119时获得的图像的例子的示图。如图13A中所示,用户利用手指221,接近触摸屏119的显示图标201的部分。此时,假定手指221未足够接近触摸屏119。例如,假定手指221和触摸屏119之间的距离等于或大于阈值Th1。
图13B表示当用户从图13A的向下方向观察触摸屏119时获得的示图,图13B图解说明通过观察触摸屏119,用户感知的触摸屏119的图标201和手指221之间的距离的虚拟感。另外,图13B图解说明用户从3D图像感知的透视感,实际上,图标201只是显示在触摸屏119的表面上的图像。
如图13B中所示,图标201未被拉向触摸屏119的内部。即,手指221和触摸屏119之间的距离等于或大于阈值Th1,以致不生成具有视差的图像,从而从用户观察的图标201看来像是位于触摸屏119的表面上。
图14A图解说明当用用户的眼睛观察触摸屏119时获得的图像的另一个例子。如图14A中所示,用户通过利用手指221,进一步接近触摸屏119的显示图标201的部分。此时,例如,假定手指221和触摸屏119之间的距离小于阈值Th1,并且等于或大于阈值Th2。
图14B表示当从图14A的向下方向观察触摸屏119时获得的示图,图14B图解说明通过观察触摸屏119,用户感知的触摸屏119的图标201和手指221之间的距离的虚拟感。另外,图14B图解说明用户从3D图像感知的透视感,实际上,图标201只是显示在触摸屏119 的表面上的图像。
如图14B中所示,图标201沿着触摸屏119的深度方向,被拉向触摸屏119的内部,远离手指221。即,手指221和触摸屏119之间的距离小于阈值Th1,以致生成具有视差的图像,从而从用户看来的图标201看起来好像被拉向触摸屏119的内部。
另外,在图14B的情况下,不同于图10B的情况,图标201移向右下方。
图15A图解说明当用用户的眼睛观察触摸屏119时获得的图像的另一个例子。如图15A中所示,用户利用手指221,进一步接近触摸屏119的显示图标201的部分。此时,例如,假定手指221和触摸屏119之间的距离小于阈值Th2。
图15B表示当从图15A的向下方向观察触摸屏119时获得的示图,图15B图解说明通过观察触摸屏119,用户感知的触摸屏119的图标201和手指221之间的距离的虚拟感。另外,图15B图解说明用户从3D图像感知的透视感,实际上,图标201只是显示在触摸屏119的表面上的图像。
如图15B中所示,图标201被进一步拉向触摸屏119的内部。即,手指221和触摸屏119之间的距离小于阈值Th2,以致生成具有更大视差的图像,从而从用户看来的图标201看起来好像被进一步拉向触摸屏119的内部。
另外,在图15B的情况下,与图11B的情况不同,图标201进一步移向右下方。
当如上参考图13A-15B所述进行3D显示时,看起来好像图标201逃离用户的手指221。按照这种方式,能够更可靠地使用户可以清楚地意识到图标201是不可以选择的图标。
另外,在图14B和15B中,说明了其中当手指221接近时,图标201移动(看来似乎移动)到图中下方右侧的例子,不过,图标201可沿着下方向左的方向移动(看来似乎移动)。即,图标201可以沿着与手指221接近触摸屏119的方向(例如,图14B和15B中垂直向下 的方向)不同的方向移动。
另外,在用户试图再次选择逃离用户的图标201的情况下,可以进行其中图标201看起来好像进一步逃离用户的3D显示。
图16A-19B表示图解说明当用户选择图标201时,触摸屏119的显示画面的转变的另一个例子的示图。
图16A表示图解说明当用用户的眼睛观察触摸屏119时获得的图像的例子的示图。如图16A中所示,用户通过利用手指221,接近触摸屏119的显示图标201的部分。此时,假定手指221未足够接近触摸屏119。例如,假定手指221和触摸屏119之间的距离等于或大于阈值Th1。
图16B表示当用户从图16A的向下方向观察触摸屏119时获得的示图,图16B图解说明通过观察触摸屏119,用户感知的触摸屏119的图标201和手指221之间的距离的虚拟感。
如图16B中所示,图标201未被拉向触摸屏119的内部。即,手指221和触摸屏119之间的距离等于或大于阈值Th1,以致不生成具有视差的图像,从而从用户观察的图标201看来似乎位于触摸屏119的表面上。另外,图16B图解说明用户从3D图像感知的透视感,实际上,图标201只是显示在触摸屏119的表面上的图像。
图17A图解说明当用用户的眼睛观察触摸屏119时获得的图像的另一个例子。如图17A中所示,用户通过利用手指221,进一步接近触摸屏119的显示图标201的部分。此时,例如,假定手指221和触摸屏119之间的距离小于阈值Th1,并且等于或大于阈值Th2。
图17B表示当用户从图17A的向下方向观察触摸屏119时获得的示图,图17B图解说明通过观察触摸屏119,用户感知的触摸屏119的图标201和手指221之间的距离的虚拟感。另外,图17B图解说明用户从3D图像感知的透视感,实际上,图标201只是显示在触摸屏119的表面上的图像。
如图17B中所示,图标201沿着触摸屏119的深度方向,被拉向触摸屏119的内部,从而远离手指221。即,手指221和触摸屏119 之间的距离小于阈值Th1,以致生成具有视差的图像,从而从用户观察的图标201看起为好像被拉向触摸屏119的内部。另外,图标201移向图中下方的右侧。至此说明的结构与参考图13A-14B说明的情况的结构相同。
图18A图解说明当用用户的眼睛观察触摸屏119时获得的图像的另一个例子。如图18A中所示,用户的手指221沿着向右方向移动,伴随有图17A和17B中,图标201沿着向右方向的移动。即,用户试图再次选择逃离用户的图标201。另外,在图18A中,用虚线描述手指,所述虚线指示手指的移动。
图18B表示当从图18A的向下方向观察触摸屏119时获得的示图,图18B图解说明通过观察触摸屏119,用户感知的触摸屏119的图标201和手指221之间的距离的虚拟感。另外,图18B图解说明用户从3D图像感知的透视感,实际上,图标201只是显示在触摸屏119的表面上的图像。
在图18B中,用户沿着向右方向移动手指221,以致手指221在图中位于图标201的正上方。
图19A图解说明当用用户的眼睛观察触摸屏119时获得的图像的另一个例子。如图19A中所示,用户通过利用手指221,进一步接近触摸屏119的显示图标201的部分。此时,例如,假定手指221和触摸屏119之间的距离小于阈值Th2。
图19B表示当从图19A的向下方向观察触摸屏119时获得的示图,图19B图解说明通过观察触摸屏119,用户感知的触摸屏119的图标201和手指221之间的距离的虚拟感。另外,图19B图解说明用户从3D图像感知的透视感,实际上,图标201只是显示在触摸屏119的表面上的图像。
如图19B中所示,图标201被进一步拉向触摸屏119的内部。即,手指221和触摸屏119之间的距离小于阈值Th2,以致生成具有更大视差的图像,从而从用户看来的图标201看起来好像被进一步拉向触摸屏119的内部。另外,如图19B中所示,图标201进一步在图中下 方沿着向右方向移动。
另外,在图17B,18B和19B中,说明了其中当手指221接近时,图标201移动(看起来移动)到图中下方右侧的例子,不过,图标201可沿着下方向左的方向移动(看起来移动)。即,图标201可以沿着与手指221接近触摸屏119的方向(例如,图17B、18B和19B中垂直向下的方向)不同的方向移动。
如上参考图16A-19B所述,当进行3D显示时,看起来图标201似乎逃离用户的手指221。另外,在用户试图再次选择逃离用户的图标201的情况下,看起来图标201似乎进一步逃离用户。即,即使当用手指221追赶不可选图标201时,看起来图标201也好像逃离手指221。按照这种方式,能够更可靠地使用户可以清楚地意识到图标201是不可以选择的图标,从而能够利用3D显示,呈现令人愉快的图像。
另外,如图14A,14B,15A,15B,17A,17B,18A,18B,19A和19B中所示,当图标201被拉向触摸屏119的内部时,可以改变图标201的颜色。按照这种方式,能够更可靠地使用户可以清楚地意识到图标201是不可以选择的图标。
另外,当图标201被拉向触摸屏119的内部时,可以改变图标201的形状。例如,可以在改变图标201的形状的时候,显示图标201,以致图标201看起来好像被扭曲。按照这种方式,能够呈现更动人的图像。
上面,说明了把本发明的技术应用于成像设备50的例子,不过,本发明的技术可以适用于除成像设备外的其它电子设备。本发明的技术可以应用于任意设备,只要进行利用触摸屏等的操作。
另外,上面说明了利用手指等,操作显示在触摸屏上的图标等的例子,不过例如,本发明的技术可适用于利用触笔等,操作显示在触摸屏上的图标等的情况。
另外,上面说明了当选择显示在触摸屏上的菜单画面中的图标时,进行3D显示的例子,不过,本发明的技术的应用并不局限于此。要点在于只要GUI部分被显示在触摸屏等上,并操作所述GUI部分, 就可应用本发明的技术。
例如,当选择显示在触摸屏上的缩略图图像等时,可以三维显示所述缩略图图像。例如,在应用本发明的技术的情况下,能够原样用任意颜色显示缩略图图像,以致与现有技术中,变灰地显示缩略图图像等的情况相比,可以显示更美丽的图像。
另外,上面说明了利用具有其中采用视差栅格系统的3D显示器的触摸屏,进行3D显示的例子,不过即使在利用除视差栅格系统外的系统,进行3D显示的情况下,也可应用本公开。例如,可以使用其中采用双凸透镜系统的3D显示器的触摸屏。
另外,可以使用具有除允许用户用裸眼观看的3D显示器之外,在佩戴特殊眼镜的情况下,允许用户观看的3D显示器的触摸屏。
另外,上述一系列处理可以用硬件或软件执行。当用软件执行上述一系列处理时,构成所述软件的程序可通过网络,或者从记录介质被安装到其中装配专用硬件中的计算机中,或者被安装到通过安装各种程序,能够执行各种功能的图20中所示的通用个人计算机700中。
在图20中,CPU(中央处理器)701按照保存在ROM(只读存储器)702中的程序,或者从存储单元708载入RAM(随机存取存储器)703中的程序,执行各种处理。在RAM 703中,酌情保存CPU 701执行各种处理所必需的数据。
CPU 701、ROM 702和RAM 703通过总线704相互连接。另外,I/O接口705连接到总线704。
诸如键盘和鼠标之类的输入单元706,诸如LCD(液晶显示器)之类的显示器,诸如扬声器之类的输出单元707,诸如硬盘之类的存储单元708,和诸如调制解调器和包括LAN卡等的网络接口卡之类的通信单元709连接到I/O接口705。通信单元709通过包括因特网的网络进行通信处理。
根据需要,驱动器710连接到I/O接口705,并酌情安装诸如磁盘、光盘、磁光盘和半导体存储器之类的可拆卸介质711,于是根据需要,从可拆卸介质711读出的计算机程序可被安装在存储单元708 中。
在用软件执行上述一系列处理的情况下,可通过诸如因特网之类的网络,或者诸如可拆卸介质711之类的记录介质,安装构成所述软件的程序。
另外,独立于图20中所示设备的机身,所述记录介质不仅可由为把程序传给用户而分发的记录有程序的可拆卸介质711构成,而且可由在预先装配于设备机身中的状态下,分发给用户的记录有程序的ROM 702,包括在存储单元708中的硬盘等构成,所述可拆卸介质711包括磁盘(包括软盘(注册商标)),光盘(包括CD-ROM(光盘-只读存储器),和DVD(数字通用光盘)),磁光盘(包括MD(小型光盘)(注册商标)),半导体存储器等。
图21是图解说明本公开的控制单元的硬件结构示例的方框图。在图21所示的控制单元500中,包括显示图形用户界面的显示器510;和控制所述图形用户界面的一部分的深度显示,当检测到物体接近显示器时,加深所述部分的显示深度的控制电路503。
此外,控制单元500还可以包括检测物体何时离显示器预定距离的传感器520。
此外,在一种实施方式中,控制电路503可以包括通过增大显示器上的所述部分的视差,加深显示深度的第一加深单元5038。其中,所述部分是显示在显示器上的图标。
此外,在一种实施方式中,所述图标是用户可选图标,并且所述控制电路503可以包括当检测到物体在离图标的预定距离之内时,加深显示深度的第二加深单元5039。
此外,在一种实施方式中,所述控制电路503可以包括把图标从第一种状态改变成视觉感知不同于第一种状态的第二种状态的第一改变单元5035。
在控制单元500中,所述显示器是3维显示器。
所述3维显示器可以是呈现左图像和右图像的显示器。
此外,在一种实施方式中,所述控制电路503可以包括当检测到 物体接近图标时,在显示器上沿着除深度方向外的方向移动所述图标的第一移动单元5041。
此外,在一种实施方式中,所述控制电路503可以包括当检测到物体接近图标时,在显示器上沿着除物体接近图标的方向外的方向移动所述图标的第二移动单元5042。
此外,在一种实施方式中,所述控制电路503可以包括当朝着显示器的内部移动所述图标时,改变所述图标的颜色的第二改变单元5036。
此外,在一种实施方式中,所述控制电路503可以包括当朝着显示器的内部移动图标时,改变所述图标的形状的第三改变单元5037。
此外,在一种实施方式中,所述控制电路503可以包括当检测到物体接近显示器时,使得所述部分朝着远离所述物体的方向移动的第三移动单元5043。
此外,在一种实施方式中,所述控制电路503可以包括当检测到所述物体再次试图接近显示器时,使得所述部分进一步朝着远离所述物体的方向移动的第四移动单元5044。需要强调的是,图21中的所有单元和部件都可以用硬件部件来实现。
图22是图解说明本公开的图像处理设备5000的硬件结构示例的方框图。
在一种实施方式中,图像处理设备5000可以包括:接近检测单元5031,所述接近检测单元检测操作GUI部分的物体是否接近显示所述GUI部分的显示单元;部分指定单元5032,在所述物体接近的情况下,所述部分指定单元指定被操作的GUI部分;操作可能性判定单元5034,所述操作可能性判定单元判定指定的GUI部分的操作是否可能;和图像数据生成单元5033,所述图像数据生成单元根据关于GUI部分的操作可能性的判定结果,生成控制显示单元的深度显示,以使GUI部分可以远离所述物体的图像数据。
需要强调的是,图22中的所有单元和部件都可以用硬件部件来实现。
应注意,本公开也可采用下述结构。
[1]
一种图像处理设备,包括:
接近检测单元,所述接近检测单元检测操作GUI部分的物体是否接近显示所述GUI部分的显示单元;
部分指定单元,在所述物体接近的情况下,所述部分指定单元指定被操作的GUI部分;
操作可能性判定单元,所述操作可能性判定单元判定指定的GUI部分的操作是否可能;和
图像数据生成单元,所述图像数据生成单元根据关于GUI部分的操作可能性的判定结果,生成控制显示单元的深度显示,以使GUI部分可以远离所述物体的图像数据。
[2]
按照[1]所述的图像处理设备,
其中图像数据生成单元按照所述物体接近显示单元的程度,生成控制显示单元的深度显示的图像数据。
[3]
按照[2]所述的图像处理设备,
其中比较接近度与预先设定的阈值,与比较结果相应地设定用于显示单元的深度显示的控制的视差。
[4]
按照[1]所述的图像处理设备,
其中图像数据生成单元生成图像数据,以致指定的GUI部分的图像的颜色被改变。
[5]
按照[1]所述的图像处理设备,
其中图像数据生成单元生成图像数据,以致指定的GUI部分的图像的形状被改变。
[6]
按照[1]所述的图像处理设备,
其中生成图像数据,该图像数据允许以GUI部分沿着与所述物体接近的方向不同的方向移动,从而所述GUI部分远离所述物体的方式,显示所述GUI部分。
[7]
按照[1]所述的图像处理设备,
其中显示单元包括采用视差栅格系统的3D显示器。
[8]
按照[1]所述的图像处理设备,
其中接近检测单元包括触摸屏。
[9]
一种图像处理方法,包括:
使接近检测单元检测操作GUI部分的物体是否接近显示所述GUI部分的显示单元;
在所述物体接近的情况下,使部分指定单元指定被操作的GUI部分;
使操作可能性判定单元判定指定的GUI部分的操作是否可能;和
使图像数据生成单元根据关于GUI部分的操作可能性的判定结果,生成控制显示单元的深度显示,以使GUI部分可以远离所述物体的图像数据。
[10]
一种使计算机可以起图像处理设备作用的程序,
其中所述图像处理设备包括,
接近检测单元,所述接近检测单元检测操作GUI部分的物体是否接近显示所述GUI部分的显示单元;
部分指定单元,在所述物体接近的情况下,所述部分指定单元指定被操作的GUI部分;
操作可能性判定单元,所述操作可能性判定单元判定指定的GUI 部分的操作是否可能;和
图像数据生成单元,所述图像数据生成单元根据关于GUI部分的操作可能性的判定结果,生成控制显示单元的深度显示,以使GUI部分可以远离所述物体的图像数据。
另外,本说明书中的上述一系列处理不仅包括按照与所述序列相应的时序进行的处理,而且包括不一定按时序进行,而是并行或者单独进行的处理。
另外,本公开的实施例并不局限于上述实施例,各以作出各种变化,而不脱离本公开的范围。
附图标记列表
50:成像设备
119:触摸屏
120:液晶面板
121:接近面板
134:数字信号处理单元
136:CPU
137:操作单元
138:EEPROM
139:程序ROM
140:RAM
181:接近判定单元
182:选择可能性判定单元
183:视差调整单元
184:3D图像生成单元
201:图标。
Claims (22)
1.一种控制单元,包括:
控制电路,所述控制电路控制显示在显示器上的图形用户界面的一部分的深度显示,当检测到物体接近显示器时,所述控制电路加深所述部分的显示深度。
2.按照权利要求1所述的控制单元,其中
所述控制单元通过增大显示器上的所述部分的视差,加深显示深度。
3.按照权利要求1所述的控制单元,其中
所述部分是显示在显示器上的图标。
4.按照权利要求3所述的控制单元,其中
所述图标是用户可选图标,并且当检测到物体在离图标的预定距离之内时,控制电路加深显示深度。
5.按照权利要求3所述的控制单元,其中
所述控制电路把图标从第一种状态改变成视觉感知不同于第一种状态的第二种状态。
6.按照权利要求1所述的控制单元,还包括:
检测物体何时与显示器相距预定距离的传感器。
7.按照权利要求1所述的控制单元,还包括:
显示器,所述显示器是3维显示器。
8.按照权利要求7所述的控制单元,其中
所述3维显示器呈现左图像和右图像。
9.按照权利要求3所述的控制单元,其中
当检测到物体接近图标时,在显示器上沿着与深度方向不同的其他方向移动所述图标。
10.按照权利要求3所述的控制单元,其中
当检测到物体接近图标时,在显示器上沿着与物体接近图标的方向不同的其他方向移动所述图标。
11.按照权利要求3所述的控制单元,其中
当控制电路朝着显示器的内部移动所述图标时,控制电路改变所述图标的颜色。
12.按照权利要求3所述的控制单元,其中
当控制电路朝着显示器的内部移动图标时,控制电路改变所述图标的形状。
13.按照权利要求1所述的控制单元,其中
当检测到物体接近显示器时,控制电路使得所述部分朝着远离所述物体的方向移动。
14.按照权利要求13所述的控制单元,其中
当检测到所述物体再次试图接近显示器时,控制电路使得所述部分进一步朝着远离所述物体的方向移动。
15.一种图像控制方法,包括:
在显示器上显示图形用户界面;
检测接近显示器的物体;和
用控制电路控制图形用户界面的一部分的深度显示,所述控制包括当检测到物体接近显示器时,加深所述部分的显示深度。
16.按照权利要求15所述的方法,其中
所述控制包括通过增大显示器上的所述部分的视差,加深显示深度。
17.按照权利要求15所述的方法,其中
所述部分是显示在显示器上的图标。
18.按照权利要求17所述的方法,其中
所述图标是用户可选图标,并且当检测到物体在离所述图标的预定距离之内时,控制电路加深显示深度。
19.一种保存有指令的非瞬态计算机可读存储介质,当被处理电路执行时,所述指令使处理电路执行一种方法,所述方法包括:
在显示器上显示图形用户界面;
检测接近显示器的物体;和
用控制电路控制图形用户界面的一部分的深度显示,所述控制包括当检测到物体接近显示器时,加深所述部分的显示深度。
20.按照权利要求19所述的计算机程序产品,其中
所述控制包括通过增大显示器上的所述部分的视差,加深显示深度。
21.按照权利要求19所述的计算机程序产品,其中
所述部分是显示在显示器上的图标。
22.按照权利要求21所述的计算机程序产品,其中
图标是用户可选图标,当检测到物体在离图标的预定距离之内时,控制电路加深显示深度。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011052086A JP2012190184A (ja) | 2011-03-09 | 2011-03-09 | 画像処理装置および方法、並びにプログラム |
JP2011-052086 | 2011-03-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102685526A true CN102685526A (zh) | 2012-09-19 |
Family
ID=46797822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2012100524597A Pending CN102685526A (zh) | 2011-03-09 | 2012-03-02 | 图像处理设备和方法,和计算机程序产品 |
Country Status (5)
Country | Link |
---|---|
US (2) | US9348485B2 (zh) |
JP (1) | JP2012190184A (zh) |
CN (1) | CN102685526A (zh) |
TW (1) | TW201301130A (zh) |
WO (1) | WO2012120849A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105094553A (zh) * | 2015-07-24 | 2015-11-25 | 广州市久邦数码科技有限公司 | 一种子菜单栏特效的实现方法 |
CN107113366A (zh) * | 2014-12-18 | 2017-08-29 | 海尔戈私人有限公司 | 复制光学镜片的效应 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5507773B1 (ja) * | 2012-07-13 | 2014-05-28 | 太郎 諌山 | 要素選択装置、要素選択方法、および、プログラム |
JP2014127836A (ja) * | 2012-12-26 | 2014-07-07 | Japan Display Inc | 立体表示装置における映像表示方法 |
EP2749209A1 (en) * | 2012-12-28 | 2014-07-02 | Canon Kabushiki Kaisha | Object information acquisition apparatus, display method, and program |
JP6079418B2 (ja) * | 2013-05-07 | 2017-02-15 | 富士通株式会社 | 入力装置および入力プログラム |
US9582851B2 (en) * | 2014-02-21 | 2017-02-28 | Microsoft Technology Licensing, Llc | Using proximity sensing to adjust information provided on a mobile device |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1459206A (zh) * | 2001-03-09 | 2003-11-26 | 皇家菲利浦电子有限公司 | 带有用户控制器的自动立体图象显示装置 |
JP2004280496A (ja) * | 2003-03-17 | 2004-10-07 | Kyocera Mita Corp | 操作パネル装置 |
US20050210410A1 (en) * | 2004-03-19 | 2005-09-22 | Sony Corporation | Display controlling apparatus, display controlling method, and recording medium |
JP2005316790A (ja) * | 2004-04-30 | 2005-11-10 | Nippon Telegr & Teleph Corp <Ntt> | 情報入力方法および情報入出力装置並びにプログラム |
CN1770255A (zh) * | 2004-11-02 | 2006-05-10 | 三星Techwin株式会社 | 在放大或者缩小图像时控制图像的位置的装置和方法 |
JP2006236143A (ja) * | 2005-02-25 | 2006-09-07 | Sony Ericsson Mobilecommunications Japan Inc | 入力処理プログラム、携帯端末装置、及び入力処理方法 |
CN101308445A (zh) * | 2008-06-26 | 2008-11-19 | 无敌科技(西安)有限公司 | 在图片背景下有效凸显菜单图标的方法 |
CN101587386A (zh) * | 2008-05-21 | 2009-11-25 | 深圳华为通信技术有限公司 | 光标处理方法、装置及系统 |
CN101645960A (zh) * | 2008-08-05 | 2010-02-10 | Lg电子株式会社 | 具有触摸屏的移动终端以及使用该移动终端处理消息的方法 |
CN102244698A (zh) * | 2010-05-12 | 2011-11-16 | Lg电子株式会社 | 移动终端和在其上显示3d图像的方法 |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9606791D0 (en) * | 1996-03-29 | 1996-06-05 | British Telecomm | Control interface |
JP3949333B2 (ja) * | 1999-04-12 | 2007-07-25 | 富士通株式会社 | 画像計測方法、画像計測装置、および画像計測プログラム記憶媒体 |
JP2001195170A (ja) * | 2000-01-17 | 2001-07-19 | Funai Electric Co Ltd | 携帯型電子機器、入力制御装置、及び記憶媒体 |
JP2002082745A (ja) * | 2000-09-07 | 2002-03-22 | Sony Corp | 情報処理装置及び方法、並びにプログラム格納媒体 |
JP4098680B2 (ja) | 2003-07-31 | 2008-06-11 | 矢崎総業株式会社 | ヒューズキャビティおよび電気接続箱 |
JP4608947B2 (ja) * | 2004-05-26 | 2011-01-12 | カシオ計算機株式会社 | 液晶表示装置 |
ATE552478T1 (de) * | 2004-06-03 | 2012-04-15 | Making Virtual Solid L L C | Navigationsanzeigeverfahren und vorrichtung für unterwegs unter verwendung eines head-up-displays |
US7178111B2 (en) * | 2004-08-03 | 2007-02-13 | Microsoft Corporation | Multi-planar three-dimensional user interface |
WO2006041097A1 (ja) * | 2004-10-12 | 2006-04-20 | Nippon Telegraph And Telephone Corporation | 3次元ポインティング方法、3次元表示制御方法、3次元ポインティング装置、3次元表示制御装置、3次元ポインティングプログラム、及び3次元表示制御プログラム |
CN101137996A (zh) * | 2005-01-07 | 2008-03-05 | 格斯图尔泰克股份有限公司 | 基于光流的倾斜传感器 |
CN101208723A (zh) * | 2005-02-23 | 2008-06-25 | 克雷格·萨默斯 | 用于3维照相机和3维视频的自动场景建模 |
WO2007042857A1 (en) * | 2005-10-07 | 2007-04-19 | Nokia Corporation | A graphical user interface, a method, a device and a computer program for providing a menu and/or inputting an access code |
US8279168B2 (en) * | 2005-12-09 | 2012-10-02 | Edge 3 Technologies Llc | Three-dimensional virtual-touch human-machine interface system and method therefor |
JP4707034B2 (ja) * | 2006-07-07 | 2011-06-22 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理方法、入力インタフェース装置 |
US8166421B2 (en) * | 2008-01-14 | 2012-04-24 | Primesense Ltd. | Three-dimensional user interface |
US9092053B2 (en) * | 2008-06-17 | 2015-07-28 | Apple Inc. | Systems and methods for adjusting a display based on the user's position |
JP5111312B2 (ja) * | 2008-09-16 | 2013-01-09 | 任天堂株式会社 | 3次元画像処理プログラム、3次元画像処理装置、3次元画像処理システムおよび3次元画像処理方法 |
US20100115471A1 (en) * | 2008-11-04 | 2010-05-06 | Apple Inc. | Multidimensional widgets |
US8416206B2 (en) * | 2009-07-08 | 2013-04-09 | Smart Technologies Ulc | Method for manipulating a graphic widget in a three-dimensional environment displayed on a touch panel of an interactive input system |
US10198854B2 (en) * | 2009-08-14 | 2019-02-05 | Microsoft Technology Licensing, Llc | Manipulation of 3-dimensional graphical objects for view in a multi-touch display |
JP5531497B2 (ja) * | 2009-08-18 | 2014-06-25 | ソニー株式会社 | 表示装置及び表示方法 |
US9104275B2 (en) * | 2009-10-20 | 2015-08-11 | Lg Electronics Inc. | Mobile terminal to display an object on a perceived 3D space |
KR101613555B1 (ko) * | 2009-10-26 | 2016-04-19 | 엘지전자 주식회사 | 이동 단말기 |
US8302031B1 (en) * | 2010-04-14 | 2012-10-30 | Symantec Corporation | Systems and methods for configuring information displayed on a screen |
KR101334107B1 (ko) * | 2010-04-22 | 2013-12-16 | 주식회사 굿소프트웨어랩 | 차량용 멀티미디어 제어를 위한 사용자 인터페이스 장치 및 방법 |
US20120056989A1 (en) * | 2010-09-06 | 2012-03-08 | Shimane Prefectural Government | Image recognition apparatus, operation determining method and program |
US20120117514A1 (en) * | 2010-11-04 | 2012-05-10 | Microsoft Corporation | Three-Dimensional User Interaction |
US8589822B2 (en) * | 2010-12-10 | 2013-11-19 | International Business Machines Corporation | Controlling three-dimensional views of selected portions of content |
US9618972B2 (en) * | 2011-01-20 | 2017-04-11 | Blackberry Limited | Three-dimensional, multi-depth presentation of icons in association with differing input components of a user interface |
JP5765070B2 (ja) * | 2011-06-13 | 2015-08-19 | ソニー株式会社 | 表示切換装置、表示切換方法、表示切換プログラム |
JP2013123970A (ja) * | 2011-12-14 | 2013-06-24 | Toshiba Corp | 表示装置 |
WO2015029318A1 (ja) * | 2013-08-26 | 2015-03-05 | パナソニックIpマネジメント株式会社 | 3次元表示装置および3次元表示方法 |
-
2011
- 2011-03-09 JP JP2011052086A patent/JP2012190184A/ja active Pending
-
2012
- 2012-03-01 TW TW101106738A patent/TW201301130A/zh unknown
- 2012-03-02 US US13/984,095 patent/US9348485B2/en active Active
- 2012-03-02 CN CN2012100524597A patent/CN102685526A/zh active Pending
- 2012-03-02 WO PCT/JP2012/001429 patent/WO2012120849A1/en active Application Filing
-
2016
- 2016-04-11 US US15/095,972 patent/US10222950B2/en not_active Expired - Fee Related
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1459206A (zh) * | 2001-03-09 | 2003-11-26 | 皇家菲利浦电子有限公司 | 带有用户控制器的自动立体图象显示装置 |
JP2004280496A (ja) * | 2003-03-17 | 2004-10-07 | Kyocera Mita Corp | 操作パネル装置 |
US20050210410A1 (en) * | 2004-03-19 | 2005-09-22 | Sony Corporation | Display controlling apparatus, display controlling method, and recording medium |
JP2005316790A (ja) * | 2004-04-30 | 2005-11-10 | Nippon Telegr & Teleph Corp <Ntt> | 情報入力方法および情報入出力装置並びにプログラム |
CN1770255A (zh) * | 2004-11-02 | 2006-05-10 | 三星Techwin株式会社 | 在放大或者缩小图像时控制图像的位置的装置和方法 |
JP2006236143A (ja) * | 2005-02-25 | 2006-09-07 | Sony Ericsson Mobilecommunications Japan Inc | 入力処理プログラム、携帯端末装置、及び入力処理方法 |
CN101587386A (zh) * | 2008-05-21 | 2009-11-25 | 深圳华为通信技术有限公司 | 光标处理方法、装置及系统 |
CN101308445A (zh) * | 2008-06-26 | 2008-11-19 | 无敌科技(西安)有限公司 | 在图片背景下有效凸显菜单图标的方法 |
CN101645960A (zh) * | 2008-08-05 | 2010-02-10 | Lg电子株式会社 | 具有触摸屏的移动终端以及使用该移动终端处理消息的方法 |
CN102244698A (zh) * | 2010-05-12 | 2011-11-16 | Lg电子株式会社 | 移动终端和在其上显示3d图像的方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107113366A (zh) * | 2014-12-18 | 2017-08-29 | 海尔戈私人有限公司 | 复制光学镜片的效应 |
CN107113366B (zh) * | 2014-12-18 | 2020-04-03 | 海尔戈私人有限公司 | 复制光学镜片的效应 |
CN105094553A (zh) * | 2015-07-24 | 2015-11-25 | 广州市久邦数码科技有限公司 | 一种子菜单栏特效的实现方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2012190184A (ja) | 2012-10-04 |
US10222950B2 (en) | 2019-03-05 |
US20130318480A1 (en) | 2013-11-28 |
US20160224200A1 (en) | 2016-08-04 |
WO2012120849A1 (en) | 2012-09-13 |
TW201301130A (zh) | 2013-01-01 |
US9348485B2 (en) | 2016-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102685526A (zh) | 图像处理设备和方法,和计算机程序产品 | |
CN107566732B (zh) | 控制装置的相机的方法及其装置 | |
CN102438164B (zh) | 图像处理装置、图像处理方法以及计算机程序 | |
CN104322050B (zh) | 电子相机、图像显示装置和记录介质 | |
DE102018005132A1 (de) | Maximierung der Größe eines Breitbildfilms auf einem mobilen Gerät mit Frontkamera | |
CN202551243U (zh) | 图像处理设备和控制单元 | |
WO2015070737A1 (zh) | 拍摄方法和拍摄装置 | |
US20110083106A1 (en) | Image input system | |
AU2011314521B2 (en) | 3D image display apparatus and display method thereof | |
DE102018133609A1 (de) | Elektronische Vorrichtung und Verfahren zur Steuerung derselben | |
EP2897354B1 (en) | Method for setting image capture conditions and electronic device performing the same | |
DE102018112445A1 (de) | Anzeigesteuervorrichtung und Steuerverfahren von dieser | |
US20120092457A1 (en) | Stereoscopic image display apparatus | |
CN103809855A (zh) | 一种数据处理方法及电子设备 | |
CN105744168A (zh) | 一种信息处理方法及电子设备 | |
DE102019117487A1 (de) | Elektronische Vorrichtung und Steuerverfahren für elektronische Vorrichtung | |
US8947426B2 (en) | Display control apparatus and display control method | |
CN114637436A (zh) | 信息分享方法、装置、计算机可读存储介质以及终端 | |
WO2012169097A1 (en) | Image processing apparatus, image processing method, and program | |
CN103220458B (zh) | 一种立体摄像装置和立体摄像方法 | |
DE102017112040A1 (de) | Modifizieren einer hervorhebungsfunktion auf einer anzeige auf der basis des inhalts | |
DE102023103963A1 (de) | Elektronische Einrichtung, Verfahren zum Steuern der elektronischen Einrichtung und Programm | |
KR20150070084A (ko) | 단말의 카메라 제어 방법 및 그 단말 | |
DE102020119294A1 (de) | Elektronische Vorrichtung, Steuerverfahren von elektronischer Vorrichtung, Programm und computerlesbares Medium | |
CN105446459A (zh) | 电子设备的使用方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20120919 |