CN103092399A - 信息处理设备,信息处理方法和程序 - Google Patents

信息处理设备,信息处理方法和程序 Download PDF

Info

Publication number
CN103092399A
CN103092399A CN2012104120963A CN201210412096A CN103092399A CN 103092399 A CN103092399 A CN 103092399A CN 2012104120963 A CN2012104120963 A CN 2012104120963A CN 201210412096 A CN201210412096 A CN 201210412096A CN 103092399 A CN103092399 A CN 103092399A
Authority
CN
China
Prior art keywords
display screen
depth location
messaging device
operational ton
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2012104120963A
Other languages
English (en)
Inventor
宫泽悠介
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN103092399A publication Critical patent/CN103092399A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position

Abstract

本发明公开信息处理设备,信息处理方法和程序。提供一种信息处理设备,包括操作量获取单元,所述操作量获取单元获得在显示屏上的操作输入的操作量;深度位置计算单元,所述深度位置计算单元根据操作量,计算三维可视操作对象的深度位置;和显示处理单元,所述显示处理单元执行根据深度位置,调整操作对象的深度位置,并把操作对象显示在显示屏上的处理。

Description

信息处理设备,信息处理方法和程序
技术领域
本公开涉及信息处理设备,信息处理方法和程序。
背景技术
最近,信息处理设备的计算能力和通信速度已显著提高。不过,在诸如便携式终端之类的较小的信息处理设备中,由于显示处理结果的显示单元的尺寸有限,因此能够显示的信息量受到限制,从而,高性能不能得到充分利用。
于是,提出了有效地利用信息处理设备的显示单元的技术。例如,已知在显示单元中设置触摸面板,以便同时实现确保可操作性和放大显示单元的技术。具体地,在日本专利申请公报(JP-A)No.2010-109552和No.2009-009252中,说明了利用触摸面板的按压状态作为操作输入的技术。
近年来,三维显示器和供三维显示器之用的内容已增多。特别地,安装有触摸面板的移动设备的三维显示器已普及。
发明内容
不过,为了生成三维可视内容,通常必须使用用特殊的立体摄像机拍摄的图片,或者利用诸如CAD之类供专业人员使用的特殊软件,编辑拍摄的图像。因而,使用户可以容易地生成具有深度的内容的技术还未普及,用户难以容易地生成具有深度的三维可视内容。
从而,理想的是利用简单的操作,生成三维可视内容。
按照本公开的一个实施例,提供一种信息处理设备,所述信息处理设备包括操作量获取单元,所述操作量获取单元获得在显示屏上的操作输入的操作量,深度位置计算单元,所述深度位置计算单元根据操作量,计算三维可视操作对象的深度位置,和显示处理单元,所述显示处理单元执行根据深度位置,调整操作对象的深度位置,并把操作对象显示在显示屏上的处理。
按照本公开的另一个实施例,提供一种信息处理方法,所述方法包括获得在显示屏上的操作输入的操作量,根据操作量,计算三维可视操作对象的深度位置,和根据深度位置,调整操作对象的深度位置,并把操作对象显示在显示屏上。
按照本公开的另一个实施例,提供一种使计算机执行以下步骤的程序:获得在显示屏上的操作输入的操作量,根据操作量,计算三维可视操作对象的深度位置,和根据深度位置,调整操作对象的深度位置,并把操作对象显示在显示屏上。
按照上面说明的本公开的实施例,能够利用简单的操作,生成三维可视内容。
附图说明
图1是图解说明用户操作按照本公开的实施例的信息处理设备的样子的示意图;
图2A和2B是图解说明利用按照实施例的信息处理设备,改变特定字符的深度位置的操作的示意图;
图3A-3C是图解说明当信息处理设备在显示屏中包括普通触摸面板时的操作的示意图;
图4是图解说明其中在显示屏上显示诸如滑动块之类的操作部件,并利用所述操作部件的操作,调整操作对象的深度位置的情况的例子的示意图;
图5是图解说明利用操作部件的操作,改变操作对象的深度位置的样子的示意图;
图6A-6D是图解说明接近触摸面板的操作的概况的示意图;
图7是图解说明信息处理设备的结构例子的示意图;
图8是图解说明CPU的功能结构的方框图;
图9是图解说明在利用普通触摸面板的情况下的处理的流程图;
图10是图解说明在利用普通触摸面板的情况下的处理的流程图;
图11是图解说明利用接近触摸面板的操作,调整操作对象的深度位置的处理的流程图;
图12是图解说明利用压敏触摸面板的操作,调整操作对象的深度位置的处理的流程图。
具体实施方式
下面参考附图,详细说明本公开的优选实施例。注意在说明书和附图中,功能和结构基本相同的构成元件用相同的附图标记表示,这些构成元件的重复说明被省略。
下面,将按照以下顺序进行说明。
1.实施例的概述
2.避免伴随深度调整的对象的重叠的方法
3.调整深度位置的操作的细节
3-1.普通触摸面板的情况
3-2.接近触摸面板的例子
3-3.压敏触摸面板
4.信息处理设备的结构的例子
5.信息处理设备中的处理的例子
5-1.普通触摸面板的情况
5-2.接近触摸面板的情况
5-3.压敏触摸面板的情况
(1.实施例的概述)
图1是图解说明用户操作按照本公开的实施例的信息处理设备100的样子的示意图。如图1中图解所示,本实施例涉及利用三维显示器(信息处理设备100),改变任意对象相对于显示屏的深度位置(Z坐标)的操作方法。此时,如图1中图解所示,通过按照设备,做出能够与现有触摸操作共存的手势,用户能够直观地向显示屏中的对象添加立体效果。在本实施例中,利用触摸面板的检测,压力检测和接近检测被用作操作检测方法的例子,并举例说明适合于每种情况的操作方法。
(2.避免伴随深度调整的对象的重叠的方法)
图2A和2B是图解说明利用按照实施例的信息处理设备100,改变特定字符的深度位置的操作的示意图。如图2A和2B中图解所示,借助利用触摸面板的操作,调整诸如图像或字符之类信息的深度位置。图2A和2B图解说明其中调整电子邮件的文本中的文字“concerned”的深度方向的情况的例子。图2A是信息处理设备100的显示屏102的正视图,和图解说明其中从右侧观看显示屏102的状态的示意图,图2A图解说明其中文字“concerned”在深度方向的位置被调整到显示屏102的前侧的情况的例子。图2B是信息处理设备100的显示屏102的正视图,和图解说明其中从右侧观看显示屏102的状态的示意图,图2B图解说明其中文字“concerned”在深度方向的位置被调整到显示屏102的后侧的情况的例子。
如图2A中图解所示,如果文字“concerned”在深度方向的位置被调整到显示屏102的前侧,那么文字“concerned”的大小增大到和该文字被置于前侧一般大。同时,在图2B中,由于文字“concerned”在深度方向的位置比显示屏102的位置稍深,因此文字“concerned”的大小几乎和排列在文字“concerned”的左右两侧的文字“I’m a little”和“!”的大小相同。
因此,在图2A的情况下,进行沿着向左和向上方向(图2A中箭头所示的方向),移动排列在文字“concerned”的左右两侧的文字“I’m alittle”和“!”的处理。从而,当文字“concerned”在深度方向的位置被调整到显示屏102的前侧时,能够避免排列在左右两侧的文字“I’m alittle”和“!”被文字“concerned”遮盖。在图2A和2B中,图解说明了其中调整包括在电子邮件的文本中的文字的情况的例子。不过,在图2A和2B中图解所示的结构适用于其中调整诸如照片之类的另一个图像的深度位置的情况。
(3.调整深度位置的操作的细节)
下面分别说明3种触摸面板(普通触摸面板/接近触摸面板/压敏触摸面板)。
(3-1.普通触摸面板的情况)
图3A-3C是图解说明当图像处理设备100在显示屏102中包括普通触摸面板时的操作的示意图。图3A-3C中图解所示的操作中,利用所谓的捏小/拉大操作,调整对象的深度位置。捏小/拉大操作是改变拇指和食指之间的距离(开合距离)的操作,如图3A-3C中图解所示。
这种情况下,当用户正常进行捏小/拉大操作时,显示在显示屏102上的操作对象(例如,照片或文字)104被放大/缩小,而不存在深度方向的位置变化。
同时,如图3A-3C中图解所示,如果在用户利用左手按压显示屏102上的预定位置的状态下,用户进行捏小/拉大操作,那么操作对象104的大小不被改变,然而操作对象104在深度方向的位置被调整。
下面进行具体说明。首先,如图3A中图解所示,用户用左手的拇指按压显示屏102。在这种状态下,用户用右手的食指选择操作对象104。从而,模式变成深度改变模式。随后,如图3B中图解所示,用户用右手的食指和拇指,对操作对象104进行捏小/拉大操作,从而改变深度信息。从而,能够调整操作对象104的深度位置。
图3C是图解说明其中调整操作对象在深度方向的位置的状态的示意图,图3C示意图解说明其中从右侧观看显示屏102的状态。如图3C中图解所示,通过进行拉大操作,操作对象104的深度位置可被调整到显示屏102的前侧。当进行捏小操作,操作对象的深度位置可被调整到显示屏102的后侧。
因而,如果用户对操作对象104进行捏小/拉大操作,那么按照该操作,改变操作对象104的深度位置。从而,用户能够利用简单操作,改变操作对象104的深度位置。在深度改变模式下,操作对象104的大小不变化,而只有操作对象104的深度位置发生变化。不过,本公开并不局限于此,操作对象104的大小和深度位置都可被改变。在图3A-3C中图解所示的例子中,利用拉大操作,操作对象104的深度位置被移动到显示屏102的前侧。另外,利用捏小操作,操作对象104的深度位置被移动到显示屏102的后侧。
图4是图解说明其中在显示屏102上,显示诸如滑动块之类的操作部件106,并利用操作部件106的操作,调整操作对象104的深度位置的情况的例子的示意图。如图4中图解所示,当用户用左手的拇指按压显示屏102,并用右手的食指选择操作对象104时,诸如滑动块之类的操作部件106被显示在显示屏102上。从而,模式变成深度改变模式。在这种情况下,如果用户对操作部件106进行触摸操作,并沿着用图4中的箭头A1所示的方向(上下方向)操纵操作部件106,那么操作对象104的深度位置改变。例如,如果用户沿着向上方向操纵操作部件106,那么如图5A中图解所示,操作对象104的深度位置移动到显示屏102的前侧。如果用户沿着向下方向操纵操作部件106,如图5B中图解所示,那么操作对象104的深度位置移动到显示屏102的后侧。
图3A-4图解说明其中只在信息处理设备100的表面侧布置触摸面板的情况的例子。不过,当在表面和背面都布置触摸面板时,能够实现其中当用户从背面轻点触摸面板时,在表面侧的显示屏102上的操作对象104变得凸起,而当用户从表面轻点触摸面板时,所述操作对象104变得凹陷的操作方法。
(3-2.接近触摸面板的例子)
下面,说明其中信息处理设备100包括接近触摸面板的情况。图6A-6D是图解说明接近触摸面板的操作的概况的示意图。就接近触摸面板来说,仅仅通过使用户的手指在接近触摸面板的接近检测区中,逼近显示屏102,而不触摸显示屏102,就能够实现操作。接近检测区是在显示屏102上方预定距离的范围。
首先,在用户用左手的拇指按压显示屏102的状态下,用户使右手的食指逼近显示屏102,如图6A中图解所示,然后使食指停留在显示屏102上方一定时间,如图6B中图解所示。信息处理设备100检测到这种状态,从而模式变成深度调整模式。当模式变成深度调整模式时的食指的接近距离(从右手的食指到显示屏102的距离)与操作对象104的当前深度相关联,接近距离和当前深度变成基准,从而按照到停留位置的接近距离的变化,改变操作对象的深度方向。
在图6A-6D中图解所示的例子中,在图6B的状态下,操作对象104的深度位置在正向与显示屏102相隔Z1。这种情况下,如果用户使手指逼近显示屏102,并且过去预定时间,那么用户的手指和显示屏之间的距离D与操作对象104的深度位置Z1相关联,距离D和深度位置Z1变成基准,模式变成深度调整模式。随后,如图6C中图解所示,如果用户沿正向把手指移动到与显示屏102相隔d1的位置,那么操作对象104的深度位置沿着正向移动d1。随后,如图6D中图解所示,如果用户沿反向把手指移动到与显示屏102相隔d2的位置,那么操作对象104的深度位置沿着反向移动d2。
当取消深度调整模式时,用户进行沿着x方向或y方向(与显示屏102平行的方向),把手指移动一定距离以上,或者使左手的拇指与显示屏分离的操作。从而,取消深度调整模式。
(3-3.压敏触摸面板)
下面,说明信息处理设备100包括压敏触摸面板的情况。当使用压敏触摸面板时的操作与当使用接近触摸面板时的操作类似。在压敏触摸面板的情况下,当用户用手指在压敏触摸面板的按压力检测区中按压显示屏102时,能够实现操作。首先,与接近触摸面板的情况类似,用户用左手的拇指,按压显示屏102。随后,如果用户用右手的食指,以一定值以上的按压力持续按压显示屏102上的操作对象104,时间超过预定时间,那么模式变成深度调整模式。随后,按照用户的按压力,改变操作对象104的深度位置。例如,当按压力大于100g时,操作对象104的深度位置移向显示屏的背侧,而如果按压力为100g以下,那么操作对象的深度位置移向显示屏的前侧。
即使在压敏触摸面板的情况下,当取消深度调整模式时,用户也可沿着x和y方向,把手指移动一定距离以上,或者使拇指与显示屏分离。从而,消除深度调整模式。
(4.信息处理设备的结构的例子)
图7是图解说明信息处理设备100的结构的例子的示意图。如图7中图解所示,信息处理设备100包括RAM 202、非易失性存储器204、诸如LCD或有机EL之类的显示单元206、CPU 300、和能够检测手指的触摸、接近和按压力的检测单元208。信息处理设备100利用检测单元208,检测用户的操作,根据检测到的操作,利用CPU 300计算操作对象104的深度位置,调整显示单元206的显示,从而调整深度位置。在图7中图解所示的结构中,显示在显示单元206上的数据被临时保持在RAM 202中。运行CPU 300的程序被保存在非易失性存储器206中。显示单元206是利用三维显示器(3D显示器)构成的。例如,显示单元206利用偏光板系统,使左眼图像和右眼图像入射到用户的左眼和右眼,从而使用户看到三维图像。检测单元208对应于上面说明的触摸传感器、接近传感器或压敏传感器。触摸传感器和接近传感器都可利用电容传感器构成。
图8是图解说明CPU 300的功能结构的方框图。为了如上所述调整深度位置,CPU 300被配置成包括操作量获取单元302、深度位置计算单元304和3D显示控制单元306。操作量获取单元302获得利用检测单元208检测的来自用户的操作输入的操作量。深度位置计算单元304根据操作量,计算三维可视操作对象的深度位置。3D显示控制单元306执行根据深度位置,调整操作对象304的深度位置,并把操作对象304显示在显示屏102上的处理。通过调整左眼图像和右眼图像的视差,调整操作对象304的深度位置。3D显示控制单元306执行调整深度位置和显示操作对象的处理(图3A-6D中图解所示),和按照操作对象106的深度位置的变化,移动周边显示对象的处理(图2中图解所示)。图8中图解所示的各个部件可以利用CPU 300和运行CPU 300的程序(软件)来构成。这种情况下,程序可被保存在非易失性存储器204,外部连接的USB存储器和诸如光盘之类的记录介质中。
(5.信息处理设备中的处理的例子)
下同,说明分别与3种触摸面板(普通触摸面板/接近触摸面板/压敏触摸面板)对应的信息处理设备100中的每种处理。
(5-1.普通触摸面板的情况)
图9和10是图解说明在利用普通触摸面板的情况下的处理的流程图。就普通触摸面板来说,将说明图9和10的两种处理。
在图9中图解说明的例子中,利用捏小/拉大操作,调整操作对象104的深度位置。首先,在步骤S110中,判定模式是否是深度调整模式。当判定模式是深度调整模式时,处理进入步骤S112,判定拇指是否触摸显示屏102。当判定拇指触摸显示屏102时(“是”),处理进入步骤S114。在步骤S114,判定食指和中指是否触摸显示屏102。当判定食指和中指触摸显示屏102时(“是”),处理进入步骤S116。在步骤S116,判定食指和中指的中点是否在一定范围内。当判定食指和中指的中点在一定范围内时(“是”),处理进入步骤S118。这种情况下,所述一定范围是包括操作对象104的一定范围。在步骤S118,按照开合距离,调整(更新)操作对象104的深度位置。
同时,当步骤S112、S114和S116的判定结果为“否”时,处理进入步骤S120,取消深度调整模式。
当在步骤S110,判定模式不是深度调整模式时(“否”),处理进入步骤S122。在步骤S122,判定拇指是否触摸显示屏102。当判定拇指触摸显示屏102时(“是”),处理进入步骤S124。在步骤S124,判定食指和中指是否持续一定时间,停留在一定范围内。这种情况下,所述一定范围是包括操作对象104的一定范围。当在步骤S124,判定食指和中指持续一定时间停留在一定范围内时(“是”),处理进入步骤S126。在步骤S126,操作对象的深度位置和开合距离(食指和中指之间的距离)被记录为基准。之后,在步骤S128,模式变成深度调整模式。
同时,当步骤S122和S124的判定结果为“否”时,模式不改变成深度调整模式,处理返回步骤S110,重复之后的处理。
下面,说明利用普通触摸面板的图10的处理。在图10中图解说明的例子中,利用操作部件106的操作,调整操作对象104的深度位置。首先,在步骤S210,判定模式是否是深度调整模式。当判定模式是深度调整模式时,处理进入步骤S212,判定拇指是否触摸显示屏102。当判定拇指触摸显示屏102时(“是”),处理进入步骤S214。在步骤S214,判定食指是否触摸显示屏102。当判定食指触摸显示屏102时(“是”),处理进入步骤S216。在步骤S216,判定食指是否在诸如滑动块之类的操作部件106的范围内。当判定食指在诸如滑动块之类的操作部件106的范围内时(“是”),处理进入步骤S218。在步骤S218,按照操作部件106的移动距离,调整(更新)操作对象104的深度位置。
同时,当步骤S212、S214和S216的判定结果为“否”时,处理进入步骤S220,取消深度调整模式。
当在步骤S210,判定模式不是深度调整模式时(“否”),处理进入步骤S222。在步骤S222,判定拇指是否触摸显示屏102。当判定拇指触摸显示屏102时(“是”),处理进入步骤S224。在步骤S224,判定食指是否持续一定时间,停留在一定范围内。这种情况下,所述一定范围是包括操作对象104的一定范围。当在步骤S224,判定食指持续一定时间停留在一定范围内时(“是”),处理进入步骤S226。在步骤S226,操作对象104的深度位置和操作部件106的位置(滑动块的位置)被记录为基准。之后,在步骤S228,模式变成深度调整模式。
同时,当步骤S222和S224的判定结果为“否”时,模式不改变成深度调整模式,处理返回步骤S210,重复之后的处理。
(5-2.接近触摸面板的情况)
在图11中图解说明的例子中,利用接近触摸面板的操作,调整操作对象104的深度位置。首先,在步骤S310,判定模式是否是深度调整模式。当判定模式是深度调整模式时,处理进入步骤S312,判定拇指是否触摸显示屏102。当判定拇指触摸显示屏102时(“是”),处理进入步骤S314。在步骤S314,判定食指是否在接近检测区中。当判定食指在接近检测区中时(“是”),处理进入步骤S316。在步骤S316,判定食指是否在x方向和y方向的一定范围内。当判定食指在所述一定范围内时(“是”),处理进入步骤S318。这种情况下,所述一定范围是包括操作对象104的上方的一定范围。在步骤S318,检测手指的接近距离,并按照接近距离,调整(更新)操作对象104的深度位置。
同时,当步骤S312、S314和S316的判定结果为“否”时,处理进入步骤S320,取消深度调整模式。
当在步骤S310,判定模式不是深度调整模式时(“否”),处理进入步骤S322。在步骤S322,判定拇指是否触摸显示屏102。当判定拇指触摸显示屏102时(“是”),处理进入步骤S324。在步骤S324,判定食指是否持续一定时间,停留在一定范围内。这种情况下,所述一定范围是接近检测区中,在操作对象104上方的一定范围。当在步骤S324,判定食指持续一定时间停留在一定范围内时(“是”),处理进入步骤S326。在步骤S326,操作对象104的深度位置和接近距离(手指与显示屏102之间的距离)被记录为基准。之后,在步骤S328,模式变成深度调整模式。
同时,当步骤S322和S324的判定结果为“否”时,模式不变成深度调整模式,处理返回步骤S310,重复之后的处理。如上所述,如果在检测到手指的接近的状态下,使手指停留一定时间以上,那么模式变成深度调整模式。如果在深度调整模式下,接近距离被改变,那么相对地改变作为调整对象的操作对象106的深度。当手指沿着x方向和y方向移动一定距离以上时,深度调整模式被取消,从而模式变成正常触摸模式。
(5-3.压敏触摸面板的情况)
在图12中图解说明的例子中,利用压敏触摸面板的操作,调整操作对象104的深度位置。首先,在步骤S410,判定模式是否是深度调整模式。当判定模式是深度调整模式时,处理进入步骤S412,判定拇指是否触摸显示屏102。当判定拇指触摸显示屏102时(“是”),处理进入步骤S414。在步骤S414,判定食指是否在按压力检测区中。当判定食指在按压力检测区中时(“是”),处理进入步骤S416。在步骤S416,判定食指是否在x方向和y方向的一定范围内。当判定食指在所述一定范围内时(“是”),处理进入步骤S418。这种情况下,所述一定范围是包括操作对象104的上方的一定范围。在步骤S418,检测手指的按压力,并按照按压力,调整(更新)操作对象104的深度位置。
同时,当步骤S412、S414和S416的判定结果为“否”时,处理进入步骤S420,取消深度调整模式。
当在步骤S410,判定模式不是深度调整模式时(“否”),处理进入步骤S422。在步骤S422,判定拇指是否触摸显示屏102。当判定拇指触摸显示屏102时(“是”),处理进入步骤S424。在步骤S424,判定食指是否持续一定时间,停留在一定范围内。这种情况下,所述一定范围是按压力检测区中,在操作对象104上方的一定范围。当在步骤S424,判定食指持续一定时间停留在一定范围内时(“是”),处理进入步骤S426。在步骤S426,操作对象104的深度位置和按压力被记录为基准。之后,在步骤S428,模式变成深度调整模式。
同时,当步骤S422和S424的判定结果为“否”时,模式不改变成深度调整模式,处理返回步骤S410,重复之后的处理。
按照上面说明的实施例,用户能够利用诸如触摸面板之类的操作屏幕上的简单操作,调整操作对象106的深度位置。于是,用户能够把操作对象106调整成待三维观看的期望图像。
虽然参考附图详细说明了本公开的优选实施例,不过本公开并不局限于此。对本领域的技术人员来说,各种修改或变化都是可能的,只要它们在所附的权利要求或其等同物的范围之内。应明白这样的修改或变化也在本公开的技术范围之内。
另外还可如下构成本技术。
(1)一种信息处理设备,包括:
操作量获取单元,所述操作量获取单元获得在显示屏上的操作输入的操作量;
深度位置计算单元,所述深度位置计算单元根据操作量,计算三维可视操作对象的深度位置;和
显示处理单元,所述显示处理单元执行根据深度位置,调整操作对象的深度位置,并把操作对象显示在显示屏上的处理。
(2)按照(1)所述的信息处理设备,
其中操作输入是显示屏上的捏小操作或拉大操作。
(3)按照(1)所述的信息处理设备,
其中操作输入是移动显示在显示屏上的操作部件的操作。
(4)按照(1)所述的信息处理设备,
其中操作输入是使用户的手指接近显示屏,或者使用户的手指离开显示屏的操作。
(5)按照(1)所述的信息处理设备,
其中操作输入是按压显示屏的操作。
(6)按照(1)所述的信息处理设备,
其中显示处理单元调整操作对象的深度位置,并调整在该操作对象周围的显示对象的位置。
(7)按照(1)所述的信息处理设备,
其中当执行预定操作时,显示处理单元执行根据深度位置,调整操作对象的深度位置的处理。
(8)按照(7)所述的信息处理设备,
其中所述预定操作包括触摸显示屏的操作。
(9)按照(7)所述的信息处理设备,
其中利用触摸传感器的检测,获得操作量,所述预定操作包括显示屏上的捏小操作或拉大操作。
(10)按照(7)所述的信息处理设备,
其中利用接近传感器的检测,获得操作量,所述预定操作包括使用户的手指在位于显示屏上方的接近传感器的可检测范围中,停留一定时间的操作。
(11)按照(7)所述的信息处理设备,
其中利用压敏传感器的检测,获得操作量,所述预定操作包括利用用户的手指,以预定值以上的按压力,按压压敏传感器的操作。
(12)按照(9)所述的信息处理设备,
其中利用压敏传感器的检测,获得操作量,所述预定操作包括利用用户的手指,以预定值以上的按压力,按压压敏传感器的操作。
(13)一种信息处理方法,包括:
获得在显示屏上的操作输入的操作量;
根据操作量,计算三维可视操作对象的深度位置;和
根据深度位置,调整操作对象的深度位置,并把操作对象显示在显示屏上。
(14)一种使计算机执行以下步骤的程序:
获得在显示屏上的操作输入的操作量;
根据操作量,计算三维可视操作对象的深度位置;和
根据深度位置,调整操作对象的深度位置,并把操作对象显示在显示屏上。
本公开包含与在2011年11月1日向日本专利局提交的日本优先权专利申请JP 2011-240189中公开的主题相关的主题,该专利申请的整个内容在此引为参考。

Claims (14)

1.一种信息处理设备,包括:
操作量获取单元,所述操作量获取单元获得在显示屏上的操作输入的操作量;
深度位置计算单元,所述深度位置计算单元根据操作量计算三维可视操作对象的深度位置;以及
显示处理单元,所述显示处理单元执行根据深度位置调整操作对象的深度位置,并把操作对象显示在显示屏上的处理。
2.按照权利要求1所述的信息处理设备,
其中所述操作输入是显示屏上的捏小操作或拉大操作。
3.按照权利要求1所述的信息处理设备,
其中所述操作输入是移动显示在显示屏上的操作部件的操作。
4.按照权利要求1所述的信息处理设备,
其中所述操作输入是使用户的手指接近显示屏或者使用户的手指离开显示屏的操作。
5.按照权利要求1所述的信息处理设备,
其中所述操作输入是按压显示屏的操作。
6.按照权利要求1所述的信息处理设备,
其中显示处理单元调整操作对象的深度位置,并调整在操作对象周围的显示对象的位置。
7.按照权利要求1所述的信息处理设备,
其中当执行预定操作时,显示处理单元执行根据深度位置调整操作对象的深度位置的处理。
8.按照权利要求7所述的信息处理设备,
其中所述预定操作包括触摸显示屏的操作。
9.按照权利要求7所述的信息处理设备,
其中利用触摸传感器的检测获得所述操作量,并且所述预定操作包括显示屏上的捏小操作或拉大操作。
10.按照权利要求7所述的信息处理设备,
其中利用接近传感器的检测获得所述操作量,并且所述预定操作包括使用户的手指在位于显示屏上方的接近传感器的可检测范围中停留一定时间的操作。
11.按照权利要求7所述的信息处理设备,
其中利用压敏传感器的检测获得所述操作量,并且所述预定操作包括利用用户的手指以预定值以上的按压力按压压敏传感器的操作。
12.按照权利要求9所述的信息处理设备,
其中利用压敏传感器的检测获得所述操作量,并且所述预定操作包括利用用户的手指以预定值以上的按压力按压压敏传感器的操作。
13.一种信息处理方法,包括:
获得在显示屏上的操作输入的操作量;
根据操作量,计算三维可视操作对象的深度位置;以及
根据深度位置调整操作对象的深度位置,并把操作对象显示在显示屏上。
14.一种使计算机执行以下步骤的程序:
获得在显示屏上的操作输入的操作量;
根据操作量,计算三维可视操作对象的深度位置;和
根据深度位置,调整操作对象的深度位置,并把操作对象显示在显示屏上。
CN2012104120963A 2011-11-01 2012-10-25 信息处理设备,信息处理方法和程序 Pending CN103092399A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-240189 2011-11-01
JP2011240189A JP2013097593A (ja) 2011-11-01 2011-11-01 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
CN103092399A true CN103092399A (zh) 2013-05-08

Family

ID=48171930

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2012104120963A Pending CN103092399A (zh) 2011-11-01 2012-10-25 信息处理设备,信息处理方法和程序

Country Status (3)

Country Link
US (2) US9342167B2 (zh)
JP (1) JP2013097593A (zh)
CN (1) CN103092399A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103631492A (zh) * 2013-09-27 2014-03-12 深圳超多维光电子有限公司 一种调节立体内容深度的方法及装置
CN103870195A (zh) * 2014-03-03 2014-06-18 联想(北京)有限公司 一种信息提示方法及电子设备
CN106873886A (zh) * 2016-12-30 2017-06-20 深圳超多维科技有限公司 一种立体显示的控制方法、装置和电子设备
CN108027707A (zh) * 2015-09-21 2018-05-11 三星电子株式会社 用户终端设备、电子设备以及控制用户终端设备和电子设备的方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102201733B1 (ko) * 2013-09-30 2021-01-12 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
JP6037046B2 (ja) * 2013-11-01 2016-11-30 株式会社村田製作所 タッチ式入力装置及び携帯型表示装置
US9502002B2 (en) * 2014-03-26 2016-11-22 Lenovo (Singapore) Pte. Ltd. Proximity-based display scaling
DE102014114742A1 (de) * 2014-10-10 2016-04-14 Infineon Technologies Ag Eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals und ein Verfahren derselben
JP6682928B2 (ja) * 2016-03-14 2020-04-15 セイコーエプソン株式会社 印刷装置、電子機器、制御プログラムおよび印刷装置の動作パラメーター設定方法
KR102580327B1 (ko) 2016-09-09 2023-09-19 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
JP6592056B2 (ja) * 2017-10-17 2019-10-16 株式会社Nttドコモ 情報処理装置
US11188154B2 (en) * 2018-05-30 2021-11-30 International Business Machines Corporation Context dependent projection of holographic objects

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100095206A1 (en) * 2008-10-13 2010-04-15 Lg Electronics Inc. Method for providing a user interface using three-dimensional gestures and an apparatus using the same
CN102012778A (zh) * 2009-09-04 2011-04-13 索尼公司 显示控制设备、显示控制方法以及显示控制程序
CN102129292A (zh) * 2010-01-15 2011-07-20 微软公司 在运动捕捉系统中识别用户意图
CN102184020A (zh) * 2010-05-18 2011-09-14 微软公司 用于操纵用户界面的姿势和姿势修改
CN102221886A (zh) * 2010-06-11 2011-10-19 微软公司 通过化身与用户界面交互

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5315703A (en) * 1992-12-23 1994-05-24 Taligent, Inc. Object-oriented notification framework system
KR101395780B1 (ko) * 2007-07-27 2014-05-16 삼성전자주식회사 촉각 감지를 위한 압력 센서 어레이 장치 및 방법
US8106890B2 (en) * 2008-04-07 2012-01-31 International Business Machines Corporation Slide based technique for inputting a sequence of numbers for a computing device
US10198854B2 (en) * 2009-08-14 2019-02-05 Microsoft Technology Licensing, Llc Manipulation of 3-dimensional graphical objects for view in a multi-touch display
US8826184B2 (en) * 2010-04-05 2014-09-02 Lg Electronics Inc. Mobile terminal and image display controlling method thereof
US8982160B2 (en) * 2010-04-16 2015-03-17 Qualcomm, Incorporated Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size
US8565830B2 (en) * 2010-05-12 2013-10-22 Lg Electronics Inc. Mobile terminal and method of displaying 3D images thereon
JP5723721B2 (ja) * 2010-09-28 2015-05-27 富士フイルム株式会社 立体画像編集装置および立体画像編集方法
JP2012109934A (ja) * 2010-10-19 2012-06-07 Panasonic Corp 立体画像表示装置
KR101727899B1 (ko) * 2010-11-26 2017-04-18 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100095206A1 (en) * 2008-10-13 2010-04-15 Lg Electronics Inc. Method for providing a user interface using three-dimensional gestures and an apparatus using the same
CN102012778A (zh) * 2009-09-04 2011-04-13 索尼公司 显示控制设备、显示控制方法以及显示控制程序
CN102129292A (zh) * 2010-01-15 2011-07-20 微软公司 在运动捕捉系统中识别用户意图
CN102184020A (zh) * 2010-05-18 2011-09-14 微软公司 用于操纵用户界面的姿势和姿势修改
CN102221886A (zh) * 2010-06-11 2011-10-19 微软公司 通过化身与用户界面交互

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103631492A (zh) * 2013-09-27 2014-03-12 深圳超多维光电子有限公司 一种调节立体内容深度的方法及装置
CN103631492B (zh) * 2013-09-27 2018-09-04 深圳超多维科技有限公司 一种调节立体内容深度的方法及装置
CN103870195A (zh) * 2014-03-03 2014-06-18 联想(北京)有限公司 一种信息提示方法及电子设备
CN108027707A (zh) * 2015-09-21 2018-05-11 三星电子株式会社 用户终端设备、电子设备以及控制用户终端设备和电子设备的方法
US10802784B2 (en) 2015-09-21 2020-10-13 Samsung Electronics Co., Ltd. Transmission of data related to an indicator between a user terminal device and a head mounted display and method for controlling the transmission of data
CN108027707B (zh) * 2015-09-21 2021-07-20 三星电子株式会社 用户终端设备、电子设备以及控制用户终端设备和电子设备的方法
CN106873886A (zh) * 2016-12-30 2017-06-20 深圳超多维科技有限公司 一种立体显示的控制方法、装置和电子设备
CN106873886B (zh) * 2016-12-30 2020-01-10 深圳超多维科技有限公司 一种立体显示的控制方法、装置和电子设备

Also Published As

Publication number Publication date
US20130106842A1 (en) 2013-05-02
US9342167B2 (en) 2016-05-17
US10318103B2 (en) 2019-06-11
US20160266765A1 (en) 2016-09-15
JP2013097593A (ja) 2013-05-20

Similar Documents

Publication Publication Date Title
CN103092399A (zh) 信息处理设备,信息处理方法和程序
CN202738034U (zh) 信息处理装置
EP2638461B1 (en) Apparatus and method for user input for controlling displayed information
US10387014B2 (en) Mobile terminal for controlling icons displayed on touch screen and method therefor
EP2402846B1 (en) Mobile terminal and method for controlling operation of the mobile terminal
US9513710B2 (en) Mobile terminal for controlling various operations using a stereoscopic 3D pointer on a stereoscopic 3D image and control method thereof
CN101910983B (zh) 无线通信装置和拼合式触敏用户输入表面
CN104049886A (zh) 移动终端和控制移动终端的方法
CN203930584U (zh) 一种移动终端
EP2590060A1 (en) 3D user interaction system and method
CN101008881B (zh) 便携式装置中滚动屏幕的设备和方法以及记录介质
US20230273674A1 (en) Displaying physical input devices as virtual objects
CN102981743A (zh) 控制操作对象的方法及电子设备
CN101382853A (zh) 触摸屏装置及其图像显示方法
CN103809843A (zh) 一种在浏览器中调节显示屏亮度的方法和装置
CN202738033U (zh) 信息处理设备
CN102469333A (zh) 信息处理设备、立体显示方法和程序
JP2022545202A (ja) 対象位置調整方法及び電子機器
CN105892981A (zh) 一种显示方法、装置及移动设备
JP5736005B2 (ja) 入力処理装置、情報処理装置、情報処理システム、入力処理方法、情報処理方法、入力処理プログラム、及び情報処理プログラム
EP2791770B1 (en) Method and apparatus for displaying a 3d image in a mobile terminal
US9285915B2 (en) Method of touch command integration and touch system using the same
CN103207747B (zh) 一种信息处理方法及装置
JP2012103980A5 (zh)
CN103390381A (zh) 显示装置及其显示方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20130508