CN107025003A - 输入装置 - Google Patents

输入装置 Download PDF

Info

Publication number
CN107025003A
CN107025003A CN201610947483.5A CN201610947483A CN107025003A CN 107025003 A CN107025003 A CN 107025003A CN 201610947483 A CN201610947483 A CN 201610947483A CN 107025003 A CN107025003 A CN 107025003A
Authority
CN
China
Prior art keywords
operation screen
image
motion
input unit
pointer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610947483.5A
Other languages
English (en)
Other versions
CN107025003B (zh
Inventor
西冈谦
羽鸟敏树
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
Original Assignee
Funai Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd filed Critical Funai Electric Co Ltd
Publication of CN107025003A publication Critical patent/CN107025003A/zh
Application granted granted Critical
Publication of CN107025003B publication Critical patent/CN107025003B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • G06F3/0423Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen using sweeping light beams, e.g. using rotating or vibrating mirror
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects

Abstract

本发明提供了一种输入装置,包括:显示组件、检测器和控制器。所述显示组件被配置为显示图像。所述检测器被配置为检测第一运动和第二运动。在所述第一运动中,指针滑过第一操作画面,所述第一操作画面位于虚平面,所述虚平面包括在空间中形成的所述图像的虚像的至少部分空间图像。在所述第二运动中,所述指针移动到第二操作画面,所述第二操作画面位于所述虚平面,并且与所述第一操作画面不同。所述控制器被配置为:当检测到所述第一运动时,执行第一操作以选择所述图像,并且被配置为:当检测到所述第二运动时,执行第二操作以执行所选择的图像的内容。

Description

输入装置
相关申请的交叉引用
本申请要求2015年10月26日提出的申请号为2015-209919的日本专利申请的优先权。在此全部引用日本专利2015-209919作为参考。
技术领域
本发明一般涉及一种输入装置。更具体地,本发明涉及一种用作虚拟用户接口(virtual user interface)(VUI)的输入装置。
背景技术
例如,已知的用于操作设备的用作VUI的输入装置等。在这样的输入装置的一个示例中,在配置于空间的虚平面(假想面)形成空间图像(虚像)(spatial image(virtualimage)),检测指针(例如用户的手)相对于该空间图像的运动(例如,参见国际公开号2008/123500(专利文献1))。
对于传统的输入装置,例如指针滑过空间图像,执行显示在空间图像中的光标的移动操作来跟踪指针的移动。当指针的移动停止在显示在空间图像中的图标时,光标叠加在该图标上。
在所述光标叠加在图标上的状态中,所述指针在图标的深度方向上被推动(穿过虚平面的方向),以执行选择这一图标的操作。在这一点上,指针在空间坐标的深度方向上的变化量被感测(sensed)到,并基于感测到的变化量执行选择图标的操作。
发明内容
对于上面所讨论的传统的输入装置,当指针滑过空间图像时,用户的手的摇动有时会引起指针在深度方向上的移动。如果发生这种情况,选择该图标的操作可能最终与用户希望的执行相违背。因此,操作不一定能认为是容易的。
本发明的一个目的是提供一种操作更加简单的输入装置。
[1]鉴于已知技术的状态,并根据本发明的第一方面,提供了一种输入装置,其包括显示组件、检测器和控制器。显示组件被配置为显示图像。所述检测器被配置为检测第一运动(the first motion也称为第一移动)和第二运动(the second motion也称为第二移动)。在第一运动中,指针滑过第一操作画面,所述第一操作画面位于虚平面,所述虚平面包括在空间中形成的图像的虚像的至少部分空间图像。在第二运动中,指针移动到第二操作画面,所述第二操作画面位于虚平面(imaginary plane),并且与第一操作画面不同。所述控制器被配置为:当检测到所述第一运动时,执行第一操作以选择图像;以及被配置为:当检测到所述第二运动时,执行第二操作以执行所选择的图像的内容。
对于该方面,在虚平面的第一操作画面和在第二操作画面的指针的被感测到的运动不同。因此,当指针滑过第一操作画面时,例如,即使该指针在深度方向(通过虚平面的方向)上无意地移动时,没有操作将违背用户的意愿执行。因此,使用该输入装置的操作更容易。
[2]根据上述输入装置的优选实施方式,所述第二操作画面沿所述第一操作画面的整个周边设置。
对于该方面,例如,所述第二操作画面被设置为围绕所述第一操作画面的所有外边。因此,第二操作画面的表面积可以更大。这使得更容易检测到第二操作画面上的第二运动。
[3]根据上述输入装置中的任一项所述的优选实施方式,所述第一操作画面包括整个空间图像。所述第二操作画面被布置在空间图像的外侧。
对于该方面,例如,第二操作画面被布置在空间图像的外侧。因此,当瞄准空间图像的外侧以执行第二运动时,用户可以推入(推进,push in)指针。
[4]根据上述输入装置中的任一项所述的优选实施方式,所述空间图像具有第一图像区域和第二图像区域。所述第一图像区域包括在所述第一操作画面中,并且在其上显示图像。所述第二图像区域包括在所述第二操作画面中,并且不在其上显示图像。
对于该方面,空间图像具有第一图像区域和第二图像区域。因此,当瞄准用于执行第二运动的空间图像中的第二图像区域时,用户可以推入指针,其中,所述第二图像区域没有内容被显示。
[5]根据上述输入装置中的任一项所述的优选实施方式,所述检测器被配置为检测所述指针从所述第一操作画面移开的第三运动。所述控制器被配置为:当检测到所述第三运动时,执行第三操作以确认图像的选择。
对于该方面,当指针从第一操作画面移开时,图像的选择被确认。此后,用户可使用指针来选择在第一操作画面还是在第二操作画面上进行操作。
[6]根据上述输入装置中的任一项所述的优选实施方式,所述检测器被配置为:检测所述指针在特定的方向上以横跨所述第一操作画面和所述第二操作画面的状态移动的第四运动。所述控制器被配置为:当检测到所述第四运动时,执行与所述空间图像相关联的第四操作。
对于该方面,所述第四运动是在特定的方向上以横跨第一操作画面和第二操作画面的状态移动的运动。与此相反,第一运动是所述指针滑过所述第一操作画面的运动,以及第二运动是所述指针被移动或推入第二操作画面的运动。因此,所述第一运动、第二运动,以及第四运动被检测到的区域实际上是彼此不同的。因此,在执行第四运动时,所述第一运动或第二运动是不太可能被错误地检测到。
[7]根据上述输入装置中的任一项所述的优选实施方式,所述控制器被配置为:当检测到所述第四运动时,移动在所述空间图像中显示的图像的页面作为所述第四操作。
对于该方面,执行所述第四运动可以更容易地执行操作以移动在空间图像中显示的图像的页面。
[8]根据上述输入装置中的任一项所述的优选实施方式,所述控制器被配置为:改变根据所述指针的移动方向移动的图像的页面的量。
对于该方面,该移动图像的页面的量根据指针的移动方向而变化。因此,当移动图像页面时更加方便。
[9]根据上述输入装置中的任一项所述的优选实施方式中,所述指针为手。所述检测器被配置为:感测布置(dispose)在虚平面上的手的尺寸。所述控制器被配置为:基于感测到的手的尺寸调节所述第二操作画面的宽度。
对于该方面,例如,可以根据用户的手的尺寸调整所述第二操作画面的宽度。这使得输入装置将被错误地操作变得不太可能。
[10]根据上述输入装置中的任一项所述的优选实施方式,所述控制器被配置为:当检测到第一运动时,在空间图像中移动光标来跟踪指针的运动作为第一操作。所述控制器被配置为:当检测到第二运动时,执行叠加有光标的空间图像上的图像的内容作为第二操作。
对于该方面,光标移动和对象选择可通过相对简单的运动进行。
[11]根据上述输入装置中的任一项所述的优选实施方式,所述输入装置还包括光源单元和光接收器。所述光源单元被配置为用光扫描第一操作画面和第二操作画面。所述光接收器被配置为接收由所述指针所反射的光。
[12]根据上述输入装置中的任一项所述的优选实施方式,所述光接收器被配置为:当指针位于虚平面时,接收由指针反射的光。
[13]根据上述输入装置中的任一项所述的优选实施方式,所述检测器被配置为检测指针在虚平面上的位置。所述检测器被配置为:基于检测到的指针的位置,检测所述第一运动和第二运动。
[14]根据上述输入装置中的任一项所述的优选实施方式,所述检测器被配置为:基于在光接收器的光接收时刻(timing)的光源单元的扫描位置来检测指针在虚平面的位置。
[15]根据上述输入装置中的任一项所述的优选实施方式中,所述输入装置还包括光学元件。所述光学元件被配置为形成在所述显示组件上显示的显示图像的空间图像。
[16]根据上述输入装置中的任一项所述的优选实施方式,所述检测器被配置为:在所述控制器执行所述第一操作之后,执行第三操作以响应检测所述第三运动。
[17]根据上述输入装置中的任一项所述的优选实施方式,所述检测器被配置为:在所述控制器执行所述第三操作之后,执行所述第二操作以响应检测所述第二运动。
[18]根据上述输入装置中的任一项所述的优选实施方式,所述显示组件被配置为显示用于在所述虚平面上定位所述手的校准图像。
[18]根据上述输入装置中的任一项所述的优选实施方式,所述检测器被配置为:感测手的手指的宽度和手的宽度作为手的尺寸。所述控制器被配置为:将所述第二操作画面的宽度调节为比手指的宽度大并且比手的宽度小。
[20]根据上述输入装置中的任一项所述的优选实施方式,所述检测器被配置为检测指针在虚平面的位置。所述检测器被配置为:基于检测到的指针的位置,检测所述第一运动和所述第二运动。
除了被实现为包括如上述的特性处理器的输入装置,本发明也可以实现为具有由输入装置包括的特性处理器(也称为特征处理器,characteristic processor)执行的处理步骤的输入方法。它也可以被实现为用于使得计算机充当输入装置包括的特性处理器的程序,或作为用于使计算机执行输入方法包括的特性步骤的程序。不言而喻的是,如上所述的程序可以通过例如CD-ROM压缩盘--只读存储器)这样的计算机可读取的非暂时性记录介质分发,也可以通过互联网或其他类似的通信网络分发。
属于本发明的一个方面的输入装置使操作更容易。
附图说明
现在参照构成本原始公开的一部分的附图:
图1是涉及第一到第四实施方式的输入装置的结构的立体图;
图2是涉及第一至第四实施方式的输入装置的功能性结构的框图;
图3示出了属于第一实施方式的输入装置的操作流程的流程图;
图4A,4B,4C和4D示出了属于第一实施方式的输入装置的操作的流程图;
图5是表示属于第二实施方式的输入装置的第四运动的图;
图6示出了属于第二实施方式的输入装置的操作流程的流程图。
图7A,7B,7C,7D和7E示出了属于第二实施方式的输入装置的操作的流程图;
图8是表示涉及第三实施方式的输入装置的校准模式的图;
图9示出了属于第三实施方式的输入装置的操作的流程的流程图;和
图10是属于第四实施方式的输入装置的空间图像的图。
具体实施方式
现在将通过参照附图对本发明选择的实施方案进行详细地说明。下面描述的实施方式都是全面的(comprehensive)或具体的例子。在下面给出的实施方式中的数值、形状、材料、构成要素、布局位置和构成元件的连接方式、步骤、步骤顺序等仅仅是示例,并且不旨在限制本发明的范围。另外,在以下的实施方式中的构成要素,独立权利要求中未提及的那些将被描述为任选的组成元件。
第一实施方式
1-1.输入装置的整体配置
首先,通过参照图1和图2描述属于第一实施方式的输入装置2的整体结构。图1是属于第一实施方式的输入装置2的结构的立体图。图2是涉及第一实施方式的输入装置2的功能结构的框图。
如图1和2所示,第一实施方式的输入装置2包括:显示面板4(显示组件的一个例子),反射板6、光源单元8,光接收器10和控制器12。该输入装置2被用作操作例如装置等的虚拟用户接口(VUI)。在图1中,为了更好地示出输入装置2的内部结构,省略了外壳(未示出)。但是,根据需要和/或希望,可以提供覆盖(house)和支撑显示面板4、反射板6、光源单元8、光接收器10和控制器12的外壳。此外,在本领域中熟知的,外壳可以设置有通过其可以看到空间图像16(以下描述)的开口。
如图1所示,显示面板4是用于显示图像14的矩形面板。显示面板4包括例如液晶显示面板。显示面板4设置在基本上垂直于反射板6的方向。当然,显示面板4可以是在本领域中常规使用的不同类型的显示器。
如图1所示,反射板6是用于使显示在显示面板4上的图像14浮动(float)或投射(project)到空间上作为空间图像16的光学元件。反射板6包括例如反射元件集合板(称为双面角形反射器阵列)、透镜阵列、凹面镜或类似物。更具体地,反射板6反射的图像14显示在显示面板4上,从而形成空间图像16。空间图像16是图像14的虚像,并且形成在被布置在空间18的虚平面20上。空间图像16在空间浮动显示给用户。因此,反射板6是被配置为形成显示在显示面板4上的显示图像14的空间图像16的光学元件。
该虚平面20是相对于该反射板6的、实质上(virtually)布置在显示面板4的相反一侧的空间18的平面(X-Y平面)。空间图像16是一个反转的图像,其中,显示在显示面板4上的图像14的深度被反转。空间图像16在相对于该反射板6的、对称于显示面板4的位置处形成。
如图1所示,第一操作画面22和第二操作画面24被限定(defined)在虚平面20上。第一操作画面22为用于显示空间图像16和用户检测第一运动(下面将讨论)的矩形区域。第一操作画面22被布置为包括整个空间图像16。在图1所示的例子中,第一操作画面22和第二操作画面24之间的边界与空间图像16的轮廓重合。第二操作画面24是用于用户检测第二运动(下面将讨论)的矩形框形区域。第二操作画面24设置在一路围绕第一操作画面22的外侧(即,空间图像16的外侧)。具体而言,第二操作画面24沿着第一操作画面22的整个外周设置。第二操作画面24的宽度D(即,第二操作画面24的内周和外周之间的距离)被设定为大于用户的手的一个手指的厚度,并且小于用户的手的总尺寸(宽度)。
如图1所示,光源单元8是使用检测光26(例如红外激光束)在虚平面20的整个第一操作画面22和第二操作画面24进行光栅扫描的单元。如图2所示,光源单元8具有红外激光元件28、准直透镜30、分束器32、光接收元件34、激光驱动器36、扫描镜38、致动器40以及扫描驱动器42。从而,在图示的实施方式中,光源单元8被配置为使用检测光26(光)扫描第一操作画面22和第二操作画面24。
红外激光元件28发射红外激光束作为检测光26。准直透镜30将来自红外激光元件28的检测光26从散射光转换为平行光。分束器32透射来自准直透镜30的一部分检测光26。光束分离器32反射来自准直透镜30的检测光26的其余部分。
光接收元件34接收由分束器32反射的检测光26。光接收元件34生成表示所接收的检测光26的强度的光接收信号。激光驱动器36在控制器12的控制下驱动红外激光元件28。更具体地说,激光驱动器36基于由光接收元件34产生的光接收信号驱动红外激光元件28,因此,来自红外激光元件28的检测光26将具有指定的强度。
扫描镜38为,例如,一种MEMS(微机电系统)反射镜。扫描镜38反射由光束分离器32传输的探测光26。致动器40在X轴方向上和Y轴方向上枢转扫描镜38(参照图1)。扫描驱动器42在控制器12的控制下驱动致动器40。更具体地,扫描驱动器42驱动致动器40,使得扫描镜38具有特定的振荡频率(摆动频率,oscillate frequency)和振荡宽度。如图1所示,当扫描镜38振荡时,由扫描镜38反射的检测光26形成通过第一操作画面22和第二操作画面24的整个区域的光栅扫描。该光栅扫描是由,例如,检测光26相对于虚平面20在X轴方向扫描的主扫描,和检测光26相对于虚平面20在Y轴方向扫描的副扫描组成。
光接收器10接收由指针48所反射的被光栅扫描的检测光26的反射光50(参照图1)。具体地,光接收器10具有聚光透镜44和光电转换元件46。当被光栅扫描的检测光26由指针48反射(参照图1)时,聚光透镜44在光电转换元件46上会聚产生的反射光50。光电转换元件46将来自聚光透镜44的反射光50从光信号转换成电信号。来自光电转换元件46的电信号被输出到控制器12。在第一实施方式中,指针48是用户的手(食指),但这不是唯一的选择。指针48可替代地为例如当在用户的手中握持时移动的笔或类似物。在所示的实施方式中,光接收器10被配置和布置为:当指针48位于虚平面20(第一操作画面22和第二操作画面24)时,接收指针48反射的反射光50。对于这样的布置,当指针48触摸或与虚平面20(第一操作画面22和第二操作画面24)相交时,光接收器10可以接收来自指针48的反射光50。换句话说,在所示的实施方式中,只要在虚平面20中的指针48可以被检测到,则并不需要检测沿着远离虚平面20的Z轴的指针48的位置。然而,当然,输入装置2可以被配置为使得指针48沿着远离虚平面20的Z轴的位置可以被检测到。另外,在图示的实施方式中,虚平面20被定义为形成图像14的空间图像16的面。第一操作画面22和第二操作画面24被定义为检测光26扫描或照射的虚平面20的扫描区域。另外,第一操作画面22被设定为扫描区域的一部分,第二操作画面24被设定为除了第一操作画面22之外的扫描区域。特别是,在图示的实施方式中,第一操作画面22的位置被设置为与空间图像16的位置重合。
控制器12用于控制显示面板4、激光驱动器36、扫描驱动器42等等。例如,控制器12由CPU(中央处理单元)或任何其它的处理器组成,或由CPU(中央处理单元)、RAM(随机存取存储器)、ROM(只读存储器)等组成的计算机系统构成。控制器12的一些或全部的功能通过执行存储在ROM中的程序,使用RAM作为工作存储器在CPU中实现。此外,控制器12的一些或所有的功能可以由专用的硬件电路来实现。
控制器12具有检测器49和显示控制器51(控制器的一个例子)。检测器49被配置为检测在虚平面20中指针48的位置。具体地,检测器49基于反射光50被光接收器10的时刻和检测光26从红外激光元件28发射的时刻,计算关于指针48在第一操作画面22中的位置信息(如在X-Y平面的坐标)。具体地,检测器49被配置为基于光源单元8在光接收器10的光接收时刻的扫描位置(光栅扫描的位置),检测指针48在虚平面20中的位置。特别地,指示器48的位置例如通过确定在收到反射光50的时刻检测光26的光栅扫描位置计算。基于这些时刻的位置的计算方法在本领域中是已知的,并且为简洁起见因此省略详细描述。基于这些计算得到的位置信息,检测器49检测用户的第一运动。第一运动是在与虚平面20中的第一操作画面22相接触或插入(相交)的状态时,指针48滑过第一操作画面22的运动。
进一步地,检测器49基于反射光50被光接收器10的时刻和检测光26从红外激光元件28发射的时刻,计算关于指针48在第二操作画面24的位置信息(如在X-Y平面的坐标)。基于这些计算得到的位置信息,检测器49检测用户的第二运动。第二运动是指针48推入在虚平面20的深度方向上的第二操作画面24(即,穿过虚平面20的方向)的运动。在本说明书中,“推入”不仅涵盖了指针48在深度方向上通过(交叉)第二操作画面24的运动,而且还包括指针48进入与第二操作画面24接触的运动。因此,在所示的实施方式中,检测器49被配置为基于检测到的指针48的位置,检测第一运动和第二运动。
此外,检测器49基于反射光50被光接收器10的时刻和检测光26从红外激光元件28发射的时刻计算关于指针48的在第一操作画面22上和第二操作画面24上的位置(例如在X-Y平面的坐标)。检测器49基于该计算出的位置信息检测用户的第三运动。第三运动是一个运动,其中,指针48移动远离在虚平面20的第一操作画面22(即,沿Z轴的负方向)。具体地,第三运动是在其中已经在虚平面20被插入到第一操作画面22上的指针48从第一操作画面22拔出的运动。
显示控制器51基于检测器49的检测结果,控制显示在显示面板4上的图像14的显示内容(即,空间图像16的显示内容)。更具体地,当检测器49检测到第一运动时,显示控制器51执行与空间图像16相关联的第一操作。如图4B所示(下面讨论),第一操作包括通过在空间图像16上移动光标54,选择在空间图像16上的图标52(内容的一个例子)的操作,以便跟踪指针48的运动。在图示的实施方式中,第一操作中的图标52的选择可以指将光标54移到图标52。因此,在所示的实施方式中,显示面板4显示包括图标52的图像14。
此外,当检测器49检测到第二运动时,显示控制器51执行与该空间图像16相关联的第二操作。如图4D所示(下面讨论),第二操作为执行在叠加有光标54的空间图像16上的图标52(即,已被选择的)的操作。这里的“内容”是空间图像16上操作的对象,如图标52。另外,在图示的实施方式中,在第二操作中的图标52的执行可以意味着执行与图标52相关联的应用。
当检测器49已检测到第三运动时,显示控制器51执行与该空间图像16相关联的第三操作。所述第三操作是确认在叠加有光标54的空间图像16上的图标52的选择的操作。特别是,在第一操作之后,当指针48从第一操作画面22拔出,同时保持指针48在第一操作画面22中的图标52上的位置(例如,在X-Y平面的坐标)时,控制器51保持选择图标52,直到执行第二操作或取消图标52的选择。例如,图标52的选择可以在第三操作后,在第一操作画面22中检测到指针48时被取消。
1-2.输入装置的操作
现在将通过参照图3和图4A到4D描述属于第一实施方式的输入装置2的操作。图3示出了属于第一实施方式的输入装置2的操作的流程的流程图。图4A、4B、4C和4D示出了属于第一实施方式的输入装置2的操作流程图。
如图4A到图4D所示,在空间图像16上显示包括用于启动应用的图标52、光标54等等(诸如操作画面的装置)的画面。从该状态起,如图4A所示,用户在虚平面20中相对于第一操作画面22在深度方向上插入指针48。然后,检测器49感测指针48在第一操作画面22上的位置。因此,显示控制器51将光标54移动到第一操作画面22上指针48的位置。
在此之后,如图4B所示,用户以插入第一操作画面22中的状态在第一操作画面22上向上、向下、向左、或向右滑动指针48。其结果是,检测器49在第一操作画面22上检测第一运动。因此,作为第一操作显示控制器51向上、向下、向左、或向右移动光标54以便跟踪指针48的运动。
在此之后,如图4C所示,用户停止指针48在图标52上的移动,使光标54叠置于图标52并选择图标52。在这一点上,检测器49检测在第一操作画面22上的第一运动(S1中为是)。因此,显示控制器51选择图标52作为第一操作(S2)。
在这种状态下,用户将指针48推出第一操作画面22,从而使光标54保持在叠置于图标52的状态。在这一点上,检测器49检测第一操作画面22(S3中为是)上的第三运动。因此,显示控制器51确认图标52的选择作为第三操作(S4)。从而,在图示的实施方式中,检测器49被配置为在显示控制器51执行第一操作之后,执行响应于检测第三运动的第三操作。
在此之后,如图4D所示,用户在虚平面20中,相对于第二操作画面24,在深度方向推入指针48。结果,检测器49在第二操作画面24上检测到第二运动(S5中为是)。因此,作为第二操作,在保持光标54的位置状态下,显示控制器51执行其上叠加有光标54(即,它已经被选中)的图标52(S6)。从而图标52的执行启动对应于图标52的应用。因此,在图示的实施方式中,检测器49被配置为在显示控制器51执行第三操作之后,执行响应于检测第二运动的第二操作。
1-3.效果
接着,将描述第一实施方式的输入装置2所获得的效果。如上所讨论的,第一操作画面22和第二操作画面24之间检测到的指针48的运动不同。因此,例如当指针48滑过第一操作画面22时,即使指针48是在深度方向上无意的移动,图标也不会违背用户的意愿执行。因此,用输入装置2的操作是容易的。
第二实施方式
2-1.输入装置的配置
现在将通过参照图1、2和图5描述属于第二实施方式的输入装置2A的结构。图5是表示属于第二实施方式的输入装置2A的第四运动的图。在下面给出的各种实施方式中,那些与上述第一实施方式相同的组件将给予相同的编号,并且将不再次描述。
如图1和2所示,对于属于第二实施方式的输入装置2A,控制器12A的检测器49A检测除了在上述第一实施方式中描述的第一至第三运动的第四运动。即,检测器49A计算在第一操作画面22和第二操作画面24中关于指针48(如用户的整只手)的位置信息。检测器49A基于计算出的位置信息,通过用户检测第四运动。如图5所示,所述第四运动是指针48在上下方向(沿Y轴的正方向或负方向),垂直方向(沿Z轴的正方向或负方向),和水平方向(沿X轴的正方向或负方向),在虚平面20上以跨越第一操作画面22和第二操作画面24的状态移动。
当检测器49A检测出第四运动时,控制器12A的显示控制器51A执行除了上述第一实施方式中描述的第一操作、第二操作和第三操作以外的、与空间图像16关联的第四操作。第四操作是将在空间图像16中显示的内容应用程序的页面向前或向后移动的操作。
此外,显示控制器51A根据在第四运动中指针48的移动方向,改变内容页面移动的量。更具体地说,当在第四运动中指针48的移动方向是垂直方向(沿Z轴),则显示控制器51A移动内容页面相对大的量(例如一次三页),作为粗略的页面运动。当在第四运动中指针48的移动方向是上下方向(沿Y轴)时,则显示控制器51A移动内容页面相对小的量(例如一次一页),作为精细的页面运动。当在第四运动中指针48的移动方向是沿水平方向时(即,当指针48通过水平移动从第一操作画面22和第二操作画面24离开)(沿X轴),则显示控制器51A将保留当前显示的页面内容,不执行任何精细的或粗糙的页面运动。
2-2.输入装置的操作
现在将通过参照图6和图7A至7E描述属于第二实施方式的输入装置2A的操作。图6示出了属于第二实施方式的输入装置2A的操作的流程的流程图。图7A,7B,7C,7D和7E示出了属于第二实施方式的输入装置2A的操作流程。
如图7A至7E所示,例如具有A到E五个页面的、可以顺序移动的内容显示在空间图像16中。页面A显示在空间图像16的状态如图7A所示,用户放置(place)指针48,以使得它跨越虚平面20中的第一操作画面22和第二操作画面24。从该状态开始,如果用户在特定方向上移动指针48,则检测器49A检测在第一操作画面22和第二操作画面24的第四运动(S11)。
当指针48在第四运动中的移动方向是垂直方向时(在S12中的垂直方向),显示控制器51A执行粗略的页面移动(S13)。因此,如图7B和7C所示,例如,显示在空间图像16上的页面从页面A到页面D移动三个页面。此时,用户可以移动指针48以沿Z轴的正或负方向(或沿Z轴从正方向到负方向)通过虚平面20。换句话说,检测器49A可以通过检测指针48沿Z轴方向穿过或触摸第一操作画面22和第二操作画面24,来检测指针48在垂直方向上的移动。当然,输入装置2A可以被配置为使得检测器49A可以检测指针48沿Z轴的位置,并且使得检测器49A可以基于检测到的指针48沿着Z轴的位置检测指针48沿着Z轴的移动。
此外,当在第四运动中指针48的移动方向是上下方向(S12中的上下方向)时,显示控制器51A执行精细的页面移动(S14)。因此,如图7C和7D所示,例如,显示在空间图像16中的页面是从页面D到页面E的一个页面的移动。
此外,当在第四运动中指针48的移动方向是水平方向(S12中的水平方向)时,显示控制器51A不执行粗略的页面移动或精细的页面移动(S15)。因此,如图7D和7E所示,例如,显示在空间图像16中的页面停留在页面E,并且对应于页面E的应用程序启动。在检测到第四运动之后,指针48可被推入第一操作画面22或第二操作画面24以启动对应于页面E的应用。
2-3.效果
接着,对属于第二个实施方式的输入装置2A所获得的效果进行说明。如上所讨论的,用户在垂直方向或上下方向移动指针48,直到期望的页面显示在空间图像16中,这允许执行粗略的或精细的页面移动。在此之后,当期望的页面显示在空间图像16中时,用户在水平方向上移动指针48,以使显示在空间图像16中的页面停留在期望的页面。这使得使用输入装置2A的操作更加容易。
2-4.变形例
在第二实施方式中,显示控制器51A根据在第四运动中指针48的移动方向改变内容页面的移动量。然而,与此一起,其中,所述网页被移动的顺序也可以是多种多样的。例如,如果在第四运动中指针48的移动方向是沿Y轴的正方向,显示控制器51A以页面A→页面B→页面C→页面D→页面E的顺序移动内容页面。另一方面,如果在第四运动中指针48的移动方向是沿Y轴的负方向,显示控制器51A以相反的顺序移动内容页面,也即以页面E→页面D→页面C→页面B→页面A的顺序。
当检测器49A检测出第四运动时,显示控制器51A执行操作来移动显示在空间图像16中的内容页面作为第四操作。然而,这不是唯一的选择。例如,当检测器49A检测出第四运动时,显示控制器51A可以执行操作以放大显示在空间图像16中的内容页面作为第四操作。
第三实施方式
3-1.输入装置的配置
现在将通过参照图1、2和8描述属于第三实施方式的输入装置2B的结构。图8是表示涉及第三实施方式的输入装置2B的校准模式的图。
如图1和2所示,对于属于第三实施方式的输入装置2B,除了在上述第一和第二实施方式中描述的功能,执行校正模式以调整第二操作画面24的宽度D。如图8所示,在该校准模式中,控制器12B的显示控制器51B在空间图像16中显示校准图像56。校准图像56为例如开放的手的形状。因此,在所示的实施方式中,显示面板4被配置为显示用于定位位于虚平面20中的用户的手58的校准图像56。
用户将他打开的手58置于校准图像56上。然后,控制器12B的检测器49B感测手58的尺寸。因此,显示控制器51B基于感测到的所述手58的尺寸,调整所述第二操作画面24的宽度D。更具体地,显示控制器51B调节第二操作画面24的宽度D为:比所述手58的一个手指(例如,食指或其他手指)的厚度(宽度)W1大,以及比所述手58的总体尺寸W2(例如,手58的跨度(span),如从拇指的尖端到小指的前端的距离的范围)小(W1<D<W2)。从而,在图示的实施方式中,检测器49B被配置为感测手58的一个手指的厚度(宽度)W1,和手58的宽度W2作为手58的尺寸。显示控制器51B被配置为调整第二操作画面24的宽度D,使其比所述手指的宽度W1大,以及比手58的宽度W2小。
如果第二操作画面24的宽度D小于手58的一个手指的厚度W1,那么当做了如上述第一实施方式中描述的用用户的手58的手指推入第二操作画面24的试图时,则会有手58的手指将会最终跨越第一操作画面22和第二操作画面24的风险。如果发生这种情况,检测器49将不能检测到第二运动,并最终会错误地检测第四运动。
此外,如果第二操作画面24的宽度D比手58的整体尺寸W2大,则如在第二实施方式中描述的那样对于用户处置手58以便跨越第一操作画面22和第二操作画面24将是困难的。
3-2.输入装置的操作
现在将通过参照图9描述属于第三实施方式的输入装置2B的操作。图9示出了属于第三实施方式的输入装置2B的操作的流程的流程图。
当校准模式开始时(S21),在空间图像16显示所述校准图像56(S22)。在此之后,当用户将他的打开的手58放置在校准图像56(S23)上时,检测器49B感测该手58的尺寸(S24)。
在这一点上,如果感测到的手58的尺寸在特定的范围内(S25中为是),则显示控制器51B基于感测到的手58的尺寸,调整第二操作画面24的宽度D(S26)。然后校准模式结束(S27)。
另一方面,如果手58的尺寸不在特定的范围内(S25中为否),则显示控制器51B在空间图像16显示提示用户再次尝试(如“再次举起手”的消息)的信息(S28)。因此,用户再次将他的手放置在校准图像56(S23)上。如果感测到的手58的尺寸不是在特定的范围内时,这可能意味着用户把他的握起的手58放置在校准图像56上,或其他的不是手58的东西等放置在校准图像56上。
3-3.效果
接着,将描述属于第三实施方式的输入装置2B所获得的效果。由于从一个用户到下一个用户的手58的尺寸将改变,通过执行上面讨论的校准模式,能够根据用户的手58的尺寸对第二操作画面24的宽度D进行调整。这可以使输入装置2B错误的操作减少到最小。
第四实施方式
现在将通过参照图1、2和10描述属于第四实施方式的输入装置2C的结构。图10是属于第四实施方式的输入装置2C的空间图像16C的图。
如图10所示,属于第四实施方式的输入装置2C(见图1和2),空间图像16C具有被包括在第一操作画面22C的第一图像区域60a,和包含在第二操作画面24C中的第二图象区域60b。第一图像区域60a为,例如,显示包括图标52、光标54等(诸如操作装置的画面)的显示内容的图像区域,。同时,第二图像区域60b为例如其中没有显示内容的区域,并且其中仅显示黑色背景的图像区域。
在图10中所示的例子中,第二操作画面24C的轮廓与空间图像16C的轮廓相一致,并且第一操作画面22C和第二操作画面24C之间的边界与第一图像区域60a和第二图像区域60b之间的边界重合。在图示的实施方式中,虚平面20被定义为在其上形成空间图像16C的平面。第一操作画面22C和第二操作画面24C被定义为在其上检测光26(参照图1)扫描或照射的虚平面20的扫描区域。另外,第一操作画面22C被设定为扫描区域的一部分,而第二操作画面24C被设定为除了第一操作画面22C之外的其他被扫描区域的一部分。特别是,在所示的实施方式中,第二操作画面24C的轮廓的位置被设定为与空间图像16C的轮廓的位置一致。具体地说,在图示的实施方式中,第一操作画面22C与第一图像区域60a重合,而第二操作画面24C与第二图像区域60b重合。
这种配置可以获得与上述第一实施方式获得的同样的效果。
变形例
属于本发明第一至第四实施方式的输入装置如上所述。然而,本发明不限于或由这些第一至第四实施方式所限制。例如,上述第一至第四实施方式可以相互组合。
另外,在上述各个实施方式中,第一运动等的检测基于从红外激光元件28射出检测光26的时刻,以及由光接收器10接收反射光50的时刻。然而,这不是唯一的选择。例如,第一运动等,可以基于用照相机拍摄指针48的结果检测到。
在上述各种实施方式中,第二操作画面24设置为一直围绕第一操作画面22。但是,这不是唯一的选择。第二操作画面24可以设置为只围绕第一操作画面22的外周的一部分(例如只在第一操作画面22的上侧)。
此外,在特定方面,上述的输入装置可以被配置为由微处理器、ROM、RAM、硬盘驱动器、显示器单元、键盘、鼠标等组成的计算机系统。计算机程序可以存储在RAM或硬盘驱动器中。微处理器根据计算机程序操作,使得输入装置执行其功能。此处的计算机程序是给计算机指令以实现特定的功能的多个命令代码的组合。
此外,组成上述输入装置的一些或所有的构成元件可以由单个系统LSI(大规模集成)组成。该系统LSI是由多个结构部分集成在一个芯片上制造的超多功能LSI(super-multifunctional LS)。例如,这包括由微处理器、ROM以及RAM等构成的计算机系统。在这种情况下,ROM存储计算机程序。微处理器根据计算机程序操作,从而使系统LSI实现其功能。
此外,组成上述输入装置的一些或所有的构成元件可以由可插入并从输入装置移除的IC卡或单独的模块组成。上述IC卡或模块是由微处理器、ROM以及RAM等构成的计算机系统。所述IC卡或模块可以包括上述的超多功能LSI。微处理器根据计算机程序操作,从而使得所述IC卡或模块实现其功能。该IC卡或模块可以为防篡改的。
本发明也可以是上述的方法。此外,本发明可以是包括这些由计算机执行的方法的计算机程序,或者可以是由上述计算机程序构成的数字信号。
此外,本发明可以是计算机可读的、非瞬时的记录介质,诸如软盘、硬盘、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(蓝射线TM光盘)、半导体存储器,或在其上记录上述计算机程序或上述数字信号等的记录介质。此外,本发明可以是记录到这些非暂时性记录介质中的一个的上述数字信号。
此外,本发明能够通过电通信线路、无线或有线通信线路、网络例如因特网和通过数据广播等等传输上述计算机程序或数字信号。
此外,本发明可以是包括微处理器和存储器的计算机系统。所述存储器可以存储上述计算机程序,以及微处理器可以按照这些计算机程序工作。
此外,通过将其记录到记录介质以传送程序或数字信号,或通过网络或类似传送程序或数字信号,本发明可以通过另外的、独立的计算机系统来实现。
本发明可应用于成像装置,所述成像装置被用作用于操作例如装置等的VUI。
在理解本发明的范围时,术语“包括(comprising)”和它的衍生词,如本文所用,为描述现有的所陈述的特征,元件,组件,组,整体,和/或步骤的开放性词语,但并不排除存在其它未陈述的特征,元件,组件,组,整体(integers)和/或步骤。前述内容也适用于具有类似含义的词语,诸如术语“包含(including)”,“具有(having)”和它们的衍生词。而且,除非另有说明时,术语“部件(part)”,“部(section)”,“部分(portion)”,“构件(member)”或“元件(element)”以单数使用时可以具有单个组件或多个组件的双重含义。
如本文中所使用的,下列方向性术语“向前”,“向后”,“前”,“后”,“上”,“下”,“上方”,“下方”,“向上”,“向下”,“顶”,“底”,“侧”,“垂直”,“水平”,“直立(perpendicular)”和“横向”以及任何其它类似的方向性术语均是指输入装置在直立位置(upright position)的那些方向。因此,这些用于描述输入装置的方向术语,应当解释为相对于输入装置在水平表面的直立位置。术语“左”和“右”为:当从输入装置的前部(空间图像的显示侧)观察时,从右侧引用时表示“右”;以及当从输入装置的前部观察时,从左侧引用时表示“左”。
虽然只有选定的实施例来说明本发明,显而易见的是,本领域技术人员在不脱离所附请求保护范围定义的本发明的范围内从本公开可以对本文进行各种改变和修改。例如,除非另外具体说明,只要该变化实质上不影响它们的预期的功能,各种组件的尺寸,形状,位置或取向可以根据需要和/或希望变化。除非特别声明,只要其变化实质上不影响它们的预期功能,那些显示直接连接或彼此接触的组件也可具有设置在它们之间的中间结构,。除非特别说明,否则一个元件的功能可以由两个执行,反之亦然。一个实施例的结构和功能可以在另一个实施例中被采用。没有必要在一个特定的实施例中同时具有所有优点。每个区别于现有技术的特征,单独或与其它特征的组合,也应被视为申请人的进一步发明的独立描述,包括由这些特征所体现的结构和/或功能概念。因此,根据本发明的实施例的前述说明仅用于说明,而不是为了限制由所附请求保护范围及其等同物所限定的本发明。

Claims (10)

1.一种输入装置,包括:
显示组件,其被配置为显示图像;
检测器,其被配置为检测第一运动和第二运动;其中,在所述第一运动中,指针滑过第一操作画面,所述第一操作画面位于虚平面,所述虚平面包括在空间中形成的所述图像的虚像的至少部分空间图像;在所述第二运动中,所述指针移动到第二操作画面,所述第二操作画面位于所述虚平面,并且与所述第一操作画面不同;
控制器,其被配置为:当检测到所述第一运动时,执行第一操作以选择所述图像;以及被配置为:当检测到所述第二运动时,执行第二操作以执行所选择的图像的内容。
2.根据权利要求1所述的输入装置,其特征在于,
所述第二操作画面沿所述第一操作画面的整个周边设置。
3.根据权利要求1或2所述的输入装置,其特征在于,
所述第一操作画面包括整个所述空间图像;以及
所述第二操作画面被布置在所述空间图像的外侧。
4.根据权利要求1或2所述的输入装置,其特征在于,
所述空间图像具有:
第一图象区域,其包括在所述第一操作画面中,并且在其上显示所述图像;以及
第二图像区域,其包括在所述第二操作画面中,并且不在其上显示所述图像。
5.根据权利要求1-4中任一项所述的输入装置,其特征在于,
所述检测器被配置为检测所述指针从所述第一操作画面移开的第三运动;以及
所述控制器被配置为:当检测到所述第三运动时,执行第三操作以确认所述图像的选择。
6.根据权利要求1-5中任一项所述的输入装置,其特征在于,
所述检测器被配置为:检测第四运动,在所述第四运动中,所述指针在特定的方向上以横跨所述第一操作画面和所述第二操作画面的状态移动,并且,
所述控制器被配置为:当检测到所述第四运动时,执行与所述空间图像相关联的第四操作。
7.根据权利要求6所述的输入装置,其特征在于,
所述控制器被配置为:当检测到所述第四运动时,移动显示在所述空间图像中的所述图像的页面作为所述第四操作。
8.根据权利要求7所述的输入装置,其特征在于,
所述控制器被配置为:根据所述指针的移动方向改变移动的所述图像的所述页面的量。
9.根据权利要求1-8中任一项所述的输入装置,其特征在于,
所述指针为手;
所述检测器被配置为:感测布置在所述虚平面上的所述手的尺寸,并且,
所述控制器被配置为:基于感测到的所述手的尺寸,调节所述第二操作画面的宽度。
10.根据权利要求1-9中任一项所述的输入装置,其特征在于,
所述控制器被配置为:当检测到所述第一运动时,移动所述空间图像上的光标来跟踪所述指针的运动作为所述第一操作,
所述控制器被配置为:当检测到所述第二运动时,执行在叠加有所述光标的所述空间图像上的所述图像的所述内容作为所述第二操作。
CN201610947483.5A 2015-10-26 2016-10-26 输入装置 Active CN107025003B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-209919 2015-10-26
JP2015209919A JP6536350B2 (ja) 2015-10-26 2015-10-26 入力装置

Publications (2)

Publication Number Publication Date
CN107025003A true CN107025003A (zh) 2017-08-08
CN107025003B CN107025003B (zh) 2020-02-18

Family

ID=57189942

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610947483.5A Active CN107025003B (zh) 2015-10-26 2016-10-26 输入装置

Country Status (4)

Country Link
US (1) US10782789B2 (zh)
EP (1) EP3163409B1 (zh)
JP (1) JP6536350B2 (zh)
CN (1) CN107025003B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7087368B2 (ja) * 2017-12-13 2022-06-21 船井電機株式会社 空中像表示装置
JP2019207574A (ja) * 2018-05-29 2019-12-05 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム
CN109591033A (zh) * 2018-09-28 2019-04-09 广州智伴人工智能科技有限公司 一种非接触式人机交互系统
JP2022063376A (ja) * 2020-10-12 2022-04-22 凸版印刷株式会社 空中表示装置
JP7279728B2 (ja) * 2021-03-22 2023-05-23 カシオ計算機株式会社 投影装置及び投影方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070273669A1 (en) * 2006-05-24 2007-11-29 Lg Electronics Inc. Touch screen device and operating method thereof
CN102576288A (zh) * 2009-10-05 2012-07-11 索尼爱立信移动通讯有限公司 改变在触敏显示器上被选中时触摸选择区域的尺寸的方法和装置
CN103500057A (zh) * 2013-10-08 2014-01-08 百度在线网络技术(北京)有限公司 移动终端及其操控方法和装置
US20140300584A1 (en) * 2013-04-08 2014-10-09 Funai Electric Co., Ltd. Spatial input device
CN104185979A (zh) * 2012-03-15 2014-12-03 索尼公司 信息处理装置、方法以及非暂态计算机可读介质
CN104216517A (zh) * 2014-08-25 2014-12-17 联想(北京)有限公司 一种信息处理方法及电子设备
CN104335142A (zh) * 2012-06-14 2015-02-04 高通股份有限公司 用于透明头戴式显示器的用户接口交互

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3688361B2 (ja) * 1995-10-06 2005-08-24 富士通株式会社 表示制御装置
US7760187B2 (en) * 2004-07-30 2010-07-20 Apple Inc. Visual expander
US6501515B1 (en) * 1998-10-13 2002-12-31 Sony Corporation Remote control system
JP4115198B2 (ja) * 2002-08-02 2008-07-09 株式会社日立製作所 タッチパネルを備えた表示装置
JP2004185258A (ja) * 2002-12-03 2004-07-02 Hitachi Ltd 情報処理装置
JP5178127B2 (ja) 2006-10-17 2013-04-10 株式会社半導体エネルギー研究所 半導体装置
JP5212991B2 (ja) 2007-03-30 2013-06-19 独立行政法人情報通信研究機構 空中映像インタラクション装置及びそのプログラム
AU2008299883B2 (en) * 2007-09-14 2012-03-15 Facebook, Inc. Processing of gesture-based user interactions
US20090282332A1 (en) * 2008-05-12 2009-11-12 Nokia Corporation Apparatus, method and computer program product for selecting multiple items using multi-touch
US8499251B2 (en) * 2009-01-07 2013-07-30 Microsoft Corporation Virtual page turn
WO2013029257A1 (en) * 2011-08-31 2013-03-07 Ooros Automotive Co., Ltd. Vehicle's interactive system
US20140375676A1 (en) * 2011-12-28 2014-12-25 Nec Casio Mobile Communications, Ltd. Display device, display method, and program
JP5935529B2 (ja) 2012-06-13 2016-06-15 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US9274608B2 (en) * 2012-12-13 2016-03-01 Eyesight Mobile Technologies Ltd. Systems and methods for triggering actions based on touch-free gesture detection
EP2767896B1 (en) * 2013-02-14 2019-01-16 LG Electronics Inc. Mobile terminal and method of controlling the mobile terminal
CN103488296B (zh) * 2013-09-25 2016-11-23 华为软件技术有限公司 体感交互手势控制方法及装置
JP5933093B1 (ja) * 2015-11-04 2016-06-08 株式会社Cygames プログラム及び携帯端末

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070273669A1 (en) * 2006-05-24 2007-11-29 Lg Electronics Inc. Touch screen device and operating method thereof
CN102576288A (zh) * 2009-10-05 2012-07-11 索尼爱立信移动通讯有限公司 改变在触敏显示器上被选中时触摸选择区域的尺寸的方法和装置
CN104185979A (zh) * 2012-03-15 2014-12-03 索尼公司 信息处理装置、方法以及非暂态计算机可读介质
CN104335142A (zh) * 2012-06-14 2015-02-04 高通股份有限公司 用于透明头戴式显示器的用户接口交互
US20140300584A1 (en) * 2013-04-08 2014-10-09 Funai Electric Co., Ltd. Spatial input device
CN103500057A (zh) * 2013-10-08 2014-01-08 百度在线网络技术(北京)有限公司 移动终端及其操控方法和装置
CN104216517A (zh) * 2014-08-25 2014-12-17 联想(北京)有限公司 一种信息处理方法及电子设备

Also Published As

Publication number Publication date
JP6536350B2 (ja) 2019-07-03
JP2017084003A (ja) 2017-05-18
EP3163409B1 (en) 2023-09-20
EP3163409A1 (en) 2017-05-03
US20170115741A1 (en) 2017-04-27
CN107025003B (zh) 2020-02-18
US10782789B2 (en) 2020-09-22

Similar Documents

Publication Publication Date Title
CN107025003A (zh) 输入装置
CN105009035B (zh) 利用手势增强触摸输入
JP5510155B2 (ja) プロジェクタ
CN105593786B (zh) 对象位置确定
KR20130133161A (ko) 프로젝터
JP5710929B2 (ja) プロジェクタ
JP5368585B2 (ja) 情報処理装置、その方法、および、表示装置
US20120319945A1 (en) System and method for reporting data in a computer vision system
AU2003205297A1 (en) Apparatus and method for inputting data
US10379680B2 (en) Displaying an object indicator
CN103176592A (zh) 虚拟投影输入系统及其输入检测方法
CN101784980A (zh) 遥控操作装置及遥控操作方法
CN109542276A (zh) 一种触控点识别方法及装置和显示设备
JP5657471B2 (ja) デジタルプラットフォーム装置
US20150378441A1 (en) Input apparatus
JP7279737B2 (ja) 情報処理装置、画像形成装置、プログラム、および、システム
JP2016218893A (ja) 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法
US20150253932A1 (en) Information processing apparatus, information processing system and information processing method
KR101609861B1 (ko) 사용자 동작에 기초한 입력 제어 시스템 및 방법
KR101520746B1 (ko) 입력 장치 및 디스플레이 장치
CN104094213B (zh) 信息处理装置、信息处理方法、程序以及信息存储介质
WO2015159550A1 (ja) 情報処理システム、制御方法、及びプログラム記録媒体
JP2006338328A (ja) 操作システム、処理装置、指示装置、操作方法およびプログラム
JP2003330612A (ja) 情報入出力システム、プログラムおよび記憶媒体
TWI566126B (zh) 從影像發展出脈絡資訊之技術

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant