CN112805800A - 输入装置 - Google Patents

输入装置 Download PDF

Info

Publication number
CN112805800A
CN112805800A CN201980064789.8A CN201980064789A CN112805800A CN 112805800 A CN112805800 A CN 112805800A CN 201980064789 A CN201980064789 A CN 201980064789A CN 112805800 A CN112805800 A CN 112805800A
Authority
CN
China
Prior art keywords
controller
input
image
input device
detection point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980064789.8A
Other languages
English (en)
Inventor
筱原正幸
田上靖宏
北村智和
宫本宽之
森裕都
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Publication of CN112805800A publication Critical patent/CN112805800A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/56Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/04Prisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Switches Operated By Changes In Physical Conditions (AREA)

Abstract

导光板引导来自光源的光并使图像在空间成像。传感器检测包含图像的成像位置的空间中的物体。控制器基于来自传感器的输出,取得检测出物体的多个位置的轨迹、检测出物体的持续时间、物体的检测次数中的至少1个作为输入参数。控制器基于输入参数识别与物体的动作对应的输入模式,并输出与识别出的输入模式对应的信号。

Description

输入装置
技术领域
本发明涉及输入装置。
背景技术
以往,已知有如下输入装置:使光从导光板射出而使图像在空间成像,并且在包含图像的成像位置的空间中检测物体(例如,参照专利文献1)。根据这样的装置,用户能够通过在空中虚拟地触摸在空间显示的按钮等图像来进行输入动作。
专利文献1:日本专利特开2012-209076号公报
发明内容
在上述专利文献1所涉及的输入装置中,能够应对接通(ON)/断开(OFF)操作等单纯的输入动作,但难以应对复杂的输入动作。
本发明的目的在于提供一种能够应对复杂的输入动作的输入装置。
一个方式所涉及的输入装置具备光源、导光板、传感器以及控制器。导光板引导来自光源的光并使图像在空间成像。传感器检测包含图像的成像位置的空间中的物体。控制器基于来自传感器的输出,取得检测出物体的多个位置的轨迹、检测出物体的持续时间、物体的检测次数中的至少1个作为输入参数。控制器基于输入参数识别与物体的动作对应的输入模式,并输出与识别出的输入模式对应的信号。
在本方式所涉及的输入装置中,控制器基于检测出物体的多个位置的轨迹、检测出物体的持续时间以及物体的检测次数中的至少1个来识别与物体的动作相应的输入模式。因此,不限于接通/断开操作等单纯的输入动作,能够识别复杂的输入动作。
控制器也可以根据识别出的输入模式来变更图像。在该情况下,图像根据用户的输入动作而变化。因此,用户能够容易地掌握输入装置识别出了自身的输入动作这一情况。
控制器也可以取得检测出物体的多个位置的轨迹作为输入参数。控制器也可以根据检测到物体的多个位置的轨迹来识别物体的移动方向。输入模式也可以包含物体的移动方向。在该情况下,控制器例如能够识别与用户的手指的移动方向对应的输入模式。
传感器至少可以在图像内的基准检测点、位于基准检测点的上方的第一检测点、位于基准检测点的下方的第二检测点检测物体。在该情况下,控制器例如能够将用户的手指的上下方向的动作识别为输入模式。
传感器也可以至少在图像内的基准检测点、位于基准检测点的左方的第三检测点、位于基准检测点的右方的第四检测点检测物体。在该情况下,控制器例如能够将用户的手指的左右方向的动作识别为输入模式。
控制器也可以使图像向与物体的移动方向对应的方向移动。在该情况下,图像根据用户的输入动作的方向而变化。因此,用户能够容易地掌握输入装置识别出了自身的输入动作这一情况。
控制器也可以取得检测出物体的持续时间作为输入参数。控制器也可以识别与持续时间对应的输入模式。控制器也可以输出与持续时间对应的信号。在该情况下,控制器能够识别与用户的输入动作的持续时间对应的输入模式。
控制器也可以根据持续时间来变更图像。在该情况下,在该情况下,图像根据用户的输入动作的持续时间而变化。因此,用户能够容易地掌握输入装置识别出了自身的输入动作这一情况。
控制器也可以根据持续时间来识别通常按压操作和长按操作。在该情况下,不限于接通/断开操作等单纯的输入动作,能够识别通常按压操作和长按操作。
控制器也可以取得规定时间内的物体的检测次数。控制器也可以输出与检测次数相应的信号。在该情况下,控制器能够识别与用户的输入动作的次数对应的输入模式。
控制器也可以根据检测次数来变更图像。在该情况下,图像根据用户的输入动作的次数而变化。因此,用户能够容易地掌握输入装置识别出了自身的输入动作这一情况。
控制器也可以根据检测次数来识别单击和双击。在该情况下,不限于接通/断开操作等单纯的输入动作,能够识别单击和双击。
传感器也可以包括光电传感器。在该情况下,能够在空间中容易地检测物体。
控制器也可以根据输入模式而输出多个指令值的信号。在该情况下,输入装置能够将与用户的输入动作相应的多个指令值的信号向外部的设备输出。
输入装置还可以具备用于将信号输出到输入装置的外部的多个信号线。控制器也可以根据输入模式从多个信号线选择性地输出信号。在该情况下,输入装置能够根据用户的输入动作而从多个信号线选择性地将信号输出至外部的设备。
发明效果
根据本发明,能够提供一种能够应对复杂的输入动作的输入装置。
附图说明
图1是第一实施方式所涉及的输入装置的立体图。
图2是表示输入装置的结构的框图。
图3是表示棱镜的一例的导光板的剖视图。
图4是表示棱镜的形状的一例的立体图。
图5是表示传感器的结构及配置的侧视图。
图6是表示与输入模式对应的图像的变化的一例的图。
图7是表示与输入模式对应的图像的变化的一例的图。
图8是表示基于传感器的检测点的一例的图。
图9是表示传感器的结构的一例的图。
图10是表示传感器的结构的其他例子的图。
图11是表示与输入模式对应的图像的变化的一例的图。
图12是表示与输入模式对应的图像的变化的其他例子的图。
图13是示出图像的其他例子的图。
图14是示出图像的其他例子的图。
图15是示出图像的其他例子的图。
图16是表示其他实施方式所涉及的输入装置的结构的框图。
图17是表示其他实施方式的图像的图。
图18是表示其他实施方式的图像的图。
具体实施方式
以下,参照附图对实施方式所涉及的输入装置1进行说明。图1是第一实施方式的输入装置1的立体图。图2是表示第一实施方式所涉及的输入装置1的结构的框图。输入装置1包括导光板2、光源3、传感器4、控制器5以及信号输出装置6。
导光板2引导来自光源3的光,使图像I1成像于空间。由此,导光板2将被用户视觉识别的图像I1投影到没有屏幕的空间。导光板2由透光性材料形成。导光板2由例如聚甲基丙烯酸甲酯(PMMA)、聚碳酸酯、或环烯烃聚合物等透明的树脂、或者玻璃等材料形成。
导光板2包括射出面21、背面22和端面23-26。射出面21射出来自光源3的光。背面22位于射出面21的相反侧。来自光源3的光入射到端面23。来自光源3的光也可以入射到其他端面24-26。光源3例如是LED(Light Emitting Diode:发光二极管)。但是,光源3不限于LED,也可以是OLED(Organic Light Emitting Diode:有机发光二极管)等其他光源。另外,在图1中,以射出面21与铅垂方向平行的方式配置有导光板2。但是,也可以以射出面21相对于铅垂方向呈不包含0度的规定的角度的方式设置导光板2。
导光板2包括多个导光部。多个导光部分别与图像I1所包含的多个定点对应地设置。例如,多个导光部包括第一导光部27、第二导光部28和第三导光部29。第一导光部27与图像I1所包含的第一定点A1对应。第二导光部28与图像I1所包含的第二定点A2对应。第三导光部29与图像I1所包含的第三定点A3对应。
各导光部包括多个棱镜。图3是表示棱镜200的一例的导光板2的剖视图。图4是表示棱镜200的形状的一例的立体图。棱镜200设置于导光板2的背面22。棱镜200由从导光板2的背面22凹陷的凹坑形成。如图4的(A)所示,棱镜200具有例如三棱锥的形状。或者,如图4的(B)所示,棱镜200也可以具有三角柱的形状。或者,如图4的(C)所示,棱镜200也可以是具有曲面的形状。多个棱镜200排列成使来自光源3的光向导光板2的射出面21反射,光在与各导光部对应的定点会聚。
例如,入射到第一导光部27的光被第一导光部27所包含的多个棱镜200反射,以会聚于第一定点A1。由此,来自第一导光部27的光的波面成为从第一定点A1发出的光的波面。同样地,入射到第二导光部28的光以会聚于第二定点A2的方式被第二导光部28所包含的多个棱镜200反射。入射到第三导光部29的光以会聚于第三定点A3的方式被第三导光部29所包含的多个棱镜200反射,。
这样,来自光源3的光被多个导光部反射,由此在与多个导光部分别对应的多个定点会聚。由此,形成从多个定点发出光那样的光的波面。通过在这些多个定点会聚的光的集合,在空间上形成被用户识别的图像I1。
如图1所示,在第一实施方式中,图像I1是表示被操作员操作的输入部件的形状的立体图像。在本实施方式中,图像I1表示按钮式的开关的形状。图像I1包括台部I11和按钮部I12。台部I11表示向导光板2的射出面21侧突出的形状。按钮部I12配置在台部I11上,表示从台部I11突出的形状。
台部I11包括支承面I13。支承面I13相对于射出面21倾斜。按钮部I12包括按压面I14。按压面I14相对于射出面21倾斜。但是,支承面I13与按压面I14也可以与射出面21平行。或者,支承面I13与按压面I14也可以相对于射出面21垂直。另外,如后所述,图像I1不限于按钮式,也可以是其他方式的开关。或者,图像I1不限于开关,也可以是其他输入部件。
传感器4是非接触地检测物体的接近传感器。传感器4检测包含图像I1的成像位置的空间中的物体。图5是表示传感器4的结构及配置的侧视图。如图5所示,传感器4配置在导光板2的背面22侧。传感器4例如是光电传感器。传感器4包括投光元件41和受光元件42。投光元件41朝向导光板2的射出面21侧照射光。受光元件42接受来自被物体反射的投光元件41的光。传感器4将表示检测结果的信号输出到控制器5。此外,投光元件41和受光元件42也可以分开设置为相互独立的单元。
在本实施方式中,传感器4是限定反射传感器。限定反射传感器检测在规定的检测位置B1存在物体。规定的检测位置B1包含图像I1的成像位置。例如,规定的检测位置B1包含于图像I1的按钮部I12。详细而言,规定的检测位置B1包含于按钮部I12的按压面I14。因此,传感器4检测用户的手指位于按钮部I12的位置。由此,传感器4检测用户的手指对按钮部I12的输入动作。
另外,传感器4不限于限定反射传感器,也可以是TOF(time of flight:飞行时间)方式等其他光电传感器。或者,传感器4不限于光电传感器,也可以经由电波、磁场或者热等其他介质来检测物体。
信号输出装置6经由信号线61输出与来自控制器5的指令相应的信号。信号线61与外部的设备连接。信号输出装置6例如包括模拟输出电路。但是,信号输出装置6也可以包含数字输出电路。来自信号输出装置6的信号具有指令值。指令值例如是电压值。但是,指令值也可以是电流值。
控制器5包括CPU(Central Processing Unit:中央处理单元)等处理器51、RAM(Random Access Memory:随机存取存储器)以及ROM(Read Only Memory:只读存储器)等存储器52。存储器52存储由处理器51执行的计算机程序以及用于控制输入装置1的数据。控制器5控制光源3和信号输出装置6。控制器5从传感器4接收检测信号。
在本实施方式中,控制器5基于来自传感器4的输出,取得检测出物体的持续时间作为输入参数。控制器5基于输入参数来识别与物体的动作对应的输入模式。即,控制器5根据持续时间识别输入模式。
详细而言,控制器5根据持续时间是否为阈值以上来识别输入模式。输入模式包括通常按压操作和长按操作。控制器5在持续时间小于阈值时,识别为输入模式是通常按压操作。控制器5在持续时间为阈值以上时,识别为输入模式是长按操作。
控制器5输出与识别出的输入模式对应的信号。例如,控制器5在未检测到物体时,使来自信号输出装置6的信号断开。控制器5在输入模式为通常按压操作时,从信号输出装置6输出第一指令值的信号。控制器5在输入模式是长按操作时,从信号输出装置6输出第二指令值的信号。第一指令值为与通常按压操作对应的值。第二指令值是与长按操作对应的值,与第一指令值不同。另外,控制器5也可以输出随着持续时间的增大而连续地增加或减少的指令值的信号。
如图6所示,控制器5根据识别出的输入模式来变更图像I1。例如,在没有进行输入操作时,控制器5显示图6的(A)所示的第一图像I1a。第一图像I1a是与无操作对应的图像。在进行了通常按压操作时,控制器5显示图6的(B)所示的第二图像I1b。第二图像I1b是与通常按压操作对应的图像。在第二图像I1b中,与第一图像I1a相比,从台部I11开始的按钮部I12的突出量较小。在进行了长按操作时,控制器5显示图6的(C)所示的第三图像I1c。第三图像I1c是与长按操作对应的图像。在第三图像I1c中,与第二图像I1b相比,从台部I11开始的按钮部I12的突出量较小。
例如,输入装置1也可以具备与第一~第三图像I1a~I1c对应的多个光源。或者,输入装置1也可以具备与第一~第三图像I1a~I1c对应的多个光源和多个导光板。控制器5也可以通过选择性地点亮多个光源来切换第一~第三图像I1a~I1c的显示。
在以上说明的第一实施方式所涉及的输入装置1中,控制器5基于物体的检测的持续时间来识别与物体的动作相应的输入模式。因此,不限于接通/断开操作等单纯的输入动作,能够识别通常按压操作和长按操作。另外,传感器4只要是在包含图像I1的成像位置的空间中检测物体的传感器即可。因此,能够以低成本实现输入装置1。
控制器5根据持续时间改变图像I1。因此,根据用户的输入动作是通常按压操作和长按操作中的哪一个,图像I1会发生变化。因此,用户能够容易地掌握输入装置1将自身的输入动作识别为通常按压操作还是识别为长按操作。
接着,对第二实施方式的输入装置1进行说明。第二实施方式的输入装置1的结构与第一实施方式的输入装置1相同。在第二实施方式的输入装置1中,控制器5基于来自传感器4的输出,取得规定时间内的物体的检测次数作为输入参数。控制器5基于输入参数识别与物体的动作对应的输入模式,输出与识别出的输入模式对应的信号。
详细而言,控制器5获取用户在规定时间内对按钮的按压次数。规定时间例如是1秒以下的较短的时间。但是,规定时间也可以是1秒以上。输入模式包括单击和双击。控制器5根据规定时间内的按钮的按压次数来识别输入模式。在规定时间内的按钮的按压次数为1次时,控制器5识别为输入模式是单击。在规定时间内的按钮的按压次数为2次时,控制器5识别为输入模式是双击。另外,在规定时间内的按钮的按压次数为2次以上时,控制器5也可以识别为输入模式是双击。或者,在规定时间内的按钮的按压次数为3次以上时,控制器5也可以将输入模式识别为3次以上的点击数的输入动作。
控制器5输出与识别出的输入模式对应的信号。控制器5在未检测到物体时,将来自信号输出装置6的信号断开。控制器5在输入模式为单击时,从信号输出装置6输出第一指令值的信号。控制器5在输入模式为双击时,从信号输出装置6输出第二指令值的信号。第一指令值为与单击对应的值。第二指令值为与双击对应的值,与第一指令值不同。
控制器5根据输入模式变更图像I1。即,控制器5根据检测次数来变更图像I1。例如,在未进行输入操作时,控制器5显示图7的(A)所示的第一图像I2a。第一图像I2a是与无操作对应的图像。在输入模式为单击时,控制器5显示图7的(B)所示的第二图像I2b。第二图像I2b是与单击对应的图像。在输入模式为双击时,控制器5显示图7的(C)所示的第三图像I2c。第三图像I2c是与双击对应的图像。第一至第三图像I2a-I2c例如显示在按钮部I12上。但是,第一至第三图像I2a-I2c也可以显示于其他位置。
例如,输入装置1也可以具备与第一~第三图像I2a~I2c对应的多个光源。或者,输入装置1也可以具备与第一~第三图像I2a~I2c对应的多个光源和多个导光板。控制器5也可以通过选择性地点亮多个光源来切换第一~第三图像I2a~I2c的显示。
在以上说明的第二实施方式所涉及的输入装置1中,控制器5获取规定时间内的物体的检测次数。控制器5输出与检测次数对应的信号。因此,控制器5能够识别用户的单击和双击等输入动作。
控制器5根据检测次数来变更图像I1。因此,图像I1根据用户的输入动作的次数而变化。因此,用户能够容易地掌握输入装置1识别出了自身的输入动作。
接着,对第三实施方式的输入装置1进行说明。如图8所示,在第三实施方式所涉及的输入装置1中,传感器4在图像被成像的空间所包含的多个检测点检测物体。详细而言,传感器4在基准检测点B10、第一检测点B11、第二检测点B12、第三检测点B13、第四检测点B14检测物体。基准检测点B10位于由导光板2显示的图像内。第一检测点B11位于基准检测点B10的上方。第二检测点B12位于基准检测点B10的下方。第三检测点B13位于基准检测点B10的左方。第四检测点B14位于基准检测点B10的右方。另外,上下的方向也可以是对于用户而言的前后的方向。
如图9所示,传感器4例如包括多个接近传感器4a-4e。接近传感器4a-4e是与第一实施方式的传感器4相同的结构。多个接近传感器4a-4e与上述多个检测点B10-B14对应。详细而言,多个接近传感器4a-4e包括基准传感器4a、第一传感器4b、第二传感器4c、第三传感器4d以及第四传感器4e。基准传感器4a在基准检测点B10检测物体。第一传感器4b在第一检测点B11检测物体。第二传感器4c在第二检测点B12检测物体。第三传感器4d在第三检测点B13检测物体。第四传感器4e在第四检测点B14检测物体。
但是,在传感器4中,多个接近传感器也可以相对于多个检测点B0-B4不以1对1设置。例如,1个接近传感器也可以在2个以上的检测点检测物体。或者,如图10所示,传感器4也可以包括1个投光元件41a和与投光元件41a对应的多个受光元件42a、42b、42c。来自投光元件41a的光通过光耦合器43分支为多个出射光。多个出射光对应于多个检测点。例如,在图10中,多个出射光对应于基准检测点B10、第一检测点B11以及第二检测点B12。虽然省略了图示,但光耦合器43也可以使来自投光元件41的光进一步分支为与第三检测点B13和第四检测点B14对应的多个出射光。或者,传感器4还可以包括与第三检测点B13和第四检测点B14对应的投光元件和受光元件。
控制器5基于来自传感器4的输出,取得检测出物体的多个位置的轨迹作为输入参数。控制器5根据检测到物体的多个位置的轨迹来识别物体的移动方向。例如,如图8所示,输入参数包括上移动C11、下移动C12、右移动C13、左移动C14。上移动C11表示物体的移动方向为上方。下移动C12表示物体的移动方向为下方。右移动C13表示物体的移动方向为右方。左移动C14表示物体的移动方向为左方。
另外,在图8中,作为上移动C11,示出了从基准检测点B10向第一检测点B11的移动。作为下移动C12,示出了从基准检测点B10向第二检测点B12的移动。作为右移动C13,示出了从基准检测点B10向第三检测点B13的移动。作为左移动C14,示出了从基准检测点B10向第四检测点B14的移动。
但是,上移动C11也可以是从第二检测点B12向基准检测点B10或者第一检测点B11的移动。下移动C12也可以是从第一检测点B11向基准检测点B10或第二检测点B12的移动。右移动C13也可以是从第四检测点B14向基准检测点B10或者第三检测点B13的移动。左移动C14也可以是从第三检测点B13向基准检测点B10或第四检测点B14的移动。
控制器5输出与识别出的输入模式对应的信号。控制器5在未检测到物体时,将来自信号输出装置6的信号断开。控制器5在输入模式为上移动C11时,从信号输出装置6输出第一指令值的信号。控制器5在输入模式为下移动C12时,从信号输出装置6输出第二指令值的信号。在输入模式为右移动C13时,从信号输出装置6输出第三指令值的信号。在输入模式为左移动C14时,从信号输出装置6输出第四指令值的信号。
第一指令值为与上移动C11对应的值。第二指令值为与下移动C12对应的值。第三指令值为与右移动C13对应的值。第四指令值为与左移动C14对应的值。第一至第四指令值互不相同。另外,控制器5也可以输出随着向上下左右的各方向的移动距离的增大而连续地增加或减少的指令值的信号。
控制器5根据输入模式使图像移动。即,控制器5使图像向与物体的移动方向对应的方向移动。例如,如图11及图12所示,由导光板2显示的图像是表示由操作员操作的杆状的输入部件的立体图像。如图11所示,控制器5根据输入模式将图像从第一图像I3a切换为第二图像I3b或第三图像I3c。在没有进行输入操作时,控制器5显示图11的(A)所示的第一图像I3a。第一图像I3a是与无操作对应的图像。第一图像I3a表示空挡位置处的输入构件。当输入模式为上移动C11时,控制器5显示图11的(B)所示的第二图像I3b。第二图像I3b是与上移动C11对应的图像。在第二图像I3b中,输入部件位于比第一图像I3a靠上方的位置。当输入模式为下移动C12时,控制器5显示图11的(C)所示的第三图像I3c。第三图像I3c是与下移动C12对应的图像。在第三图像I3c中,输入部件位于比第一图像I3a靠下方的位置。
如图12所示,控制器5根据输入模式将图像从第一图像I3a切换为第四图像I3d或第五图像I3e。当输入模式为右移动C13时,控制器5显示图12的(B)所示的第四图像I3d。第四图像I3d是与右移动C13对应的图像。在第四图像I3d中,输入部件位于比第一图像I3a靠右方的位置。当输入模式为左移动C14时,控制器5显示图12的(C)所示的第五图像I3e。第五图像I3e是与左移动C14对应的图像。在第五图像I3e中,输入部件位于比第一图像I3a靠左方的位置。
例如,输入装置1也可以具备与第一~第五图像I3a~I3e对应的多个光源。或者,输入装置1也可以具备与第一~第五图像I3a~I3e对应的多个光源和多个导光板。控制器5也可以通过选择性地点亮多个光源来切换第一~第五图像I3a~I3e的显示。
在以上说明的第三实施方式的输入装置1中,控制器5能够识别与用户的输入动作的方向对应的输入模式。例如,控制器5能够识别与用户的手指的移动方向对应的输入模式。
控制器5使图像向与物体的移动方向对应的方向移动。因此,图像根据用户的输入动作的方向而变化。因此,用户能够容易地掌握输入装置1识别出了自身的输入动作。
另外,被控制器5识别的物体的移动方向也可以仅为上下。被控制器5识别的物体的移动方向也可以仅是左右。被控制器5识别的物体的移动方向不限于上下左右的4个方向,也可以是包含上下左右的8个方向以上。或者,被控制器5识别的物体的移动方向不限于上下左右,也可以是其他方向。例如,如图13及图14所示,控制器5也可以将顺时针及逆时针等旋转方向识别为移动方向。控制器5也可以识别旋转角度。控制器5也可以输出具有与旋转方向和/或旋转角度对应的指令值的信号。
由导光板2显示的图像不限于杆状的形状,也可以是其他的形状。例如,如图13或图14所示,导光板2也可以显示旋钮(knob)状的图像I4、I5。或者,如图15所示,导光板2也可以显示拨动开关状的图像I6。
以上,对本发明的一实施方式进行了说明,但本发明并不限定于上述实施方式,在不脱离发明的主旨的范围内能够进行各种变更。
由导光板2显示的图像不限于上述实施方式,也可以变更。或者,导光板2也可以将上述的实施方式的图像组合显示。控制器5也可以根据输入模式来变更图像的颜色或亮度。输入装置1也可以具备扬声器或蜂鸣器等声音输出装置。控制器5也可以根据输入模式来变更音色、音阶、声音、旋律等。控制器5也可以根据输入模式来变更图像、颜色、明亮度、声音等任意的组合。
如图16所示,输入装置1也可以具备用于将信号向输入装置1的外部输出的多个信号线61、62。控制器5也可以根据输入模式从多个信号线61、62选择性地输出信号。例如,多个信号线61、62包含第一信号线61和第二信号线62。控制器5也可以在输入模式为通常按压操作时,从第一信号线61输出信号。控制器5也可以在输入模式是长按操作时,从第二信号线62输出信号。或者,控制器5也可以在输入模式为单击时,从第一信号线61输出信号。控制器5也可以在输入模式为双击时,从第二信号线62输出信号。
或者,控制器5也可以在输入模式为上移动C11时,从第一信号线61输出信号。控制器5也可以在输入模式为下移动C12时,从第二信号线62输出信号。或者,控制器5也可以在输入模式为右移动C13时,从第一信号线61输出信号。控制器5也可以在输入模式为左移动C14时,从第二信号线62输出信号。或者,输入装置1也可以具备4个以上的多个信号线。控制器5也可以根据上移动C11、下移动C12、右移动C13、左移动C14的各输入模式,从多个信号线选择性地输出信号。
导光板2可以与表示输入部件的图像一起显示表示输入部件的操作方向、操作方法或者通过操作选择的模式的图像。例如,如图17所示,导光板2也可以与表示输入部件的图像I3一起显示表示输入部件的操作方向的图像I7。在图17所示的例子中,图像I7表示与上移动、下移动、右移动、左移动相当的箭头。或者,如图18的(A)以及图18的(B)所示,导光板2也可以与表示输入部件的图像I1一起显示表示通过操作选择的模式的图像I8a、I8b。例如,图像I8a表示通过单击来选择的模式(模式A)。图像I8b表示通过双击来选择的模式(模式B)。
上述的输入装置1例如能够应用于温水清洗马桶座、洗脸化妆台、水龙头、抽油烟机、洗衣机、冰箱、微波炉、IH烹调加热器、电解水生成装置、电梯、对讲机、照明、门的开闭装置、电视机、立体声音响系统、空调、洗衣机、发号机或者售票机等设备。
通过在这些设备中应用上述的输入装置1,能够得到如下一些优点:由于在输入装置1上没有凹凸,所以容易清扫,能够仅在需要时显示立体图像,因此设计性提高;由于能够不与输入装置1接触而进行操作,因此更加卫生;由于没有可动部件而难以损坏等优点。或者,上述的输入装置1例如能够应用于ATM(automated teller machine)、或信用卡的读取机等设备。通过将上述的输入装置1应用于这些设备,从而在输入装置1中不残留手垢、指纹或体温等输入的痕迹。由此,能够提高安全性。
产业上的可利用性
根据本发明,能够提供一种能够应对复杂的输入动作的输入装置。
符号说明:
3:光源;
2:导光板;
4:传感器;
5:控制器;
61:信号线。

Claims (15)

1.一种输入装置,其特征在于,具备:
光源;
导光板,其引导来自所述光源的光并使图像在空间成像;
传感器,其检测包含所述图像的成像位置的空间中的物体;以及,
控制器,其基于来自所述传感器的输出,取得检测出所述物体的多个位置的轨迹、检测出所述物体的持续时间、以及所述物体的检测次数中的至少1个作为输入参数,基于所述输入参数识别与所述物体的动作对应的输入模式,并输出与识别出的所述输入模式对应的信号。
2.根据权利要求1所述的输入装置,其特征在于,
所述控制器根据识别出的所述输入模式来变更所述图像。
3.根据权利要求1或2所述的输入装置,其特征在于,
所述控制器获取检测到所述物体的多个位置的轨迹作为所述输入参数,
所述控制器根据检测到所述物体的多个位置的轨迹来识别所述物体的移动方向,
所述输入模式包含所述物体的移动方向。
4.根据权利要求3所述的输入装置,其特征在于,
所述传感器至少在所述图像内的基准检测点、位于所述基准检测点的上方的第一检测点、位于所述基准检测点的下方的第二检测点检测物体。
5.根据权利要求3或4所述的输入装置,其特征在于,
所述传感器至少在所述图像内的基准检测点、位于所述基准检测点的左方的第三检测点、位于所述基准检测点的右方的第四检测点检测物体。
6.根据权利要求3至5中任一项所述的输入装置,其特征在于,
所述控制器使所述图像向与所述物体的移动方向对应的方向移动。
7.根据权利要求1至6中任一项所述的输入装置,其特征在于,
所述控制器获取检测到所述物体的持续时间作为所述输入参数,
所述控制器识别与所述持续时间对应的输入模式,
所述控制器输出与所述持续时间对应的信号。
8.根据权利要求7所述的输入装置,其特征在于,
所述控制器根据所述持续时间来变更所述图像。
9.根据权利要求7或8所述的输入装置,其特征在于,
所述控制器根据所述持续时间来识别通常按压操作和长按操作。
10.根据权利要求1至9中任一项所述的输入装置,其特征在于,
所述控制器获取预定时间内的所述物体的检测次数,
所述控制器输出与所述检测次数相应的信号。
11.根据权利要求10所述的输入装置,其特征在于,
所述控制器根据所述检测次数来变更所述图像。
12.根据权利要求10或11所述的输入装置,其特征在于,
所述控制器根据所述检测次数识别单击和双击。
13.根据权利要求1至12中任一项所述的输入装置,其特征在于,
所述传感器包括光电传感器。
14.根据权利要求1至13中任一项所述的输入装置,其特征在于,
所述控制器根据所述输入模式输出多个指令值的信号。
15.根据权利要求1至14中任一项所述的输入装置,其特征在于,
还包括用于将所述信号输出到所述输入装置外部的多个信号线,
所述控制器根据所述输入模式从所述多个信号线选择性地输出所述信号。
CN201980064789.8A 2018-10-11 2019-09-18 输入装置 Pending CN112805800A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018192777 2018-10-11
JP2018-192777 2018-10-11
PCT/JP2019/036502 WO2020075456A1 (ja) 2018-10-11 2019-09-18 入力装置

Publications (1)

Publication Number Publication Date
CN112805800A true CN112805800A (zh) 2021-05-14

Family

ID=70164317

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980064789.8A Pending CN112805800A (zh) 2018-10-11 2019-09-18 输入装置

Country Status (5)

Country Link
US (1) US20210342030A1 (zh)
JP (1) JP7484123B2 (zh)
CN (1) CN112805800A (zh)
DE (1) DE112019005069T5 (zh)
WO (1) WO2020075456A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210121784A1 (en) * 2019-10-23 2021-04-29 Sony Interactive Entertainment Inc. Like button
US20240155084A1 (en) * 2021-03-31 2024-05-09 Aiphone Co., Ltd. Intercom device and control system
JP2022177400A (ja) 2021-05-18 2022-12-01 アルプスアルパイン株式会社 入力装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102141877A (zh) * 2010-01-29 2011-08-03 株式会社泛泰 使用全息图的用户界面和用于该用户界面的方法
US20150169096A1 (en) * 2013-12-16 2015-06-18 Seiko Epson Corporation Information processing apparatus and control method of information processing apparatus
JP2016184895A (ja) * 2015-03-26 2016-10-20 京セラドキュメントソリューションズ株式会社 可視像形成装置及び画像形成装置
JP2017027401A (ja) * 2015-07-23 2017-02-02 株式会社デンソー 表示操作装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7774075B2 (en) * 2002-11-06 2010-08-10 Lin Julius J Y Audio-visual three-dimensional input/output
US20090193361A1 (en) * 2008-01-30 2009-07-30 Research In Motion Limited Electronic device and method of controlling same
KR101777121B1 (ko) * 2010-07-28 2017-09-12 엘지디스플레이 주식회사 입체 영상 표시 장치
JP2013058037A (ja) * 2011-09-07 2013-03-28 Konami Digital Entertainment Co Ltd 項目選択装置、項目選択方法、ならびに、プログラム
EP2631760A1 (en) * 2012-02-24 2013-08-28 Research In Motion Limited Method and apparatus for providing a user interface on a device enabling selection of operations to be performed in relation to content
JP6558166B2 (ja) * 2015-01-13 2019-08-14 オムロン株式会社 光デバイス及び操作入力装置
JP2018097388A (ja) * 2015-04-21 2018-06-21 株式会社村田製作所 ユーザインタフェース装置及びユーザインタフェースシステム
US10275098B1 (en) * 2015-07-12 2019-04-30 sigmund lindsay clements Laser mid-air hologram touch input buttons for a device
TW201732373A (zh) * 2016-02-24 2017-09-16 Omron Tateisi Electronics Co 顯示裝置
WO2018003862A1 (ja) * 2016-06-28 2018-01-04 株式会社ニコン 制御装置、表示装置、プログラムおよび検出方法
DK201670728A1 (en) * 2016-09-06 2018-03-19 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Feedback During Interaction with an Intensity-Sensitive Button
US10547776B2 (en) * 2016-09-23 2020-01-28 Apple Inc. Devices, methods, and graphical user interfaces for capturing and recording media in multiple modes
JP6669106B2 (ja) * 2017-03-14 2020-03-18 オムロン株式会社 光デバイスおよび表示装置
DK201870347A1 (en) * 2018-01-24 2019-10-08 Apple Inc. Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models
US10908783B2 (en) * 2018-11-06 2021-02-02 Apple Inc. Devices, methods, and graphical user interfaces for interacting with user interface objects and providing feedback

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102141877A (zh) * 2010-01-29 2011-08-03 株式会社泛泰 使用全息图的用户界面和用于该用户界面的方法
US20150169096A1 (en) * 2013-12-16 2015-06-18 Seiko Epson Corporation Information processing apparatus and control method of information processing apparatus
JP2016184895A (ja) * 2015-03-26 2016-10-20 京セラドキュメントソリューションズ株式会社 可視像形成装置及び画像形成装置
JP2017027401A (ja) * 2015-07-23 2017-02-02 株式会社デンソー 表示操作装置

Also Published As

Publication number Publication date
JP7484123B2 (ja) 2024-05-16
WO2020075456A1 (ja) 2020-04-16
JP2020064631A (ja) 2020-04-23
DE112019005069T5 (de) 2021-08-19
US20210342030A1 (en) 2021-11-04

Similar Documents

Publication Publication Date Title
CN112805800A (zh) 输入装置
KR101091515B1 (ko) 차량의 원격 터치 패드 장치 및 그 제어 방법
CA2644838C (en) Household appliance with fingerprint sensor
US8847924B2 (en) Reflecting light
US8031186B2 (en) Optical touchpad system and waveguide for use therein
US7525063B2 (en) Method for the optical marking of a touch contact switch and touch contact switch
CA2530987A1 (en) Holographic human-machine interfaces
US20060055672A1 (en) Input control for apparatuses
JP7572145B2 (ja) 入力装置
US20180348960A1 (en) Input device
CN112544003B (zh) 多功能显示器
CN108886362B (zh) 操作装置、特别是用于电子家用设备的操作装置
CN103744542A (zh) 混合式指向装置
WO2020012690A1 (ja) 入力装置
US20070046640A1 (en) Optical generic switch panel
JP2020067668A (ja) 入力システム
JPS61501422A (ja) キ−ボ−ド装置
KR20170000103A (ko) 지문 인식 장치
US20110254761A1 (en) Optical navigation devices
CN112534582B (zh) 多功能显示器
JP5753196B2 (ja) 制御装置およびこれを備える電子装置
JP2001291458A (ja) 光学式タッチスイッチ装置
CN106716841B (zh) 用于电子的家用设备的操作装置
CN109324683A (zh) 触摸感测装置
TWI853527B (zh) 非接觸按鈕

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination