CN111796694A - 输入装置 - Google Patents

输入装置 Download PDF

Info

Publication number
CN111796694A
CN111796694A CN202010118480.7A CN202010118480A CN111796694A CN 111796694 A CN111796694 A CN 111796694A CN 202010118480 A CN202010118480 A CN 202010118480A CN 111796694 A CN111796694 A CN 111796694A
Authority
CN
China
Prior art keywords
sensing layer
input device
detection
unit
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010118480.7A
Other languages
English (en)
Inventor
村山学
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
Original Assignee
Funai Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd filed Critical Funai Electric Co Ltd
Publication of CN111796694A publication Critical patent/CN111796694A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明提供一种输入装置,能够高精度地判定有无对操作画面的特定非接触操作。输入装置(2)包括:显示控制部(40),使操作画面(10)显示在显示面(12)上;第一检测部(6),检测与显示面(12)相向地形成的空中的第一感知层(16)的物体(18)的通过状态;第二检测部(8),检测形成于显示面(12)与第一感知层(16)之间的空中的第二感知层(24)的物体(18)的通过状态;以及判定部(36),基于第一检测部(6)及第二检测部(8)各自的检测结果而判定有无物体(18)的特定非接触操作。

Description

输入装置
技术领域
本发明涉及一种用于受理物体对操作画面的特定的非接触操作的输入装置。
背景技术
在卫生管理严格的食品加工领域及医疗领域等,使用用户的手指直接接触的触摸屏显示器(touch panel display)的情况下,所述触摸屏显示器可能成为病原体的感染源,因而欠佳。因此,所述各领域中,提出了使用下述输入装置,此输入装置用于受理用户的手指对操作画面的特定的非接触操作(例如参照专利文献1)。
现有的输入装置通过使表示操作画面的空中像(实像)在空中的显示区域成像,并检测与所述空中像相向的检测区域的、用户的手指的动作,从而判定为进行了对操作画面的特定的非接触操作。
[现有技术文献]
[专利文献]
[专利文献1]日本专利特开2014-67071号公报
发明内容
发明所要解决的问题
但是,所述现有的输入装置中,例如当用户的身体的一部分等意外地通过检测区域时,可能误判定为进行了对操作画面的特定的非接触操作。
本发明是为了解决所述问题而成,其目的在于提供一种能够高精度地判定有无对操作画面的特定的非接触操作的输入装置。
解决问题的技术手段
为了达成所述目的,本发明一方式的输入装置用于受理物体对操作画面的特定非接触操作,且包括:显示控制部,使所述操作画面显示在显示面上;第一检测部,检测与所述显示面相向地形成的空中的第一感知层的所述物体的通过状态;第二检测部,检测形成于所述显示面与所述第一感知层之间的空中的第二感知层的所述物体的通过状态;以及判定部,基于所述第一检测部及所述第二检测部各自的检测结果而判定有无所述物体的所述特定非接触操作。
根据本形态,在用户特意进行了对操作画面的特定非接触操作时,与用户的身体的一部分等意外地通过各个第一感知层及第二感知层时,第一感知层及第二感知层各自的物体的通过状态不同。因此,判定部通过基于第一感知层及第二感知层各自的物体的通过状态来判定有无物体的特定非接触操作,从而能够高精度地判定有无对操作画面的特定非接触操作。其结果为,能够避免以输入装置作为用户接口的设备的误操作等。
例如,本发明一方式的输入装置中也可构成为:所述第一检测部检测所述第一感知层的所述物体的通过部位的个数,所述第二检测部检测所述第二感知层的所述物体的通过部位的个数。
根据本形态,判定部能够基于第一感知层及第二感知层各自的物体的通过部位的个数而判定有无物体的特定非接触操作。
例如,本发明一方式的输入装置中也可构成为:所述特定的非接触操作是所述物体对所述操作画面上的规定显示的非接触的单点触摸手势(single touch gesture),所述判定部在所述物体通过所述第一感知层的一处且通过所述第二感知层的一处时,判定为进行了所述单点触摸手势。
根据本形态,判定部能够基于第一感知层及第二感知层各自的物体的通过部位的个数而判定为进行了单点触摸手势。
例如,本发明一方式的输入装置中也可构成为:所述特定非接触操作是所述物体对所述操作画面的非接触的多点触摸手势(multi-touch gesture),所述判定部在所述物体通过所述第一感知层的两处且通过所述第二感知层的两处时,判定为进行了所述多点触摸手势。
根据本形态,判定部能够基于第一感知层及第二感知层各自的物体的通过部位的个数而判定为进行了多点触摸手势。
例如,本发明一方式的输入装置中也可构成为:所述判定部在所述物体通过所述第一感知层的三处以上且通过所述第二感知层的一处以上时,判定为未进行所述特定非接触操作。
根据本形态,判定部能够基于第一感知层及第二感知层各自的物体的通过部位的个数而判定为未进行特定非接触操作。
例如,本发明一方式的输入装置中也可构成为:所述显示控制部在所述物体通过所述第一感知层时,使光标(cursor)显示在所述操作画面上。
根据本形态,显示控制部在物体通过第一感知层时,使光标显示在操作画面上,因此能够让用户容易地辨识物体通过第一感知层。
例如,本发明一方式的输入装置中也可构成为:所述第一检测部检测所述第一感知层的所述物体的大小,所述第二检测部检测所述第二感知层的所述物体的有无,所述判定部在所述第一感知层的所述物体的大小为阈值以下,且在所述第二感知层检测到所述物体时,判定为进行了所述特定非接触操作,且在所述第一感知层的所述物体的大小超过所述阈值,且在所述第二感知层中检测到所述物体时,判定为未进行所述特定非接触操作。
根据本形态,判定部能够基于第一感知层的物体的大小及第二感知层中的物体的有无而判定有无物体的特定非接触操作。
例如,本发明一方式的输入装置中也可构成为:所述输入装置还包括一个或多个第三检测部,此一个或多个第三检测部检测形成于所述显示面与所述第二感知层之间的空中的一个或多个第三感知层的所述物体的通过状态,所述判定部基于所述第一检测部、所述第二检测部及所述一个或多个第三检测部各自的检测结果,而判定有无所述物体的所述特定非接触操作。
根据本形态,判定部能够更高精度地判定有无对操作画面的特定的非接触操作。
此外,本发明也能够以用于使计算机作为输入装置所含的特征性的处理部发挥功能的程序、或使计算机执行空中像显示方法所含的特征性的步骤的程序的形式而实现。另外,当然能够使这种程序经由只读光盘(Compact Disc-Read Only Memory,CD-ROM)等计算机可读取的非暂时性记录介质或国际互联网(Internet)等通信网络而流通。
发明的效果
根据本发明一方式的输入装置,能够高精度地判定有无对操作画面的特定的非接触操作。
附图说明
图1为表示实施方式1的输入装置的平面图。
图2为表示实施方式1的输入装置的侧面图。
图3为表示实施方式1的输入装置的构成的框图。
图4为表示实施方式1的输入装置的运行流程的流程图。
图5A的(a)及图5A的(b)为用于对实施方式1的输入装置中物体通过第一感知层的一处的状态进行说明的图。
图5B的(a)及图5B的(b)为用于对实施方式1的输入装置中物体通过第二感知层的一处的状态进行说明的图。
图6的(a)及图6的(b)为用于对实施方式1的输入装置中物体分别通过第一感知层及第二感知层的各两处的状态进行说明的图。
图7的(a)及图7的(b)为用于对实施方式1的输入装置中物体分别通过第一感知层及第二感知层的各三处的状态进行说明的图。
图8为表示实施方式2的输入装置的平面图。
图9为表示实施方式2的输入装置的构成的框图。
图10为表示实施方式2的输入装置的运行流程的流程图。
符号的说明
2、2A:输入装置
4:显示部
6、6A:第一检测部
8、8A:第二检测部
10:操作画面
12:显示面
14:图标
16、16A:第一感知层
18:物体
20、44:第一发光部
22、46:第一光接收部
24、24A:第二感知层
26、48:第二发光部
28、50:第二光接收部
30:运算处理部
32:检测处理部
34:测距运算部
36:判定部
38:动作处理部
40:显示控制部
42:光标
52a:第一边
52b:第二边
52c:第三边
52d:第四边
具体实施方式
以下,使用附图对本发明的实施方式进行详细说明。此外,以下说明的实施方式均为总括例或具体例。以下的实施方式所示的数值、形状、材料、构成元件、构成元件的配置位置及连接形态等为一例,并非旨在限定本发明。另外,关于以下的实施方式的构成元件中未记载于独立权项的构成元件,是作为任意的构成元件而进行说明。
(实施方式1)
[1-1.输入装置的构成]
首先,一方面参照图1~图3,一方面对实施方式1的输入装置2的构成进行说明。图1为表示实施方式1的输入装置2的平面图。图2为表示实施方式1的输入装置2的侧面图。图3为表示实施方式1的输入装置2的构成的框图。
如图1及图2所示,输入装置2包括显示部4、第一检测部6及第二检测部8。输入装置2例如作为用于由物体18(例如用户的手指)以非接触方式操作食品加工领域或医疗领域等中所用的设备(未图示)的用户接口(user interface)而应用。
显示部4例如为液晶显示屏。显示部4具有用于显示操作画面10的显示面12。操作画面10例如为用于操作设备的菜单画面等。图1所示的示例中,在操作画面10上显示着表示设备的操作菜单等的图标14(规定显示的一例)。
第一检测部6检测与显示部4的显示面12相向地形成的空中的第一感知层16的物体18的通过状态。具体而言,第一检测部6检测第一感知层16的物体18的通过部位个各数。
此外,第一感知层16为形成于与显示部4的显示面12大致平行的空中的位置的、假想的平面(XY平面)。另外,所谓第一感知层16的物体18的通过部位,是指第一感知层16的物体18的截面区域。例如,当用户的一根手指通过第一感知层16时,第一感知层16的物体18的通过部位成为一处。另外例如,当用户的两根手指通过第一感知层16时,第一感知层16的物体18的通过部位成为两处。
第一检测部6例如包含扫描传感器,如图1所示,与显示部4的角部相向地配置。如图2所示,第一检测部6具有第一发光部20及第一光接收部22。第一发光部20在第一感知层16中二维地扫描红外线激光。第一光接收部22接收并检测经通过第一感知层16的物体18反射的光。
第二检测部8检测形成于显示部4的显示面12与第一感知层16之间的空中的第二感知层24的物体18的通过状态。具体而言,第二检测部8检测第二感知层24的物体18的通过部位的个数。如图2所示,第二感知层24与显示部4的显示面12之间的距离D为物体18通过第二感知层24时不直接接触显示部4的显示面12的程度的大小(例如1cm~几厘米(cm)左右)。
此外,第二感知层24为形成于与显示部4的显示面12大致平行的空中的位置的、假想的平面(XY平面)。另外,所谓第二感知层24的物体18的通过部位,是指第二感知层24的物体18的截面区域。例如,当用户的一根手指通过第二感知层24时,第二感知层24的物体18的通过部位成为一处。另外例如,当用户的两根手指通过第二感知层24时,第二感知层24的物体18的通过部位成为两处。
第二检测部8例如包含扫描传感器,如图1所示,与显示部4的角部相向地配置。如图2所示,第二检测部8具有第二发光部26及第二光接收部28。第二发光部26在第二感知层24中二维地扫描红外线激光。第二光接收部28接收并检测经通过第二感知层24的物体18反射的光。
如图3所示,输入装置2还包括运算处理部30。运算处理部30具有检测处理部32、测距运算部34、判定部36、运行处理部38及显示控制部40。
检测处理部32基于来自第一检测部6的检测信号而算出第一感知层16的物体18的通过部位的个数。另外,检测处理部32基于来自第二检测部8的检测信号而算出第二感知层24的物体18的通过部位的个数。
测距运算部34基于来自第一检测部6的检测信号而算出第一感知层16的物体18的位置(二维坐标)。另外,测距运算部34基于来自第二检测部8的检测信号而算出第二感知层24的物体18的位置(二维坐标)。
判定部36基于检测处理部32及测距运算部34的各算出结果而判定有无物体18对操作画面10的特定的非接触操作。此外,特定的非接触操作例如为用户的手指对操作画面10的非接触的单点触摸手势及多点触摸手势等。所谓单点触摸手势,为用户的一根手指(例如食指)的手势,例如为敲击(tap)等手势。所谓多点触摸手势,为用户的两根手指(例如食指及大拇指)的手势,例如为缩小(pinch in)、放大(pinch out)及旋转等手势。关于判定部36进行的判定处理,将在下文中详述。
运行处理部38基于测距运算部34的算出结果及判定部36的判定结果而执行与特定的非接触操作对应的处理。例如,当用户对操作画面10上的图标14以非接触方式进行了单点触摸手势时,运行处理部38执行选择图标14的处理等。另外例如,当用户对操作画面10以非接触方式进行多点触摸手势时,运行处理部38进行将操作画面10的显示倍率放大或缩小的处理等。
显示控制部40控制显示部4的显示面12的显示内容。具体而言,显示控制部40执行使操作画面10显示于显示部4的显示面12的处理。另外,显示控制部40基于检测处理部32及测距运算部34的各算出结果,在物体18通过第一感知层16时,执行使光标42(参照后述的图5A的(b))显示于操作画面10上的处理。此时,光标42显示与第一感知层16的物体18的位置对应的操作画面10上的位置。
[1-2.输入装置的运行]
接下来,一方面参照图4~图7,一方面对实施方式1的输入装置2的运行进行说明。图4为表示实施方式1的输入装置2的运行流程的流程图。图5A的(a)及图5A的(b)为用于对实施方式1的输入装置2中物体18通过第一感知层16的一处的状态进行说明的图。图5B的(a)及图5B的(b)为用于对实施方式1的输入装置2中物体18通过第二感知层24的一处的状态进行说明的图。图6的(a)及图6的(b)为用于对实施方式1的输入装置2中物体18分别通过第一感知层16及第二感知层24的各两处的状态进行说明的图。图7的(a)及图6的(b)为用于对实施方式1的输入装置2中物体18分别通过第一感知层16及第二感知层24的各三处的状态进行说明的图。
首先,一方面参照图4~图5B的(b),一方面对用户进行单点触摸手势时的输入装置2的运行进行说明。
如图4及图5A的(a)所示,当用户的一根手指通过第一感知层16时,第一检测部6检测第一感知层16的物体18(一根手指)的通过部位的个数(S101)。检测处理部32基于来自第一检测部6的检测信号而算出第一感知层16的物体18的通过部位的个数为“一处”(S102中为“一处”)。
如图5A的(b)所示,显示控制部40基于检测处理部32及测距运算部34的各算出结果,在物体18通过第一感知层16时,使光标42显示在操作画面10上(S103)。此状态下,用户使一根手指沿着第一感知层16(也就是在XY平面内)活动,由此光标42追随用户的手指的活动而在操作画面10上移动。此外,也可在使光标42显示在操作画面10上的同时,从显示部4的扬声器(未图示)输出声音。
然后,当如图5B的(a)所示,用户使一根手指通过第二感知层24时,第二检测部8检测第二感知层24的物体18(一根手指)的通过部位的个数(S104)。检测处理部32基于来自第二检测部8的检测信号而算出第二感知层24的物体18的通过部位的个数为“一处”。此外,当用户的一根手指通过第一感知层16时,第二感知层24的物体18的通过部位必定成为一处。判定部36在如图5B的(b)所示那样,在光标42重叠于图标14的状态下,物体18通过第二感知层24的一处时,判定为进行了单点触摸手势(S105)。
此外,在进行了单点触摸手势时,也可使与图标14不同的专用的按钮或图标等显示在操作画面10上。
接下来,一方面参照图4以及图6的(a)及图6的(b),一方面对用户进行多点触摸手势时的输入装置2的运行进行说明。
如图4及图6的(a)所示,当用户的两根手指(例如食指及大拇指)通过第一感知层16时,第一检测部6检测第一感知层16的物体18(两根手指)的通过部位的个数(S101)。检测处理部32基于来自第一检测部6的检测信号而算出第一感知层16的物体18的通过部位的个数为“两处”(S102中为“两处”)。
显示控制部40基于检测处理部32及测距运算部34的各算出结果,在物体18通过第一感知层16时,使光标42(参照图5A的(b))显示在操作画面10上(S106)。
然后,当用户使手指通过第二感知层24时,第二检测部8检测第二感知层24的物体18(手指)的通过部位的个数(S107)。此外,当用户的两根手指通过第一感知层16时,第二感知层24的物体18的通过部位成为两处或一处。
当如图6的(b)所示,用户的两根手指通过第二感知层24时,检测处理部32基于来自第二检测部8的检测信号而算出第二感知层24的物体18的通过部位的个数为“两处”(S108中为“两处”)。判定部36在物体18通过第二感知层24的两处时,判定为进行了多点触摸手势(S109)。
另一方面,当用户的一根手指通过第二感知层24时,检测处理部32基于来自第二检测部8的检测信号而算出第二感知层24的物体18的通过部位的个数为“一处”(S108中为“一处”)。判定部36在物体18通过第二感知层24的一处后经过规定的待机时间后,判定为进行了单点触摸手势(S105)。
接下来,一方面图4以及图7的(a)及图7的(b),一方面对用户的三根手指意外地通过第一感知层16及第二感知层24各自时的输入装置2的运行进行说明。
如图4及图7的(a)所示,当用户的三根手指(例如食指、中指及无名指)通过第一感知层16时,第一检测部6检测第一感知层16的物体18(三根手指)的通过部位的个数(S101)。检测处理部32基于来自第一检测部6的检测信号而算出第一感知层16的物体18的通过部位的个数为“三处”(S102中为“三处”)。
显示控制部40基于检测处理部32及测距运算部34的各算出结果,在物体18通过第一感知层16时,使光标42(参照图5A的(b))显示在操作画面10上(S110)。
然后,当用户的手指通过第二感知层24时,第二检测部8检测第二感知层24的物体18(手指)的通过部位的个数(S111)。此外,当用户的三根手指通过第一感知层16时,第二感知层24的物体18的通过部位成为三处以下。
当如图7的(b)所示,用户的三根手指通过第二感知层24时,检测处理部32基于来自第二检测部8的检测信号而算出第二感知层24的物体18的通过部位的个数为“三处”。判定部36在物体18通过第二感知层24的三处时,判定为单点触摸手势及多点触摸手势均未进行(S112)。此时,判定部36在物体18通过第二感知层24的两处或一处时,也同样地判定为单点触摸手势及多点触摸手势均未进行。
此外,当物体18通过第一感知层16的四处以上时,与上文所述同样地从步骤S102进入S110而执行S110~S112的各处理,判定为单点触摸手势及多点触摸手势均未进行。
[1-3.效果]
如上文所述,判定部36基于第一感知层16及第二感知层24各自的物体18的通过部位的个数而判定有无物体18的特定的非接触操作。
例如,当用户特意进行了对操作画面10的特定的非接触操作时,可认为第一感知层16的物体18的通过部位的个数成为一处或两处。因此,此时判定部36判定为进行了对操作画面10的特定的非接触操作。
另一方面,例如当用户的身体的一部分等意外地通过第一感知层16时,可认为第一感知层16的物体18的通过部位的个数成为三处以上。因此,此时判定部36判定为未进行对操作画面10的特定的非接触操作。
因此,实施方式1的输入装置2能够高精度地判定有无对操作画面10的特定的非接触操作,而能够避免以输入装置2作为用户接口的设备的误操作等。
(实施方式2)
[2-1.输入装置的构成]
接下来,一方面参照图8及图9,一方面对实施方式2的输入装置2A的构成进行说明。图8为表示实施方式2的输入装置2A的平面图。图9为表示实施方式2的输入装置2A的构成的框图。此外,本实施方式中,对与所述实施方式1相同的构成元件标注相同符号,省略其说明。
如图8所示,实施方式2的输入装置2A中,第一检测部6A及第二检测部8A的各构成与所述实施方式1不同。
具体而言,第一检测部6A包含光学阵列传感器,具有多个第一发光部44、多个第一光接收部46、多个第二发光部48及多个第二光接收部50。
多个第一发光部44沿着显示部4的第一边52a空开间隔而配置。多个第一光接收部46沿着与显示部4的第一边52a相向的第二边52b空开间隔而配置。即,多个第一发光部44分别与多个第一光接收部46对应地配置。多个第一发光部44分别向多个第一光接收部46以直线状照射红外线(图8中以一点划线表示)。多个第一光接收部46分别接收来自多个第一发光部44的红外线。
多个第二发光部48沿着显示部4的第三边52c空开间隔而配置。多个第二光接收部50沿着与显示部4的第三边52c相向的第四边52d空开间隔而配置。即,多个第二发光部48分别与多个第二光接收部50对应地配置。多个第二发光部48分别向多个第二光接收部50以直线状照射红外线(图8中以一点划线表示)。多个第二光接收部50分别接收来自多个第二发光部48的红外线。
在由多个第一发光部44、多个第一光接收部46、多个第二发光部48及多个第二光接收部50包围的区域,形成有第一感知层16A。当物体18(参照图2)通过第一感知层16A的规定位置时,来自与所述规定位置对应的第一发光部44及第二发光部48的光分别由物体18阻断,因此未由与所述规定位置对应的第一光接收部46及第二光接收部50接收。由此,第一检测部6A检测第一感知层16A的规定位置的物体18的大小(面积)。
另外,第二检测部8A检测第二感知层24的物体18的有无。第二检测部8A与所述实施方式1同样地包含扫描传感器。此外,第二检测部8A也可与第一检测部6A同样地包含光学阵列传感器。
进而,如图9所示,实施方式2的输入装置2A中,运算处理部30A的检测处理部32A及判定部36A的各构成与所述实施方式1不同。
检测处理部32A基于来自第一检测部6A的检测信号而算出第一感知层16A的物体18的大小。另外,检测处理部32A基于来自第二检测部8A的检测信号而判定第二感知层24的物体18的有无。
判定部36A基于检测处理部32A及测距运算部34的各算出结果而判定有无物体18对操作画面10的特定的非接触操作。本实施方式中,特定的非接触操作例如为对操作画面10的非接触的单点触摸手势。关于判定部36A进行的判定处理,将于下文中详述。
[2-2.输入装置的运行]
接下来,一方面参照图10,一方面对实施方式2的输入装置2A的运行进行说明。图10为表示实施方式2的输入装置2A的运行流程的流程图。
如图10所示,当物体18通过第一感知层16A时,第一检测部6A检测第一感知层16A的物体18的大小(S201)。检测处理部32A基于来自第一检测部6A的检测信号而算出第一感知层16A的物体18的大小。
当用户的一根手指通过第一感知层16A时,检测处理部32A判定为第一感知层16A的物体18的大小为阈值以下(S202中为是(YES))。此处,阈值例如为相当于一根手指的平均大小的面积。显示控制部40基于检测处理部32A及测距运算部34的各算出结果,在物体18通过第一感知层16A时,使光标42(参照图5A的(b))显示在操作画面10上(S203)。
然后,当用户的一根手指通过第二感知层24时,第二检测部8A检测第二感知层24的物体18(一根手指)的存在(S204)。检测处理部32A基于来自第二检测部8A的检测信号而判定为物体18存在于第二感知层24。判定部36A在光标42重叠于图标14的状态下,物体18通过第二感知层24时,判定为进行了单点触摸手势(S205)。
回到上文所述的步骤S202,例如当用户的手掌通过第一感知层16A时,检测处理部32A判定为第一感知层16A的物体18的大小超过阈值(S202中为否(NO))。此时,显示控制部40不使光标42显示在操作画面10上。
然后,当用户的手掌或手指等通过第二感知层24时,第二检测部8A检测第二感知层24的物体18(手掌或手指等)的存在(S206)。检测处理部32A基于来自第二检测部8A的检测信号而判定为物体18存在于第二感知层24。判定部36A在物体18通过第二感知层24时,判定为未进行单点触摸手势(S207)。
[2-3.效果]
如上文所述,判定部36A基于第一感知层16A的物体18的大小及第二感知层24的物体18的有无而判定有无物体18的特定的非接触操作。
例如,当用户特意进行了对操作画面10的特定的非接触操作时,可认为第一感知层16A的物体18的大小成为阈值以下。因此,此时判定部36A判定为进行了对操作画面10的特定的非接触操作。
另一方面,例如当用户的身体的一部分等意外地通过第一感知层16A时,可认为第一感知层16A的物体18的大小超过阈值。因此,此时判定部36A判定为未进行对操作画面10的特定的非接触操作。
因此,实施方式2的输入装置2A能够与所述实施方式1同样地,高精度地判定有无对操作画面10的特定的非接触操作,而能够避免以输入装置2A作为用户接口的设备的误操作等。
(变形例)
以上,对本发明的实施方式1及实施方式2的输入装置进行了说明,但本发明不限定于这些实施方式。例如,也可将所述各实施方式分别组合。
所述各实施方式中,使操作画面10显示在包含液晶显示屏的显示部4的显示面12上,但不限定于此。关于操作画面,例如可为成像于作为空中的显示区域的显示面的空中像(实像),或也可为通过投影仪(projector)而投影于屏幕(screen)上的显示面的投影图像。
另外,所述各实施方式中,分别构成第一检测部6(6A)与第二检测部8(8A),但不限定于此,也可将这些检测部构成为一体。即,也可由一个检测部来实现第一检测部6(6A)及第二检测部8(8A)的各功能。
另外,所述各实施方式中,在空中形成第一感知层16(16A)及第二感知层24,但不限定于此,也可在第二感知层24与显示部4的显示面12之间的空中还形成一个或多个第三感知层。此时,输入装置2(2A)包括检测一个或多个第三感知层的物体18的通过状态的一个或多个第三检测部,判定部36基于第一检测部6(6A)、第二检测部8(8A)及一个或多个第三检测部各自的检测结果而判定有无物体18的特定的非接触操作。此外,判定部36也可在物体18通过形成于最接近显示部4的显示面12的位置的第三感知层时,判定为进行了物体18的特定的非接触操作。
另外,所述各实施方式中,将物体18设为用户的手指,但不限定于此,例如也可为指示棒等。
(其它变形例等)
另外,具体而言,所述各装置也可构成为包含微处理器(microprocessor)、只读存储器(Read Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、硬盘驱动器、显示器单元、键盘及鼠标等的计算机系统。在RAM或硬盘驱动器存储着计算机程序。通过微处理器按照计算机程序运行,从而各装置达成其功能。此处,计算机程序是为了达成规定的功能而将表示对计算机的指令的命令码组合多个而构成。
进而,也可设为构成所述各装置的构成元件的一部分或全部包含一个系统大规模集成电路(Large Scale Integration,LSI)。系统LSI为将多个构成部集成在一个芯片上而制造的超多功能LSI,具体而言为包含微处理器、ROM及RAM等的计算机系统。在RAM存储着计算机程序。通过微处理器按照计算机程序运行,从而系统LSI达成其功能。
另外,也可设为构成所述各装置的构成元件的一部分或全部包含可对各装置装卸的集成电路(Integrated Circuit,IC)卡或单体的模块。IC卡或模块为包含微处理器、ROM及RAM等的计算机系统。也可设为IC卡或模块包含所述超多功能LSI。通过微处理器按照计算机程序运行,从而IC卡或模块达成其功能。所述IC卡或所述模块也可具有防篡改性。
另外,本发明也可设为上文所示的方法。另外,本发明既可设为利用计算机来实现这些方法的计算机程序,也可设为包含所述计算机程序的数字信号。
进而,本发明也可设为将所述计算机程序或所述数字信号记录于计算机可读取的非暂时性记录介质,例如软盘、硬盘、CD-ROM、磁光盘(Magneto-Optical disc,MO)、数字视盘(Digital Video Disc,DVD)、只读数字视盘(Digital Video Disc-Read Only Memory,DVD-ROM)、随机存取数字视盘(Digital Video Disc-Random Access Memory,DVD-RAM)、蓝光光盘(Blu-ray Disc,BD)、半导体存储器等。另外,也可设为记录于这些非暂时性记录介质的所述数字信号。
另外,本发明也可设为将所述计算机程序或所述数字信号经由电气通信回线、无线或有线通信回线、以国际互联网为代表的网络、数据广播等而传送。
另外,本发明也可设为包括微处理器及存储器的计算机系统,且所述存储器存储所述计算机程序,所述微处理器按照所述计算机程序而运行。
另外,也可设为通过将所述程序或所述数字信号记录于所述非暂时性记录介质进行移送,或者通过将所述程序或所述数字信号经由所述网络等移送,从而由独立的其它计算机系统实施。
此外,所述各实施方式中,各构成元件也可包含专用的硬件,或通过执行适于各构成元件的软件程序从而实现。各构成元件也可通过中央处理器(Central ProcessingUnit,CPU)或处理器等程序执行部将记录于硬盘或半导体存储器等记录介质的软件程序读出并执行从而实现。
产业上的可利用性
本发明的输入装置例如能够作为用于操作设备的用户接口等而应用。

Claims (8)

1.一种输入装置,用于受理物体对操作画面的特定非接触操作,所述输入装置包括:
显示控制部,使所述操作画面显示在显示面上;
第一检测部,检测与所述显示面相向地形成的空中的第一感知层的所述物体的通过状态;
第二检测部,检测形成于所述显示面与所述第一感知层之间的空中的第二感知层的所述物体的通过状态;以及
判定部,基于所述第一检测部及所述第二检测部各自的检测结果而判定有无所述物体的所述特定非接触操作。
2.根据权利要求1所述的输入装置,其中所述第一检测部检测在所述第一感知层的所述物体的通过部位的个数,
所述第二检测部检测在所述第二感知层的所述物体的通过部位的个数。
3.根据权利要求2所述的输入装置,其中所述特定非接触操作是所述物体对所述操作画面上的规定显示的非接触的单点触摸手势,
所述判定部在所述物体通过所述第一感知层的一处且通过所述第二感知层的一处时,判定为进行了所述单点触摸手势。
4.根据权利要求2或3所述的输入装置,其中所述特定的非接触操作是所述物体对所述操作画面的非接触的多点触摸手势,
所述判定部在所述物体通过所述第一感知层的两处且通过所述第二感知层的两处时,判定为进行了所述多点触摸手势。
5.根据权利要求2至4中任一项所述的输入装置,其中所述判定部在所述物体通过所述第一感知层的三处以上且通过所述第二感知层的一处以上时,判定为未进行所述特定非接触操作。
6.根据权利要求2至5中任一项所述的输入装置,其中所述显示控制部在所述物体通过所述第一感知层时,使光标显示在所述操作画面上。
7.根据权利要求1所述的输入装置,其中所述第一检测部检测在所述第一感知层的所述物体的大小,
所述第二检测部检测在所述第二感知层的所述物体的有无,
所述判定部在所述第一感知层的所述物体的大小为阈值以下且在所述第二感知层中检测到所述物体时,判定为进行了所述特定非接触操作,
在所述第一感知层的所述物体的大小超过所述阈值且在所述第二感知层中检测到所述物体时,判定为未进行所述特定的非接触操作。
8.根据权利要求1所述的输入装置,其中所述输入装置还包括:一个或多个第三检测部,检测形成于所述显示面与所述第二感知层之间的空中的一个或多个第三感知层的所述物体的通过状态,
所述判定部基于所述第一检测部、所述第二检测部及所述一个或所述多个第三检测部各自的检测结果而判定有无所述物体的所述特定非接触操作。
CN202010118480.7A 2019-04-02 2020-02-26 输入装置 Pending CN111796694A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-070743 2019-04-02
JP2019070743A JP7400205B2 (ja) 2019-04-02 2019-04-02 入力装置

Publications (1)

Publication Number Publication Date
CN111796694A true CN111796694A (zh) 2020-10-20

Family

ID=69779894

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010118480.7A Pending CN111796694A (zh) 2019-04-02 2020-02-26 输入装置

Country Status (4)

Country Link
US (1) US11068108B2 (zh)
EP (1) EP3719614B1 (zh)
JP (1) JP7400205B2 (zh)
CN (1) CN111796694A (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022113036A (ja) * 2021-01-22 2022-08-03 キヤノン株式会社 情報処理装置
FR3122751B1 (fr) * 2021-05-04 2023-10-06 Imprimerie Nat Kit de détection pour borne interactive
JP7256842B2 (ja) * 2021-05-25 2023-04-12 株式会社エイサムテクノロジー 非接触入力装置
JPWO2023073759A1 (zh) * 2021-10-25 2023-05-04
US11995359B2 (en) 2021-12-14 2024-05-28 Canon Kabushiki Kaisha Image forming apparatus with touch and touchless input portion

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06110610A (ja) * 1992-09-30 1994-04-22 Toshiba Corp 座標入力装置
US9470922B2 (en) * 2011-05-16 2016-10-18 Panasonic Intellectual Property Corporation Of America Display device, display control method and display control program, and input device, input assistance method and program
JP2014067071A (ja) 2012-09-10 2014-04-17 Askanet:Kk 空中タッチパネル
US10394434B2 (en) * 2013-02-22 2019-08-27 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors
US10261612B2 (en) 2013-02-22 2019-04-16 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors
JP6245357B2 (ja) * 2014-05-29 2017-12-13 富士電機株式会社 光学的操作入力検出装置、自動販売機、及び光学的操作入力検出方法
KR101636460B1 (ko) * 2014-11-05 2016-07-05 삼성전자주식회사 전자 장치 및 그 제어 방법
WO2016092617A1 (ja) 2014-12-08 2016-06-16 日立マクセル株式会社 投射型映像表示装置及び映像表示方法
TWI546715B (zh) * 2014-12-26 2016-08-21 深圳市華星光電技術有限公司 懸浮觸控方法
JP2017228216A (ja) 2016-06-24 2017-12-28 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
WO2018083737A1 (ja) 2016-11-01 2018-05-11 マクセル株式会社 表示装置及び遠隔操作制御装置

Also Published As

Publication number Publication date
JP7400205B2 (ja) 2023-12-19
EP3719614A1 (en) 2020-10-07
EP3719614B1 (en) 2022-12-21
US20200319750A1 (en) 2020-10-08
US11068108B2 (en) 2021-07-20
JP2020170311A (ja) 2020-10-15

Similar Documents

Publication Publication Date Title
CN111796694A (zh) 输入装置
US11199963B2 (en) Non-contact operation input device
EP2353069B1 (en) Stereo optical sensors for resolving multi-touch in a touch detection system
US9218121B2 (en) Apparatus and method recognizing touch gesture
US20150185857A1 (en) User interface method and apparatus based on spatial location recognition
US20120218215A1 (en) Methods for Detecting and Tracking Touch Objects
US20130241837A1 (en) Input apparatus and a control method of an input apparatus
CN107533394B (zh) 触摸屏装置及其操作方法与手持装置
JP2011053971A (ja) 情報処理装置、情報処理方法およびプログラム
WO2005031554A1 (ja) 光学式位置検出装置
WO2012171116A1 (en) Visual feedback by identifying anatomical features of a hand
US9235293B2 (en) Optical touch device and touch sensing method
JP2015064724A (ja) 情報処理装置
TW201312422A (zh) 具軌跡偵測功能之光學觸控系統及方法
JP2009289157A (ja) 表示器、表示器の制御方法、および当該制御方法をコンピュータに実現させるためのプログラム
US9110588B2 (en) Optical touch device and method for detecting touch point
TWI582671B (zh) 光學式觸控裝置和其觸控方法
EP3644167A1 (en) Electronic devices and methods of operating electronic devices
KR102169236B1 (ko) 터치스크린 장치 및 그 제어방법 그리고 디스플레이 장치
KR101573287B1 (ko) 전자기기에서 터치 위치 디스플레이 방법 및 장치
JPWO2019059061A1 (ja) タッチパネル装置
TWI557634B (zh) 手持式裝置和其操作方法
KR101143276B1 (ko) 터치 입력의 위치 측정 정확도 향상을 위한 적응형 노이즈 제거 방법
JP2010160717A (ja) 入力装置
JP2004070443A (ja) 多方向入力装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination