JP7197216B2 - input device - Google Patents

input device Download PDF

Info

Publication number
JP7197216B2
JP7197216B2 JP2021087790A JP2021087790A JP7197216B2 JP 7197216 B2 JP7197216 B2 JP 7197216B2 JP 2021087790 A JP2021087790 A JP 2021087790A JP 2021087790 A JP2021087790 A JP 2021087790A JP 7197216 B2 JP7197216 B2 JP 7197216B2
Authority
JP
Japan
Prior art keywords
display surface
input device
unit
detection
airflow layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021087790A
Other languages
Japanese (ja)
Other versions
JP2022180980A (en
Inventor
明久 岩田
克己 原島
孝志 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Platforms Ltd
Original Assignee
NEC Platforms Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Platforms Ltd filed Critical NEC Platforms Ltd
Priority to JP2021087790A priority Critical patent/JP7197216B2/en
Publication of JP2022180980A publication Critical patent/JP2022180980A/en
Application granted granted Critical
Publication of JP7197216B2 publication Critical patent/JP7197216B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、入力装置に関し、非接触で入力操作を行う入力装置に関する。 TECHNICAL FIELD The present invention relates to an input device, and more particularly to an input device that performs non-contact input operations.

非接触で操作者の入力操作内容を認識できる入力装置が知られている。このような入力装置は、例えば、不特定多数の人(操作者)が当該入力装置を利用する場合において、ディスプレイへの物理的な接触を伴うことなく、非接触で入力操作を行うことができるため衛生的で、感染症予防の観点から有効である。このように、非接触で入力操作を可能とする入力装置の一例として、特許文献1が挙げられる。 2. Description of the Related Art There is known an input device capable of recognizing the content of an operator's input operation in a non-contact manner. Such an input device, for example, when an unspecified number of people (operators) use the input device, can perform non-contact input operations without physical contact with the display. Therefore, it is hygienic and effective from the viewpoint of infectious disease prevention. Patent document 1 is given as an example of an input device that enables non-contact input operations in this manner.

特許文献1には、表示機能と入力機能を合わせ持つ操作パネルを有し、前記操作パネルの入力機能は、当該操作パネル上の空間に存在する当該操作パネルに対して入力操作を行なうための物体の3次元位置情報を非接触の状態で取得し、該取得した前記物体の3次元位置情報に基づいて前記物体による入力操作内容を認識すること、を特徴とする入力装置、医療機器が開示されている。 Patent Document 1 discloses an operation panel having both a display function and an input function. is obtained in a non-contact state, and an input operation content by the object is recognized based on the obtained three-dimensional position information of the object. ing.

特開2010-12158号公報Japanese Unexamined Patent Application Publication No. 2010-12158

特許文献1に記載の技術は、例えば、非接触式センサを用いて操作者の指等の三次元情報を取得することにより、非接触で入力操作を可能とするものである。しかしながら、このような非接触で入力操作を行う技術において、操作者は、非接触式センサによる検出エリアを視認できず、物理的な接触を伴う操作感も得られない。したがって、入力操作の際に、操作者は、検出エリアを超えてディスプレイの表示面(操作パネル)に指を近付け過ぎてしまうことがある。これにより、表示面に操作者の指が接触して表示面が汚損される可能性があるという問題があった。 The technology described in Patent Literature 1 enables non-contact input operations by acquiring three-dimensional information of an operator's finger or the like using, for example, a non-contact sensor. However, in the technique of performing such a non-contact input operation, the operator cannot visually recognize the detection area of the non-contact sensor, and cannot obtain an operational feeling that accompanies physical contact. Therefore, when performing an input operation, the operator may put his/her finger too close to the display surface (operation panel) of the display beyond the detection area. As a result, there is a possibility that the operator's finger may come into contact with the display surface and the display surface may be soiled.

本発明の目的は、上述した課題を鑑み、非接触で入力操作を行う際の操作感が得られ、指示物体の接触による汚損を回避することができる入力装置を提供することにある。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an input device that provides an operational feeling when a non-contact input operation is performed and that can avoid contamination due to contact with a pointing object.

一実施の形態にかかる入力装置は、表示面にユーザーインターフェースを表示する表示部と、表示面と離間した空中に入力操作を行うための検出エリアを生成し、検出エリアに進入した指示物体の位置を検出して検出信号を出力する検出部と、検出エリアと表示面との間に気体を流入させて気流層を生成する気流層生成部と、検出信号に基づいて指示物体による入力操作の内容を判断する制御部と、を有する。 An input device according to one embodiment includes a display unit that displays a user interface on a display surface, and a detection area for performing an input operation in the air separated from the display surface. and outputting a detection signal, an airflow layer generation unit generating an airflow layer by causing gas to flow between the detection area and the display surface, and the content of the input operation by the pointing object based on the detection signal. and a control unit that determines

本発明により、非接触で入力操作を行う際の操作感が得られ、指示物体の接触による汚損を回避することができる入力装置を提供することができる。 Advantageous Effects of Invention According to the present invention, it is possible to provide an input device that provides an operational feeling when a non-contact input operation is performed and that can avoid contamination due to contact with a pointing object.

実施の形態1にかかる入力装置がキャビネットに載設された状態を示す斜視図である。1 is a perspective view showing a state in which the input device according to Embodiment 1 is mounted on a cabinet; FIG. 実施の形態1にかかる入力装置がキャビネットに載設された状態を示す側面図である。Fig. 2 is a side view showing a state in which the input device according to the first embodiment is mounted on a cabinet; 実施の形態1にかかる入力装置を説明する側面図である。1 is a side view for explaining an input device according to a first embodiment; FIG. 実施の形態1にかかる入力装置が備えるセンサユニットの平面図及び側面図である。2A and 2B are a plan view and a side view of a sensor unit included in the input device according to the first embodiment; FIG. 図4に示すセンサユニットの底面図である。FIG. 5 is a bottom view of the sensor unit shown in FIG. 4; 比較例の入力装置を説明する側面図である。It is a side view explaining the input device of a comparative example. 比較例の入力装置が備えるセンサユニットの底面図である。It is a bottom view of the sensor unit with which the input device of a comparative example is provided.

実施の形態1
以下、図面を参照して本発明の実施の形態について説明する。ただし、本発明が以下の実施の形態に限定される訳ではない。また、説明を明確にするため、以下の記載及び図面は、適宜、簡略化されている。さらに、以下の説明において同一又は同等の要素には、同一の符号を付し、重複する説明は省略する。
Embodiment 1
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not limited to the following embodiments. Also, for clarity of explanation, the following description and drawings are simplified as appropriate. Furthermore, in the following description, the same or equivalent elements are denoted by the same reference numerals, and overlapping descriptions are omitted.

まず、図1及び図2を参照して、本実施形態にかかる入力装置1について説明する。図1は、実施の形態1にかかる入力装置がキャビネットに載設された状態を示す斜視図である。図2は、実施の形態1にかかる入力装置がキャビネットに載設された状態を示す側面図である。 First, an input device 1 according to the present embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a perspective view showing a state in which an input device according to a first embodiment is mounted on a cabinet; FIG. FIG. 2 is a side view of the input device mounted on the cabinet according to the first embodiment;

図1及び図2に示すように、入力装置1は、自立設置用の箱型に形成されるキャビネット40に載設されている。入力装置1は、操作者からの各種の入力操作を受け付ける装置である。入力装置1は、例えば、商品の登録と商品の精算を行うPOS(Point Of Sales)端末装置と一体に構成されたコンピュータ、又はPOS端末装置に接続されたコンピュータである。入力装置1は、本体部10と、表示部20と、センサユニット30aと、を有する。 As shown in FIGS. 1 and 2, the input device 1 is mounted on a cabinet 40 formed in a box shape for independent installation. The input device 1 is a device that receives various input operations from an operator. The input device 1 is, for example, a computer integrated with a POS (Point Of Sales) terminal for product registration and product settlement, or a computer connected to the POS terminal. The input device 1 has a body portion 10, a display portion 20, and a sensor unit 30a.

本体部10は、CPU(Central Processing Unit)等のプロセッサで構成される制御部、メモリ、及び通信部等を含む。制御部は、メモリに記憶されたプログラムを読み出して実行することにより、入力装置1の各部の機能を実現することができる。制御部は、入力装置1の動作を総括的に制御する。例えば、制御部は、検出部から取得した検出信号に応じて、操作者からの入力操作の内容を判断して入力装置1の各部を制御し、必要に応じて表示面21における表示内容を変化させる。 The main unit 10 includes a control unit configured by a processor such as a CPU (Central Processing Unit), a memory, a communication unit, and the like. The control unit can realize the function of each unit of the input device 1 by reading and executing the program stored in the memory. The control unit comprehensively controls the operation of the input device 1 . For example, the control unit determines the content of the input operation from the operator according to the detection signal acquired from the detection unit, controls each unit of the input device 1, and changes the display content on the display surface 21 as necessary. Let

メモリは、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び不揮発性メモリ等で構成される。ROMは、入力装置1が実行する各種プログラム、表示面21における操作オブジェクト等の表示位置を示したデータ等の各種データを格納している。RAMは、ROMに記憶されたプログラム実行時の一時記憶領域、又は検出部により検出した指示物体の位置情報の一時記憶領域として用いられる。通信部は、他のコンピュータとの通信網等を介した通信や、信号及びデータ等の送受信を行う。 The memory includes, for example, ROM (Read Only Memory), RAM (Random Access Memory), non-volatile memory, and the like. The ROM stores various programs executed by the input device 1 and various data such as data indicating display positions of operation objects on the display surface 21 . The RAM is used as a temporary storage area when executing the program stored in the ROM, or as a temporary storage area for the position information of the pointing object detected by the detection unit. The communication unit communicates with other computers via a communication network or the like, and transmits and receives signals, data, and the like.

表示部20は、液晶ディスプレイ、プラズマディスプレイ、有機EL(Electro Luminescent)ディスプレイ等の表示装置で構成され、略矩形状の表示面21を有する。表示部20は、制御部から入力されたデータに基づいて、二次元的に文字、画像、操作オブジェクト等を含むユーザーインターフェースを表示面21に表示する機能を有する。表示面21は、XY平面に平行に配置される。 The display unit 20 is composed of a display device such as a liquid crystal display, a plasma display, an organic EL (Electro Luminescent) display, or the like, and has a substantially rectangular display surface 21 . The display unit 20 has a function of two-dimensionally displaying a user interface including characters, images, operation objects, etc. on the display surface 21 based on data input from the control unit. The display surface 21 is arranged parallel to the XY plane.

また、表示部20は、指示物体による表示面21への接触操作を検出し、当該接触操作を入力操作として受け付けるタッチパネルとして利用することもできる。タッチパネルには、抵抗膜方式、静電容量方式、赤外線方式、超音波方式等の各種方式を採用することができる。 The display unit 20 can also be used as a touch panel that detects a contact operation on the display surface 21 by a pointing object and receives the contact operation as an input operation. Various systems such as a resistive film system, a capacitive system, an infrared system, and an ultrasonic system can be adopted for the touch panel.

本実施形態において、XY平面は、前方斜め上方を向いている。操作者は、通常、入力装置1の手前側に立って入力操作を行う。以下、XY平面に垂直な方向については、Z方向と定義して説明する。 In this embodiment, the XY plane faces obliquely forward and upward. An operator normally performs an input operation while standing on the front side of the input device 1 . Hereinafter, the direction perpendicular to the XY plane will be defined as the Z direction.

センサユニット30aは、X方向に延在する細長い多角柱状の筐体内に、検出部と気流層生成部とを有する。センサユニット30aは、表示面21の四方を囲む表示部20のフレーム22に取り付けられる。センサユニット30aが取り付けられる位置は、例えば、表示部20の前面側(Z方向の手前側)の上端部であって、X方向に延在する表示面21の上端縁の直上(Y方向の上側)であるが、取り付け位置はこれに限らない。 The sensor unit 30a has a detection section and an airflow layer generation section in an elongated polygonal columnar casing extending in the X direction. The sensor unit 30 a is attached to the frame 22 of the display section 20 surrounding the display surface 21 on all four sides. The position where the sensor unit 30a is attached is, for example, the upper end portion of the front side (front side in the Z direction) of the display section 20, which is directly above the upper edge of the display surface 21 extending in the X direction (upper side in the Y direction). ), but the mounting position is not limited to this.

センサユニット30aは、表示部20と一体に構成されてもよく、表示部20に対して着脱可能な構成であっても良い。着脱可能なセンサユニット30aである場合、既存の入力装置にセンサユニット30aを固定部材等を用いて取り付け、互いに電気的に接続する。そして、入力装置1として機能させるためのプログラムを既存の入力装置の記憶部に通信部を介してインストールすることにより、入力装置1を構成することも可能である。この場合、検出部が検出した検出信号等は、無線又は有線の通信媒体を介して通信部へ送信される。このように、既存の入力装置をタッチレス化して利用することができる。 The sensor unit 30 a may be configured integrally with the display section 20 or may be detachable from the display section 20 . If the sensor unit 30a is detachable, the sensor unit 30a is attached to an existing input device using a fixing member or the like, and electrically connected to each other. It is also possible to configure the input device 1 by installing a program for functioning as the input device 1 in the storage section of the existing input device via the communication section. In this case, a detection signal or the like detected by the detection unit is transmitted to the communication unit via a wireless or wired communication medium. In this way, an existing input device can be made touchless and used.

続いて、上記入力装置1の詳細について、図3~図5を参照して説明する。図3は、実施の形態1にかかる入力装置を説明する側面図である。図4は、実施の形態1にかかる入力装置が備えるセンサユニットの平面図及び側面図である。図5は、図4に示すセンサユニットの底面図である。 Next, the details of the input device 1 will be described with reference to FIGS. 3 to 5. FIG. 3 is a side view for explaining the input device according to the first embodiment; FIG. 4A and 4B are a plan view and a side view of a sensor unit included in the input device according to the first embodiment; FIG. 5 is a bottom view of the sensor unit shown in FIG. 4. FIG.

図3~図5に示すように、センサユニット30aの検出部は、入力操作を行う指示物体の二次元的な位置を検出する非接触式センサである。検出部は、指示物体の位置を検出可能な検出エリアDを生成する。 As shown in FIGS. 3 to 5, the detection section of the sensor unit 30a is a non-contact sensor that detects the two-dimensional position of a pointing object that performs an input operation. The detection unit generates a detection area D in which the position of the pointing object can be detected.

検出部には、例えば、発光素子と受光素子とを有する赤外線センサを用いることができる。発光素子は、赤外線光を発光する光源である。受光素子は、赤外線光が指示物体で反射された反射光を検出する。発光素子及び受光素子は、それぞれ複数がX方向に沿って並んで交互に配置されている。そして、発光素子は、各光軸がY方向に沿うように赤外線光を出射する。受光素子は、反射光を受光可能に配置される。 For example, an infrared sensor having a light-emitting element and a light-receiving element can be used as the detection unit. A light emitting element is a light source that emits infrared light. The light receiving element detects reflected light of the infrared light reflected by the pointing object. A plurality of light-emitting elements and light-receiving elements are alternately arranged along the X direction. The light-emitting element emits infrared light so that each optical axis extends along the Y direction. The light receiving element is arranged so as to be able to receive the reflected light.

発光素子から発光面31を介して出射される赤外線光は、XY平面に平行なシート状の検出エリアDを形成する。発光面31は、赤外線光を透過可能なレンズであり、発光素子の正面側にあたる筐体の底面に設けられる。発光面31は、表示面21の上端縁を覆うようにX方向に延在して形成される。また、検出エリアDは、表示面21からZ方向に離間した空中に形成される。すなわち、検出エリアDは、表示面21よりも操作者側に形成される。なお、検出エリアDは不可視光の赤外線光により形成されるため、操作者は検出エリアDを視認できない。 Infrared light emitted from the light emitting element through the light emitting surface 31 forms a sheet-like detection area D parallel to the XY plane. The light-emitting surface 31 is a lens capable of transmitting infrared light, and is provided on the bottom surface of the housing, which is the front side of the light-emitting element. The light emitting surface 31 is formed extending in the X direction so as to cover the upper edge of the display surface 21 . Also, the detection area D is formed in the air spaced apart from the display surface 21 in the Z direction. That is, the detection area D is formed closer to the operator than the display surface 21 is. Since the detection area D is formed by invisible infrared light, the operator cannot see the detection area D visually.

検出部は、検出エリアD内で指示物体による物理的な働きかけを受けた位置のXY座標を取得し、これに対応した位置情報を含む検出信号を制御部に出力する。検出部は、指示物体と物理的に接触することなく、指示物体の指示位置を検出することができる。そして、制御部は、取得した検出信号に基づいて指示物体の二次元的な位置を特定し、指示物体による入力操作の内容を判断することができる。 The detection unit acquires the XY coordinates of the position physically acted upon by the pointing object within the detection area D, and outputs a detection signal including corresponding position information to the control unit. The detection unit can detect the pointing position of the pointing object without physically contacting the pointing object. Then, the control unit can identify the two-dimensional position of the pointing object based on the acquired detection signal, and determine the details of the input operation performed by the pointing object.

検出部は、指示物体の三次元的な位置(XYZ座標)を検出するように構成されても良い。この場合も、三次元的に形成される検出エリアDは、表示面21からZ方向に離間した空中に形成される。また、検出部は、赤外線センサに限らず、カメラ、超音波センサ等であっても良い。いずれにしても、操作者は、表示面21の表示を見ながら検出エリアD内において入力操作を行うことができる。 The detection unit may be configured to detect the three-dimensional position (XYZ coordinates) of the pointing object. Also in this case, the three-dimensionally formed detection area D is formed in the air spaced apart from the display surface 21 in the Z direction. Also, the detection unit is not limited to an infrared sensor, and may be a camera, an ultrasonic sensor, or the like. In any case, the operator can perform an input operation within the detection area D while viewing the display on the display surface 21 .

ここで、指示物体は、操作者の手指等である。本実施形態において、指示物体は指50であり、検出部において指先のXY座標が取得される。操作者は、指50を検出エリアDに進入させることにより、指50の位置に対応する入力を行うことができる。 Here, the pointing object is an operator's finger or the like. In this embodiment, the pointing object is the finger 50, and the XY coordinates of the fingertip are acquired by the detection unit. The operator can make an input corresponding to the position of the finger 50 by entering the detection area D with the finger 50 .

気流層生成部は、表示面21と検出エリアDとの間に気体を流入させることにより気流層Fを生成する機能を有する。本実施形態において、気流層Fを構成する気体は、ファンにより送風される空気である。例えば、ファンは、センサユニット30aの筐体内に設けられる。 The airflow layer generation unit has a function of generating an airflow layer F by causing gas to flow between the display surface 21 and the detection area D. FIG. In this embodiment, the gas forming the airflow layer F is air blown by a fan. For example, a fan is provided inside the housing of the sensor unit 30a.

気流層生成部は、複数の吹出口32を介してセンサユニット30aの筐体の外部に気体を吹き出すことができる。複数の吹出口32は、センサユニット30aの筐体の底面に形成され、Z方向に発光面31と対向しつつ、発光面31と同等の長さでX方向に延在するように配置される。また、複数の吹出口32は、Z方向において、表示部20と発光面31との間に配置される。 The airflow layer generator can blow out gas to the outside of the housing of the sensor unit 30a through the plurality of blowout ports 32 . The plurality of outlets 32 are formed on the bottom surface of the housing of the sensor unit 30a, and are arranged so as to face the light emitting surface 31 in the Z direction and extend in the X direction with the same length as the light emitting surface 31. . Also, the plurality of outlets 32 are arranged between the display unit 20 and the light emitting surface 31 in the Z direction.

気流層生成部は、制御部から指示を受けて、吹出口32から気体をY方向の下方に向けて吹き出す。吹出口32から吹き出される気体は、表示面21(XY平面)に沿って流れる。気体は、表示面21と検出エリアDとの間の空間に流れ、これにより、表示面21上の空中に表示面21を覆う気流層Fを形成する。 The airflow layer generation unit receives an instruction from the control unit and blows the gas downward in the Y direction from the blowout port 32 . The gas blown out from the blowout port 32 flows along the display surface 21 (XY plane). The gas flows into the space between the display surface 21 and the detection area D, thereby forming an airflow layer F covering the display surface 21 in the air above the display surface 21 .

したがって、作業者が表示面21を直視する方向(Z方向の手前側)から見た場合に、検出エリアD、気流層F、及び表示面21は、この順に重なり合っている。また、検出エリアD及び気流層Fは、少なくとも表示面21を形成する領域と同一の領域に配置される。そのため、表示面21の全体を検出エリアDとすることができるとともに、表示面21の全体が気流層Fで覆われる。これにより、表示面21に指50が接触する可能性をより低減できる。さらに、X方向から見た場合には、検出エリアD、気流層F、及び表示面21は、略平行に配置されるため、これらを近接させることにより操作スペースをコンパクトにすることができる。 Therefore, the detection area D, the airflow layer F, and the display surface 21 overlap in this order when viewed from the direction in which the operator looks directly at the display surface 21 (the front side in the Z direction). Moreover, the detection area D and the airflow layer F are arranged in at least the same area as the area forming the display surface 21 . Therefore, the entire display surface 21 can be used as the detection area D, and the entire display surface 21 is covered with the airflow layer F. Thereby, the possibility that the finger 50 contacts the display surface 21 can be further reduced. Furthermore, when viewed from the X direction, the detection area D, the airflow layer F, and the display surface 21 are arranged substantially parallel, so bringing them closer together can make the operation space compact.

次に、図6及び図7を参照して、比較例の入力装置100について説明する。図6は、比較例の入力装置を説明する側面図である。図7は、比較例の入力装置が備えるセンサユニットの底面図である。比較例の入力装置100は、気流層生成部を備えていないことを除いて入力装置1と同様の構成であるため、入力装置1との相違点を中心に説明する。 Next, an input device 100 of a comparative example will be described with reference to FIGS. 6 and 7. FIG. FIG. 6 is a side view explaining an input device of a comparative example. FIG. 7 is a bottom view of a sensor unit included in the input device of the comparative example. Since the input device 100 of the comparative example has the same configuration as the input device 1 except that it does not include an airflow layer generation unit, the differences from the input device 1 will be mainly described.

図6及び図7に示すように、入力装置100のうち、センサユニット30bの外観は、吹出口32が形成されていないことを除いてセンサユニット30aと同様である。入力装置100において、センサユニット30bが取り付けられる位置も、センサユニット30aの場合と同様である。 As shown in FIGS. 6 and 7, the sensor unit 30b of the input device 100 has the same external appearance as the sensor unit 30a except that the outlet 32 is not formed. In the input device 100, the position where the sensor unit 30b is attached is also the same as in the case of the sensor unit 30a.

センサユニット30bは、検出部として入力装置1と同様の赤外線センサを有する。赤外線センサの発光素子から発光面31を介して出射される赤外線光は、XY平面に平行なシート状の検出エリアDを形成する。しかしながら、入力装置100では、入力装置1と異なり、検出エリアDと表示面21との間に気流層Fが存在しない。 The sensor unit 30b has an infrared sensor similar to that of the input device 1 as a detection section. Infrared light emitted from the light emitting element of the infrared sensor through the light emitting surface 31 forms a sheet-like detection area D parallel to the XY plane. However, unlike the input device 1 , the input device 100 does not have an airflow layer F between the detection area D and the display surface 21 .

入力装置100を利用する場合、操作者は、検出エリアDを視認できないとともに、検出エリアDに指50を進入させても表示面21に接触するまでに物理的な接触を伴う操作感が得られない。操作感が得られないと、操作者は、指50による入力操作が検出部によって検出されたか否かを把握することが困難である。 When the input device 100 is used, the operator cannot visually recognize the detection area D, and even if the finger 50 is moved into the detection area D, the user cannot feel an operational feeling accompanied by a physical contact until the finger 50 touches the display surface 21. No. If the feeling of operation cannot be obtained, it is difficult for the operator to grasp whether or not the input operation with the finger 50 has been detected by the detection unit.

そのため、入力装置100を利用して入力操作を行う際に、操作者は、検出部によって入力操作が検出済みであることに気付かず、指50を表示面21に向かってそのまま進行させて、表示面21に指50を近付け過ぎてしまう虞がある。このような非接触での入力操作では、指50が表示面21に接触して表示面21が汚損される可能性があるという問題がある。 Therefore, when performing an input operation using the input device 100, the operator does not notice that the input operation has already been detected by the detection unit, and advances the finger 50 toward the display surface 21 as it is to display the input operation. There is a risk that the finger 50 is too close to the surface 21 . Such a non-contact input operation has a problem that the finger 50 may come into contact with the display surface 21 and the display surface 21 may be soiled.

これに対し、本実施形態にかかる入力装置1は、表示面21にユーザーインターフェースを表示する表示部20と、表示面21と離間した空中に入力操作を行うための検出エリアDを生成し、検出エリアDに進入した指示物体の位置を検出して検出信号を出力する検出部と、検出エリアDと表示面21との間に気体を流入させて気流層Fを生成する気流層生成部と、検出信号に基づいて指示物体による入力操作の内容を判断する制御部と、を有する。 On the other hand, the input device 1 according to the present embodiment generates a display unit 20 that displays a user interface on the display surface 21 and a detection area D for performing an input operation in the air separated from the display surface 21, and detects a detection unit that detects the position of a pointing object that has entered the area D and outputs a detection signal; an airflow layer generation unit that generates an airflow layer F by causing gas to flow between the detection area D and the display surface 21; and a control unit that determines the content of the input operation by the pointing object based on the detection signal.

本実施形態にかかる入力装置1によれば、操作者は、入力操作の際に、表示面21に接触する前に指先で気流層Fを認識することができる。これにより、操作者は、触覚による操作感を得ることができる。操作感を得た操作者は、入力操作が検出部によって検出済みであることを適切に把握し、表示面21に向かってそれ以上に指50を近付ける必要がないことに気付く。 According to the input device 1 according to the present embodiment, the operator can recognize the airflow layer F with a fingertip before touching the display surface 21 during an input operation. As a result, the operator can obtain a tactile sense of operation. The operator who has the feeling of operation appropriately grasps that the input operation has already been detected by the detection unit, and realizes that there is no need to bring the finger 50 closer to the display surface 21 than that.

したがって、操作者が表示面21に指50を近付け過ぎてしまうことによって生じ得る指50と表示面21との接触を防止することができる。これにより、指50の接触による表示面21の汚損を回避することができる。そして、操作感が得られることにより、例えば、操作オブジェクトの2度押しや押し忘れ等の入力ミスを抑制することができる。 Therefore, it is possible to prevent contact between the finger 50 and the display surface 21 that may occur when the operator brings the finger 50 too close to the display surface 21 . As a result, it is possible to prevent the display surface 21 from being soiled by the contact of the finger 50 . Further, by obtaining a sense of operation, it is possible to suppress input errors such as double-pressing or forgetting to press an operation object, for example.

また、本実施形態にかかる入力装置1は、指示物体の二次元的な位置を検出する検出部を有する。このような構成により、操作スペースをコンパクトにすることができる。さらに、検出部として赤外線センサを用いれば、赤外線光や気流層Fによって表示面21の視認性が損なわれることなく、簡素な構造で非接触の入力操作を可能とすることができる。 Further, the input device 1 according to this embodiment has a detection unit that detects the two-dimensional position of the pointing object. With such a configuration, the operation space can be made compact. Further, if an infrared sensor is used as the detection unit, the visibility of the display surface 21 is not impaired by the infrared light or the airflow layer F, and non-contact input operation can be performed with a simple structure.

また、本実施形態にかかる入力装置1では、検出部及び気流層生成部は、同一の筐体内に設けられる。このような構成により、例えば、検出部の発光素子と受光素子とを別々に配置したり、検出部と気流層生成部とを別々に配置したりする場合に比べて、装置をコンパクトにすることができる。 Further, in the input device 1 according to this embodiment, the detection section and the airflow layer generation section are provided in the same housing. With such a configuration, the apparatus can be made more compact than, for example, the case where the light emitting element and the light receiving element of the detection section are arranged separately, or the detection section and the airflow layer generation section are arranged separately. can be done.

また、本実施形態にかかる入力装置1では、検出エリアD、気流層F、及び表示面21が表示面21を直視する方向において同一の領域に配置される。これにより、指50と表示面21との接触を効果的に防止することができるため、指50の接触による表示面21の汚損を回避することができる。 Further, in the input device 1 according to this embodiment, the detection area D, the airflow layer F, and the display surface 21 are arranged in the same area in the direction in which the display surface 21 is viewed directly. As a result, it is possible to effectively prevent contact between the finger 50 and the display surface 21 , thereby avoiding contamination of the display surface 21 due to the contact of the finger 50 .

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、指示物体が、ペン等である場合も、気流発生部による気体の流速等の条件を調整することによって、操作者はペンを介して間接的に操作感を得ることができる。 It should be noted that the present invention is not limited to the above embodiments, and can be modified as appropriate without departing from the scope of the invention. For example, even when the pointing object is a pen or the like, the operator can indirectly obtain a feeling of operation through the pen by adjusting the conditions such as the flow velocity of the gas by the airflow generating section.

また、気流層生成部は、温度が調節された気体を吹き出す空調装置であっても良い。このような構成によれば、例えば、指示物体である指に加熱した温風又は冷却した冷風を吹き付けることにより、操作者に対して温感刺激又は冷感刺激を与えることができるため、操作者はより操作感を得やすくなる。 Also, the airflow layer generating unit may be an air conditioner that blows out a temperature-controlled gas. According to such a configuration, for example, by blowing heated hot air or cooled cold air to the finger, which is the pointing object, it is possible to give the operator a warm or cold stimulus. is easier to get a sense of operation.

また、上記実施形態で説明した入力装置1は、例えば、現金自動預入支払機(ATM、Automated Teller Machine)、自動販売機、受付機、医療機器、家電機器等にも適用可能である。入力装置1を不特定多数の人が接する機器に適用すれば、機器を非接触で操作することができるようになるので、感染症予防に有効である。また、表示面21の汚損が防止されることにより、管理者等によるメンテナンスや清掃作業等の手間を軽減することができる。 Also, the input device 1 described in the above embodiment can be applied to, for example, automatic teller machines (ATMs), automatic teller machines, vending machines, reception machines, medical equipment, home appliances, and the like. If the input device 1 is applied to equipment that is in contact with an unspecified number of people, the equipment can be operated without contact, which is effective in preventing infectious diseases. In addition, since the display surface 21 is prevented from being soiled, it is possible to reduce the time and effort required for maintenance, cleaning work, and the like by the administrator.

1、100 入力装置
10 本体部
20 表示部
21 表示面
22 フレーム
30a、30b センサユニット
31 発光面
32 吹出口
40 キャビネット
50 指
D 検出エリア
F 気流層
1, 100 Input device 10 Main unit 20 Display unit 21 Display surface 22 Frames 30a, 30b Sensor unit 31 Light-emitting surface 32 Air outlet 40 Cabinet 50 Finger D Detection area F Airflow layer

Claims (4)

表示面にユーザーインターフェースを表示する表示部と、
前記表示面と離間した空中に入力操作を行うための検出エリアを生成し、前記検出エリアに進入した指示物体の位置を検出して検出信号を出力する検出部と、
前記検出エリアと前記表示面との間に気体を流入させて気流層を生成する気流層生成部と、
前記検出信号に基づいて前記指示物体による入力操作の内容を判断する制御部と、
有し、
前記検出部及び前記気流層生成部は、前記表示面の端縁の一辺の外側に配置される1つの筐体内に設けられ、
前記気流層生成部は、前記筐体に形成された複数の吹出口を介して前記表示面に沿った一方向に向けて前記気体を吹き出す入力装置。
a display unit that displays a user interface on the display surface;
a detection unit that generates a detection area for performing an input operation in the air separated from the display surface, detects the position of a pointing object that has entered the detection area, and outputs a detection signal;
an airflow layer generation unit that generates an airflow layer by causing gas to flow between the detection area and the display surface;
a control unit that determines the content of the input operation by the pointing object based on the detection signal;
has
The detection unit and the airflow layer generation unit are provided in one housing arranged outside one side of the edge of the display surface,
The airflow layer generation unit is an input device that blows off the gas in one direction along the display surface through a plurality of blowout ports formed in the housing .
前記検出部は、前記指示物体の二次元的な位置を検出する請求項1に記載の入力装置。 The input device according to claim 1, wherein the detection unit detects a two-dimensional position of the pointing object. 前記検出部は、赤外線センサである請求項1又は2に記載の入力装置。 The input device according to claim 1 or 2, wherein the detection unit is an infrared sensor. 前記検出エリア、前記気流層、及び前記表示面は、前記表示面を直視する方向において同一の領域に配置される請求項1から3のいずれか1項に記載の入力装置。 The input device according to any one of claims 1 to 3 , wherein the detection area, the airflow layer, and the display surface are arranged in the same area in a direction in which the display surface is viewed directly.
JP2021087790A 2021-05-25 2021-05-25 input device Active JP7197216B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021087790A JP7197216B2 (en) 2021-05-25 2021-05-25 input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021087790A JP7197216B2 (en) 2021-05-25 2021-05-25 input device

Publications (2)

Publication Number Publication Date
JP2022180980A JP2022180980A (en) 2022-12-07
JP7197216B2 true JP7197216B2 (en) 2022-12-27

Family

ID=84327536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021087790A Active JP7197216B2 (en) 2021-05-25 2021-05-25 input device

Country Status (1)

Country Link
JP (1) JP7197216B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011113489A (en) 2009-11-30 2011-06-09 Hidenori Takahashi Non-contact user interface device
JP2017502407A (en) 2013-12-11 2017-01-19 ダヴ Control device with sensory feedback
JP6200553B1 (en) 2016-04-28 2017-09-20 アールエヌディ プラス カンパニーリミテッドRndplus Co., Ltd TOUCH SCREEN DEVICE AND CONTROL METHOD THEREOF, AND DISPLAY DEVICE {TOUCHSCREEN DEVICE AND METHOD FOR CONTROLLING THE SAME AND DISPLAY APPARATUS}
JP2022022568A (en) 2020-06-26 2022-02-07 沖電気工業株式会社 Display operation unit and device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011113489A (en) 2009-11-30 2011-06-09 Hidenori Takahashi Non-contact user interface device
JP2017502407A (en) 2013-12-11 2017-01-19 ダヴ Control device with sensory feedback
JP6200553B1 (en) 2016-04-28 2017-09-20 アールエヌディ プラス カンパニーリミテッドRndplus Co., Ltd TOUCH SCREEN DEVICE AND CONTROL METHOD THEREOF, AND DISPLAY DEVICE {TOUCHSCREEN DEVICE AND METHOD FOR CONTROLLING THE SAME AND DISPLAY APPARATUS}
JP2022022568A (en) 2020-06-26 2022-02-07 沖電気工業株式会社 Display operation unit and device

Also Published As

Publication number Publication date
JP2022180980A (en) 2022-12-07

Similar Documents

Publication Publication Date Title
US8907894B2 (en) Touchless pointing device
US8830189B2 (en) Device and method for monitoring the object's behavior
JP5346081B2 (en) Multi-touch touch screen with pen tracking
JP5411265B2 (en) Multi-touch touch screen with pen tracking
US8730169B2 (en) Hybrid pointing device
US9595172B2 (en) Dataglove having tactile feedback and method
CN102822773A (en) Gesture mapping for display device
US20140132516A1 (en) Optical keyboard
US20150123906A1 (en) Keyboard deck contained motion sensor
US8827909B2 (en) Ultrasound probe
JP2016095832A (en) Electronic equipment, operation control method for electronic equipment, and operation control program
JP2014512031A (en) Touchless interactive display system
US10042464B2 (en) Display apparatus including touchscreen device for detecting proximity touch and method for controlling the same
KR20100075281A (en) Apparatus having function of space projection and space touch and the controlling method thereof
US8581847B2 (en) Hybrid pointing device
JP2022007868A (en) Aerial image display input device and aerial image display input method
JP7197216B2 (en) input device
Yoshino et al. Contactless touch interface supporting blind touch interaction by aerial tactile stimulation
WO2021260989A1 (en) Aerial image display input device and aerial mage display input method
US10664103B2 (en) Curved display apparatus providing air touch input function
KR20110094737A (en) Keyboard with mouse using touchpad
JP4113907B1 (en) Input device and information input display system including the input device
US20120280910A1 (en) Control system and method for controlling a plurality of computer devices
TWI552056B (en) Optical touch system
KR20200034348A (en) Touchscreen device and method for controlling the same and display apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221208

R151 Written notification of patent or utility model registration

Ref document number: 7197216

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151