JP2022180917A - Non-contact input apparatus - Google Patents

Non-contact input apparatus Download PDF

Info

Publication number
JP2022180917A
JP2022180917A JP2021087679A JP2021087679A JP2022180917A JP 2022180917 A JP2022180917 A JP 2022180917A JP 2021087679 A JP2021087679 A JP 2021087679A JP 2021087679 A JP2021087679 A JP 2021087679A JP 2022180917 A JP2022180917 A JP 2022180917A
Authority
JP
Japan
Prior art keywords
light
light receiving
detected
detection
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021087679A
Other languages
Japanese (ja)
Other versions
JP7256842B2 (en
Inventor
康史 石尾
Yasushi Ishio
初美 星
Hatsumi Hoshi
善久 生田
Yoshihisa Ikuta
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
A Sum Technology LLC
Original Assignee
A Sum Technology LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by A Sum Technology LLC filed Critical A Sum Technology LLC
Priority to JP2021087679A priority Critical patent/JP7256842B2/en
Publication of JP2022180917A publication Critical patent/JP2022180917A/en
Application granted granted Critical
Publication of JP7256842B2 publication Critical patent/JP7256842B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To enable precise detection of a gesture operation.SOLUTION: A non-contact input apparatus includes: an optical sensor 2 having a light emitting part 21 for emitting light and a light receiving part 22 for receiving reflected light generated by irradiation to a detection target of light emitted from the light emitting part 21 and outputting a sensor value based on the received light; and an operation detection unit for, based on the output from the light receiving part 22, detecting an operation of the detection target on an operation plane set in a detectable area of the optical sensor 2. The optical sensor 2 is positioned on an extended surface of the operation plane.SELECTED DRAWING: Figure 1

Description

この発明は、非接触で入力操作を受け付ける非接触入力装置に関する。 The present invention relates to a non-contact input device that receives input operations in a non-contact manner.

従来から、非接触で入力操作を受け付ける非接触入力装置が提供されている。たとえば、発光素子から出射された光が検出対象物に反射した反射光を受光する複数の受光素子を有する光センサを備える非接触入力装置が提案されている(特許文献1参照)。従来の接触入力装置では、操作平面の対面方向に光センサが設けられる。 Conventionally, non-contact input devices that receive input operations in a non-contact manner have been provided. For example, a non-contact input device has been proposed that includes an optical sensor having a plurality of light-receiving elements that receive light emitted from a light-emitting element and reflected by a detection target (see Patent Document 1). In a conventional touch input device, an optical sensor is provided in the facing direction of the operation plane.

ここで、発光素子から出射された光および受光素子の受光可能領域は放射状に広がるため、操作平面の対面方向に光センサが設けられる場合には、光センサと検出対象物との距離によって操作平面上の位置が変化する。 Here, since the light emitted from the light-emitting element and the light-receivable area of the light-receiving element expand radially, if the optical sensor is provided in the facing direction of the operation plane, the distance between the optical sensor and the object to be detected will affect the operation plane. The top position changes.

このため、従来の接触入力装置では、光センサと検出対象物との距離によって検出可能領域の大きさが変化してしまうことに加え、動作を判定するための操作平面上の境界の位置も変化してしまい、人の手などの検出対象物の動きからジェスチャ操作を検出するジェスチャセンサとしては正確性の観点で問題がある。また、従来の接触入力装置では、操作者の指だけでなく掌や肘などの面積の大きい部分を検出対象物として認識してしまった場合に、操作位置を適切に検出できないという問題もある。 For this reason, in conventional touch input devices, the size of the detectable area changes depending on the distance between the optical sensor and the detection target, and the position of the boundary on the operation plane for determining the movement also changes. Therefore, there is a problem in terms of accuracy as a gesture sensor that detects a gesture operation from the movement of a detection target such as a human hand. In addition, the conventional contact input device also has a problem that the operation position cannot be detected appropriately when not only the operator's fingers but also a large area such as the palm or elbow is recognized as a detection target.

国際公開第2014/115397号WO2014/115397

この発明は、上述した問題に鑑み、ジェスチャ操作を精度よく検出することができる、非接触入力装置を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a non-contact input device capable of accurately detecting a gesture operation.

この発明は、光を発光する発光部、および前記発光部から出射された光が検出対象物に照射されることによって生じた反射光を受光して、受光した光の強度に基づくセンサ値を出力する受光部を備える光センサと、前記受光部から出力された前記センサ値に基づいて、前記光センサの検出可能領域内に設定される操作平面における前記検出対象物の動作を検出する動作検出部を備え、前記光センサは、前記操作平面の延長面上に位置する非接触入力装置であることを特徴とする。 The present invention includes a light-emitting unit that emits light, receives reflected light generated by the light emitted from the light-emitting unit irradiating a detection object, and outputs a sensor value based on the intensity of the received light. and a motion detection unit that detects motion of the detection target on an operation plane set within a detectable area of the photosensor, based on the sensor value output from the light receiving unit. wherein the optical sensor is a non-contact input device positioned on an extension plane of the operation plane.

この発明により、ジェスチャ操作を精度よく検出することができる、非接触入力装置を提供することができる。 According to the present invention, it is possible to provide a non-contact input device that can accurately detect a gesture operation.

非接触入力装置の構成を示すブロック図。The block diagram which shows the structure of a non-contact input device. 実施例1の光センサの構成を示す図。4A and 4B are diagrams showing a configuration of an optical sensor of Example 1; FIG. 基板の幅方向から見た場合の検出可能領域を示す図。FIG. 4 is a diagram showing a detectable area when viewed from the width direction of the substrate; 受光中心方向から見た場合の検出可能領域を示す図。The figure which shows the detectable area|region at the time of seeing from a light-receiving center direction. 受光中心方向から見た場合の実施例1の操作領域を示す図。FIG. 4 is a diagram showing the operation area of the first embodiment when viewed from the light receiving center direction; 発光部方向から見た場合の実施例1の操作領域を示す図。FIG. 5 is a diagram showing the operation area of the first embodiment when viewed from the direction of the light emitting section; 斜め上方から見た場合の実施例1の操作領域を示す斜視図。FIG. 4 is a perspective view showing the operation area of the first embodiment when viewed obliquely from above; 基板の長手方向から見た場合の入力動作の一例を示す図。FIG. 4 is a diagram showing an example of an input operation when viewed from the longitudinal direction of the substrate; 受光中心方向から見た場合の入力動作の一例を示す図。FIG. 5 is a diagram showing an example of an input operation when viewed from the light receiving center direction; 斜め上方から見た場合の入力動作の一例を示す斜視図。FIG. 4 is a perspective view showing an example of an input operation when viewed obliquely from above; 実施例1の動作判定用のヒストグラムの一例を示す説明図。FIG. 4 is an explanatory diagram showing an example of a histogram for motion determination according to the first embodiment; 実施例1の動作判定処理のフローチャート図。FIG. 4 is a flowchart of motion determination processing according to the first embodiment; 実施例2の非接触入力装置の構成を示すブロック図。FIG. 10 is a block diagram showing the configuration of the non-contact input device of Example 2; 実施例2の光センサの構成および操作領域を示す斜視図。FIG. 11 is a perspective view showing the configuration and operation area of the optical sensor of Example 2; 実施例3の非接触入力装置の構成を示すブロック図。FIG. 11 is a block diagram showing the configuration of the non-contact input device of Example 3; 実施例3のサイン判定用のヒストグラムの一例を示す説明図。FIG. 11 is an explanatory diagram showing an example of a histogram for signature determination according to the third embodiment; 実施例3のサイン参照テーブルの一例を示す説明図。FIG. 12 is an explanatory diagram showing an example of a signature reference table according to the third embodiment; FIG. 実施例3のサイン参照テーブルの他の例を示す説明図。FIG. 11 is an explanatory diagram showing another example of the signature reference table of Example 3; 実施例3のサイン判定処理のフローチャート図。FIG. 11 is a flowchart of signature determination processing according to the third embodiment; 実施例4の動作判定ブロックの一例を示す図。FIG. 11 is a diagram showing an example of a motion determination block according to the fourth embodiment;

以下、本発明の一実施形態を図面と共に説明する。 An embodiment of the present invention will be described below with reference to the drawings.

図1は、非接触入力装置1の構成を示すブロック図である。非接触入力装置1は、電子機器や機械などの操作対象物に操作者の入力動作に応じた操作データを入力する入力装置であって、操作対象物および非接触入力装置1に操作者が触れることなく操作対象物へのジェスチャ操作を受け付けることができる非接触型の入力装置(タッチレスセンサ、タッチレスジェスチャセンサ)である。 FIG. 1 is a block diagram showing the configuration of the non-contact input device 1. As shown in FIG. The non-contact input device 1 is an input device for inputting operation data according to an operator's input operation to an operation object such as an electronic device or a machine. It is a non-contact input device (touchless sensor, touchless gesture sensor) capable of receiving a gesture operation on an operation target without touching the object.

図1に示すように、非接触入力装置1は、光センサ2と、制御部3と、各種データを記憶する記憶部4とを有する。制御部3は、光センサ2および記憶部4と通信可能に接続されている。なお、図示は省略するが、制御部3は、操作対象物にも接続されており、非接触入力装置1で検出された操作データを操作対象物に適宜送信する。 As shown in FIG. 1, the non-contact input device 1 has an optical sensor 2, a control section 3, and a storage section 4 for storing various data. The control unit 3 is communicably connected to the optical sensor 2 and the storage unit 4 . Although illustration is omitted, the control unit 3 is also connected to an operation target, and appropriately transmits operation data detected by the non-contact input device 1 to the operation target.

図2は、実施例1の光センサ2の構成を示す図である。図2に示すように、光センサ2は、発光部21と、受光部22と、基板23とを有する。基板23は、平面視において矩形状をなす平板状の部材であり、発光部21および受光部22は、基板23の一方の面(同一面)に配置される。なお、基板23は、平面視において円形状、正方形状または他の多角形状をなす部材であってもよい。 FIG. 2 is a diagram showing the configuration of the optical sensor 2 of Example 1. As shown in FIG. As shown in FIG. 2, the optical sensor 2 has a light-emitting portion 21, a light-receiving portion 22, and a substrate . The substrate 23 is a plate-like member having a rectangular shape in plan view, and the light emitting section 21 and the light receiving section 22 are arranged on one surface (same surface) of the substrate 23 . The substrate 23 may be a member having a circular shape, square shape, or other polygonal shape in plan view.

また、発光部21と、受光部22とは、所定の方向に並ぶように配置され、かつ、所定の隙間(距離)を隔てて互いに離間するように配置される。本実施例では、発光部21と、受光部22とは、基板23の長手方向に並ぶように配置される。 Further, the light emitting unit 21 and the light receiving unit 22 are arranged so as to be aligned in a predetermined direction, and are arranged so as to be separated from each other with a predetermined gap (distance). In this embodiment, the light emitting section 21 and the light receiving section 22 are arranged side by side in the longitudinal direction of the substrate 23 .

発光部21は、所定波長の光を発光する光源を有する。発光部21の光源の光軸は、基板23の表面(基板23における発光部21の設置面)に対し略垂直になるように設けられている。なお、発光部21の光源の光軸は、基板23の表面に垂直な方向に対し多少傾いていてもよい。 The light emitting unit 21 has a light source that emits light of a predetermined wavelength. The optical axis of the light source of the light emitting unit 21 is provided so as to be substantially perpendicular to the surface of the substrate 23 (the surface on which the light emitting unit 21 is installed on the substrate 23). The optical axis of the light source of the light emitting section 21 may be slightly inclined with respect to the direction perpendicular to the surface of the substrate 23 .

発光部21の光源は、たとえば、波長が700nm~1mmの光、いわゆる赤外光を発光する赤外線LEDである。この場合、発光部21から発光される光は、赤外光(赤外線)となる。なお、発光部21から発光される光は、赤外光に限定される必要は無く、発光部21は、赤外光以外の他の波長の光を発光するものでもよい。 The light source of the light emitting unit 21 is, for example, an infrared LED that emits light with a wavelength of 700 nm to 1 mm, so-called infrared light. In this case, the light emitted from the light emitting unit 21 is infrared light (infrared light). The light emitted from the light emitting section 21 need not be limited to infrared light, and the light emitting section 21 may emit light having a wavelength other than infrared light.

また、本実施例では、1つの受光部22に対して1つの発光部21が設けられるようにしたが、1つの受光部22に対して複数の発光部21が設けられてもよい。この場合、複数の発光部21の各々は、受光部22に対する距離が等しくなるように配置される。すなわち、複数の発光部21の各々は、受光部22を中心に同心円状に配置される。また、複数の発光部21の各々は、受光部22に入射する光の光量にムラが出ないように、受光部22の中心を基準に点対称または線対称となる位置に配置される。 Further, although one light emitting unit 21 is provided for one light receiving unit 22 in this embodiment, a plurality of light emitting units 21 may be provided for one light receiving unit 22 . In this case, each of the plurality of light emitting units 21 is arranged so as to have the same distance from the light receiving unit 22 . That is, each of the plurality of light emitting units 21 is arranged concentrically around the light receiving unit 22 . In addition, each of the plurality of light emitting units 21 is arranged point-symmetrically or line-symmetrically with respect to the center of the light-receiving unit 22 so that the amount of light incident on the light-receiving unit 22 is uniform.

受光部22は、発光部から出射された光が検出対象物に照射されることによって生じた反射光を受光して、受光した光の強度(明るさ,光量)に基づく電気信号を出力する。具体的には、受光部22は、受光した光の光量に応じたデジタル値(センサ値)を所定の時間間隔で連続して出力する。 The light-receiving unit 22 receives reflected light generated by the light emitted from the light-emitting unit irradiating the object to be detected, and outputs an electric signal based on the intensity (brightness, light amount) of the received light. Specifically, the light receiving unit 22 continuously outputs a digital value (sensor value) corresponding to the amount of received light at predetermined time intervals.

受光部22は、受光した光の光量を検出する検出器としての受光素子を有する。受光素子は、たとえばフォトセンサであり、本実施例では、受光素子の受光面は、発光部21の発光面と略平行な面である。すなわち、受光素子の受光中心方向(受光面に対して垂直な方向)は、発光部21の光源の光軸と同じ方向(平行)となる。なお、受光素子の受光中心方向は、発光部21の光源の光軸の方向に対して、多少傾いていてもよい。ただし、複数の受光素子の受光中心方向は、すべて互いに平行である。 The light receiving section 22 has a light receiving element as a detector for detecting the amount of received light. The light-receiving element is, for example, a photosensor, and in this embodiment, the light-receiving surface of the light-receiving element is substantially parallel to the light-emitting surface of the light-emitting section 21 . That is, the light receiving center direction of the light receiving element (the direction perpendicular to the light receiving surface) is the same direction (parallel) as the optical axis of the light source of the light emitting section 21 . The direction of the light receiving center of the light receiving element may be slightly inclined with respect to the direction of the optical axis of the light source of the light emitting section 21 . However, the light-receiving center directions of the plurality of light-receiving elements are all parallel to each other.

また、受光部22は、3つ以上の受光素子を有する。各受光素子は、基板23の表面上において、第1の方向に2つ以上(複数)配置され、第1の方向に交差する(第1の方向とは異なる)第2の方向に2つ以上並ぶように配置される。すなわち、受光部22では、2方向において複数の受光素子が並ぶように配置される。 Further, the light receiving section 22 has three or more light receiving elements. Two or more (plurality) of each light receiving element are arranged in a first direction on the surface of the substrate 23, and two or more are arranged in a second direction (different from the first direction) intersecting the first direction. arranged side by side. That is, in the light receiving section 22, a plurality of light receiving elements are arranged in two directions.

本実施例では、図2に示すように、受光部22は、マトリクス状(2×2)に配置される4つの受光素子22A~22Dを有する。本実施例では、第1の方向が基板23の長手方向(発光部21と受光部22とが並ぶ方向)であり、第2の方向が基板23の幅方向である。すなわち、第1の方向と、第2の方向とは直交する方向(直角)である。また、第1の方向および第2の方向のそれぞれの方向に並ぶ受光素子の数は同じである。 In this embodiment, as shown in FIG. 2, the light receiving section 22 has four light receiving elements 22A to 22D arranged in a matrix (2×2). In this embodiment, the first direction is the longitudinal direction of the substrate 23 (the direction in which the light emitting portion 21 and the light receiving portion 22 are aligned), and the second direction is the width direction of the substrate 23 . That is, the first direction and the second direction are orthogonal directions (right angles). Also, the number of light receiving elements arranged in each of the first direction and the second direction is the same.

なお、受光部22に設けられる受光素子の数および配置態様は特に限定される必要は無い。たとえば、複数の受光素子は、三角形をなすように配置されてもよいし、菱形をなすように配置されてもよいし、2×3のようにいずれかの方向の数が多くなるように配置されてもよいし、3×3(9個)以上のマトリクス状に配置されてもよい。 The number and layout of the light receiving elements provided in the light receiving section 22 are not particularly limited. For example, the plurality of light receiving elements may be arranged to form a triangle, may be arranged to form a rhombus, or may be arranged such that the number in one direction increases, such as 2×3. may be arranged, or may be arranged in a matrix of 3×3 (9 pieces) or more.

図3は、基板23の幅方向から見た場合の検出可能領域DRを示す図である。図4は、受光中心方向から見た場合の検出可能領域DRを示す図である。図3および図4に示すように、発光部21から発光された光は、光軸を中心に、放射状に広がる。本実施例では、発光部21を頂点とし、光軸を母線(中心線)とした略円錐状の発光領域が形成される。また、受光部22が受光可能な領域(受光可能領域)は、受光部22を頂点とし、受光中心方向を中心線とした略円錐状の領域である。受光部22は、発光領域と受光可能領域とが重なる領域に検出対象物が存在する場合に、検出対象物に反射した光を受光することができる。したがって、発光領域と受光可能領域とが重なる略円錐状の領域が、光センサ2において検出対象物の存在を検出可能な最大の領域(検出可能領域)DRとなる。 FIG. 3 is a diagram showing the detectable region DR when viewed from the width direction of the substrate 23. As shown in FIG. FIG. 4 is a diagram showing the detectable region DR when viewed from the light receiving center direction. As shown in FIGS. 3 and 4, the light emitted from the light emitting section 21 spreads radially around the optical axis. In this embodiment, a substantially conical light emitting region is formed with the light emitting portion 21 as the vertex and the optical axis as the generatrix (center line). Further, the area where the light receiving section 22 can receive light (light receiving area) is a substantially conical area with the light receiving section 22 as the apex and the light receiving center direction as the center line. The light receiving section 22 can receive the light reflected by the detection target when the detection target exists in the region where the light emitting region and the light receiving region overlap. Therefore, the substantially conical area where the light emitting area and the light receiving area overlap is the maximum area (detectable area) DR in which the presence of the detection target can be detected in the optical sensor 2 .

なお、発光部21の放射角度および受光部22が受光可能な角度を大きくすることによって、検出可能領域DRを略半球状または限りなくこれに近い形状の領域とすることもできる。また、光センサ2から発光領域の底面までの距離、すなわち検出可能距離は、発光部21から発光された光の光量(受光部22で反射光を検出可能な程度の光量)によって定まる。このため、発光部21から発光された光の光量を多くする(発光レベルを上げる)ことによって、検出可能領域DRを広く(大きく)することができ、発光部21から発光された光の光量を少なくする(発光レベルを下げる)ことによって、検出可能領域DRを狭く(小さく)することができる。 By increasing the radiation angle of the light-emitting portion 21 and the angle at which the light-receiving portion 22 can receive light, the detectable region DR can be made substantially hemispherical or nearly semispherical. Further, the distance from the optical sensor 2 to the bottom surface of the light emitting region, that is, the detectable distance is determined by the amount of light emitted from the light emitting section 21 (a light amount at which the light receiving section 22 can detect the reflected light). Therefore, by increasing the amount of light emitted from the light emitting unit 21 (increasing the light emission level), the detectable region DR can be widened (enlarged), and the amount of light emitted from the light emitting unit 21 can be increased. By decreasing (lowering the light emission level), the detectable region DR can be narrowed (smaller).

また、光センサ2で検出可能な検出対象物は、発光部21から発光された光を反射するものであれば良く、操作者の手指、腕等の体の一部だけでなく、操作者が持つペン、電子機器、棒等の物体や、操作者が身に着けている衣服または装飾品の一部等も含まれる。 Further, the detection object that can be detected by the optical sensor 2 may be any object that reflects the light emitted from the light emitting unit 21, not only a part of the operator's body such as fingers and arms, but also a part of the operator's body. Objects such as pens, electronic devices, and sticks held by the operator, and part of clothing or accessories worn by the operator are also included.

図1に戻って、制御部3は、非接触入力装置1の各要素を制御する。具体的には、制御部3は、CPU(中央演算処理装置)を有しており、発光部21の点灯/消灯処理、受光部22から入力されるセンサ値の処理、および操作対象物への操作データの送信処理等を行う。 Returning to FIG. 1 , the controller 3 controls each element of the non-contact input device 1 . Specifically, the control unit 3 has a CPU (Central Processing Unit), and performs lighting/lighting-off processing of the light-emitting unit 21, processing of sensor values input from the light-receiving unit 22, and processing of the operation object. Performs transmission processing of operation data, etc.

記憶部4は、メイン処理プログラム41、座標変換プログラム42、モード判定プログラム43、動作検出プログラム44、座標データ45、動作検出用データ46、操作データ47が記憶されている。メイン処理プログラム41は、非接触入力装置1の全体的な処理、発光部21の点灯/消灯処理、または操作データを操作対象物に送信する処理等を実行するためのプログラムである。
<座標変換処理>
The storage unit 4 stores a main processing program 41, a coordinate conversion program 42, a mode determination program 43, a motion detection program 44, coordinate data 45, motion detection data 46, and operation data 47. FIG. The main processing program 41 is a program for executing overall processing of the non-contact input device 1, lighting/extinguishing processing of the light emitting unit 21, processing for transmitting operation data to an operation target, and the like.
<Coordinate conversion processing>

座標変換プログラム42は、受光部22(各受光素子)から所定の時間間隔で連続して入力されるセンサ値を検出可能領域DRにおける座標データに変換するためのプログラムである。受光部22から入力されるセンサ値を座標データに変換する座標変換処理の方法は特に限定されないが、たとえば、4つの受光素子22A~22Dのそれぞれから入力されるセンサ値から座標データを算出(演算)することができる。 The coordinate conversion program 42 is a program for converting sensor values continuously input from the light receiving section 22 (each light receiving element) at predetermined time intervals into coordinate data in the detectable region DR. The method of coordinate conversion processing for converting the sensor values input from the light receiving unit 22 into coordinate data is not particularly limited. )can do.

たとえば、発光部21と受光部22が並ぶ方向(受光素子が並ぶ第1の方向)をX方向とし、受光部22の受光中心方向をZ方向とし、X方向およびZ方向のいずれにも直交する方向(X方向およびZ方向によって規定されるXZ平面に直交する方向、または受光素子が並ぶ第2の方向)をY方向とした場合(図3および図4参照)、X座標、Y座標、Z座標のそれぞれは、次の式(数A)、式(数B)、式(数C)によって算出することができる。
〔数A〕
X=((S1+S4)-(S2+S3)/(S1+S2+S3+S4))
〔数B〕
Y=((S1+S2)-(S3+S4)/(S1+S2+S3+S4))
〔数C〕
Z=1-k(S1+S2+S3+S4/Smax)
For example, the direction in which the light-emitting portion 21 and the light-receiving portion 22 are arranged (the first direction in which the light-receiving elements are arranged) is the X-direction, and the light-receiving center direction of the light-receiving portion 22 is the Z-direction. When the direction (the direction perpendicular to the XZ plane defined by the X direction and the Z direction, or the second direction in which the light receiving elements are arranged) is the Y direction (see FIGS. 3 and 4), the X coordinate, the Y coordinate, and the Z Each of the coordinates can be calculated by the following formula (number A), formula (number B), and formula (number C).
[Number A]
X=((S1+S4)-(S2+S3)/(S1+S2+S3+S4))
[Number B]
Y=((S1+S2)-(S3+S4)/(S1+S2+S3+S4))
[Number C]
Z=1−k(S1+S2+S3+S4/Smax)

ここで、S1は、第1の受光素子22Aから入力されるセンサ値であり、S2は、第2の受光素子22Bから入力されるセンサ値であり、S3は、第3の受光素子22Cから入力されるセンサ値であり、S4は、第4の受光素子22Dから入力されるセンサ値であり、Smaxは、検出対象物が最もセンサに近づいた場合のセンサ値を合計した値(検出対象物が検出可能領域DRのうち最も光センサ2に近い位置に存在する場合のセンサ値を合計した値)であり、kは、任意の補正係数である。この場合、X座標、Y座標、Z座標のそれぞれは、受光部22を原点(X=0、Y=0、Z=0)とした座標系のデータとなる。また、Z座標は、4つの受光素子22A~22Dのセンサ値の合計値であるため、光センサ2における総出力値(総光量)ということもできる。 Here, S1 is a sensor value input from the first light receiving element 22A, S2 is a sensor value input from the second light receiving element 22B, and S3 is an input from the third light receiving element 22C. S4 is the sensor value input from the fourth light receiving element 22D, and Smax is the sum of the sensor values when the detection target is closest to the sensor (when the detection target is is the sum of the sensor values in the detectable region DR at the position closest to the optical sensor 2), and k is an arbitrary correction coefficient. In this case, each of the X coordinate, Y coordinate, and Z coordinate is data of a coordinate system with the light receiving unit 22 as the origin (X=0, Y=0, Z=0). Also, since the Z coordinate is the total value of the sensor values of the four light receiving elements 22A to 22D, it can also be said to be the total output value (total amount of light) of the optical sensor 2. FIG.

以上のように、検出可能領域DRにおける検出対象物の座標(位置)を算出することができる。座標変換プログラム42に従って変換されたデータは、時系列に従って座標データ45として記憶部に記憶されている。 As described above, the coordinates (position) of the detection object in the detectable region DR can be calculated. The data converted according to the coordinate conversion program 42 are stored in the storage unit as coordinate data 45 in chronological order.

なお、本実施例では、座標変換処理を座標変換プログラム42に従って制御部3(CPU)が実行するようにしたが、座標変換処理はハードウェア回路により実行されてもよい。この場合、2×2に配置される4つの受光素子の並ぶ向き(第1の方向および第2の方向)をX方向またはY方向に対して45°傾いた状態とし、X方向に並ぶ2つの受光素子のセンサ値の差分をX座標とし、Y方向に並ぶ2つの受光素子のセンサ値の差分をY座標とし、4つの受光素子のセンサ値の合計をZ座標とするような座標変換用の回路を光センサ2と制御部3の間に設ければよい。
<モード判定処理>
In this embodiment, the coordinate conversion process is executed by the control unit 3 (CPU) according to the coordinate conversion program 42, but the coordinate conversion process may be executed by a hardware circuit. In this case, the directions (the first direction and the second direction) in which the four light receiving elements arranged in a 2×2 arrangement are inclined by 45° with respect to the X direction or the Y direction, and the two light receiving elements arranged in the X direction A coordinate conversion method in which the difference between the sensor values of the light receiving elements is defined as the X coordinate, the difference between the sensor values of the two light receiving elements arranged in the Y direction is defined as the Y coordinate, and the sum of the sensor values of the four light receiving elements is defined as the Z coordinate. A circuit may be provided between the optical sensor 2 and the controller 3 .
<Mode determination processing>

モード判定プログラム43は、座標変換プログラム42に従って変換された座標データ45が示す検出対象物の位置(座標)の変化から、検出可能領域DRに検出対象物が進入したか、または検出可能領域DRから検出対象物が退出(退去)したかどうかを判定するためのプログラムである。また、モード判定プログラム43は、検出可能領域DRに検出対象物が存在している状態で、検出可能領域DR内に設定された操作領域R(ジェスチャ操作を受け付ける領域)に検出対象物が進入したか、または操作領域R内から検出対象物が退出したかどうかを判定するためのプログラムでもある。 The mode determination program 43 determines whether the detection target has entered the detectable region DR or has left the detectable region DR from the change in the position (coordinates) of the detection target indicated by the coordinate data 45 converted according to the coordinate conversion program 42 . This is a program for determining whether or not the object to be detected has left (removed). In addition, the mode determination program 43 determines whether the detection target enters the operation region R (the region for accepting the gesture operation) set in the detectable region DR while the detection target exists in the detectable region DR. Alternatively, it is also a program for determining whether or not the object to be detected has left the operation area R.

検出可能領域DRに検出対象物が進入したか、または検出可能領域DRから検出対象物が退出したかどうかを判定する検出可能領域DRに対する進入/退出判定処理の方法は特に限定されない。たとえば、Z座標(光センサ2における総出力値)に検出可能領域DRに検出対象物が進入したか否かを判定するための閾値を設定しておき、Z座標(光センサ2における総出力値)が閾値未満の状態から閾値以上の状態に変化したとき、検出可能領域DRに検出対象物が進入したと判定し、Z座標が閾値以上の状態から閾値未満の状態に変化したとき、検出可能領域DRから検出対象物が退出したと判定することができる。また、Z座標が閾値以上の状態とは、検出可能領域DR内に検出対象物が存在している状態であるともいえる。 There is no particular limitation on the method of entry/exit determination processing for the detectable region DR for determining whether the detection target has entered the detectable region DR or whether the detection target has left the detectable region DR. For example, a threshold for determining whether or not a detection object has entered the detectable region DR is set to the Z coordinate (total output value of the optical sensor 2), and the Z coordinate (total output value of the optical sensor 2) ) changes from below the threshold to above the threshold, it is determined that the detection object has entered the detectable region DR, and when the Z coordinate changes from above the threshold to below the threshold, detection is possible. It can be determined that the detection target has left the area DR. In addition, the state where the Z coordinate is equal to or greater than the threshold can also be said to be the state where the detection target exists within the detectable region DR.

さらに、検出可能領域DRに対する進入/退出判定処理では、Z座標のみを用いて判定することができる。したがって、検出可能領域DRからの退出判定後、次の進入を判定するまでの間は、受光部22からのセンサ値に対してZ座標のみ変換し、制御部3の処理負荷を低減することもできる。 Furthermore, in the entry/exit determination process for the detectable region DR, determination can be made using only the Z coordinate. Therefore, it is also possible to reduce the processing load of the control unit 3 by converting only the Z coordinate with respect to the sensor value from the light receiving unit 22 after the exit determination from the detectable region DR until the next entry determination. can.

図5は、受光中心方向(Z方向)から見た場合の実施例1の操作領域Rを示す図である。図6は基板23の長手方向(X方向)から見た場合の実施例1の操作領域Rを示す図である。図7は斜め上方から見た場合の実施例1の操作領域Rを示す斜視図である。 FIG. 5 is a diagram showing the operation region R of Example 1 when viewed from the light receiving center direction (Z direction). FIG. 6 is a diagram showing the operation area R of Example 1 when viewed from the longitudinal direction (X direction) of the substrate 23. As shown in FIG. FIG. 7 is a perspective view showing the operation area R of the first embodiment when viewed obliquely from above.

図5および図6に示すように、検出可能領域DRには、操作領域RのY方向の境界を規定するための2つの仮想境界面が設定されている。各仮想境界面は、XZ平面に平行な面であるので、仮想境界面のY方向の位置は、Y座標の数値で規定されている。言い換えれば、検出可能領域DRのうち、2つの仮想境界面に挟まれた領域、つまり2つの仮想境界面の間の領域が、操作領域Rとなる。このため、仮想境界面のY方向の位置を規定する数値は、操作領域RのY方向の閾値ということもできる。上述したように、検出可能領域DRの座標系は受光部22を原点としているので、2つの仮想境界面のうちの一方の仮想境界面はプラスのY座標で規定され、他方の仮想境界面はマイナスのY座標で規定される。 As shown in FIGS. 5 and 6, two virtual boundary planes are set in the detectable region DR to define the boundary of the operation region R in the Y direction. Since each virtual boundary surface is a plane parallel to the XZ plane, the position of the virtual boundary surface in the Y direction is defined by the numerical value of the Y coordinate. In other words, of the detectable region DR, the region sandwiched between the two virtual boundary surfaces, that is, the region between the two virtual boundary surfaces becomes the operation region R. Therefore, the numerical value that defines the position of the virtual boundary surface in the Y direction can also be said to be the threshold value of the operation region R in the Y direction. As described above, since the coordinate system of the detectable region DR has the light receiving unit 22 as the origin, one of the two virtual boundary surfaces is defined by the positive Y coordinate, and the other virtual boundary surface is defined by the positive Y coordinate. Defined by the negative Y coordinate.

したがって、図5~図7に示すように、操作領域Rは、XZ平面に沿って延び(X方向およびZ方向に延び)、Y方向に所定の厚みを有する板状の領域となる。すなわち、操作領域Rは、Y座標が(Y=0)のXZ平面を中心に、検出可能領域DRの内側においてY方向に厚みを持たせたような形状の領域となる。 Therefore, as shown in FIGS. 5 to 7, the operation area R extends along the XZ plane (extends in the X direction and the Z direction) and becomes a plate-like area having a predetermined thickness in the Y direction. In other words, the operation region R becomes a region having a shape with a thickness in the Y direction inside the detectable region DR centered on the XZ plane where the Y coordinate is (Y=0).

そして、本実施例の非接触入力装置1では、Y座標がゼロ(Y=0)のXZ平面(操作平面)を基準とした操作領域Rにおけるジェスチャ操作を検出する。すなわち、非接触入力装置1では、操作平面が、操作領域Rの基準面となる。また、光センサ2(発光部21および受光部22)は、操作平面の延長面上に位置することになる。本実施例では、光センサ2は、操作平面を下方に延長した延長面上に位置する。すなわち、操作平面(操作領域R)は、光センサ2の上方に設定される。 Then, the non-contact input device 1 of the present embodiment detects a gesture operation in the operation area R based on the XZ plane (operation plane) where the Y coordinate is zero (Y=0). That is, in the non-contact input device 1, the operation plane serves as the reference plane of the operation area R. As shown in FIG. Also, the optical sensor 2 (the light emitting unit 21 and the light receiving unit 22) is positioned on the extended plane of the operation plane. In this embodiment, the optical sensor 2 is positioned on an extension plane extending downward from the operation plane. That is, the operation plane (operation area R) is set above the optical sensor 2 .

また、本実施例では、XZ平面を操作平面として説明する。したがって、操作平面と第1の方向は平行であり、かつ、第1の方向は操作平面上の方向であり、受光素子は操作平面の端部または端部近傍から操作平面上へ向かって受光中心線方向が向いている。また、操作平面と第2の方向は直角であり、かつ、第2の方向は操作平面の法線方向である。ただし、受光素子は第1の方向と第2の方向のそれぞれにおいて直交しなくても良い。 Also, in this embodiment, the XZ plane will be described as the operation plane. Therefore, the operation plane and the first direction are parallel to each other, and the first direction is a direction on the operation plane, and the light-receiving element is directed toward the operation plane from the edge or the vicinity of the edge of the operation plane. Line direction is facing. Also, the operation plane and the second direction are perpendicular, and the second direction is the normal direction of the operation plane. However, the light-receiving elements do not have to be orthogonal in each of the first direction and the second direction.

なお、操作平面は、X方向およびZ方向に延びる平面であれば、XZ平面に対し多少傾いた面であってもよく、Y座標が操作領域RのY方向の閾値の範囲内であれば、Y座標がゼロ(Y=0)のXZ平面からオフセットした面であってもよい。 The operation plane may be a plane slightly inclined with respect to the XZ plane as long as it extends in the X direction and the Z direction. It may be a plane offset from the XZ plane where the Y coordinate is zero (Y=0).

なお、操作領域Rおよびこれに含まれる操作平面は、受光部22の受光中心方向と、受光部22の受光中心方向に直交する方向に延びる領域であるといえる。また、本実施例では、操作領域Rおよび操作平面が延びる2方向のうち、受光部22の受光中心方向に直交する方向は、発光部21と受光部22とが並ぶ方向と同じ方向である。すなわち、発光部21および受光部22の両方が操作平面のX軸上に位置する。 It can be said that the operation region R and the operation plane included therein are regions extending in the light receiving center direction of the light receiving unit 22 and in a direction orthogonal to the light receiving center direction of the light receiving unit 22 . In this embodiment, of the two directions in which the operation region R and the operation plane extend, the direction orthogonal to the light receiving center direction of the light receiving unit 22 is the same direction as the direction in which the light emitting unit 21 and the light receiving unit 22 are arranged. That is, both the light emitting section 21 and the light receiving section 22 are positioned on the X axis of the operation plane.

以上のように設定された操作領域Rに対して、検出対象物が進入したか、または検出対象物が退出したかどうかを判定する、操作領域Rに対する進入/退出判定処理の方法は特に限定されない。操作領域Rに対する進入/退出判定処理の方法の一例としては、たとえば、座標データ45のY座標が、仮想境界面の外側の座標である状態(検出対象物が操作領域Rの外側に位置する状態)から、仮想境界面の内側の座標である状態(検出対象物が操作領域Rの内側に位置する状態)に変化した場合に、検出対象物が操作領域Rに進入したと判定することができる。また、座標データ45のY座標が、仮想境界面の内側の座標である状態から、仮想境界面の外側の座標である状態に変化した場合に、検出対象物が操作領域Rから退出したと判定することができる。なお、Y座標が仮想境界面の内側の座標である状態とは、操作領域R内に検出対象物が存在している状態であるともいえる。 There is no particular limitation on the method of the entry/exit determination processing for the operation area R that determines whether the detection object has entered or exited from the operation area R set as described above. . As an example of the method of the entry/exit determination process for the operation area R, for example, the Y coordinate of the coordinate data 45 is the coordinate outside the virtual boundary surface (the state where the object to be detected is located outside the operation area R). ) to the state of the coordinates inside the virtual boundary surface (the state where the detection target is positioned inside the operation region R), it can be determined that the detection target has entered the operation region R. . Further, when the Y coordinate of the coordinate data 45 changes from the coordinates inside the virtual boundary surface to the coordinates outside the virtual boundary surface, it is determined that the object to be detected has left the operation area R. can do. Note that the state where the Y coordinate is the coordinate inside the virtual boundary plane can also be said to be the state where the object to be detected exists within the operation region R. FIG.

また、操作領域Rに対する進入/退出判定処理では、Y座標およびこれを算出するためのZ座標のみを用いて判定することができる。したがって、操作領域Rからの退出判定後、次の進入を判定するまでの間は、受光部22からのセンサ値に対してY座標およびZ座標のみ変換し(数Bのみ演算し)、判定処理を行うようにし、制御部3の処理負荷を低減することもできる。 Also, in the entry/exit determination process for the operation area R, determination can be made using only the Y coordinate and the Z coordinate for calculating the Y coordinate. Therefore, after the exit from the operation area R is determined, until the next entry is determined, only the Y coordinate and the Z coordinate are converted (only the number B is calculated) with respect to the sensor value from the light receiving unit 22, and the determination process is performed. , the processing load on the control unit 3 can be reduced.

図8は基板23の長手方向から見た場合の入力動作の一例を示す図である。図9は受光中心方向から見た場合の入力動作の一例を示す図である。図10は斜め上方から見た場合の入力動作の一例を示す斜視図である。 8A and 8B are diagrams showing an example of an input operation when viewed from the longitudinal direction of the substrate 23. FIG. FIG. 9 is a diagram showing an example of an input operation when viewed from the light receiving center direction. FIG. 10 is a perspective view showing an example of an input operation when viewed obliquely from above.

図8~図10に示すように、検出対象物が操作領域R内に存在する場合には、操作平面(操作領域R)における動作検出が可能な状態となり、検出対象物が操作領域R外に存在する(検出対象物が操作領域R内に存在しない)場合には、動作検出が不可能な状態となる。本実施例では、操作領域Rに対する進入が判定されたときに、ジェスチャ操作を検出するモード(動作検出モード)が開始され、操作領域Rからの退出が判定されたときに、動作検出モードが終了する。このため、モード判定プログラム43は、動作検出モードを開始/終了するためのプログラムでもある。
<動作検出処理>
As shown in FIGS. 8 to 10, when the object to be detected exists within the operation area R, motion detection on the operation plane (operation area R) becomes possible, and the object to be detected is outside the operation area R. If it exists (the object to be detected does not exist within the operation area R), the motion cannot be detected. In this embodiment, when it is determined that the user has entered the operation area R, the gesture operation detection mode (motion detection mode) is started, and when it is determined that the user has left the operation area R, the operation detection mode ends. do. Therefore, the mode determination program 43 is also a program for starting/ending the motion detection mode.
<Action detection processing>

動作検出プログラム44は、動作検出モードの実行中に、座標データ45が示す検出対象物の位置(座標)の変化、すなわち、受光部22(各受光素子)から入力されるセンサ値の変化から、操作領域R(操作平面)における検出対象物の動作(ジェスチャ操作)を演算により検出するためのプログラムである。 During execution of the motion detection mode, the motion detection program 44 detects changes in the position (coordinates) of the detection object indicated by the coordinate data 45, that is, changes in sensor values input from the light receiving unit 22 (each light receiving element). It is a program for detecting a motion (gesture operation) of a detection target in an operation region R (operation plane) by calculation.

座標データ45の変化から操作平面における動作を検出する動作検出処理の方法は特に限定されないが、たとえば、座標データ45のX座標およびZ座標の変化から、操作平面における検出対象物の移動方向を示すベクトル(検出対象のベクトル)を所定の検出サイクル(5~30mm/sec)で区切って連続して検出し、検出対象のベクトルに基づいて、ジェスチャ操作を検出する方法がある。すなわち、所定時間間隔で連続して取得した座標データ45の変化から、ジェスチャ操作を検出する。 The method of motion detection processing for detecting a motion on the operation plane from changes in the coordinate data 45 is not particularly limited. There is a method in which vectors (vectors to be detected) are continuously detected at predetermined detection cycles (5 to 30 mm/sec), and a gesture operation is detected based on the vectors to be detected. That is, the gesture operation is detected from the change in the coordinate data 45 continuously acquired at predetermined time intervals.

この場合、予め登録されたジェスチャ操作(登録ジェスチャ)に対応する基準となるベクトル(基準ベクトル)のデータを予め作成しておき、検出対象のベクトルが検出される度に、検出対象のベクトルのデータと基準ベクトルのデータとを照らし合わせて、検出対象のベクトルが基準ベクトルかどうか、すなわち、操作平面における検出対象物の動作が登録ジェスチャかどうかを判定する。 In this case, data of a reference vector (reference vector) corresponding to a pre-registered gesture operation (registered gesture) is created in advance, and each time a vector to be detected is detected, the data of the vector to be detected is detected. and reference vector data to determine whether the vector to be detected is the reference vector, that is, whether the motion of the detection target on the operation plane is a registered gesture.

図11は、実施例1の動作判定用(ジェスチャ判定用)のヒストグラムの一例を示す説明図である。図11に示すように、実施例1では、登録ジェスチャとして、操作平面において上下左右の各々に向かう直線的なジェスチャ(上下左右のいずれかの方向に向かって直線を描くようなジェスチャ)V1~V4と、操作平面上の右回転のジェスチャ(時計回りに円を描くようなジェスチャ)V5と、操作平面上の左回転のジェスチャ(反時計回りに円を描くようなジェスチャ)V6とが登録されており、また、登録ジェスチャV1~V6のそれぞれに対応する基準ベクトルが登録されている。なお、基準ベクトルにおける左右の向きについては、Y座標のマイナス側から見た場合の左右に合わせて設定されており、Y座標のプラス側から見た場合には、左右の向きが反転することになる。 FIG. 11 is an explanatory diagram illustrating an example of a histogram for action determination (gesture determination) according to the first embodiment. As shown in FIG. 11, in the first embodiment, as registered gestures, linear gestures directed upward, downward, leftward, or rightward on the operation plane (gestures such as drawing straight lines in any one of the upward, downward, leftward, or rightward directions) V1 to V4. , a right rotation gesture (a gesture like drawing a circle clockwise) V5 on the operation plane and a left rotation gesture (a gesture like drawing a circle counterclockwise) V6 on the operation plane are registered. , and reference vectors corresponding to each of the registered gestures V1 to V6 are registered. Note that the left and right directions of the reference vector are set according to the left and right directions when viewed from the negative side of the Y coordinate, and the left and right directions are reversed when viewed from the positive side of the Y coordinate. Become.

具体的には、直線的なジェスチャV1~V4については、検出サイクルの前後(開始時点および終了時点)における2つの座標データ45の位置の差分、すなわち、前回(サイクル開始時)の位置P1(x1,z1)と、今回(サイクル終了時)の位置P2(x2,z2)との差分から生成されたベクトルを検出対象のベクトルとして判定する。 Specifically, for the linear gestures V1 to V4, the difference between the positions of the two coordinate data 45 before and after the detection cycle (at the start and end) of the detection cycle, that is, the previous position (at the start of the cycle) P1(x1 , z1) and the current (at the end of the cycle) position P2 (x2, z2) is determined as a vector to be detected.

また、回転動作V5,V6については、2回分の検出サイクルにおける3つの座標データ45の位置の差分、すなわち、前々回(1回目のサイクル開始時)の位置P0(x0,z0)と、前回(1回目のサイクル終了時および2回目のサイクル開始時)の位置P1(x1,z1)と、今回(2回目のサイクル終了時)の位置P2(x2,z2)とから生成される2つのベクトルの外積の正負で判別する。そして、動作検出モードが開始されると、検出サイクルが終了する度に、検出対象のベクトルが登録ジェスチャV1~V6のそれぞれに対応する基準ベクトルかどうかが判定される。 Further, for the rotation operations V5 and V6, the difference between the positions of the three coordinate data 45 in the two detection cycles, that is, the position P0 (x0, z0) two times before (at the start of the first cycle) and the position P0 (x0, z0) the previous time (1 Cross product of two vectors generated from position P1 (x1, z1) at the end of the second cycle and at the start of the second cycle and position P2 (x2, z2) at the current time (at the end of the second cycle) It is determined by the positive or negative of . Then, when the motion detection mode is started, each time the detection cycle ends, it is determined whether or not the vector to be detected is the reference vector corresponding to each of the registered gestures V1 to V6.

また、実施例1のジェスチャ判定用のヒストグラムでは、登録ジェスチャの検出数がカウントされる(図11における「検出数」の欄)。検出対象のベクトルが登録ジェスチャであると判定された場合、すなわち、登録ジェスチャが検出された場合、検出された登録ジェスチャの検出数が1カウントアップ(1加算)される。図11は、左から右に向かう直線的なジェスチャV1と、下から上に向かう直線的なジェスチャV4とが、それぞれ1回ずつ検出された状態のヒストグラムを示している。 In addition, in the histogram for gesture determination according to the first embodiment, the number of detections of registered gestures is counted ("Number of Detections" column in FIG. 11). When it is determined that the vector to be detected is a registered gesture, that is, when a registered gesture is detected, the detection count of the detected registered gesture is incremented by one (added by one). FIG. 11 shows histograms in which the left-to-right linear gesture V1 and the bottom-to-up linear gesture V4 are detected once each.

検出対象のベクトルのデータ、基準ベクトルのデータ(登録ジェスチャのデータ)、およびジェスチャ判定用のヒストグラムのデータは、動作検出用データ46として記憶部に記憶されている。 The detection target vector data, the reference vector data (registered gesture data), and the histogram data for gesture determination are stored in the storage unit as motion detection data 46 .

そして、動作検出モードが終了した場合、すなわち、操作領域Rからの退出が判定された場合、動作検出モードの実行中に検出されたジェスチャ操作のデータ(操作データ)47が検出数に応じて生成され、操作データ47は、適宜のタイミングで操作対象物に送信される。なお、複数のジェスチャ操作が検出されていた場合、複数のジェスチャ操作のデータを含む1つの操作データ47が生成されるようにしてもよいし、1つのジェスチャ操作毎に対して1つの操作データ47が生成されるようにしてもよい。また、複数のジェスチャ操作のデータを含む1つの操作データ47が生成される場合には、操作データ47は、複数のジェスチャ操作の検出された順番のデータを含むようにしてもよい。
<フローチャート>
Then, when the motion detection mode ends, that is, when it is determined that the user has left the operation area R, data (operation data) 47 of gesture manipulations detected during execution of the motion detection mode is generated according to the number of detections. and the operation data 47 is transmitted to the operation target at appropriate timing. Note that when a plurality of gesture operations are detected, one operation data 47 including data of a plurality of gesture operations may be generated, or one operation data 47 may be generated for each gesture operation. may be generated. Moreover, when one operation data 47 including data of a plurality of gesture operations is generated, the operation data 47 may include data in the order in which the plurality of gesture operations are detected.
<Flowchart>

図12は動作判定処理のフローチャート図である。以下、図12を参照して動作判定処理を説明する。動作判定処理は、検出可能領域DRに検出対象物が進入したとき、すなわち、Z座標(光センサ2における総出力値)が閾値未満の状態から閾値以上の状態に変化したときに開始される。 FIG. 12 is a flowchart of the action determination process. The motion determination process will be described below with reference to FIG. The motion determination process is started when a detection target enters the detectable region DR, that is, when the Z coordinate (the total output value of the optical sensor 2) changes from below the threshold to above the threshold.

動作判定処理が開始されると、操作領域Rに対する進入判定を行う(ステップS1)。ステップS1で検出対象物が操作領域Rに進入したと判定されなければ(ステップS1:NO)、同じステップS1に戻る。すなわち、検出対象物が操作領域Rに進入したと判定されるまで待機する。 When the action determination process is started, it is determined whether the user has entered the operation area R (step S1). If it is not determined in step S1 that the detection target has entered the operation area R (step S1: NO), the process returns to step S1. That is, it waits until it is determined that the object to be detected has entered the operation region R.

一方、ステップS1で検出対象物が操作領域Rに進入したと判定されれば(ステップS1:YES)、動作検出モードを開始し、検出対象のベクトルを検出し(ステップS2)、ステップS2で検出された検出対象のベクトルが基準ベクトルかどうかを判定する(ステップS3)。 On the other hand, if it is determined in step S1 that the object to be detected has entered the operation area R (step S1: YES), the motion detection mode is started, the vector to be detected is detected (step S2), and detected in step S2. It is determined whether the vector to be detected is a reference vector (step S3).

ステップS3で検出対象のベクトルが基準ベクトルでないと判定されれば(ステップS3:NO)、後述するステップS5に進む。一方、ステップS3で検出対象のベクトルが基準ベクトルであると判定されれば(ステップS3:YES)、基準ベクトルに対応する登録ジェスチャ(動作)の検出数を1カウントアップして(ステップS4)、操作領域Rからの退出判定を行う(ステップS5)。 If it is determined in step S3 that the vector to be detected is not the reference vector (step S3: NO), the process proceeds to step S5, which will be described later. On the other hand, if it is determined in step S3 that the vector to be detected is the reference vector (step S3: YES), the detected number of registered gestures (movements) corresponding to the reference vector is incremented by one (step S4), Determination of leaving the operation area R is performed (step S5).

ステップS5で検出対象物が操作領域Rから退出したと判定されなければ(ステップS5:NO)、すなわち、検出対象物が操作領域Rに留まっている場合には、ステップS2に戻り、ステップS2~ステップS4の処理を検出サイクル毎に繰り返し行う。 If it is not determined in step S5 that the object to be detected has left the operation area R (step S5: NO), that is, if the object to be detected remains in the operation area R, the process returns to step S2. The process of step S4 is repeatedly performed for each detection cycle.

一方、ステップS5で検出対象物が操作領域Rから退出したと判定されると(ステップS5:YES)、動作検出モードを終了し、登録ジェスチャ(動作)が検出されていたかどうかを判定する(ステップS6)。 On the other hand, if it is determined in step S5 that the object to be detected has left the operation area R (step S5: YES), the motion detection mode is terminated, and it is determined whether or not a registered gesture (motion) has been detected (step S5: YES). S6).

ステップS6で登録ジェスチャが検出されていないと判定されれば(ステップS6:NO)、後述するステップS8に進む。一方、ステップS6で登録ジェスチャが検出されていたと判定されれば(ステップS6:YES)、検出された登録ジェスチャに対応する操作データを生成し(ステップS7)、ジェスチャ判定用のヒストグラムのデータを初期化し(ステップS8)、動作判定処理を終了するかどうか、すなわち、検出可能領域DRから検出対象物が退出したかどうかを判定する(ステップS9)。 If it is determined in step S6 that no registered gesture has been detected (step S6: NO), the process proceeds to step S8, which will be described later. On the other hand, if it is determined in step S6 that a registered gesture has been detected (step S6: YES), operation data corresponding to the detected registered gesture is generated (step S7), and histogram data for gesture determination is initialized. (step S8), and it is determined whether or not the motion determination process is finished, that is, whether or not the detection object has left the detectable area DR (step S9).

ステップS9で検出可能領域DRから検出対象物が退出したと判定されなければ(ステップS9:NO)、すなわち、検出対象物が検出可能領域DR内に留まっているには、ステップS1に戻る。一方、ステップS9で検出可能領域DRから検出対象物が退出したと判定されれば(ステップS9:YES)、動作判定処理を終了する。 If it is not determined in step S9 that the detection target has left the detectable region DR (step S9: NO), that is, if the detection target remains within the detectable region DR, the process returns to step S1. On the other hand, if it is determined in step S9 that the detection object has left the detectable region DR (step S9: YES), the motion determination process is terminated.

以上のように、本発明では、光センサ2が操作平面の延長面上に位置し、操作平面における検出対象物の動作を検出するので、光センサ2と検出対象物との距離(Z方向の距離)に関係なく、検出対象物の動作(ジェスチャ操作)を精度よく検出することができる。また、操作平面における検出対象物の動作を検出するので、検出対象物の大きさに関係なく、検出対象物の動作を精度よく検出することができる。 As described above, in the present invention, the optical sensor 2 is positioned on the extended plane of the operation plane and detects the movement of the detection target on the operation plane. The motion (gesture operation) of the detection target can be accurately detected regardless of the distance). Moreover, since the motion of the detection target on the operation plane is detected, the motion of the detection target can be accurately detected regardless of the size of the detection target.

さらに、受光部22が第1の方向および前記第1の方向に交差する第2の方向のそれぞれに2つ以上並ぶように配置される複数の受光素子22A~22Dを有し、複数の受光素子22A~22Dから出力された複数のセンサ値に基づいて操作平面における検出対象物の3次元位置(X座標、Y座標、Z座標)を検出するので、検出対象物の動作を精度よく検出することができる。 Further, the light-receiving section 22 has a plurality of light-receiving elements 22A to 22D arranged so as to line up two or more in each of the first direction and the second direction crossing the first direction, and the plurality of light-receiving elements Since the three-dimensional position (X coordinate, Y coordinate, Z coordinate) of the detection target on the operation plane is detected based on the multiple sensor values output from 22A to 22D, the movement of the detection target can be accurately detected. can be done.

さらにまた、受光部22から入力されるセンサ値を整数演算処理により座標データに変換し、変換した座標データの変化(差分)から操作平面における検出対象物の動作を検出するので、複雑な演算をする必要が無く、制御部3の処理負荷を低減することができ、製造コストの低減、高速処理化、または応答速度の向上を図ることができる。 Furthermore, the sensor value input from the light receiving unit 22 is converted into coordinate data by integer arithmetic processing, and the movement of the detection object on the operation plane is detected from the change (difference) of the converted coordinate data, so complicated calculations are not required. Therefore, the processing load on the control unit 3 can be reduced, and the manufacturing cost can be reduced, the processing speed can be increased, or the response speed can be improved.

なお、上述の構成に加えて、操作平面または操作領域Rを視覚的に認識できるようにする構成を付加してもよい。たとえば、映像を空中に表示させる空中結像部を設け、操作平面または操作領域Rに対応する映像を表示させるようにしてもよい。また、操作平面または操作領域Rの端部の位置に指標となる指標物を配置してもよい。 In addition to the configuration described above, a configuration that enables the operation plane or the operation region R to be visually recognized may be added. For example, an aerial imaging unit that displays an image in the air may be provided to display an image corresponding to the operation plane or the operation area R. FIG. In addition, an index object that serves as an index may be arranged at the end of the operation plane or the operation area R. FIG.

さらに、ジェスチャの判定は、座標に限らず、各受光素子で取得する明度等のセンサ値の所定時間間隔で連続するデータ列の変化から判定する構成としてもよい。この場合は、人工知能(AI)を用いて、様々なジェスチャの学習データを人工知能(AI)に学習させておき、この人工知能(AI)によって取得したセンサ値のデータ列がどのジェスチャに該当するか判定する構成としてもよい。 Further, determination of a gesture is not limited to coordinates, and may be determined based on changes in a data string that continues at predetermined time intervals in sensor values such as brightness acquired by each light receiving element. In this case, artificial intelligence (AI) is used to learn various gesture learning data, and the sensor value data string acquired by this artificial intelligence (AI) corresponds to which gesture. It is good also as a structure which determines whether it carries out.

さらにまた、上述の実施例では、発光部21および受光部22の両方が操作平面のX軸上に位置するようにしたが、発光部21および受光部22は、Y方向に並ぶように配置されてもよいし、X方向およびY方向以外の任意の方向に並ぶように配置されてもよい。ただし、これらの場合には、受光部22は、X軸上に配置されていることが好ましい。 Furthermore, in the above embodiment, both the light emitting section 21 and the light receiving section 22 are positioned on the X axis of the operation plane, but the light emitting section 21 and the light receiving section 22 are arranged side by side in the Y direction. Alternatively, they may be arranged in any direction other than the X and Y directions. However, in these cases, the light receiving section 22 is preferably arranged on the X axis.

図13は実施例2の非接触入力装置1の構成を示すブロック図である。図14は実施例2の光センサ2の構成および操作領域Rを示す斜視図である。図13および図14に示すように、実施例2では、非接触入力装置1が複数の光センサ2を有する点が実施例1と異なる。 FIG. 13 is a block diagram showing the configuration of the non-contact input device 1 of Example 2. As shown in FIG. FIG. 14 is a perspective view showing the configuration and operation area R of the optical sensor 2 of Example 2. FIG. As shown in FIGS. 13 and 14 , the second embodiment differs from the first embodiment in that the non-contact input device 1 has a plurality of optical sensors 2 .

具体的には、非接触入力装置1は、3つの光センサ2A~2Cを有する。3つの光センサ2A~2Cのそれぞれは、制御部3と通信可能に接続されている。なお、3つの光センサ2A~2Cのそれぞれの構成は、実施例1の光センサ2と同じであるので、詳しい説明を省略する。 Specifically, the non-contact input device 1 has three optical sensors 2A-2C. Each of the three optical sensors 2A to 2C is connected to the controller 3 so as to be communicable. The configuration of each of the three photosensors 2A to 2C is the same as that of the photosensor 2 of the first embodiment, so detailed description thereof will be omitted.

3つの光センサ2A~2Cは、操作平面が延びる2方向のうち、受光部22の受光中心方向に直交する方向(本実施例ではX方向)に等間隔で並ぶように配置される。すなわち、3つの光センサ2A~2Cは、各光センサ2A~2Cに設定される操作領域Rおよび操作平面がX方向に一直線に並ぶように配置される。また、3つの光センサ2A~2Cの受光中心方向は、すべて互いに平行である。さらに、3つの光センサ2A~2Cが並んで配置される方向は操作平面と平行であって第1の方向であり、すくなくとも受光部22(受光素子)は、操作平面に平行に一列に配置されている。なお、受光部22(受光素子)だけではなく発光部21も操作平面に平行に一列に配置されていることが好ましい。すなわち、光センサ2そのものが操作平面に平行に一列に配置されていることが好ましい。 The three photosensors 2A to 2C are arranged at equal intervals in a direction perpendicular to the light receiving center direction of the light receiving portion 22 (the X direction in this embodiment), out of the two directions in which the operation plane extends. That is, the three optical sensors 2A to 2C are arranged so that the operation regions R and the operation planes set in the respective optical sensors 2A to 2C are aligned in the X direction. Further, the light receiving center directions of the three optical sensors 2A to 2C are all parallel to each other. Furthermore, the direction in which the three optical sensors 2A to 2C are arranged side by side is parallel to the operation plane and is the first direction, and at least the light receiving units 22 (light receiving elements) are arranged in a line parallel to the operation plane. ing. It is preferable that not only the light-receiving portions 22 (light-receiving elements) but also the light-emitting portions 21 are arranged in a line parallel to the operation plane. That is, it is preferable that the optical sensors 2 themselves are arranged in a line parallel to the operation plane.

また、隣り合う光センサ2の間の距離(X方向の離間距離)は、Y方向から見た場合に互いの操作領域Rおよび操作平面が重なる程度の距離に設定されている。したがって、図14に示すように、各光センサ2A~2Cに設定される操作領域Rおよび操作平面が結合されるような状態となる。ここで、各光センサ2A~2Cが並ぶ方向(本実施例ではX方向)の長さは、光センサ2の個数に応じて長くなるので、各光センサ2A~2Cが並ぶ方向のことをL方向(長手方向)ということもできる。 Also, the distance between adjacent optical sensors 2 (separation in the X direction) is set to such a distance that the operation regions R and the operation planes overlap each other when viewed in the Y direction. Therefore, as shown in FIG. 14, the operation area R and the operation plane set for each of the optical sensors 2A to 2C are combined. Here, the length in the direction in which the photosensors 2A to 2C are arranged (the X direction in this embodiment) increases according to the number of the photosensors 2, so the direction in which the photosensors 2A to 2C are arranged is L It can also be called a direction (longitudinal direction).

また、図13に示すように、実施例2では、光センサ2が複数設けられていることに伴い、記憶部4には、実施例1の内容に加え、複数の光センサ2の受光部22(各受光素子)から入力されるセンサ値を合成するための合成プログラム48が記憶されている。複数の光センサ2から入力されるセンサ値を合成する合成処理の方法は特に限定されないが、たとえば、次の式(数D)によって計算することができる。
〔数D〕
L=1/2D+D×(Nmax-1)+k×Xmax
Further, as shown in FIG. 13 , in the second embodiment, since a plurality of optical sensors 2 are provided, the storage unit 4 stores the contents of the first embodiment, as well as the light receiving units 22 of the plurality of optical sensors 2 . A synthesizing program 48 for synthesizing sensor values input from (each light receiving element) is stored. Although the method of synthesizing processing for synthesizing sensor values input from a plurality of optical sensors 2 is not particularly limited, for example, calculation can be performed by the following formula (number D).
[number D]
L=1/2D+D×(Nmax−1)+k×Xmax

ここで、Dは、光センサ2の間の距離(mm)であり、Nmaxは複数の光センサ2のうち、Y座標の値が最大となる光センサ2のセンサ番号(L方向端部の光センサ2を1番目とし、L方向に並ぶ順に順序を付した場合の番号)であり、kは、任意の補正係数である。 Here, D is the distance (mm) between the optical sensors 2, and Nmax is the sensor number of the optical sensor 2 with the maximum Y coordinate value (light at the end in the L direction). The sensor 2 is the first sensor, and the number is assigned in the order in which they are arranged in the L direction), and k is an arbitrary correction coefficient.

動作検出処理の内容、その他の構成および動作については、X座標をL座用に置き換えて処理する以外は実施例1と同一であるため、その詳細な説明を省略する。また、同一要素に同一符号を付している。この実施例2においても、実施例1と同一の作用効果を奏することができる。 The contents of the motion detection process, other configurations and operations are the same as those of the first embodiment except that the X coordinate is replaced with that for the L seat, and detailed description thereof will be omitted. Also, the same reference numerals are given to the same elements. Also in the second embodiment, the same effects as in the first embodiment can be obtained.

また、実施例2では、水平方向(X方向)に操作領域を拡張(拡大)することができるので、より広い範囲でジェスチャ操作を受け付けることができるだけでなく、ストロークの大きいジェスチャ操作の検出も可能になるなど、検出可能なジェスチャ操作の種類を増やすこともできる。 In addition, in the second embodiment, since the operation area can be extended (enlarged) in the horizontal direction (X direction), it is possible not only to accept gesture operations in a wider range, but also to detect gesture operations with long strokes. It is also possible to increase the types of detectable gesture operations, such as becoming

なお、上述の実施例では、各光センサ2の発光部21および受光部22が操作平面のX軸上に位置するようにしたが、各光センサ2の発光部21および受光部22は、Y方向に並ぶように配置されてもよいし、X方向およびY方向以外の任意の方向に並ぶように配置されてもよい。ただし、これらの場合には、受光部22は、X軸上に配置されていることが好ましい。 In the above-described embodiment, the light emitting portion 21 and the light receiving portion 22 of each optical sensor 2 are positioned on the X axis of the operation plane, but the light emitting portion 21 and the light receiving portion 22 of each optical sensor 2 are positioned on the Y axis. They may be arranged so as to line up in the direction, or may be arranged so as to line up in any direction other than the X direction and the Y direction. However, in these cases, the light receiving section 22 is preferably arranged on the X axis.

図15は実施例3の非接触入力装置1の構成を示すブロック図である。実施例3の非接触入力装置1では、単数または複数の動作からサインを検出することができる点が実施例1と異なる。なお、サインとは、複数のジェスチャ操作(動作)で描画(構成)される数字、記号、図形、パターン(模様)等のことである。図15に示すように、実施例3では、サインを検出するための構成として、記憶部4には、実施例1の内容に加え、方向判定プログラム49、サイン検出プログラム50,サイン参照テーブル51が記憶されている。
<方向判定処理>
FIG. 15 is a block diagram showing the configuration of the non-contact input device 1 of Example 3. As shown in FIG. The non-contact input device 1 of Example 3 differs from Example 1 in that a sign can be detected from one or more motions. A sign is a number, a symbol, a figure, a pattern, or the like drawn (configured) by a plurality of gesture operations (movements). As shown in FIG. 15, in the third embodiment, as a configuration for detecting a sign, the storage unit 4 includes a direction determination program 49, a sign detection program 50, and a sign reference table 51 in addition to the contents of the first embodiment. remembered.
<Direction determination processing>

方向判定プログラム49は、座標データ45が示す検出対象物の位置(座標)の変化から、操作領域Rに検出対象物が進入した方向(Y方向の向き)、すなわち、操作領域Rに検出対象物がY座標のプラス側から進入したか、Y座標のマイナス側から進入したかを判定するためのプログラムである。操作領域Rへの検出対象物の進入方向を判定する方向判定処理の方法は特に限定されないが、たとえば、実施例1で説明した操作領域Rに対する進入/退出判定処理において検出対象物が操作領域Rに進入したと判定されたときのY座標の正負で判定することができる。この方向判定処理で判定された操作領域Rへの検出対象物の進入方向を、操作者の向きとし、動作検出処理およびサイン検出処理におけるベクトルの左右の向きが、操作者から見た場合の左右に合わせて設定される。
<サイン検出処理>
The direction determination program 49 determines the direction in which the detection object enters the operation region R (the Y direction), that is, the direction in which the detection object enters the operation region R, that is, is a program for judging whether has entered from the plus side of the Y coordinate or from the minus side of the Y coordinate. The method of direction determination processing for determining the approach direction of the detection object to the operation region R is not particularly limited. can be determined by the positive/negative of the Y coordinate when it is determined to have entered the . The direction in which the object to be detected enters the operation area R determined in this direction determination process is the direction of the operator, and the left and right directions of the vectors in the motion detection process and the sign detection process are the left and right directions as seen from the operator. is set according to
<Signature detection processing>

サイン検出プログラム50は、動作検出モードの実行中に、座標データ45が示す検出対象物の位置の変化から検出される単数または複数の操作平面上の動作から演算によりサインを検出するためのプログラムである。操作平面上の動作からサインを検出する方法は特に限定されないが、たとえば、検出サイクル毎に検出される操作平面上の単数または複数の動作の組み合わせが、予め登録されたサイン(登録サイン)に対応する場合に、入力されたサインとして検出する方法がある。 The signature detection program 50 is a program for detecting a signature by calculation from movements on one or more operation planes detected from changes in the position of the object to be detected indicated by the coordinate data 45 during execution of the movement detection mode. be. The method of detecting the signature from the motion on the operation plane is not particularly limited, but for example, one or a combination of multiple motions on the operation plane detected in each detection cycle corresponds to a pre-registered signature (registered signature). There is a method of detecting it as an input signature.

たとえば、登録サインを構成する動作(登録ジェスチャ)の組み合わせのデータを予め参照しておき、動作検出モードの実行中に検出された動作毎のヒストグラム(サイン判定用のヒストグラム)を用いて入力されたサインとして検出するかどうかを判定する。 For example, data of a combination of motions (registered gestures) constituting a registered sign is referenced in advance, and a histogram (histogram for sign determination) for each motion detected during execution of the motion detection mode is input. Determines whether to detect as a signature.

図16は実施例3のサイン判定用のヒストグラムの一例を示す説明図である。図16に示すように、実施例3のサイン判定用のヒストグラムでは、登録ジェスチャとして、操作平面において上下左右の各々に向かう直線的なジェスチャV1~V4と、V1~V4の向きを45°傾けた直線的なジェスチャV5~V8と、操作平面上の右回転のジェスチャV9と、操作平面上の左回転のジェスチャV10とが設定されており、また、登録ジェスチャV1~V10のそれぞれに対応する基準ベクトルが設定されている。基準ベクトルにおける左右の向きは、方向判定処理で判定された進入方向から見た場合の左右に合わせて設定されている。 FIG. 16 is an explanatory diagram showing an example of a histogram for signature determination according to the third embodiment. As shown in FIG. 16, in the signature determination histogram of Example 3, as registered gestures, straight gestures V1 to V4 directed upward, downward, leftward, and rightward on the operation plane, and the directions of V1 through V4 are tilted by 45°. Linear gestures V5 to V8, a right rotation gesture V9 on the operation plane, and a left rotation gesture V10 on the operation plane are set. is set. The left-right direction of the reference vector is set according to the left-right direction when viewed from the approach direction determined in the direction determination process.

実施例3のサイン判定用のヒストグラムでは、登録ジェスチャの各々の検出数がカウントされる(図16における「検出数」の欄)。実施例1で説明したように、登録ジェスチャが検出された場合、その登録ジェスチャの検出数が1カウントアップされる。 In the signature determination histogram of Example 3, the number of detections of each registered gesture is counted (the column of "number of detections" in FIG. 16). As described in the first embodiment, when a registered gesture is detected, the number of detected registered gestures is incremented by one.

図17は実施例3のサイン参照テーブルの一例を示す説明図である。図18は実施例3のサイン参照テーブルの他の例を示す説明図である。図17および図18に示すサイン参照テーブルは、登録サインを構成する登録ジェスチャの組み合わせを示すテーブルである。 FIG. 17 is an explanatory diagram showing an example of a signature reference table according to the third embodiment. FIG. 18 is an explanatory diagram showing another example of the signature reference table according to the third embodiment. The signature reference tables shown in FIGS. 17 and 18 are tables showing combinations of registered gestures forming registered signs.

図17に示すサイン参照テーブルは、サインの描画に必要な各登録ジェスチャの検出数で表現したものである。図17に示すように、たとえば、数字の「0」は、4サイクル分の左回転のジェスチャV10で構成される。また、数字の「2」は、2サイクル分の左から右への直線的なジェスチャV1と、1サイクル分の右上から左下への直線的なジェスチャV7と、3サイクル分の右回転のジェスチャV9とで構成される。さらに、図形「□」は、2サイクル分のジェスチャV1~V4で構成される。 The sign reference table shown in FIG. 17 is expressed by the number of detections of each registered gesture necessary for drawing a sign. As shown in FIG. 17 , for example, the number “0” is composed of a left rotation gesture V10 for four cycles. The number "2" is represented by two cycles of a left-to-right linear gesture V1, a one-cycle upper-right to lower-left linear gesture V7, and a three-cycle clockwise rotation gesture V9. Consists of Furthermore, the figure "□" is composed of two cycles of gestures V1 to V4.

図18に示すサイン参照テーブルは、サインを描画する場合の線長における各登録ジェスチャの割合で表現したものである。図18に示すように、たとえば、数字の「0」は、左回転のジェスチャのみ(100%)で構成される。また、数字の「2」は、33%のジェスチャV1と、17%のジェスチャV7と、50%のジェスチャV9とで構成される。さらに、図形「□」は、それぞれ25%のジェスチャV1~V4で構成される。 The sign reference table shown in FIG. 18 expresses the rate of each registered gesture in the line length when drawing a sign. As shown in FIG. 18 , for example, the number “0” is composed only of left-turning gestures (100%). Also, the number "2" is composed of 33% gesture V1, 17% gesture V7, and 50% gesture V9. Furthermore, the figure "□" is composed of 25% gestures V1 to V4, respectively.

そして、動作検出モードが終了した場合、サイン判定用のヒストグラムと、サイン参照テーブルとを比較して、差異が所定の閾値以下であるか、あるいは一致度が所定の閾値以上のサインが存在する場合に、一連の動作を入力されたサインとして検出する。サイン判定用のヒストグラムと、サイン参照テーブルとを比較する際には、サインの描画に必要な各登録ジェスチャの検出数で比較してもよいし、サインを描画する場合の線長における各登録ジェスチャの割合で比較してもよい。また、一致度が所定の閾値以上のサインが複数存在する場合には、一致度が最も高いサインを入力されたサインとする。登録サインが検出されると、その登録サインに対応する操作データ47が生成される。
<フローチャート>
When the motion detection mode ends, the histogram for signature determination is compared with the signature reference table, and if the difference is less than or equal to a predetermined threshold value, or if there is a signature whose degree of matching is greater than or equal to a predetermined threshold value. , a series of motions is detected as an input signature. When comparing the signature determination histogram and the signature reference table, the number of detections of each registered gesture necessary for drawing a sign may be compared, or the number of detected registered gestures in the line length when drawing a sign may be compared. can be compared by the ratio of Also, if there are a plurality of signatures whose degree of matching is equal to or greater than a predetermined threshold, the signature with the highest degree of matching is taken as the input signature. When the registration signature is detected, operation data 47 corresponding to the registration signature is generated.
<Flowchart>

図19はサイン判定処理のフローチャート図である。以下、図19を参照してサイン判定処理を説明する。サイン判定処理は、検出可能領域DRに検出対象物が進入したときに開始される。なお、ステップS11~S15までの処理は、ジェスチャ判定用のヒストグラムに代えてサイン判定用のヒストグラムを使用すること以外は、実施例1のステップS1~S5と同じ処理であるため、詳細な説明を省略する。 FIG. 19 is a flowchart of signature determination processing. The signature determination process will be described below with reference to FIG. The signature determination process is started when a detection target enters the detectable region DR. Note that the processing from steps S11 to S15 is the same as steps S1 to S5 of the first embodiment except that the histogram for gesture determination is used instead of the histogram for gesture determination, so detailed description will be omitted. omitted.

サイン判定処理が開始され、ステップS15で検出対象物が操作領域Rから退出したと判定されると(ステップS15:YES)、動作検出モードを終了し、サイン参照テーブルを読み出し(ステップS16)、サイン判定用のヒストグラムと、サイン参照テーブルとを比較して、登録サインが検出されていたかどうかを判定する(ステップS17)。 The signature determination process is started, and if it is determined in step S15 that the object to be detected has left the operation area R (step S15: YES), the motion detection mode is terminated, the signature reference table is read out (step S16), and the signature The judgment histogram is compared with the signature reference table to judge whether or not the registered signature has been detected (step S17).

ステップS17で登録サインが検出されていないと判定されれば(ステップS17:NO)、後述するステップS19に進む。一方、ステップS17で登録サインが検出されていたと判定されれば(ステップS17:YES)、検出された登録サインに対応する操作データを生成し(ステップS18)、サイン判定用のヒストグラムのデータを初期化し(ステップS19)、動作判定処理を終了するかどうか、すなわち、検出可能領域DRから検出対象物が退出したかどうかを判定する(ステップS20)。 If it is determined in step S17 that the registration signature has not been detected (step S17: NO), the process proceeds to step S19, which will be described later. On the other hand, if it is determined in step S17 that the registered signature has been detected (step S17: YES), operation data corresponding to the detected registered signature is generated (step S18), and the histogram data for signature determination is initialized. (step S19), and it is determined whether or not to end the motion determination process, that is, whether or not the detection object has left the detectable area DR (step S20).

ステップS20で検出可能領域DRから検出対象物が退出したと判定されなければ(ステップS20:NO)、すなわち、検出対象物が検出可能領域DR内に留まっていると判定された場合には、ステップS11に戻る。一方、ステップS20で検出可能領域DRから検出対象物が退出したと判定されれば(ステップS20:YES)、サイン判定処理を終了する。 If it is determined that the detection target has not left the detectable region DR in step S20 (step S20: NO), that is, if it is determined that the detection target remains within the detectable region DR, step Return to S11. On the other hand, if it is determined in step S20 that the detection object has left the detectable region DR (step S20: YES), the signature determination process is terminated.

その他の構成および動作については実施例1と同一であるため、その詳細な説明を省略する。また、同一要素に同一符号を付している。この実施例3においても、実施例1と同一の作用効果を奏することができる。 Since other configurations and operations are the same as those of the first embodiment, detailed description thereof will be omitted. Also, the same reference numerals are given to the same elements. Also in the third embodiment, the same effects as in the first embodiment can be obtained.

また、実施例3では、個別の登録ジェスチャよりも複雑なサインを検出することができるので、操作データの自由度が高まり、操作対象物を操作する際の利便性が向上する。 Further, in the third embodiment, since a sign more complicated than individual registered gestures can be detected, the degree of freedom of operation data is increased, and the convenience of operating an operation target is improved.

さらに、実施例3では、操作領域に検出対象物が進入する進入方向を検出し、進入方向に応じた向きでサインを検出するので、操作者から見た左右方向と、ベクトル検出の左右方向とを一致させ、サインを適切かつ正確に検出することができる。 Furthermore, in the third embodiment, the approach direction in which the object to be detected enters the operation area is detected, and the sign is detected in the direction corresponding to the approach direction. , and the signature can be properly and accurately detected.

実施例4の非接触入力装置1では、ベクトルによる動作検出方法に代えて、操作領域R(操作平面)を複数のブロックに分割し、ブロック間の移動を検出することによって、動作検出を行うようにした点が実施例1と異なる。 In the non-contact input device 1 of the fourth embodiment, instead of the vector-based motion detection method, the operation region R (operation plane) is divided into a plurality of blocks, and motion detection is performed by detecting movement between the blocks. is different from the first embodiment.

図20は実施例4の動作判定ブロックの一例を示す図である。図20に示すように、実施例4では、操作領域R(操作平面)を複数のブロックに分割している。図20に示す例では、操作領域R(操作平面)のうち、下側のエリアをAブロックとし、左右の一方側(図20では紙面に向かって左側)のエリアをBブロックとし、左右の他方側(図20では紙面に向かって右側)のエリアをCブロックとし、上側のエリアをDブロックとし、Aブロック~Dブロックに囲まれる中央のエリアをEブロックとしている。また、操作領域R(操作平面)の外側のエリアをFブロックとしている。 FIG. 20 is a diagram showing an example of a motion determination block according to the fourth embodiment. As shown in FIG. 20, in the fourth embodiment, an operation area R (operation plane) is divided into a plurality of blocks. In the example shown in FIG. 20, in the operation region R (operation plane), the area on the lower side is A block, the area on one of the left and right sides (the left side as viewed in FIG. 20) is block B, and the other on the left and right The area on the side (on the right side as viewed in FIG. 20) is C block, the upper area is D block, and the central area surrounded by A to D blocks is E block. Also, an area outside the operation region R (operation plane) is defined as an F block.

このようにすれば、座標データ45が示す検出対象物の位置(座標)がどのブロックに位置するかを時系列に従って検出し、検出対象物が操作領域R(操作平面)に進入してから退出するまでにどのブロックを通過したか、すなわち、操作平面における検出対象物の移動経路を検出することができる。この検出対象物の移動経路から、動作を検出することができる。たとえば、検出対象物の位置が、Bブロック、Eブロック、Cブロックの順に通過する場合、左から右に向かう直線的なジェスチャ操作と判定することができる。また、検出対象物の位置が、Aブロック、Bブロック、Dブロック、Cブロックの順に通過する場合、右回りの回転動作と判定することができる。 In this way, the position (coordinates) of the detection target indicated by the coordinate data 45 is detected in chronological order, and the detection target exits the operation area R (operation plane) after entering the operation area R (operation plane). It is possible to detect which blocks the detection target has passed through before reaching the target, that is, the movement path of the detection target on the operation plane. Actions can be detected from the movement path of the detection target. For example, when the position of the detection target passes through blocks B, E, and C in this order, it can be determined that the motion is a straight left-to-right gesture operation. Also, when the position of the detection object passes through blocks A, B, D, and C in this order, it can be determined that the movement is clockwise rotation.

また、実施例4では、2つのブロックの間を移動する動作をフリック、スワイプ(パン)、ドラッグのいずれかと判定してもよい。フリック、スワイプ(パン)、ドラッグを区別して判定する場合には、ブロックの間を移動する速度(加速度)や、Y座標の位置などによって区別して判定することができる。また、Z方向に並ぶ2つのブロックの間を移動する動作(たとえばEブロックからAブロックに移動する動作)を項目の選択などに用いるタッチ(タップ)と判定してもよい。さらに、Z方向に並ぶ2つのブロックの間を連続的に2回移動する動作が検出された場合には、ダブルタッチ(ダブルタップ)と判定してもよい。さらにまた、所定期間以上同じブロックに留まっている場合には、ロングタッチ(ロングタップ)と判定してもよい。また、2つのブロックの間を2回以上往復する動作をシェイク操作と判定してもよい。 In addition, in the fourth embodiment, the action of moving between two blocks may be determined to be any of flick, swipe (pan), and drag. When flicking, swiping (panning), and dragging are to be discriminated, they can be discriminated by the speed (acceleration) of movement between blocks, the position of the Y coordinate, and the like. Further, an action of moving between two blocks arranged in the Z direction (for example, an action of moving from E block to A block) may be determined as a touch (tap) used for item selection or the like. Furthermore, when an action of moving twice continuously between two blocks arranged in the Z direction is detected, it may be determined as a double touch (double tap). Furthermore, when staying in the same block for a predetermined period of time or longer, it may be determined as a long touch (long tap). Further, a motion of reciprocating two or more times between two blocks may be determined as a shake operation.

その他の構成および動作については実施例1と同一であるため、その詳細な説明を省略する。また、同一要素に同一符号を付している。この実施例3においても、実施例1と同一の作用効果を奏することができる。また、実施例4によれば、直線的な動作や回転動作だけでなく、より多様な動作を検出することもできる。 Since other configurations and operations are the same as those of the first embodiment, detailed description thereof will be omitted. Also, the same reference numerals are given to the same elements. Also in the third embodiment, the same effects as in the first embodiment can be obtained. Further, according to the fourth embodiment, it is possible to detect not only linear motions and rotational motions, but also various motions.

なお、実施例4において、操作領域を検出対象物の進入方向(Y方向)の手前側と奥側とで分割し、手前側のブロックと奥側のブロックとの間の移動を検出することによって、Y方向の動作検出を行うようにしてもよい。このようにすれば、検出対象物の進入方向におけるタッチ操作(ボタン等を押す操作)を検出することができる。
この発明と実施例(実施形態)について、
In the fourth embodiment, the operation area is divided into the front side and the back side in the approach direction (Y direction) of the detection object, and by detecting the movement between the front side block and the back side block, , Y-direction motion detection may be performed. By doing so, it is possible to detect a touch operation (an operation of pressing a button or the like) in the approach direction of the detection object.
About this invention and examples (embodiments),

この発明の光センサは各実施例の光センサ2に対応し、以下同様に、発光部は発光部21に対応し、受光部は受光部22に対応し、動作検出部は動作検出プログラム44およびこれに従って動作する制御部3に対応し、複数の受光素子は受光素子22A~22Dに対応し、合成部は合成プログラム48およびこれに従って動作する制御部3に対応し、サイン検出部はサイン検出プログラム50およびこれに従って動作する制御部3に対応し、方向判定部は方向判定プログラム49およびこれに従って動作する制御部3に対応するが、この発明は本実施形態に限られず他の様々な実施形態とすることができる。また、上述の実施形態で挙げた具体的な構成等は一例であり、実際の製品に応じて適宜変更することが可能である。 The optical sensor of the present invention corresponds to the optical sensor 2 of each embodiment, the light emitting portion corresponds to the light emitting portion 21, the light receiving portion corresponds to the light receiving portion 22, and the motion detection portion corresponds to the motion detection program 44 and the motion detection program 44. The plurality of light receiving elements correspond to the light receiving elements 22A to 22D, the combining section corresponds to the combining program 48 and the control section 3 operating according to it, and the sign detection section corresponds to the sign detection program. 50 and the control unit 3 that operates according to this, and the direction determination unit corresponds to the direction determination program 49 and the control unit 3 that operates according to this, but the present invention is not limited to this embodiment and can be applied to various other embodiments. can do. Also, the specific configurations and the like given in the above-described embodiments are examples, and can be changed as appropriate according to actual products.

たとえば、上述したXZ平面の操作平面を第1の操作平面とし、第1の操作平面を基準とした操作領域Rを第1の操作領域とし、これに加えて、YZ平面の操作平面(第2の操作平面)を基準とした第2の操作領域を設定してもよい。このようにすれば、X方向およびY方向のいずれからでも動作を検出することができる。すなわち、4方向からのジェスチャ操作が可能になる。 For example, the operation plane of the XZ plane described above is set as the first operation plane, the operation area R based on the first operation plane is set as the first operation area, and in addition, the operation plane of the YZ plane (second A second operation area may be set with reference to the operation plane of . By doing so, the motion can be detected from both the X direction and the Y direction. That is, gesture operations from four directions are possible.

本発明の非接触入力装置1は、たとえば、エレベータの操作盤(操作パネル)に適用することができる。この場合、操作平面がエレベータの操作パネルの表面から所定距離離間した平行面になるように設定される。そして、操作平面における上下方向のジェスチャ操作に応じて行先の階数を設定したり、サイン(数字)を入力して行先の階数を設定したりすることができる。このようにすれば、エレベータの操作パネルに触れることなく、エレベータを操作することができる。 The non-contact input device 1 of the present invention can be applied, for example, to an elevator operating panel (operating panel). In this case, the operation plane is set to be a parallel plane separated from the surface of the operation panel of the elevator by a predetermined distance. Then, the floor number of the destination can be set according to gesture operations in the vertical direction on the operation plane, or the floor number of the destination can be set by inputting a sign (number). In this way, the elevator can be operated without touching the operation panel of the elevator.

また、本発明は、非接触入力装置として提供するだけでなく、非接触入力装置を用いて、上述のような操作平面における検出対象物の動作を検出するための、方法、プログラム、およびプログラムを記憶した記憶媒体としても提供することができる。 Further, the present invention provides not only a non-contact input device, but also a method, a program, and a program for detecting motion of a detection target on an operation plane as described above using a non-contact input device. It can also be provided as a stored storage medium.

この発明は、非接触で入力操作を受け付けて電子機器などの操作対象物を操作するような産業に利用することができる。 INDUSTRIAL APPLICABILITY The present invention can be used in industries that receive input operations in a non-contact manner and operate objects such as electronic devices.

1…非接触入力装置
2…光センサ
21…発光部
22…受光部
22A~22D…受光素子
3…制御部
4…記憶部
Reference Signs List 1 Non-contact input device 2 Optical sensor 21 Light emitting unit 22 Light receiving unit 22A to 22D Light receiving element 3 Control unit 4 Storage unit

Claims (5)

光を発光する発光部、および前記発光部から出射された光が検出対象物に照射されることによって生じた反射光を受光して、受光した光の強度に基づくセンサ値を出力する受光部を備える光センサと、
前記受光部から出力された前記センサ値に基づいて、前記光センサの検出可能領域内に設定される操作平面における前記検出対象物の動作を検出する動作検出部を備え、
前記光センサは、前記操作平面の延長面上に位置する
非接触入力装置。
a light-emitting portion that emits light; and a light-receiving portion that receives reflected light generated when the light emitted from the light-emitting portion is applied to a detection target and outputs a sensor value based on the intensity of the received light. an optical sensor comprising
a motion detection unit that detects a motion of the detection target on an operation plane set within a detectable area of the optical sensor based on the sensor value output from the light receiving unit;
The optical sensor is a non-contact input device located on an extension plane of the operation plane.
前記受光部は、第1の方向および前記第1の方向に交差する第2の方向のそれぞれに2つ以上配置される複数の受光素子を有し、
前記動作検出部は、前記複数の受光素子から出力された複数のセンサ値に基づいて前記操作平面における前記検出対象物の動作を検出する
請求項1記載の非接触入力装置。
The light-receiving unit has a plurality of light-receiving elements arranged two or more in each of a first direction and a second direction intersecting the first direction,
2. The non-contact input device according to claim 1, wherein the motion detection section detects the motion of the detection object on the operation plane based on the plurality of sensor values output from the plurality of light receiving elements.
所定の方向に並んで配置される複数の前記光センサと、
前記複数の光センサのそれぞれから出力されるセンサ値を合成する合成部をさらに備えた
請求項1または2記載の非接触入力装置。
a plurality of the optical sensors arranged side by side in a predetermined direction;
3. The non-contact input device according to claim 1, further comprising a synthesizing unit for synthesizing sensor values output from each of said plurality of optical sensors.
単数または複数の前記動作からサインを検出するサイン検出部をさらに備えた
請求項1、2または3記載の非接触入力装置。
4. The non-contact input device according to claim 1, further comprising a sign detection unit that detects a sign from one or more of said motions.
前記操作平面を含み、前記検出可能領域内に設定される操作領域に前記検出対象物が進入する進入方向を判定する方向判定部をさらに備え
前記サイン検出部は、前記進入方向に応じた向きでサインを検出する
請求項4記載の非接触入力装置。
A direction determination unit that determines an approach direction in which the detection object enters an operation area that includes the operation plane and is set within the detectable area. 5. The non-contact input device according to claim 4, which detects signs.
JP2021087679A 2021-05-25 2021-05-25 contactless input device Active JP7256842B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021087679A JP7256842B2 (en) 2021-05-25 2021-05-25 contactless input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021087679A JP7256842B2 (en) 2021-05-25 2021-05-25 contactless input device

Publications (2)

Publication Number Publication Date
JP2022180917A true JP2022180917A (en) 2022-12-07
JP7256842B2 JP7256842B2 (en) 2023-04-12

Family

ID=84327728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021087679A Active JP7256842B2 (en) 2021-05-25 2021-05-25 contactless input device

Country Status (1)

Country Link
JP (1) JP7256842B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010224731A (en) * 2009-03-23 2010-10-07 Epson Imaging Devices Corp Position detection method, optical position detection device, display device with position detection function, and electronic device
JP2018180625A (en) * 2017-04-04 2018-11-15 富士ゼロックス株式会社 Input device, image forming device and program
JP2019089477A (en) * 2017-11-15 2019-06-13 株式会社デンソー Input device
JP2020170311A (en) * 2019-04-02 2020-10-15 船井電機株式会社 Input device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010224731A (en) * 2009-03-23 2010-10-07 Epson Imaging Devices Corp Position detection method, optical position detection device, display device with position detection function, and electronic device
JP2018180625A (en) * 2017-04-04 2018-11-15 富士ゼロックス株式会社 Input device, image forming device and program
JP2019089477A (en) * 2017-11-15 2019-06-13 株式会社デンソー Input device
JP2020170311A (en) * 2019-04-02 2020-10-15 船井電機株式会社 Input device

Also Published As

Publication number Publication date
JP7256842B2 (en) 2023-04-12

Similar Documents

Publication Publication Date Title
JP6348211B2 (en) Remote control of computer equipment
CN108700957B (en) Electronic system and method for text entry in a virtual environment
CN103365410B (en) Gesture sensing device and electronic system with gesture input function
JP5308359B2 (en) Optical touch control system and method
EP3602257A1 (en) Eraser for touch displays
US20100225588A1 (en) Methods And Systems For Optical Detection Of Gestures
CN102033702A (en) Image display device and display control method thereof
TWI553508B (en) Apparatus and method for object sensing
US11640198B2 (en) System and method for human interaction with virtual objects
EP3719614B1 (en) Input device
CN105320275A (en) Wearable device and method of operating the same
CN104049779A (en) Method and device for achieving rapid mouse pointer switching among multiple displayers
US20170315654A1 (en) Touchscreen device, method for controlling the same, and display apparatus
US9703410B2 (en) Remote sensing touchscreen
JP7256842B2 (en) contactless input device
CN104571726B (en) Optical touch system, touch detection method and computer program product
CN110949271B (en) Operation processing device
US20180059806A1 (en) Information processing device, input control method for controlling input to information processing device, and computer-readable storage medium storing program for causing information processing device to perform input control method
KR101258969B1 (en) Input device using non-contact user interface
US8760437B2 (en) Sensing system
US20150084913A1 (en) Information processing method for touch panel device and touch panel device
US20160370880A1 (en) Optical input method and optical virtual mouse utilizing the same
JP2018032123A (en) Operation input device
WO2020078223A1 (en) Input device
US8648836B2 (en) Hybrid pointing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230331

R150 Certificate of patent or registration of utility model

Ref document number: 7256842

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150