JP2013242845A - Information processing device, electronic apparatus, and program - Google Patents

Information processing device, electronic apparatus, and program Download PDF

Info

Publication number
JP2013242845A
JP2013242845A JP2012233272A JP2012233272A JP2013242845A JP 2013242845 A JP2013242845 A JP 2013242845A JP 2012233272 A JP2012233272 A JP 2012233272A JP 2012233272 A JP2012233272 A JP 2012233272A JP 2013242845 A JP2013242845 A JP 2013242845A
Authority
JP
Japan
Prior art keywords
detection
coordinates
predetermined
instruction
origin
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012233272A
Other languages
Japanese (ja)
Other versions
JP5315450B1 (en
Inventor
Takashi Mochizuki
隆 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MUFG Bank Ltd
Original Assignee
Bank of Tokyo Mitsubishi UFJ Trust Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bank of Tokyo Mitsubishi UFJ Trust Co filed Critical Bank of Tokyo Mitsubishi UFJ Trust Co
Priority to JP2012233272A priority Critical patent/JP5315450B1/en
Application granted granted Critical
Publication of JP5315450B1 publication Critical patent/JP5315450B1/en
Publication of JP2013242845A publication Critical patent/JP2013242845A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To accurately recognize an input instruction to a device corresponding to a finger motion.SOLUTION: An information processing device comprises: detection means that detects an object existing in a predetermined detection range, and outputs detection data corresponding to the detected object; origin setting means that sets an origin interlocking with movement of a predetermined feature position in the detected object on the basis of the detection data; coordinate calculation means that calculates the coordinate of at least one part of the object on the basis of the detection data; and determination means that, on the basis of a relative positional relationship between the calculated coordinate and the origin, detects that the part of the object whose coordinate is calculated has passed through a detection plane set as a plane with a predetermined range determined with respect to the origin from a predetermined side, and determines an instruction to a device on the basis of the detection plane through which it has passed.

Description

本発明は、物体を認識する認識空間を設定する技術に関する。   The present invention relates to a technique for setting a recognition space for recognizing an object.

コンピュータに対してユーザの指示を入力するときには、ユーザは、キーボードやマウスなどの入力インターフェースを用いる。近年ではユーザの指示の入力を容易にするため、ナチュラルインターフェイス(ナチュラルユーザインタフェースといわれることもある)に関する技術が開発されている。例えば、特許文献1に記載されているように、ジェスチャによってユーザの指示を入力する技術が開発されている。また、特許文献2に記載されているように、ジェスチャにユーザの視線を組み合わせて、ユーザの指示を入力するときの精度を向上させる技術が開発されている。さらに、特許文献3に記載されているように、予め決められた領域での指の動きによってユーザの指示を入力する技術が開発されている。   When inputting a user instruction to the computer, the user uses an input interface such as a keyboard or a mouse. In recent years, a technique related to a natural interface (sometimes referred to as a natural user interface) has been developed in order to facilitate the input of user instructions. For example, as described in Patent Document 1, a technique for inputting a user instruction by a gesture has been developed. Further, as described in Patent Document 2, a technique has been developed that improves accuracy when a user instruction is input by combining a user's line of sight with a gesture. Furthermore, as described in Patent Document 3, a technique for inputting a user instruction by a finger movement in a predetermined region has been developed.

米国特許出願公開第2011/0193939号明細書US Patent Application Publication No. 2011/0193939 米国特許出願公開第2011/0029918号明細書US Patent Application Publication No. 2011/0029918 米国特許出願公開第2010/0231522号明細書US Patent Application Publication No. 2010/0231522

ところで、動作を行う各部の動きにはそれぞれ特徴があるため、検出すべきジェスチャを行う部分によって、精度よくジェスチャを検出する方法が異なってくる。そのため、各ジェスチャの検出精度のさらなる改善が望まれている。   By the way, since the movement of each part that performs the operation has its own characteristics, the method for accurately detecting the gesture differs depending on the part that performs the gesture to be detected. Therefore, further improvement in the detection accuracy of each gesture is desired.

本発明は、指の動きに応じた装置に対する入力指示を精度よく認識することを目的とする。   An object of this invention is to recognize the input instruction | indication with respect to the apparatus according to a finger | toe movement with sufficient accuracy.

本発明の一実施形態によると、所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段と、前記検知データに基づいて、前記検知した物体における所定の特徴位置の動きと連動する原点を設定する原点設定手段と、前記検知データに基づいて、前記物体における少なくとも1箇所の座標を算出する座標算出手段と、前記算出された座標と前記原点との相対的な位置関係に基づいて、前記座標が算出された物体の箇所が、前記原点に対して決められた所定範囲の面として設定された検出面を予め決められた側から通過したことを検出し、通過した前記検出面に基づいて装置に対する指示を決定する決定手段とを備える情報処理装置が提供される。   According to an embodiment of the present invention, a detection unit that detects an object existing in a predetermined detection range and outputs detection data corresponding to the detected object, and a predetermined object in the detected object based on the detection data. Origin setting means for setting an origin linked to the movement of the feature position; coordinate calculation means for calculating coordinates of at least one location on the object based on the detection data; and a relative relationship between the calculated coordinates and the origin. Based on a specific positional relationship, it is detected that the location of the object for which the coordinates have been calculated has passed from a predetermined side through a detection surface set as a surface of a predetermined range determined with respect to the origin. An information processing apparatus is provided that includes a determination unit that determines an instruction to the apparatus based on the detection surface that has passed.

本発明の一実施形態によると、コンピュータを、所定の検知範囲に存在する物体を検知する検知手段から、検知した物体に応じて出力される検知データに基づいて、前記検知した物体における所定の特徴位置の動きと連動する原点を設定する原点設定手段と、前記検知データに基づいて、前記物体における少なくとも1箇所の座標を算出する座標算出手段と、前記算出された座標と前記原点との相対的な位置関係に基づいて、前記座標が算出された物体の箇所が、前記原点に対して決められた所定範囲の面として設定された検出面を予め決められた側から通過したことを検出し、通過した前記検出面に基づいて装置に対する指示を決定する決定手段として機能させるためのプログラムが提供される。   According to an embodiment of the present invention, the computer has a predetermined feature in the detected object based on detection data output according to the detected object from a detection unit that detects an object existing in the predetermined detection range. An origin setting means for setting an origin linked with the movement of the position, a coordinate calculation means for calculating at least one coordinate in the object based on the detection data, and a relative relationship between the calculated coordinates and the origin Based on the positional relationship, it is detected that the location of the object for which the coordinates have been calculated has passed through a detection surface set as a surface of a predetermined range determined with respect to the origin from a predetermined side, A program is provided for functioning as a determination unit that determines an instruction to the apparatus based on the detection surface that has passed.

本発明によれば、指の動きに応じた装置に対する入力指示を精度よく認識することができる。   ADVANTAGE OF THE INVENTION According to this invention, the input instruction | indication with respect to the apparatus according to a finger's motion can be recognized accurately.

本発明の第1実施形態に係る電子機器1の構成を示す概略図である。1 is a schematic diagram illustrating a configuration of an electronic device 1 according to a first embodiment of the present invention. 本発明の第1実施形態に係る情報処理装置10の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the information processing apparatus 10 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る認識空間設定機能100の構成を示すブロック図である。It is a block diagram which shows the structure of the recognition space setting function 100 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る走査部130における基準点Cを設定する方法の一例を説明する図である。It is a figure explaining an example of the method of setting the reference point C in the scanning part 130 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る認識空間設定部140において認識空間を設定する処理を示すフローチャートである。It is a flowchart which shows the process which sets recognition space in the recognition space setting part 140 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る認識空間設定部140における走査線形状の特定方法の一例を説明する図である。It is a figure explaining an example of the specific method of the scanning line shape in the recognition space setting part 140 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る認識空間設定部140における特徴位置の特定方法の一例を説明する図である。It is a figure explaining an example of the identification method of the feature position in the recognition space setting part 140 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る認識空間設定部140における特定形状の調整方法の一例を説明する図である。It is a figure explaining an example of the adjustment method of the specific shape in the recognition space setting part 140 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る認識空間設定部140における認識空間の設定方法の一例を説明する図である。It is a figure explaining an example of the setting method of the recognition space in the recognition space setting part 140 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係るジェスチャ入力機能200の構成を示すブロック図である。It is a block diagram which shows the structure of the gesture input function 200 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る挙動測定部210により算出される座標の位置を説明する図である。It is a figure explaining the position of the coordinate calculated by the behavior measurement part 210 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る決定部220で用いられる照合用テーブルを説明する図である。It is a figure explaining the table for collation used by the determination part 220 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る照合用テーブルに定義されるジェスチャの例を説明する図である。It is a figure explaining the example of the gesture defined in the table for collation which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る決定部220における処理を示すフローチャートである。It is a flowchart which shows the process in the determination part 220 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る視線認証機能300の構成を示すブロック図である。It is a block diagram which shows the structure of the gaze authentication function 300 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る表示装置14に表示される確認画面の例を説明する図である。It is a figure explaining the example of the confirmation screen displayed on the display apparatus 14 which concerns on 1st Embodiment of this invention. 本発明第1の実施形態に係る判定部330における処理を示すフローチャートである。It is a flowchart which shows the process in the determination part 330 which concerns on the 1st Embodiment of this invention. 本発明の第2実施形態に係る挙動測定部210により算出される座標の位置と伸縮装置3000の使用方法とを説明する図である。It is a figure explaining the position of the coordinate calculated by the behavior measurement part 210 which concerns on 2nd Embodiment of this invention, and the usage method of the expansion-contraction apparatus 3000. FIG. 本発明の第2実施形態に係る決定部220で用いられる照合用テーブルを説明する図である。It is a figure explaining the table for collation used by the determination part 220 which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る照合用テーブルに定義されるジェスチャの例を説明する図である。It is a figure explaining the example of the gesture defined in the table for collation concerning 2nd Embodiment of this invention. 本発明の第3実施形態に係る挙動測定部210により算出される座標の位置と伸縮装置3010の使用方法とを説明する図である。It is a figure explaining the position of the coordinate calculated by the behavior measurement part 210 which concerns on 3rd Embodiment of this invention, and the usage method of the expansion-contraction apparatus 3010. FIG. 本発明の第3実施形態に係る伸縮装置3010の図21とは異なる使用方法を説明する図である。It is a figure explaining the usage method different from FIG. 21 of the expansion-contraction apparatus 3010 which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る決定部220で用いられる照合用テーブルを説明する図である。It is a figure explaining the table for collation used by the determination part 220 which concerns on 3rd Embodiment of this invention. 本発明の第4実施形態に係る発光装置3050の使用方法を説明する図である。It is a figure explaining the usage method of the light-emitting device 3050 which concerns on 4th Embodiment of this invention. 本発明の第4実施形態に係る決定部220で用いられる照合用テーブルを説明する図である。It is a figure explaining the table for collation used by the determination part 220 which concerns on 4th Embodiment of this invention. 本発明の第4実施形態に係る発光装置3060の使用方法を説明する図である。It is a figure explaining the usage method of the light-emitting device 3060 which concerns on 4th Embodiment of this invention. 本発明の第5実施形態に係る決定部220で用いられる照合用テーブルを説明する図である。It is a figure explaining the table for collation used by the determination part 220 which concerns on 5th Embodiment of this invention. 本発明の第5実施形態に係る挙動測定部210により算出される座標の位置に基づいて決められる登録領域を説明する図である。It is a figure explaining the registration area | region decided based on the position of the coordinate calculated by the behavior measurement part 210 which concerns on 5th Embodiment of this invention. 本発明の第5実施形態に係る登録領域の詳細を説明する図である。It is a figure explaining the detail of the registration area | region which concerns on 5th Embodiment of this invention. 本発明の第5実施形態に係る照合パターンの例を説明する図である。It is a figure explaining the example of the collation pattern which concerns on 5th Embodiment of this invention. 本発明の第5実施形態に係る登録領域と検出領域との比較を説明する図である。It is a figure explaining the comparison with the registration area | region and detection area which concern on 5th Embodiment of this invention. 本発明の第5実施形態に係る検出領域と照合パターンとの照合について説明する図である。It is a figure explaining collation with a detection field and a collation pattern concerning a 5th embodiment of the present invention. 本発明の第5実施形態に係る検出領域と照合パターンとが一致しない場合の例について説明する図である。It is a figure explaining the example when the detection area and collation pattern which concern on 5th Embodiment of this invention do not correspond. 本発明の第5実施形態に係る検出領域と照合パターンとが一致した場合の例について説明する図である。It is a figure explaining the example when the detection area and collation pattern which concern on 5th Embodiment of this invention correspond. 本発明の第5実施形態に係る照合パターンの別の例を説明する図である。It is a figure explaining another example of the collation pattern which concerns on 5th Embodiment of this invention. 本発明の第6実施形態に係る物体検知装置20Aの構成を説明する図である。It is a figure explaining the structure of 20 A of object detection apparatuses which concern on 6th Embodiment of this invention. 本発明の第6実施形態に係る挙動測定部210により算出される座標の位置を説明する図である。It is a figure explaining the position of the coordinate calculated by the behavior measurement part 210 which concerns on 6th Embodiment of this invention. 本発明の第6実施形態に係る決定部220で用いられる照合用テーブルを説明する図である。It is a figure explaining the table for collation used by the determination part 220 which concerns on 6th Embodiment of this invention. 本発明の第6実施形態に係る照合用テーブルに登録される各パラメータを説明する図である。It is a figure explaining each parameter registered into a table for collation concerning a 6th embodiment of the present invention. 本発明の変形例5に係るセキュリティシステム500の構成を示す概略図である。It is the schematic which shows the structure of the security system 500 which concerns on the modification 5 of this invention. 本発明の変形例5に係るサーバ6に記憶された管理テーブルを説明する図である。It is a figure explaining the management table memorize | stored in the server 6 which concerns on the modification 5 of this invention. 本発明の変形例5に係る表示装置14の表示例を示す図である。It is a figure which shows the example of a display of the display apparatus 14 which concerns on the modification 5 of this invention. 本発明の変形例6に係る電気機器1Bの構成を示す概略図である。It is the schematic which shows the structure of the electric equipment 1B which concerns on the modification 6 of this invention.

以下、本発明の一実施形態に係る電子機器について、図面を参照しながら詳細に説明する。なお、以下に示す実施形態は本発明の実施形態の一例であって、本発明はこれらの実施形態に限定されるものではない。   Hereinafter, an electronic apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings. In addition, embodiment shown below is an example of embodiment of this invention, and this invention is not limited to these embodiment.

<第1実施形態>
本発明の第1実施形態に係る電子機器について、図面を参照しながら詳細に説明する。
<First Embodiment>
An electronic apparatus according to a first embodiment of the present invention will be described in detail with reference to the drawings.

[全体構成]
図1は、本発明の第1実施形態に係る電子機器1の構成を示す概略図である。電子機器1は、この例では、パーソナルコンピュータである。この電子機器1は、ユーザからの電子機器1に対する指示の入力を、キーボード13aまたはマウス13bによって受け付けるだけでなく、ユーザのジェスチャ(主に手を用いたジェスチャ)または視線により受け付けることができるナチュラルインターフェイスを有する装置である。なお、電子機器1は、スマートフォン、携帯電話、テレビ、ゲーム機、セキュリティ装置など、ユーザの指示の入力を受け付けて、指示に応じた処理を実行する装置であればよい。
[overall structure]
FIG. 1 is a schematic diagram showing a configuration of an electronic apparatus 1 according to the first embodiment of the present invention. In this example, the electronic device 1 is a personal computer. The electronic device 1 is a natural interface that can accept an instruction input from the user to the electronic device 1 not only by the keyboard 13a or the mouse 13b but also by a user's gesture (mainly a gesture using a hand) or a line of sight. It is an apparatus having. The electronic device 1 may be any device that accepts an input of a user instruction and executes a process according to the instruction, such as a smartphone, a mobile phone, a television, a game machine, or a security device.

電子機器1は、情報処理装置10を有する。また、電子機器1は、操作部13(この例では、キーボード13aおよびマウス13b)、表示装置14、物体検知装置20および視線測定装置30を有する。これらの各構成は、情報処理装置10に有線または無線で接続されている。なお、物体検知装置20と視線測定装置30とが一体の装置として構成されるなど、一部の構成が一体の装置として構成されていてもよいし、全体の構成が一体の装置として構成されていてもよい。   The electronic device 1 includes an information processing apparatus 10. The electronic device 1 includes an operation unit 13 (in this example, a keyboard 13a and a mouse 13b), a display device 14, an object detection device 20, and a line-of-sight measurement device 30. Each of these components is connected to the information processing apparatus 10 by wire or wirelessly. In addition, some structures may be comprised as an integral apparatus, such as the object detection apparatus 20 and the visual line measuring apparatus 30 being comprised as an integral apparatus, or the whole structure is comprised as an integral apparatus. May be.

情報処理装置10は、CPU(Central Processing Unit)11およびメモリ12を有
する。CPU11は、メモリ12に記憶されているプログラムを実行することにより、後述する認識空間設定機能100、ジェスチャ入力機能200、視線認証機能300(図2参照)など、様々な機能を実現する。CPU11によって実現される様々な機能により、電子機器1の各構成が制御される。
The information processing apparatus 10 includes a CPU (Central Processing Unit) 11 and a memory 12. The CPU 11 implements various functions such as a recognition space setting function 100, a gesture input function 200, and a line-of-sight authentication function 300 (see FIG. 2) described later by executing a program stored in the memory 12. Each component of the electronic device 1 is controlled by various functions realized by the CPU 11.

操作部13は、ユーザによる操作を受け付けて、受け付けられた操作に応じた信号をCPU11に出力する。表示装置14は、CPU11の制御により画面の表示態様が制御される。   The operation unit 13 receives an operation by the user and outputs a signal corresponding to the received operation to the CPU 11. In the display device 14, the display mode of the screen is controlled by the control of the CPU 11.

物体検知装置20は、パターン投影方式により、物体を検知して、その物体の形状を3次元で測定し、測定した結果を示す測定信号を出力する。物体検知装置20は、所定の検知範囲に存在する物体を検知する検知センサ21を有する。この例では、検知センサ21は、所定のパターン(ドットパターン、メッシュパターン等)で赤外光を照射する発光素子と、物体で反射することにより歪んだパターンの赤外光を受光して受光信号を出力する赤外光用イメージセンサとを有する深度センサである。物体検知装置20は、赤外光用イメージセンサから出力される受光信号を用いて、測定信号を出力する。したがって、測定信号は、検知センサ21から見た場合の物体の形状を反映している。   The object detection device 20 detects an object by the pattern projection method, measures the shape of the object in three dimensions, and outputs a measurement signal indicating the measurement result. The object detection device 20 includes a detection sensor 21 that detects an object existing in a predetermined detection range. In this example, the detection sensor 21 receives a light-emitting element that irradiates infrared light in a predetermined pattern (dot pattern, mesh pattern, etc.) and infrared light having a pattern distorted by reflection from an object, and receives a light-receiving signal. It is a depth sensor which has an image sensor for infrared light which outputs. The object detection device 20 outputs a measurement signal using the light reception signal output from the infrared image sensor. Therefore, the measurement signal reflects the shape of the object when viewed from the detection sensor 21.

この例では、物体検知装置20における物体の検知にはパターン投影方式を用いていたが、レーザ干渉計等で用いられるTOF(Time of Flight)方式を用いてもよいし、可視光用イメージセンサ等で撮影した結果得られる画像データを解析して検出する方式を用いてもよい。また、複数の方式を組み合わせて用いてもよい。いずれの方式であっても、物体検知装置20は、検知範囲に存在する物体の形状を3次元座標で測定した結果を示す測定信号を出力する。   In this example, the pattern projection method is used to detect an object in the object detection device 20, but a TOF (Time of Flight) method used in a laser interferometer or the like may be used, an image sensor for visible light, or the like. A method of analyzing and detecting the image data obtained as a result of shooting with may be used. Also, a plurality of methods may be used in combination. In any method, the object detection device 20 outputs a measurement signal indicating the result of measuring the shape of an object existing in the detection range with three-dimensional coordinates.

なお、この例では、物体検知装置20は、図1に示すように、電子機器1を使用するユーザからみて表示装置14の左側に設置され、矢印A1方向に検出センサ21が向けられている。そのため、ユーザの左手側から右手側に向けて赤外光が照射されて、電子機器1を使用するユーザと表示装置14との間の空間およびその周辺の空間が検知範囲となる。そのため、物体検知装置20の位置および検知センサ21の向きは、ユーザの右手を物体として検知するのに適した配置となっている。なお、この物体検知装置20の配置は一例であって、この配置に限定されるものではなく、検知すべき物体に応じて決められればよい。   In this example, as shown in FIG. 1, the object detection device 20 is installed on the left side of the display device 14 as viewed from the user using the electronic device 1, and the detection sensor 21 is directed in the direction of the arrow A <b> 1. Therefore, infrared light is irradiated from the left hand side of the user toward the right hand side, and the space between the user who uses the electronic device 1 and the display device 14 and the surrounding space become the detection range. Therefore, the position of the object detection device 20 and the orientation of the detection sensor 21 are suitable for detecting the user's right hand as an object. In addition, arrangement | positioning of this object detection apparatus 20 is an example, Comprising: It is not limited to this arrangement | positioning, What is necessary is just to be determined according to the object which should be detected.

視線測定装置30は、ユーザの視線方向を測定するための撮影をする装置である。視線測定装置30は、プルキニエ像を取得するためにユーザの眼に向けて赤外光を照射する発光素子と、ユーザの眼を含む領域を撮影するイメージセンサとを有する視線センサ31を有し、イメージセンサによる撮影結果を示す撮影信号を情報処理装置10に出力する。この撮影信号は、情報処理装置10において、ユーザの視線方向を測定するために用いられる。この例では、視線測定装置30は、図1に示すように表示装置14の上部に取り付けられている。   The line-of-sight measurement device 30 is a device that performs imaging for measuring the user's line-of-sight direction. The line-of-sight measurement device 30 includes a line-of-sight sensor 31 including a light emitting element that irradiates infrared light toward the user's eye to acquire a Purkinje image, and an image sensor that captures an area including the user's eye. A photographing signal indicating a photographing result by the image sensor is output to the information processing apparatus 10. This imaging signal is used in the information processing apparatus 10 to measure the user's line-of-sight direction. In this example, the line-of-sight measurement device 30 is attached to the upper part of the display device 14 as shown in FIG.

なお、視線方向の測定には、この例では、プルキニエ像を用いる角膜反射法により視線方向を測定する公知の方法を用いるが、強膜トラッカー法、EOG(Electro-oculography)法、サーチコイル法など他の公知の方法を用いてもよい。他の方法を用いる場合、視線測定装置30においては、視線方向の測定に用いる方法に応じた構成で、ユーザの視線の情報を取得するようにすればよい。   In this example, for the measurement of the line-of-sight direction, a known method of measuring the line-of-sight direction by the corneal reflection method using a Purkinje image is used, but the sclera tracker method, EOG (Electro-oculography) method, search coil method, etc. Other known methods may be used. When using another method, the line-of-sight measurement device 30 may acquire information on the line of sight of the user with a configuration corresponding to the method used for the measurement of the line-of-sight direction.

[情報処理装置10の機能構成]
図2は、本発明の第1実施形態に係る情報処理装置10の機能構成を示すブロック図である。情報処理装置10は、認識空間設定機能100、ジェスチャ入力機能200、視線認証判定機能300、検知部500、および実行部700を有する。
[Functional configuration of information processing apparatus 10]
FIG. 2 is a block diagram showing a functional configuration of the information processing apparatus 10 according to the first embodiment of the present invention. The information processing apparatus 10 includes a recognition space setting function 100, a gesture input function 200, a line-of-sight authentication determination function 300, a detection unit 500, and an execution unit 700.

検知部500は、物体検知装置20から出力される測定信号に基づいて、検知した物体に応じた検知データを出力する。検知データは、測定信号から検知範囲において検知された物体の形状(例えば輪郭)を認識可能なデータであれば、どのようなデータであってもよい。また、検知データは、物体の形状の概略(例えば、物体の軸など)を示すデータが含まれていてもよい。なお、検知部500は、物体検知装置20に含まれていてもよい。   The detection unit 500 outputs detection data corresponding to the detected object based on the measurement signal output from the object detection device 20. The detection data may be any data as long as the shape (for example, contour) of the object detected in the detection range can be recognized from the measurement signal. The detection data may include data indicating an outline of the shape of the object (for example, the axis of the object). Note that the detection unit 500 may be included in the object detection device 20.

認識空間設定機能100は、検知部500からの検知データに基づいて、上述した検知範囲に存在する物体の一端部の位置を認識して、その周囲に認識空間を設定する機能を有する。この例では、物体は、ユーザの手および腕であり、物体の一端部とは手(指を含む)の部分を意味する。以下の説明では、物体は、ユーザの手および腕であるものとする。認識空間とは、検知範囲における手の周囲に設定され、この手の動きに注目してジェスチャを認識するために設定される。   The recognition space setting function 100 has a function of recognizing the position of one end of an object existing in the above-described detection range based on detection data from the detection unit 500 and setting a recognition space around it. In this example, the object is a user's hand and arm, and one end of the object means a hand (including a finger). In the following description, it is assumed that the object is a user's hand and arm. The recognition space is set around the hand in the detection range, and is set to recognize the gesture by paying attention to the movement of the hand.

ジェスチャ入力機能200は、検知部500からの検知データに基づいて、認識空間における手(特に指)の動きまたは形状をジェスチャとして認識し、ジェスチャに対応する指示を装置に対して入力された指示として決定する機能を有する。また、この例では、操作部13への操作に基づいて装置に対して入力された指示を決定する機能も有している。   The gesture input function 200 recognizes the movement or shape of a hand (particularly a finger) in the recognition space as a gesture based on detection data from the detection unit 500, and uses an instruction corresponding to the gesture as an instruction input to the apparatus. Has a function to determine. In this example, it also has a function of determining an instruction input to the apparatus based on an operation on the operation unit 13.

視線認証判定機能300は、視線測定装置30からの測定信号に基づいて、ユーザの視線方向を測定し、その視線が表示装置14に表示された所定の領域を向いているかどうかを判定する機能を有している。なお、認識空間設定機能100、ジェスチャ入力機能200および視線認証判定機能300の詳細については後述する。   The line-of-sight authentication determination function 300 measures the user's line-of-sight direction based on the measurement signal from the line-of-sight measurement device 30 and determines whether the line of sight is facing a predetermined area displayed on the display device 14. Have. Details of the recognition space setting function 100, the gesture input function 200, and the line-of-sight authentication determination function 300 will be described later.

実行部700は、ジェスチャ入力機能200および視線認証判定機能300の処理により決定された指示に基づく処理を実行して、電子機器1の動作を制御する。このとき、ジェスチャ入力機能200および視線認証判定機能300における処理の結果に応じて、指示に基づく処理が実行されなかったり、処理内容が変更されたりする場合もある。   The execution unit 700 controls the operation of the electronic device 1 by executing processing based on instructions determined by the processing of the gesture input function 200 and the line-of-sight authentication determination function 300. At this time, depending on the result of the process in the gesture input function 200 and the line-of-sight authentication determination function 300, the process based on the instruction may not be executed or the process content may be changed.

[認識空間設定機能100]
図3は、本発明の第1実施形態に係る認識空間設定機能100の構成を示すブロック図である。認識空間設定機能100は、領域特定部110、基準点設定部120、操作部130および認識空間設定部140の各機能を用いて実現される。以下に詳述する認識空間設定機能100を用いた処理については、この例では、ユーザによる操作部13への開始指示が入力されると実行される。なお、この処理は、一定間隔で実行されてもよいし、予め決められたスケジュールにしたがって実行されてもよいし、検知範囲において手などの予め決められた物体が検知されると実行されてもよい。
[Recognition space setting function 100]
FIG. 3 is a block diagram showing the configuration of the recognition space setting function 100 according to the first embodiment of the present invention. The recognition space setting function 100 is realized using each function of the region specifying unit 110, the reference point setting unit 120, the operation unit 130, and the recognition space setting unit 140. In this example, the process using the recognition space setting function 100 described in detail below is executed when a start instruction is input to the operation unit 13 by the user. This process may be executed at regular intervals, may be executed according to a predetermined schedule, or may be executed when a predetermined object such as a hand is detected in the detection range. Good.

領域特定部110は、検知部500から出力される検知データに基づいて、検知範囲において検知された物体の輪郭から、手および腕の領域(以下、物体領域という)を特定する。この例では、腕の伸びる方向に沿った軸線L(図4参照)についても特定する。   Based on the detection data output from the detection unit 500, the region specification unit 110 specifies a hand and arm region (hereinafter referred to as an object region) from the contour of an object detected in the detection range. In this example, the axis L (see FIG. 4) along the direction in which the arm extends is also specified.

基準点設定部120は、特定された物体領域に基づいて、後述する走査の開始点となる基準点Cを、図4に示すようにして設定する。   Based on the identified object region, the reference point setting unit 120 sets a reference point C, which will be a scanning start point described later, as shown in FIG.

図4は、本発明の第1実施形態に係る走査部130における基準点Cを設定する方法の一例を説明する図である。図4に示す中心点Pは、検知範囲全体における中心の位置を示している。基準点設定部120は、中心点Pから鉛直方向に線を伸ばし、軸線Lとの交点を基準点Cとして設定する。なお、基準点Cは、軸線L上の中心点Pから最も近い点としてもよいし、また、軸線Lまたは中心点Pを用いない方法を含めて他の方法で設定されてもよいが、物体領域(手1000および腕2000)に設定されることが望ましく、物体領域から指を除いた領域に設定されることがさらに望ましい。   FIG. 4 is a diagram illustrating an example of a method for setting the reference point C in the scanning unit 130 according to the first embodiment of the present invention. A center point P shown in FIG. 4 indicates a center position in the entire detection range. The reference point setting unit 120 extends a line from the center point P in the vertical direction, and sets the intersection with the axis L as the reference point C. The reference point C may be a point closest to the center point P on the axis L, or may be set by other methods including a method not using the axis L or the center point P. It is desirable to set the area (hand 1000 and arm 2000), and it is more desirable to set the area obtained by removing the finger from the object area.

図3に戻って説明を続ける。走査部130は、基準点Cを囲む走査線SLを設定し、走査線SLが基準点Cから拡がるようにして、検知範囲を走査する(図6参照)。走査線SLの形状は、この例では円形であるが、楕円形、矩形など、基準点Cを囲む形状であれば、どのような形状であってもよい。   Returning to FIG. 3, the description will be continued. The scanning unit 130 sets a scanning line SL surrounding the reference point C, and scans the detection range so that the scanning line SL extends from the reference point C (see FIG. 6). The shape of the scanning line SL is circular in this example, but may be any shape as long as it surrounds the reference point C, such as an ellipse or a rectangle.

認識空間設定部140は、走査線SLと物体領域とが重なる部分が、走査線SLの一部かつ1つの連続した線となる条件(以下、特定条件という)を満たすときの走査線SLの形状に基づいて、認識空間を設定する。この認識空間を設定するための方法について、以下、図5から図10を用いて具体的に説明する。   The recognition space setting unit 140 has a shape of the scanning line SL when the portion where the scanning line SL and the object region overlap is a part of the scanning line SL and one continuous line (hereinafter referred to as a specific condition). Based on the above, a recognition space is set. A method for setting the recognition space will be specifically described below with reference to FIGS.

図5は、本発明の第1実施形態に係る認識空間設定部140において認識空間を設定する処理を示すフローチャートである。まず、認識空間設定部140は、走査線SLと物体領域(手1000および腕2000)との重なる部分(以下、重畳部分という)が特定条件を満たすか否かを判定する(ステップS110)。特定条件を満たさない場合(ステップS110;No)には、この判定が続いて行われる。そのため、この判定は、特定条件を満たすと判定される(ステップS110;Yes)まで、走査部130による走査線SLの拡大に伴って、一定間隔で実行されることになる。頂上部分が特定条件を満たす場合(ステップS110;Yes)には、認識空間設定部140は、特定条件を満たす走査線SLの形状を特定する(ステップS120)。以下、特定された走査線SLの形状を特定形状という。ステップS110、S120の処理について、図6を用いて具体的に説明する。   FIG. 5 is a flowchart showing processing for setting a recognition space in the recognition space setting unit 140 according to the first embodiment of the present invention. First, the recognition space setting unit 140 determines whether or not a portion where the scanning line SL and the object region (hand 1000 and arm 2000) overlap (hereinafter referred to as a superimposed portion) satisfies a specific condition (step S110). If the specific condition is not satisfied (step S110; No), this determination is subsequently performed. Therefore, this determination is executed at regular intervals as the scanning unit 130 enlarges the scanning line SL until it is determined that the specific condition is satisfied (step S110; Yes). When the top portion satisfies the specific condition (step S110; Yes), the recognition space setting unit 140 specifies the shape of the scanning line SL that satisfies the specific condition (step S120). Hereinafter, the shape of the specified scanning line SL is referred to as a specific shape. The processing in steps S110 and S120 will be specifically described with reference to FIG.

図6は、本発明の第1実施形態に係る認識空間設定部140における走査線形状の特定方法の一例を説明する図である。走査線SL(1)、SL(2)、SL(3)は、基準点Cから拡がる走査線SLを示している。図6においては、走査線SL(1)、SL(2)、SL(3)は破線で示され、そのうち重畳部分は太い実線で示されている。走査線SL(3)まで拡がると、走査線SL(3)は物体領域のうち腕2000の部分だけ重畳することになる。すなわち、重畳部分LO(3)は特定条件を満たすことになり、認識空間設定部140は、走査線SL(3)の形状を特定形状として特定する。   FIG. 6 is a diagram for explaining an example of a scanning line shape specifying method in the recognition space setting unit 140 according to the first embodiment of the present invention. The scanning lines SL (1), SL (2), and SL (3) indicate the scanning lines SL extending from the reference point C. In FIG. 6, the scanning lines SL (1), SL (2), and SL (3) are indicated by broken lines, and the overlapping portion is indicated by a thick solid line. When extending to the scanning line SL (3), the scanning line SL (3) overlaps only the portion of the arm 2000 in the object region. That is, the overlapping portion LO (3) satisfies the specific condition, and the recognition space setting unit 140 specifies the shape of the scanning line SL (3) as the specific shape.

なお、特定条件を満たすかどうかについては、この方法に限らず、他の方法を用いてもよい。例えば、走査線SLと物体領域の輪郭部分との交点の数を抽出し、交点が2点になった場合になど、間接的に特定条件を満たすかどうか判定してもよい。このように、特定条件を満たすかどうかを判定するための方法は、重畳部分の状態を直接的に判定するだけでなく間接的に判定する方法も含む。   Note that whether or not the specific condition is satisfied is not limited to this method, and other methods may be used. For example, the number of intersections between the scanning line SL and the contour portion of the object region may be extracted, and it may be determined whether or not the specific condition is indirectly satisfied, for example, when the number of intersections becomes two. As described above, the method for determining whether or not the specific condition is satisfied includes not only a direct determination of the state of the superimposed portion but also a determination method indirectly.

図5に戻って説明を続ける。続いて、認識空間設定部140は、特徴位置を特定する(ステップS130)。この例では、特徴位置は手1000と腕2000との間の手首の位置である。特徴位置の特定方法の一例について、図7を用いて説明する。   Returning to FIG. Subsequently, the recognition space setting unit 140 specifies a feature position (step S130). In this example, the characteristic position is the position of the wrist between the hand 1000 and the arm 2000. An example of the method for specifying the feature position will be described with reference to FIG.

図7は、本発明の第1実施形態に係る認識空間設定部140における特徴位置の特定方法の一例を説明する図である。認識空間設定部140は、特定形状(走査線)SL(3)を軸線Lに沿って平行移動させる。この例では、SL(3)、SL(4)、SL(5)の順に変化させる。この平行移動に伴い、重畳部分LOがLO(3)、LO(4)、LO(5)の順で変化し、重畳部分LOの長さが変化する。認識空間設定部140は、重畳部分LOの長さの変化を算出し、その長さが急激に変化する(例えば、長さの変化量が予め決められた閾値を超えた場合など)部分を手首(特徴位置)として特定する。図7に示す例では、重畳部分LO(4)に相当する位置を特徴位置として特定する。   FIG. 7 is a diagram for explaining an example of a feature position specifying method in the recognition space setting unit 140 according to the first embodiment of the present invention. The recognition space setting unit 140 translates the specific shape (scanning line) SL (3) along the axis L. In this example, SL (3), SL (4), and SL (5) are changed in this order. With this parallel movement, the overlapping portion LO changes in the order of LO (3), LO (4), LO (5), and the length of the overlapping portion LO changes. The recognition space setting unit 140 calculates the change in the length of the overlapped portion LO, and changes the length of the overlap portion LO abruptly (for example, when the amount of change in length exceeds a predetermined threshold). It is specified as (characteristic position). In the example illustrated in FIG. 7, the position corresponding to the overlapped portion LO (4) is specified as the feature position.

なお、上述したように、重畳部分LOを、走査線SLと物体領域の輪郭部分との2つの交点により認識する場合には、重畳部分LOの長さに対応して2つの交点間の距離を用いればよい。   As described above, when the overlapping portion LO is recognized by two intersection points between the scanning line SL and the contour portion of the object region, the distance between the two intersection points is set corresponding to the length of the overlapping portion LO. Use it.

図5に戻って説明を続ける。続いて、認識空間設定部140は、特徴位置を特定すると、特定条件を満たす範囲で、特徴位置を基準とした特定形状の調整を行う(ステップS140)。特定形状の調整方法の一例について、図8を用いて説明する。   Returning to FIG. Subsequently, when the feature space is specified, the recognition space setting unit 140 adjusts the specific shape based on the feature position within a range that satisfies the specific condition (step S140). An example of a specific shape adjustment method will be described with reference to FIG.

図8は、本発明の第1実施形態に係る認識空間設定部140における特定形状の調整方法の一例を説明する図である。この例では、特定形状(走査線)SL(4)と軸線Lとの交点のうち、特徴位置側の交点D1を固定して、特定形状の直径Rを調整する。このとき、特定形状は、特定条件を満たす範囲(所定のマージンを設けてもよい)において、直径Rが最小になるように調整される。図8に示す例では、特定形状SL(4)は、軸線Lとの交点D1、D2を結ぶ直径Rの特定形状SL(6)に調整される。   FIG. 8 is a diagram illustrating an example of a specific shape adjustment method in the recognition space setting unit 140 according to the first embodiment of the present invention. In this example, among the intersections of the specific shape (scan line) SL (4) and the axis L, the intersection D1 on the feature position side is fixed, and the diameter R of the specific shape is adjusted. At this time, the specific shape is adjusted so that the diameter R is minimized within a range that satisfies the specific condition (a predetermined margin may be provided). In the example illustrated in FIG. 8, the specific shape SL (4) is adjusted to the specific shape SL (6) having a diameter R connecting the intersections D1 and D2 with the axis L.

直径Rが最小になるように調整するときには、例えば、以下の方法で行えばよい。まず、交点D1を固定して、特定条件を満たさなくなる(例えば、特定形状が手1000の指の部分と重なる状態)まで特定形状を小さくする。そして、特定条件を満たさなくなる直前の大きさ(例えば、特定形状が手1000の指の部分と重ならない状態)に特定形状大きさを調整すればよい。なお、この調整の方法は一例であって、特定条件を満たす範囲で、特徴位置を基準とした調整がなされれば、別の方法であってもよい。   When adjusting so that the diameter R is minimized, for example, the following method may be used. First, the intersection point D1 is fixed, and the specific shape is reduced until the specific condition is not satisfied (for example, the specific shape overlaps the finger portion of the hand 1000). Then, the specific shape size may be adjusted to the size immediately before the specific condition is not satisfied (for example, the specific shape does not overlap the finger portion of the hand 1000). Note that this adjustment method is an example, and another method may be used as long as the adjustment is performed based on the characteristic position within a range that satisfies the specific condition.

図5に戻って説明を続ける。続いて、認識空間設定部140は、調整後の特定形状に基づいて、認識空間を設定する(ステップS150)。認識空間の設定方法の一例について、図9を用いて説明する。   Returning to FIG. Subsequently, the recognition space setting unit 140 sets a recognition space based on the adjusted specific shape (step S150). An example of a recognition space setting method will be described with reference to FIG.

図9は、本発明の第1実施形態に係る認識空間設定部140における認識空間の設定方法の一例を説明する図である。この例では、認識空間は、交点D1を中心とし、調整後の特定形状SL(6)の直径Rを半径とする球RAとして設定される。なお、マージンを考慮して、この半径はRでなくR×(1+α)(ここでαは誤差許容割合を表す正の値)にしてもよい。また、認識空間は球でなくてもよく、例えば、楕円体、直方体、半球など、様々な形状にしてもよい。いずれの場合であっても、調整後の特定形状SL(6)(例えば、直径)に基づいて決められればよく、特徴位置(手首)を固定した状態で物体の一端部側(手1000)が可動する範囲を含むようになっていることが望ましい。   FIG. 9 is a diagram illustrating an example of a recognition space setting method in the recognition space setting unit 140 according to the first embodiment of the present invention. In this example, the recognition space is set as a sphere RA whose center is the intersection D1 and whose radius is the diameter R of the adjusted specific shape SL (6). In consideration of a margin, this radius may be R × (1 + α) (where α is a positive value representing an allowable error ratio) instead of R. The recognition space may not be a sphere, and may be various shapes such as an ellipsoid, a rectangular parallelepiped, and a hemisphere. In any case, it may be determined based on the adjusted specific shape SL (6) (for example, diameter), and the one end side (hand 1000) of the object is fixed with the characteristic position (wrist) fixed. It is desirable to include a movable range.

ここで、手1000を動かしてジェスチャをする場合、手1000は、手首を中心にして動く。そのため、手首を特徴位置として、その近傍に認識空間の中心を設定することにより、手1000がどのように動いても、手1000の挙動を測定することができる。また、手1000以外の周囲の動きの影響により誤認識を少なくすることができる。このようにして設定された認識空間は、ジェスチャ入力機能200(挙動測定部210)において用いられる。   Here, when making a gesture by moving the hand 1000, the hand 1000 moves around the wrist. Therefore, by setting the center of the recognition space near the wrist as a characteristic position, the behavior of the hand 1000 can be measured no matter how the hand 1000 moves. Further, erroneous recognition can be reduced due to the influence of surrounding movements other than the hand 1000. The recognition space set in this way is used in the gesture input function 200 (behavior measuring unit 210).

なお、手1000は腕側に曲げられる限界が存在する。そのため、認識空間の球RAの中心は、D1とするのではなく、D1より指先側(D2側)に移動させた点としてもよい。この中心は、調整後の特定形状SL(6)と物体領域の輪郭との2つの交点の中点としてもよい。このように中心がD1でないときの半径は、この中心からD2までの距離としてもよい。   There is a limit that the hand 1000 can be bent to the arm side. Therefore, the center of the sphere RA in the recognition space is not limited to D1, but may be a point moved to the fingertip side (D2 side) from D1. This center may be a midpoint between two intersections of the adjusted specific shape SL (6) and the contour of the object region. Thus, the radius when the center is not D1 may be a distance from this center to D2.

[ジェスチャ入力機能200]
図10は、本発明の第1実施形態に係るジェスチャ入力機能200の構成を示すブロック図である。ジェスチャ入力機能200は、挙動測定部210および決定部220の各機能を用いて実現される。
[Gesture input function 200]
FIG. 10 is a block diagram showing a configuration of the gesture input function 200 according to the first embodiment of the present invention. The gesture input function 200 is realized using the functions of the behavior measurement unit 210 and the determination unit 220.

挙動測定部210は、検知部500から出力される検知データに基づいて、認識空間における物体の少なくとも一部の挙動を測定する。この例では、挙動測定部210は、物体の少なくとも一部(この例では5本の指の先端部)の座標を算出する座標算出手段として機能する。なお、座標が算出される指は、この例では5本の指全てであるが、一部の指であってもよいし、1本の指のみであってもよい。   The behavior measurement unit 210 measures the behavior of at least a part of the object in the recognition space based on the detection data output from the detection unit 500. In this example, the behavior measurement unit 210 functions as a coordinate calculation unit that calculates the coordinates of at least a part of the object (the tip of five fingers in this example). The fingers whose coordinates are calculated are all five fingers in this example, but may be a part of the fingers or only one finger.

このとき、挙動測定部210は、検知データに含まれる情報のうち、認識空間における情報を抽出して座標の算出をすればよい。そのため、情報処理の負荷を少なくすることができ、また、座標の算出における分解能を向上させることもできる。より精度を向上させるため、検知範囲を認識空間近傍に絞り込むように物体検知装置20の光学系(レンズ倍率など)を調整してもよいし、認識空間近傍において検知センサ21が照射するパターンの密度(ドットパターンの密度など)を高めてもよい。   At this time, the behavior measurement unit 210 may calculate the coordinates by extracting information in the recognition space from the information included in the detection data. Therefore, it is possible to reduce the load of information processing, and it is possible to improve the resolution in calculating coordinates. In order to improve accuracy, the optical system (lens magnification, etc.) of the object detection device 20 may be adjusted so that the detection range is narrowed down to the vicinity of the recognition space, and the density of the pattern irradiated by the detection sensor 21 in the vicinity of the recognition space (Dot pattern density, etc.) may be increased.

図11は、本発明の第1実施形態に係る挙動測定部210により算出される座標の位置を説明する図である。挙動測定部210は、手1000の親指1001の先端の座標A、人差し指1002の先端の座標B、中指1003の先端の座標C、薬指1004の先端の座標D、小指1005の先端の座標Eを算出する。挙動測定部210は、各指の位置の変化に追従して、所定間隔で座標を算出し続ける。なお、座標の原点については、検知範囲の特定の位置としてもよいし、認識空間の特定の位置(球RAの中心など)としてもよいし、手1000のいずれかの位置(例えばいずれかの指の先端)の座標を原点としてもよい。例えば、親指の先端の座標を原点とする場合には、他の指の座標は、親指を基準とした相対的な座標として算出されることになる。   FIG. 11 is a diagram for explaining the positions of coordinates calculated by the behavior measuring unit 210 according to the first embodiment of the present invention. The behavior measuring unit 210 calculates the coordinate A of the tip of the thumb 1001 of the hand 1000, the coordinate B of the tip of the index finger 1002, the coordinate C of the tip of the middle finger 1003, the coordinate D of the tip of the ring finger 1004, and the coordinate E of the tip of the little finger 1005. To do. The behavior measurement unit 210 continues to calculate coordinates at predetermined intervals following the change in the position of each finger. The origin of the coordinates may be a specific position in the detection range, a specific position in the recognition space (such as the center of the sphere RA), or any position of the hand 1000 (for example, any finger). The origin may be the origin. For example, when the coordinates of the tip of the thumb are used as the origin, the coordinates of the other fingers are calculated as relative coordinates based on the thumb.

図10に戻って説明を続ける。決定部220は、挙動測定部210において算出された座標(以下、算出座標という)に基づいて、ユーザの装置に対する指示を決定する。この例では、決定部220は、ジェスチャの種類と指示の種類とを対応付けた照合用テーブル、および算出座標に基づいて、ユーザからの装置に対する指示を決定する。指示には、例えば、OK、NGなどの判断を入力する指示の他、特定の処理(メニュー画面の呼び出し、プログラムの実行、ページ切り替え、画面のスクロール、拡大縮小など)を行うための指示などがある。なお、後述するように、決定部220は、視線認証判定機能300における判定結果などにより、決定する指示が変更されたり、指示の決定が行われなかったりする場合もある。また、決定部220は、操作部13への操作に基づいて指示を決定する場合もある。   Returning to FIG. The determining unit 220 determines an instruction to the user's device based on the coordinates calculated by the behavior measuring unit 210 (hereinafter referred to as “calculated coordinates”). In this example, the determination unit 220 determines an instruction from the user to the apparatus based on the collation table in which the gesture type and the instruction type are associated with each other and the calculated coordinates. The instructions include, for example, instructions for inputting judgments such as OK and NG, as well as instructions for performing specific processing (calling of menu screen, execution of program, page switching, screen scrolling, enlargement / reduction, etc.). is there. As will be described later, the determination unit 220 may change the instruction to be determined or may not determine the instruction depending on the determination result in the line-of-sight authentication determination function 300 or the like. In addition, the determination unit 220 may determine an instruction based on an operation on the operation unit 13.

図12は、本発明の第1実施形態に係る決定部220で用いられる照合用テーブルを説明する図である。図12に示すように照合用テーブルは、ジェスチャの種類と指示の種類とが対応付けられている。図12に示す例では、ジェスチャAと指示aとが対応付けられ、ジェスチャBと指示bが対応付けられ、ジェスチャAからジェスチャBに変化する場合として指示cが対応付けられている。   FIG. 12 is a diagram for explaining a collation table used in the determination unit 220 according to the first embodiment of the present invention. As shown in FIG. 12, in the verification table, the type of gesture and the type of instruction are associated with each other. In the example illustrated in FIG. 12, the gesture A and the instruction a are associated with each other, the gesture B and the instruction b are associated with each other, and the instruction c is associated with the change from the gesture A to the gesture B.

図13は、本発明の第1実施形態に係る照合用テーブルに定義されるジェスチャの例を説明する図である。この例では、ジェスチャAについては、図13(a)に示すジェスチャであり、そのジェスチャAの定義のため各指の算出座標の相対関係が図示のとおり決められている。すなわち、ジェスチャAは、座標AからEが縦に並んだような形状として定義されている。   FIG. 13 is a diagram for explaining an example of a gesture defined in the collation table according to the first embodiment of the present invention. In this example, the gesture A is a gesture shown in FIG. 13A, and the relative relationship between the calculated coordinates of each finger is determined as shown in the figure for the definition of the gesture A. That is, the gesture A is defined as a shape in which coordinates A to E are arranged vertically.

一方、ジェスチャBについては、図13(b)に示すジェスチャであり、そのジェスチャBの定義のため各指の算出座標の相対関係が図示のとおり決められている。すなわち、ジェスチャBは、座標B、Cが情報に分離して横に並び、座標A、D、Eが座標B、Cの下方で集まった形状として定義されている。ジェスチャAからジェスチャBに変化する場合とは、図13(a)に示すジェスチャから図13(b)に示すジェスチャに変化させる動作をする場合を示している。   On the other hand, the gesture B is a gesture shown in FIG. 13B, and the relative relationship of the calculated coordinates of each finger is determined as shown in the figure for the definition of the gesture B. That is, the gesture B is defined as a shape in which the coordinates B and C are separated into information and arranged side by side, and the coordinates A, D, and E are gathered below the coordinates B and C. The case of changing from the gesture A to the gesture B indicates a case of performing an operation of changing from the gesture shown in FIG. 13A to the gesture shown in FIG.

なお、ここでは、右手用のジェスチャを示して説明したが、左手用のジェスチャについても定義されていてもよい。いずれの手のジェスチャが適用されるかについては、上述した認識空間設定部140において特定された特徴位置と物体の一端部との位置関係(いずれが相対的に左側に存在するかなど)から決定してもよい。   In addition, although the right hand gesture is shown and described here, the left hand gesture may also be defined. Which hand gesture is applied is determined from the positional relationship between the feature position specified in the recognition space setting unit 140 described above and one end of the object (which is relatively on the left side, etc.). May be.

図14は、本発明の第1実施形態に係る決定部220における処理を示すフローチャートである。決定部220は、各指に対応する算出座標の位置の変化から、各指に対応する算出座標の変化速度を算出し、最も動きの速い指の速度を変化速度Vfとする。なお、変化速度Vfは、各指の算出座標の変化速度に基づいて決められていればよく、各指の算出座標の変化速度の平均値などであってもよいし、特定の指の算出座標の変化速度であってもよい。   FIG. 14 is a flowchart showing processing in the determination unit 220 according to the first embodiment of the present invention. The determination unit 220 calculates the change speed of the calculated coordinate corresponding to each finger from the change in the position of the calculated coordinate corresponding to each finger, and sets the speed of the finger with the fastest movement as the change speed Vf. The change speed Vf may be determined based on the change speed of the calculated coordinates of each finger, may be an average value of the change speeds of the calculated coordinates of each finger, or may be the calculated coordinates of a specific finger. The rate of change may be.

決定部220は、変化速度Vfは第1の速度V1(この例では30cm/秒)以上であるかを判定する(ステップS210)。変化速度Vfが第1の速度V1未満である場合(ステップS210;No)には、この判定が続いて行われる。変化速度Vfが第1の速度V1以上となる(ステップS210;Yes)と、決定部220は、変化速度Vfが第2の速度V2以上の状態で第1の時間T1を経過したかどうかを判定し(ステップS221)、経過していない場合(ステップS221;No)には、変化速度Vfが第2の速度V2未満まで減速したかを判定する(ステップS222)。なお、第2の速度V2は、第1の速度V1よりも遅い速度(この例では0.5cm/秒)である。具体的には、第2の速度V2は、静止状態とみなせる速度であることが望ましい。   The determination unit 220 determines whether the change speed Vf is equal to or higher than the first speed V1 (in this example, 30 cm / second) (step S210). If the change speed Vf is less than the first speed V1 (step S210; No), this determination is subsequently performed. When the change speed Vf becomes equal to or higher than the first speed V1 (step S210; Yes), the determination unit 220 determines whether or not the first time T1 has elapsed while the change speed Vf is equal to or higher than the second speed V2. However, if it has not elapsed (step S221; No), it is determined whether or not the change speed Vf has decreased to less than the second speed V2 (step S222). The second speed V2 is a speed (0.5 cm / second in this example) slower than the first speed V1. Specifically, it is desirable that the second speed V2 is a speed that can be regarded as a stationary state.

変化速度Vfが第2の速度V2未満まで減速せず(ステップS222;No)に、第1の時間T1(この例では0.5秒)を経過した場合(ステップS221;Yes)には、ステップS210に戻る。   If the first time T1 (0.5 seconds in this example) has elapsed (step S221; Yes) without the change speed Vf decelerating to less than the second speed V2 (step S222; No), the step Return to S210.

第1の時間T1を経過する前(ステップS221;No)に、変化速度Vfが第2の速度V2未満まで減速した場合(ステップS222;Yes)には、決定部220は、変化速度Vfが第2の速度V2未満の状態で第2の時間T2(この例では1秒)を経過したかどうかを判定する(ステップS223)。第2の時間T2を経過していない場合には、ステップS222に戻る。   If the change speed Vf decelerates to less than the second speed V2 (step S222; Yes) before the first time T1 has elapsed (step S221; No), the determination unit 220 determines that the change speed Vf is the first speed Tf. It is determined whether or not the second time T2 (1 second in this example) has elapsed in a state of less than 2 speed V2 (step S223). If the second time T2 has not elapsed, the process returns to step S222.

変化速度Vfが第2の速度V2未満で第2の時間T2を経過した場合(ステップS223;Yes)には、各指の算出座標(第1座標)を記憶する(ステップS230)。その後、決定部220は、変化速度Vfが第1の速度V1以上であるかを判定する(ステップS240)。第1の速度V1未満(ステップS240;No)で第3の時間T3が経過した場合(ステップS250;Yes)には、決定部220は、ステップS230で記憶した第1座標と照合用テーブルのジェスチャの種類とを照合して、第1座標に対応する指示の種類を決定する(ステップS280)。そして、ステップS210に戻る。   When the change speed Vf is less than the second speed V2 and the second time T2 has elapsed (step S223; Yes), the calculated coordinates (first coordinates) of each finger are stored (step S230). Thereafter, the determination unit 220 determines whether the change speed Vf is equal to or higher than the first speed V1 (step S240). When the third time T3 has elapsed (step S250; Yes) at a speed less than the first speed V1 (step S240; No), the determination unit 220 uses the first coordinate stored in step S230 and the verification table gesture. The type of instruction corresponding to the first coordinate is determined (step S280). Then, the process returns to step S210.

一方、第3の時間T3(この例では1秒)が経過する前(ステップS250;No)に、変化速度Vfが第1の速度V1以上になった場合(ステップS240;Yes)には、ステップS261に進む。ステップS261からステップS263については、ステップS221からステップS223までの処理と同様であるため説明を省略する。   On the other hand, if the change speed Vf becomes equal to or higher than the first speed V1 (step S240; Yes) before the third time T3 (1 second in this example) has elapsed (step S250; No), the step The process proceeds to S261. Steps S261 to S263 are the same as the processes from Step S221 to Step S223, and thus the description thereof is omitted.

変化速度Vfが第2の速度V2未満で第2の時間T2を経過した場合(ステップS263;Yes)には、各指の算出座標(第2座標)を記憶する(ステップS270)。そして、決定部220は、ステップS230で記憶した第1座標からステップS270で記憶した第2座標への変化と、照合用テーブルのジェスチャの種類とを照合して、この変化に対応する指示の種類を決定する(ステップS280)。そして、ステップS210に戻る。このように決定された指示により実行部700が実行される。なお、ステップS280において決定された指示が、ジェスチャ入力を終了する指示である場合には、ステップS210に戻らずに終了してもよい。また、ジェスチャ入力を終了する指示は、ユーザによる操作部13への操作によって行われてもよいし、検知範囲に一定期間にわたって手が検知されなくなった時に行われてもよい。   When the change speed Vf is less than the second speed V2 and the second time T2 has elapsed (step S263; Yes), the calculated coordinates (second coordinates) of each finger are stored (step S270). Then, the determination unit 220 collates the change from the first coordinate stored in step S230 to the second coordinate stored in step S270 and the type of gesture in the verification table, and the type of instruction corresponding to this change. Is determined (step S280). Then, the process returns to step S210. The execution unit 700 is executed according to the instruction thus determined. When the instruction determined in step S280 is an instruction to end the gesture input, the instruction may be ended without returning to step S210. The instruction to end the gesture input may be performed by a user operation on the operation unit 13 or may be performed when a hand is not detected in the detection range for a certain period.

決定部220は、上述のフローで処理をすることにより、ユーザの指の動きが一定速度以上で動いてから、一定期間にわたってほぼ静止した状態で場合に、ジェスチャとして認識する。本発明者は、ユーザがジェスチャ入力をしようとする意図があるときには、指を早く動かして意図するジェスチャに応じた状態で指をしばらく止めるという動作を行う一方、ジェスチャ入力の意図がない場合または入力の開始をするまでは、指の動きが遅いことに着目した。   The determination unit 220 recognizes the gesture as a gesture when the movement of the user's finger moves at a certain speed or more and remains almost stationary for a certain period of time by performing the processing in the above-described flow. When the user intends to input a gesture, the inventor moves the finger quickly to stop the finger for a while in a state corresponding to the intended gesture. We focused on the slow movement of fingers until the start of.

例えば、手を広げた状態をジェスチャとして認識させる場合を想定すると、一般に、ユーザは、手をゆっくりとつぼめた後、急激に広げる動作をすることが多い。例えば、以下の(1)から(3)に示す流れになる。
(1)ジェスチャ入力を意図するまでは、手(指)の動きが遅い。したがって、ジェスチャ認識の対象外となる。
(2)ジェスチャを開始する準備として、手をつぼめるまでの動きは、手(指)の動きが遅い、または、手をつぼめた後の静止時間がほとんどない。したがって、ジェスチャ認識の対象外となる。
(3)ジェスチャとして認識させるために、手を広げる動きは、手(指)の動きが速く、手を広げた後の静止時間が存在する。したがって、ジェスチャ認識の対象となる。
For example, assuming that a hand is spread out as a gesture, in general, a user often performs an operation of suddenly spreading a hand after slowly picking up the hand. For example, the flow is as shown in (1) to (3) below.
(1) The hand (finger) moves slowly until a gesture input is intended. Therefore, it is not subject to gesture recognition.
(2) As a preparation for starting a gesture, the hand (finger) moves slowly until the hand is picked up, or there is little rest time after the hand is picked up. Therefore, it is not subject to gesture recognition.
(3) In order to recognize as a gesture, the movement of spreading the hand has a fast movement of the hand (finger), and there is a stationary time after the hand is spread. Therefore, it becomes an object of gesture recognition.

[視線認証判定機能300]
図15は、本発明の第1実施形態に係る視線認証機能300の構成を示すブロック図である。視線認証判定機能300は、視線測定部310、表示制御部320および判定部330の各機能を用いて実現される。
[Gaze authentication determination function 300]
FIG. 15 is a block diagram showing a configuration of the line-of-sight authentication function 300 according to the first embodiment of the present invention. The line-of-sight authentication determination function 300 is realized using the functions of the line-of-sight measurement unit 310, the display control unit 320, and the determination unit 330.

視線測定部310は、視線測定装置30から出力される撮影信号を用いて、ユーザの視線方向を測定し、ユーザの視線が表示装置14のどの部分に向いているかを算出する。視線方向の測定には、上述したとおり、プルキニエ像を用いる角膜反射法により視線方向を測定する公知の方法を用いるが、他の公知の方法を用いてもよい。   The line-of-sight measurement unit 310 measures the user's line-of-sight direction using the imaging signal output from the line-of-sight measurement device 30 and calculates which part of the display device 14 the user's line of sight is directed to. For the measurement of the line-of-sight direction, as described above, a known method for measuring the line-of-sight direction by a corneal reflection method using a Purkinje image is used, but other known methods may be used.

表示制御部320は、表示装置14の表示を制御する機能を有し、認証領域を含む確認画面を表示装置14に表示させる。   The display control unit 320 has a function of controlling display on the display device 14 and causes the display device 14 to display a confirmation screen including an authentication area.

図16は、本発明の第1実施形態に係る表示装置14に表示される確認画面の例を説明する図である。確認画面には、少なくとも1つの認証領域が設けられ、図16に示す例では、認証領域W1、W2、W3が設けられている。また、VPは、視線測定部310の算出結果に基づいて得られるユーザの視線が向いている表示装置14上の位置(以下、視線位置VPという)を示している。この視線位置VPは表示装置14に表示されてもよいし、表示されなくてもよい。   FIG. 16 is a diagram illustrating an example of a confirmation screen displayed on the display device 14 according to the first embodiment of the present invention. The confirmation screen is provided with at least one authentication area. In the example shown in FIG. 16, authentication areas W1, W2, and W3 are provided. Further, VP indicates a position on the display device 14 where the user's line of sight obtained based on the calculation result of the line-of-sight measurement unit 310 is directed (hereinafter referred to as line-of-sight position VP). The line-of-sight position VP may be displayed on the display device 14 or may not be displayed.

確認画面とは、銀行などにおいて行われる業務上確認が必要な画面、ソフトウエアの利用規約を表示する画面など、ユーザが確認すべき内容として表示装置14に表示される画面である。確認すべき項目、特に重要な項目など、ユーザが視認するべき項目については、予め設定された認証領域に表示される。図16に示すように認証領域が複数存在する場合には、ユーザが視認すべき順番(認証順)が決められている。これは、認証領域に対応付けて予め決められていてもよいし、表示装置14における認証領域の位置関係(画面の上であるほど早い順番など)に基づいて決められてもよい。   The confirmation screen is a screen that is displayed on the display device 14 as content to be confirmed by the user, such as a screen that is necessary for business confirmation performed in a bank or the like, and a screen that displays software usage rules. Items to be checked by the user, such as items to be confirmed, particularly important items, are displayed in a preset authentication area. As shown in FIG. 16, when there are a plurality of authentication areas, the order (authentication order) to be visually recognized by the user is determined. This may be determined in advance in association with the authentication area, or may be determined based on the positional relationship of the authentication area in the display device 14 (such as the earlier the order is on the screen).

この例では、認証領域W1、W2、W3の順に認証順が1番目、2番目、3番目として決められている。図16に示す例では、認証領域W1には、2行の横書きの文字列が表示され、認証領域W2には、認証領域W1よりは文字数が少ないものの2行の横書きの文字列が表示され、認証領域W3には、1行の横書きの文字列が表示されている。なお、認証領域は、表示装置14の画面全体として1つの領域であってもよい。   In this example, the authentication order is determined as the first, second, and third in the order of the authentication areas W1, W2, and W3. In the example shown in FIG. 16, two lines of horizontally written character strings are displayed in the authentication area W1, and two lines of horizontally written character strings are displayed in the authentication area W2, although the number of characters is smaller than that of the authentication area W1. In the authentication area W3, one line of horizontal character string is displayed. Note that the authentication area may be one area for the entire screen of the display device 14.

図15に戻って説明を続ける。判定部330は、視線位置VPと認証領域との関係に基づいて、ユーザが確認画面を確認したかどうかを判定する。   Returning to FIG. 15, the description will be continued. The determination unit 330 determines whether the user has confirmed the confirmation screen based on the relationship between the line-of-sight position VP and the authentication area.

図17は、本発明の第1実施形態に係る判定部330における処理を示すフローチャートである。まず、判定部330は、視線位置VPが最初の認証領域(図16の例では認証領域W1)に存在(所定のマージンを許容してもよい)するかどうかの判定を続ける(ステップS310;No)。視線位置VPが最初の認証領域に存在することを検出する(ステップS310;Yes)と、判定部330は、次の認証順になっている認証領域が存在するかどうかを判定する(ステップS320)。   FIG. 17 is a flowchart showing processing in the determination unit 330 according to the first embodiment of the present invention. First, the determination unit 330 continues to determine whether or not the line-of-sight position VP exists in the first authentication area (authentication area W1 in the example of FIG. 16) (a predetermined margin may be allowed) (step S310; No). ). When it is detected that the line-of-sight position VP exists in the first authentication area (step S310; Yes), the determination unit 330 determines whether there is an authentication area in the next authentication order (step S320).

次の認証順になっている認証領域が存在する場合(ステップS320;Yes)には、判定部330は、視線位置VPが次の認証領域に存在するかどうかの判定を続ける(ステップS330;No)。なお、所定時間経過しても視線位置VPが次の認証領域に存在することを検出できない場合には、認証領域を視認する一連の処理が中断されたものとみなし、これまでの処理をリセットし、ステップS310から再び処理を開始するようにしてもよい。   If there is an authentication area in the next authentication order (step S320; Yes), the determination unit 330 continues to determine whether the line-of-sight position VP exists in the next authentication area (step S330; No). . If it cannot be detected that the line-of-sight position VP exists in the next authentication area even after a predetermined time has elapsed, it is assumed that a series of processes for visually recognizing the authentication area has been interrupted, and the previous processes are reset. The process may be started again from step S310.

視線位置VPが次の認証領域に存在することを検出する(ステップS330;Yes)と、再びステップS320の処理に戻る。次の認証順になっている認証領域が存在しない場合(ステップS320;No)には、判定部330は、ユーザによって確認画面が確認されたことを判定(ステップS340)して、処理を終了する。以下、この判定をユーザ確認判定という。   When it is detected that the line-of-sight position VP is present in the next authentication area (step S330; Yes), the process returns to step S320 again. If there is no authentication area in the next authentication order (step S320; No), the determination unit 330 determines that the confirmation screen has been confirmed by the user (step S340), and ends the process. Hereinafter, this determination is referred to as user confirmation determination.

ここで、判定部330は、視線位置VPが移動するときに認証領域の一部を通過することを条件に、視線位置VPが認証領域に存在することを判定すればよいが、他の条件により判定してもよい。以下、判定を行うために取り得る様々な条件について、以下の(a)から(c)として例示する。   Here, the determination unit 330 may determine that the line-of-sight position VP exists in the authentication area on the condition that the line-of-sight position VP passes through a part of the authentication area when the line-of-sight position VP moves. You may judge. Hereinafter, various conditions that can be taken for the determination are exemplified as the following (a) to (c).

(a)視線位置VPが所定時間連続して認証領域に留まっていること。なお、所定時間は、認証領域に表示されている文字の量に応じて、認証領域ごとに決められていてもよい。
(b)視線位置VPが認証領域で所定時間静止していること。なお、所定時間は、認証領域に表示されている文字の量に応じて、認証領域ごとに決められていてもよい。
(c)視線位置VPが認証領域に表示されている文字列の向き(予め決められた範囲でずれてもよい)に沿って移動したと検出されたこと。すなわち、横書きであれば概ね水平方向に沿って視線位置VPが移動し、縦書きであれば概ね鉛直方向に沿って視線位置VPが移動すること。なお、複数行にわたって文字列が表示されている場合には、視線位置VPが文字列に沿って移動したことが認証領域において、少なくとも文字列の行数分の回数、検出されたことを条件としてもよい。また、文字列の向きにそって移動する量は文字列の長さに応じて決められていてもよい。
(A) The line-of-sight position VP remains in the authentication area for a predetermined time continuously. Note that the predetermined time may be determined for each authentication area according to the amount of characters displayed in the authentication area.
(B) The line-of-sight position VP is stationary for a predetermined time in the authentication area. Note that the predetermined time may be determined for each authentication area according to the amount of characters displayed in the authentication area.
(C) It has been detected that the line-of-sight position VP has moved along the direction of the character string displayed in the authentication area (which may be shifted within a predetermined range). That is, the line-of-sight position VP moves approximately along the horizontal direction in horizontal writing, and the line-of-sight position VP moves approximately along the vertical direction in vertical writing. In the case where a character string is displayed over a plurality of lines, on the condition that the line-of-sight position VP has been detected in the authentication area at least as many times as the number of lines of the character string in the authentication area. Also good. Further, the amount of movement along the direction of the character string may be determined according to the length of the character string.

図15に戻って説明を続ける。上述の判定部330における判定結果は、決定部220および実行部700における処理に反映される。例えば、実行部700における処理に反映される場合には、実行部700は、ユーザ確認判定がされると、確認画面に対応して決められた処理(次の確認画面への遷移など)を実行するようにしてもよい。また、ユーザ確認判定がなされるまで、決定部220によって決定された指示に基づく処理を実行しないようにしてもよい。   Returning to FIG. 15, the description will be continued. The determination result in the determination unit 330 described above is reflected in the processing in the determination unit 220 and the execution unit 700. For example, when reflected in the processing in the execution unit 700, the execution unit 700 executes a process (such as transition to the next confirmation screen) determined in accordance with the confirmation screen when the user confirmation determination is made. You may make it do. Further, the process based on the instruction determined by the determination unit 220 may not be executed until the user confirmation determination is made.

決定部220における処理に反映される場合には、決定部220は、ユーザ確認判定を条件として、装置に対する指示を決定してもよい。これにより、ユーザ確認判定がされない状態では、ユーザによる指示の入力が拒否される。また、ユーザ確認判定の有無に応じて、決定する指示の種類を変更してもよい。例えば、エラー画面に遷移したり、エラーを示すポップアップ表示をしたり、ユーザがどの認証領域を見ていないかの表示をしたりする指示に変更されてもよい。   When reflected in the processing in the determination unit 220, the determination unit 220 may determine an instruction to the apparatus on the condition that the user confirmation is determined. Thereby, in the state where the user confirmation determination is not made, the input of the instruction by the user is rejected. Further, the type of instruction to be determined may be changed according to the presence / absence of user confirmation determination. For example, it may be changed to an instruction for transitioning to an error screen, displaying a pop-up indicating an error, or displaying which authentication area the user is not viewing.

このように、ユーザが確認画面における認証領域を視認したかどうかを判定して、その判定結果を反映した処理を実行することにより、ユーザが確認すべき文章等の内容を読まずに、内容を確認したことを示す操作をして先に進んでしまうことがないようにすることができる。このとき、確認を要する認証領域が複数ある場合には、所定の順序でユーザが視認する必要がある場合が多い。しかしながら、ユーザがその順序とは異なる順序で視認した場合には、単に視線が認証領域に向いているだけで、内容を確認していない場合が考えられる。このような場合には、ユーザ確認判定をしないようにすることができるため、ユーザが内容を確認せずに先に進んでしまわないようにすることができる。   In this way, it is determined whether or not the user has visually recognized the authentication area on the confirmation screen, and the process reflecting the determination result is executed, so that the content is not read without reading the content such as the text to be confirmed by the user. It is possible to prevent the operation from proceeding by performing an operation indicating that it has been confirmed. At this time, when there are a plurality of authentication areas that require confirmation, the user often needs to visually recognize them in a predetermined order. However, when the user visually recognizes in an order different from the order, it may be considered that the line of sight is merely directed to the authentication area and the content is not confirmed. In such a case, since it is possible to prevent the user confirmation determination, it is possible to prevent the user from proceeding without confirming the contents.

[判定部330における別の処理例]
判定部330は、上述のように視線位置VPが認証領域に所定の順番で存在したことでユーザ確認判定をしていたが、視線位置VPが認証領域に存在している間のみユーザ確認判定をするようにしてもよい。すなわち、判定部330は、ユーザの視線が認証領域を向いていることを検出している(ユーザが認証領域を視認している)ときに、ユーザ確認判定をする。
[Another processing example in determination unit 330]
The determination unit 330 performs the user confirmation determination because the line-of-sight position VP exists in the authentication area in a predetermined order as described above, but performs the user confirmation determination only while the line-of-sight position VP exists in the authentication area. You may make it do. That is, the determination unit 330 performs user confirmation determination when detecting that the user's line of sight is facing the authentication area (the user is viewing the authentication area).

このような場合には、決定部220は、ユーザ確認判定がされている間(ユーザが認証領域を視認している間)にのみ、装置に対する指示を決定し、それ以外は決定をしないようにしてもよい。これにより、ユーザは、認証領域を視認しているときにのみ、ユーザはジェスチャまたは操作部13への操作により、装置に対する指示を入力することができるようになる。なお、一部のジェスチャまたは操作部13への操作については、ユーザ確認判定にかかわらず、装置に対する指示の決定がされるようにしてもよい。   In such a case, the determination unit 220 determines an instruction for the apparatus only while the user confirmation determination is being performed (while the user visually recognizes the authentication area), and does not determine otherwise. May be. As a result, the user can input an instruction to the apparatus by operating the gesture or the operation unit 13 only when the user is viewing the authentication area. Note that for some gestures or operations on the operation unit 13, an instruction to the apparatus may be determined regardless of the user confirmation determination.

また、ユーザが認証領域を視認して一定時間においては、装置に対する指示を入力することができるようになっていてもよい。この場合には、判定部330は、視線位置VPが認証領域に存在している間に加えて、認証領域に存在しなくなった後の一定時間についてもユーザ確認判定をするようにすればよい。このようにすると、ユーザが認証領域を視認した後、操作部13を見ながら操作しても、装置に対する指示の入力をすることができる。   In addition, the user may be able to input an instruction to the apparatus for a predetermined time after visually recognizing the authentication area. In this case, the determination unit 330 may perform the user confirmation determination for a certain time after the line-of-sight position VP does not exist in the authentication area in addition to the line-of-sight position VP existing in the authentication area. In this way, after the user visually recognizes the authentication area, it is possible to input an instruction to the apparatus even if the user operates while looking at the operation unit 13.

認証領域が一画面において複数存在する場合には、決定部220は、ユーザがそれぞれの認証領域を視認してユーザ確認判定がされているときに、入力されたジェスチャまたは操作部13への操作に基づいて、装置に対する指示を決定するようにすればよい。ここで、ユーザから操作の入力を受け付ける操作部13と、ジェスチャの入力を受け付ける挙動測定部210とは、ユーザからの指示の入力を受け付ける入力受付手段として考えることもできる。   When there are a plurality of authentication areas on one screen, the determination unit 220 performs an operation on the input gesture or the operation unit 13 when the user visually confirms each authentication area and makes a user confirmation determination. Based on this, an instruction to the apparatus may be determined. Here, the operation unit 13 that receives an input of an operation from the user and the behavior measurement unit 210 that receives an input of a gesture can also be considered as an input reception unit that receives an input of an instruction from the user.

なお、視認されている認証領域と、入力されたジェスチャまたは操作部13への操作との関係が、予め決められたものと対応する場合に、装置に対する指示が決定されるようにしてもよい。例えば、ユーザが認証領域W1を視認しながらジェスチャAを行い、認証領域W2を視認しながらジェスチャBを行い、認証領域W3を視認しながらジェスチャAを行うという流れであった場合に、この流れに応じて装置に対する指示が決定されるようにしてもよい。   Note that an instruction to the apparatus may be determined when the relationship between the recognized authentication area and the input gesture or operation on the operation unit 13 corresponds to a predetermined one. For example, when the user performs the gesture A while visually recognizing the authentication area W1, performs the gesture B while visually recognizing the authentication area W2, and performs the gesture A while visually recognizing the authentication area W3. An instruction to the apparatus may be determined accordingly.

このように、ユーザの視線が認証領域を向いているときに、決定部220による装置に対する指示が決定されることで、ユーザがよそ見をした状態で装置に対する指示を入力することを防ぐことができる。   As described above, when the user's line of sight faces the authentication area, the instruction to the apparatus by the determination unit 220 is determined, so that it is possible to prevent the user from inputting the instruction to the apparatus while looking away. .

<第2実施形態>
本発明の第2実施形態においては、ジェスチャ入力機能200における処理が第1実施形態とは異なっている。第2実施形態においては、ユーザの手1000の指には長さを調整可能な伸縮装置が取り付けられた状態で、ジェスチャが入力される。
Second Embodiment
In the second embodiment of the present invention, the processing in the gesture input function 200 is different from that in the first embodiment. In the second embodiment, a gesture is input to the finger of the user's hand 1000 in a state in which a telescopic device capable of adjusting the length is attached.

図18は、本発明の第2実施形態に係る挙動測定部210により算出される座標の位置と伸縮装置3000の使用方法とを説明する図である。伸縮装置3000は、手1000の指先に取り付けられる。図18に示す例では、人差し指に取り付けられている。この伸縮装置3000は伸縮部3100が設けられ、伸縮装置3000に対する所定の操作により伸縮部3100の長さが変化する。   FIG. 18 is a diagram for explaining the position of the coordinates calculated by the behavior measuring unit 210 according to the second embodiment of the present invention and the method of using the expansion / contraction device 3000. The telescopic device 3000 is attached to the fingertip of the hand 1000. In the example shown in FIG. 18, it is attached to the index finger. The expansion / contraction device 3000 is provided with an expansion / contraction portion 3100, and the length of the expansion / contraction portion 3100 is changed by a predetermined operation on the expansion / contraction device 3000.

例えば、伸縮部3100の長さを伸縮させて多段階に変化させるときには、伸縮部3100を縮める方向に押される操作、スイッチ等を操作、手1000を振るなどして振動を与えて操作など、様々な操作が適用できる。このとき、振動を与えて伸縮させる構成である場合には、振動の強さにより伸縮部3100の長さが変化するようにしてもよいし、一度の振動で一段階の伸縮をして振動を与えるたびに伸縮部3100の長さが変化するようにしてもよい。この例では、伸縮部3100は、5段階に長さが変化する。   For example, when the length of the expansion / contraction part 3100 is expanded and changed in multiple stages, various operations such as an operation of pushing the expansion / contraction part 3100 in a shrinking direction, an operation of a switch or the like, an operation of giving vibration by shaking the hand 1000, etc. Applicable. At this time, when the structure is configured to extend and contract by applying vibration, the length of the expansion / contraction part 3100 may be changed depending on the intensity of vibration, or the vibration may be expanded and contracted in one step with one vibration. You may make it the length of the expansion-contraction part 3100 change whenever it gives. In this example, the length of the stretchable part 3100 changes in five steps.

図18(a)は伸縮部3100が最も縮んだ状態を示し、図18(b)は伸縮部3100が最も伸びた状態を示している。人差し指には伸縮装置3000が取り付けられているため、挙動測定部210は、物体における突起先端部を認識して座標を算出するようにすれば、伸縮部3100の先端部を人差し指の先端部として認識して、座標Bとして算出する。したがって、ユーザが同じジェスチャをした場合であっても、図18(a)に示すように伸縮部3100が最も縮んだ状態の場合と、図18(b)に示すように伸縮部3100が最も伸びた状態の場合とでは、座標A、C、D、Eが同じであっても、座標Bについては異なることになる。   FIG. 18A shows a state in which the expansion / contraction part 3100 is contracted most, and FIG. 18B shows a state in which the expansion / contraction part 3100 is extended most. Since the expansion / contraction device 3000 is attached to the index finger, the behavior measurement unit 210 recognizes the tip of the expansion / contraction part 3100 as the tip of the index finger when the tip of the protrusion is recognized and the coordinates are calculated. And calculated as coordinates B. Therefore, even when the user makes the same gesture, the expansion / contraction part 3100 is most contracted as shown in FIG. 18 (a) and the expansion / contraction part 3100 is most extended as shown in FIG. 18 (b). Even when the coordinates A, C, D, and E are the same, the coordinate B is different.

図19は、本発明の第2実施形態に係る決定部220で用いられる照合用テーブルを説明する図である。第2実施形態における照合用テーブルは、図12に示す第1実施形態における照合用テーブルと概ね同じであるが、一部が異なっている。例えば、第2実施形態では、ジェスチャBにおいては、伸縮部3100の伸縮の段階(この例では5段階)に応じて、B1〜B5までジェスチャ種類が設定され、それぞれ異なる指示b1〜b5が対応付けられている。   FIG. 19 is a diagram illustrating a collation table used in the determination unit 220 according to the second embodiment of the present invention. The collation table in the second embodiment is substantially the same as the collation table in the first embodiment shown in FIG. 12, but is partially different. For example, in the second embodiment, in the gesture B, gesture types from B1 to B5 are set according to the expansion / contraction stage (5 stages in this example) of the expansion / contraction part 3100, and different instructions b1 to b5 are associated with each other. It has been.

図20は、本発明の第2実施形態に係る照合用テーブルに定義されるジェスチャの例を説明する図である。この例では、図20(a)はジェスチャB1(伸縮部3100を最も縮めた状態)を示し、図20(b)はジェスチャB5(伸縮部3100を最も伸ばした状態)を示す。いずれのジェスチャにおいてもユーザにとっては同じジェスチャである。したがって、図20に示すように、各座標のうち、座標A、C、D、Eのそれぞれについては、いずれのジェスチャでも共通の座標であるが、伸縮装置3000を取り付けられている人差し指の座標Bについては、それぞれのジェスチャで異なる座標になる。   FIG. 20 is a diagram for explaining examples of gestures defined in the collation table according to the second embodiment of the present invention. In this example, FIG. 20A shows a gesture B1 (a state in which the expansion / contraction part 3100 is contracted most), and FIG. 20B shows a gesture B5 (a state in which the expansion / contraction part 3100 is extended most). In any gesture, it is the same gesture for the user. Therefore, as shown in FIG. 20, the coordinates A, C, D, and E among the coordinates are the same for all gestures, but the index B of the index finger to which the expansion / contraction device 3000 is attached. Is different for each gesture.

このようにすると、ユーザにとっては同じジェスチャであっても、伸縮部3100の伸縮の段階に応じた数で異なるジェスチャとして認識させることができる。この例で示した5段階の伸縮が可能な場合には、ユーザにとって1つの同じジェスチャであっても、5通りの指示が可能である。また、各指に、5段階の伸縮が可能な伸縮装置3000を取り付ければ、決定部220は、ユーザが同じジェスチャをしたとしても、5本の指×5段階で25通りの種類の指示を決定することができる。   In this way, even if it is the same gesture for the user, it can be recognized as different gestures by the number corresponding to the expansion / contraction stage of the expansion / contraction part 3100. If the five-stage expansion / contraction shown in this example is possible, the user can give five instructions even with one and the same gesture. Further, if an expansion / contraction device 3000 that can expand and contract in five steps is attached to each finger, the determination unit 220 determines 25 types of instructions in five fingers × 5 steps even if the user makes the same gesture. can do.

<第3実施形態>
本発明の第3実施形態においては、第2実施形態で用いた伸縮装置3000を座標の算出対象である指に取り付けるのではなく、座標の算出対象ではない部分に取り付ける伸縮装置3010について説明する。
<Third Embodiment>
In the third embodiment of the present invention, a description will be given of an expansion / contraction device 3010 that is attached to a portion that is not a coordinate calculation target, instead of attaching the expansion / contraction device 3000 used in the second embodiment to a finger that is a coordinate calculation target.

図21は、本発明の第3実施形態に係る挙動測定部210により算出される座標の位置と伸縮装置3010の使用方法とを説明する図である。図21に示すように、伸縮部3110を有する伸縮装置3010は、支持部材3300を介してリストバンド3200に支持されている。リストバンド3200がユーザの手首に取り付けられると、図21に示すように、伸縮部3110が手のひら部分に位置した状態となる。   FIG. 21 is a diagram for explaining the position of the coordinates calculated by the behavior measuring unit 210 according to the third embodiment of the present invention and the method of using the expansion / contraction device 3010. As shown in FIG. 21, the expansion / contraction device 3010 having the expansion / contraction part 3110 is supported by the wristband 3200 via the support member 3300. When wristband 3200 is attached to the wrist of the user, as shown in FIG. 21, expansion / contraction part 3110 is located in the palm part.

この例においては、伸縮部3110が最も縮んだ状態(図21(a))から、手のひらから外側(図21においては下方)に向けて伸びる。図21(b)は、最も伸びた状態である。図21に示すように、挙動測定部210は、各指の先端部の座標を算出するとともに、この例では伸縮装置3010の伸縮部3110の先端部の座標Zについてもさらに算出する。この座標Zは、手1000における特定の位置(例えば、上述した交点D1など)を基準として算出して、手1000全体の動きにかかわらず同じ座標が得られることが望ましい。なお、挙動測定部210は、指の先端部の座標を算出するときのアルゴリズムとは別に、伸縮装置3010の形状のような特定の形状を検出するアルゴリズムを用いて伸縮部3110の先端部の座標を算出してもよい。   In this example, the stretchable part 3110 extends from the most contracted state (FIG. 21A) toward the outside (downward in FIG. 21) from the palm. FIG. 21B shows the most extended state. As shown in FIG. 21, the behavior measurement unit 210 calculates the coordinates of the tip of each finger, and further calculates the coordinate Z of the tip of the extension / contraction part 3110 of the extension / contraction device 3010 in this example. The coordinate Z is preferably calculated based on a specific position in the hand 1000 (for example, the above-described intersection D1), and the same coordinate is desirably obtained regardless of the movement of the entire hand 1000. Note that the behavior measuring unit 210 uses the algorithm for detecting a specific shape, such as the shape of the expansion / contraction device 3010, separately from the algorithm for calculating the coordinates of the tip of the finger. May be calculated.

なお、伸縮装置3010は、図21のように伸縮部3110が伸びるように取り付けられるだけではなく、別の方向に伸びるように取り付けられてもよい。   In addition, the expansion / contraction apparatus 3010 may be attached not only to extend the expansion / contraction part 3110 as shown in FIG. 21 but also to extend in another direction.

図22は、本発明の第3実施形態に係る伸縮装置3010の図21とは異なる使用方法を説明する図である。図21に示す例とは異なる場合として、例えば、図22に示すように、伸縮部3110が手のひらに対して垂直方向に伸びるようにしてもよい。この場合には、座標Zは、手のひらからの距離を示す値として算出されてもよい。   FIG. 22 is a diagram for explaining a method of using the expansion / contraction apparatus 3010 according to the third embodiment of the present invention, which is different from FIG. As a case different from the example shown in FIG. 21, for example, as shown in FIG. 22, the stretchable part 3110 may extend in a direction perpendicular to the palm. In this case, the coordinate Z may be calculated as a value indicating the distance from the palm.

図23は、本発明の第3実施形態に係る決定部220で用いられる照合用テーブルを説明する図である。第3実施形態における照合用テーブルは、図12に示す第1実施形態における照合用テーブルに加えて、座標Zが対応付けられている。照合用テーブルに規定された座標ZにおけるZ1、Z2、・・・は、伸縮部3110の伸縮の段階に対応している。すなわち、この例における照合用テーブルにおいては、ジェスチャの座標A〜Eおよび座標Zの組み合わせに対して、各指示が対応付けられている。   FIG. 23 is a diagram illustrating a collation table used in the determination unit 220 according to the third embodiment of the present invention. The collation table in the third embodiment is associated with the coordinate Z in addition to the collation table in the first embodiment shown in FIG. Z1, Z2,... At the coordinates Z defined in the collation table correspond to the expansion / contraction stage of the expansion / contraction part 3110. That is, in the collation table in this example, each instruction is associated with a combination of the gesture coordinates A to E and the coordinate Z.

図23の照合用テーブルは、ジェスチャAが同じ(座標A〜Eが同じ)であっても伸縮部3110の伸縮の段階(座標Z)によって異なる指示となる。そのため、決定部220は、ユーザが同じジェスチャをしたとしても、伸縮部3110の伸縮の段階の数に応じた種類の指示を決定することができる。なお、第1実施形態のような照合用テーブルを複数用い、それぞれに座標Zの値を対応付けておいてもよい。この場合、決定部220は、座標Zの値に応じて、照合用テーブルを切り替えて用いるようにすればよい。例えば、銀行業務等においてジェスチャによる入力を用いるときに、複数の照合用テーブルの各々を業務の種類毎に対応させるとよい。このように、伸縮部3110の伸縮により業務の種類を切り替えることもできる。これに連動して表示装置14の表示を、切り替えられた業務の種類に対応した表示に切り替えてもよい。   In the collation table of FIG. 23, even if the gesture A is the same (the coordinates A to E are the same), the instructions differ depending on the expansion / contraction stage (coordinate Z) of the expansion / contraction part 3110. Therefore, the determination unit 220 can determine the type of instruction according to the number of expansion / contraction stages of the expansion / contraction unit 3110 even if the user makes the same gesture. Note that a plurality of collation tables as in the first embodiment may be used, and the value of the coordinate Z may be associated with each. In this case, the determination unit 220 may switch and use the verification table according to the value of the coordinate Z. For example, when using gesture input in banking operations or the like, each of a plurality of collation tables may be associated with each type of operation. In this way, the type of work can be switched by the expansion / contraction of the expansion / contraction part 3110. In conjunction with this, the display on the display device 14 may be switched to a display corresponding to the switched type of work.

<第4実施形態>
本発明の第4実施形態においては、第3実施形態のように伸縮する部分を有する伸縮装置3010を手1000に取り付けるのではなく、発光素子が設けられた発光装置を取り付ける場合について説明する。なお、この場合には、物体検知装置20において、発光素子からの発光を認識可能なイメージセンサを用い、挙動測定部210は、このイメージセンサからの出力に基づいて、発光素子からの発光色を特定する。
<Fourth embodiment>
In the fourth embodiment of the present invention, a case will be described in which a light emitting device provided with a light emitting element is attached instead of attaching the expansion device 3010 having a portion that expands and contracts to the hand 1000 as in the third embodiment. In this case, the object detection device 20 uses an image sensor capable of recognizing the light emission from the light emitting element, and the behavior measuring unit 210 calculates the color of light emitted from the light emitting element based on the output from the image sensor. Identify.

図24は、本発明の第4実施形態に係る発光装置3050の使用方法を説明する図である。第4実施形態においては、第3実施形態における伸縮装置3010に代えて、発光装置3050が取り付けられている。発光装置3050は、発光部3150が設けられている。発光部3150は、LEDなどの発光素子を有し、周囲に光を放射する。この例では、発光部3150は、ユーザの操作に応じて、赤色、緑色、青色をそれぞれ切り替えて発光する。ユーザの操作とは、伸縮装置3000、3010の場合と同様に、スイッチ等を操作、手1000を振るなどして振動を与えて操作など、様々な操作が適用できる。なお、発光部3150は、各色を組み合わせて中間色も発光されるようにしてもよいし、可視光以外が発光されるようにしてもよい。可視光以外の場合には、物体検知装置20において、その光を検出可能なイメージセンサを用いればよい。   FIG. 24 is a diagram illustrating a method of using the light emitting device 3050 according to the fourth embodiment of the present invention. In 4th Embodiment, it replaced with the expansion-contraction apparatus 3010 in 3rd Embodiment, and the light-emitting device 3050 is attached. The light emitting device 3050 is provided with a light emitting unit 3150. The light emitting unit 3150 includes a light emitting element such as an LED, and emits light to the surroundings. In this example, the light emitting unit 3150 emits light by switching between red, green, and blue according to a user operation. As with the user's operation, various operations such as operation of a switch or the like, and application of vibration by shaking the hand 1000 can be applied as in the case of the extension devices 3000 and 3010. Note that the light emitting unit 3150 may emit light of intermediate colors by combining the colors, or may emit light other than visible light. In the case of other than visible light, the object detection device 20 may use an image sensor that can detect the light.

図25は、本発明の第4実施形態に係る決定部220で用いられる照合用テーブルを説明する図である。図12に示す第1実施形態における照合用テーブルに加えて、発光色が対応付けられている。照合用テーブルに規定された発光色における赤、緑、・・・は、発光部3150の発光色に対応している。すなわち、この例における照合用テーブルにおいては、ジェスチャの座標A〜Eおよび発光色の組み合わせに対して、各指示が対応付けられている。図25の照合用テーブルは、ジェスチャAが同じ(座標A〜Eが同じ)であっても発光部3150の発光色によって異なる指示となる。なお、第3実施形態でも記載したとおり、照合用テーブルを複数用い、それぞれに発光色を対応付けておいてもよい。   FIG. 25 is a diagram illustrating a collation table used in the determination unit 220 according to the fourth embodiment of the present invention. In addition to the collation table in the first embodiment shown in FIG. 12, emission colors are associated. Red, green,... In the light emission colors defined in the collation table correspond to the light emission colors of the light emitting unit 3150. That is, in the collation table in this example, each instruction is associated with the combination of the gesture coordinates A to E and the emission color. In the collation table of FIG. 25, even if the gesture A is the same (the coordinates A to E are the same), the instructions differ depending on the light emission color of the light emitting unit 3150. As described in the third embodiment, a plurality of collation tables may be used, and the emission colors may be associated with each.

図26は、本発明の第4実施形態に係る発光装置3060の使用方法を説明する図である。上述の例では、リストバンド3200を用いて発光装置3050を手1000に取り付けていたが、図26に示すように、指に取り付けられるようにしたリング状の発光装置3060を用いてもよい。発光装置3060は、指の周囲方向に光を放射する発光部3160を有する。このとき、複数の指に発光装置3060を設けて、それぞれの色の組み合わせにより発光色を定義してもよい。   FIG. 26 is a diagram illustrating a method of using the light emitting device 3060 according to the fourth embodiment of the present invention. In the above example, the light emitting device 3050 is attached to the hand 1000 using the wristband 3200. However, as shown in FIG. 26, a ring-shaped light emitting device 3060 that can be attached to a finger may be used. The light emitting device 3060 includes a light emitting unit 3160 that emits light in the circumferential direction of the finger. At this time, the light emitting device 3060 may be provided on a plurality of fingers, and the emission color may be defined by a combination of the respective colors.

なお、発光部3150、3160は、発光強度の時間変化(発光パターン)を変化させてもよい。このようにすれば、挙動測定部210は、発光部3150、3160からの発光と他の光とを区別しやすくなり、発光色の誤認識を減らすことができる。また、発光パターンが変更できるようになっていれば、発光パターンが異なることでジェスチャが同じでも指示を異ならせることもできる。発光パターンによる変化を用いるときには、発光部3150、3160から放射される光は単色でもよい。このように、第4実施形態では、挙動測定部210は発光部3150、3160における発光状態を測定する発光状態測定手段としても機能し、この発光状態が異なることでジェスチャが同じでも指示を異ならせることができる。   Note that the light emitting units 3150 and 3160 may change the temporal change (light emission pattern) of the light emission intensity. In this way, the behavior measuring unit 210 can easily distinguish the light emitted from the light emitting units 3150 and 3160 from the other light, and can reduce misrecognition of the light emission color. Moreover, if the light emission pattern can be changed, the instructions can be changed even if the gesture is the same because the light emission pattern is different. When the change by the light emission pattern is used, the light emitted from the light emitting units 3150 and 3160 may be monochromatic. As described above, in the fourth embodiment, the behavior measuring unit 210 also functions as a light emission state measuring unit that measures the light emission state in the light emitting units 3150 and 3160, and the instructions are different even if the gesture is the same because the light emission state is different. be able to.

<第5実施形態>
第5実施形態においては、上述した決定部220において、ジェスチャの変化、例えば、ユーザのジェスチャがジェスチャAからBに変化することの照合を行うときの照合の方法の一例について説明する。
<Fifth Embodiment>
In the fifth embodiment, an example of a collation method when the above-described determination unit 220 performs a collation of a gesture change, for example, a user gesture change from a gesture A to a B will be described.

図27は、本発明の第5実施形態に係る決定部220で用いられる照合用テーブルを説明する図である。この例では、ジェスチャの種類としては、ジェスチャA→Bといったように、特定のジェスチャから別のジェスチャに変化する場合(以下、照合パターンという)として決められて、装置に対する指示が対応付けられている。照合パターンは、理想的なジェスチャの変化における各指の軌跡、およびその軌跡からの許容範囲が定められている。まず、照合パターンにおける軌跡と許容範囲とが、登録されるときの一例を説明する。以下に説明する照合パターンを登録する処理については、CPU11により実行される。このため、CPU11は、照合パターンを登録する処理を実行する登録手段としても機能する。   FIG. 27 is a diagram illustrating a collation table used in the determination unit 220 according to the fifth embodiment of the present invention. In this example, the type of gesture is determined as a case of changing from a specific gesture to another gesture (hereinafter referred to as a collation pattern), such as gesture A → B, and an instruction to the apparatus is associated with the gesture. . In the collation pattern, a trajectory of each finger in an ideal gesture change and an allowable range from the trajectory are determined. First, an example when a locus and an allowable range in the matching pattern are registered will be described. The process for registering the collation pattern described below is executed by the CPU 11. Therefore, the CPU 11 also functions as a registration unit that executes a process for registering a matching pattern.

図28は、本発明の第5実施形態に係る挙動測定部210により算出される座標の位置に基づいて決められる登録領域を説明する図である。まず、CPU11は、挙動測定部210により算出される手1000の各指の先端部の座標の位置に基づいて登録領域SA、SB、・・・SEを設定する。   FIG. 28 is a diagram illustrating a registration area determined based on the coordinate position calculated by the behavior measuring unit 210 according to the fifth embodiment of the present invention. First, the CPU 11 sets registration areas SA, SB,... SE based on the coordinate position of the tip of each finger of the hand 1000 calculated by the behavior measurement unit 210.

図29は、本発明の第5実施形態に係る登録領域の詳細を説明する図である。この例では、人差し指の先端部に設定される登録領域SBを例として説明する。登録領域SBは、挙動測定部210により算出される人差し指の先端部の座標Bを中心LCBとし、許容長ARを半径とした球(球でなくてもよい)で定義される。許容長ARは、予め決められている。許容長ARは、各指に対応して決められていてもよいし、各指全てに対して共通に決められていてもよい。   FIG. 29 is a diagram illustrating details of a registration area according to the fifth embodiment of the present invention. In this example, the registration area SB set at the tip of the index finger will be described as an example. The registration area SB is defined by a sphere (not necessarily a sphere) having the center LCB as the coordinate B of the tip of the index finger calculated by the behavior measuring unit 210 and the allowable length AR as a radius. The allowable length AR is determined in advance. The allowable length AR may be determined corresponding to each finger, or may be determined in common for all the fingers.

図30は、本発明の第5実施形態に係る照合パターンの例を説明する図である。照合パターンは、特定のジェスチャから別のジェスチャ(例えば、ジェスチャAからジェスチャB)へ変化するときの軌跡TC及び許容長ARで定められる。図30においては、照合用テーブルに定められた各指に対応する照合パターンのうち、人差し指に対応して定められた照合パターンについて、軌跡TCと許容長ARとを模式的に表している。したがって、照合用テーブルに登録されている照合パターンについては、図30に示す照合パターンが各指に対応して決められている。なお、照合用テーブルには、全ての指に対応した照合パターンが登録されていなくてもよく、1つの指だけに対応した照合パターンが登録されていていもよい。   FIG. 30 is a diagram illustrating an example of a collation pattern according to the fifth embodiment of the present invention. The collation pattern is defined by a trajectory TC and an allowable length AR when changing from a specific gesture to another gesture (for example, gesture A to gesture B). In FIG. 30, the trajectory TC and the allowable length AR are schematically shown for the matching pattern determined corresponding to the index finger among the matching patterns corresponding to each finger determined in the verification table. Therefore, for the collation patterns registered in the collation table, the collation pattern shown in FIG. 30 is determined corresponding to each finger. Note that the collation pattern corresponding to all fingers may not be registered in the collation table, and the collation pattern corresponding to only one finger may be registered.

開始点TCsは、軌跡TCの開始位置であり、最初のジェスチャのときの中心LCBの位置を表している。終了点TCeは、軌跡TCの終了位置であり、別のジェスチャに変わったときの中心LCBの位置を表している。軌跡TCは、ジェスチャが変化するときの開始点TCsから終了点TCeに至る中心LCBの経路を表している。なお、ジェスチャA→B→Aと変化する場合など、一度別のジェスチャに変化してから元に戻るという場合など、開始点TCsから終了点TCeとがほぼ同じ場所になることもある。   The start point TCs is the start position of the locus TC and represents the position of the center LCB at the time of the first gesture. The end point TCe is the end position of the trajectory TC, and represents the position of the center LCB when changed to another gesture. The trajectory TC represents the path of the center LCB from the start point TCs to the end point TCe when the gesture changes. Note that the start point TCs and the end point TCe may be almost the same place, such as when the gesture A → B → A is changed, and when the gesture is changed once and then returned to the original.

図30に示すように、照合パターンは、指の先端部から一定範囲の登録領域が、ジェスチャの変化により移動して形成されたチューブ状の空間となる。この空間が許容範囲となる。軌跡TCの各位置から、許容範囲の外縁AEまでの距離は、許容長ARの長さに対応する。例えば、軌跡TCが直線であれば、外縁AEは半径ARの円柱の側面形状になる。   As shown in FIG. 30, the collation pattern is a tube-shaped space formed by moving a registration area within a certain range from the tip of the finger by a change in gesture. This space is an acceptable range. The distance from each position of the trajectory TC to the outer edge AE of the allowable range corresponds to the length of the allowable length AR. For example, if the locus TC is a straight line, the outer edge AE has a side surface shape of a cylinder having a radius AR.

この例では、照合用テーブルにおける照合パターンについては、上述のようにしてユーザによる実際のジェスチャを用いて登録されるが、このように登録される場合に限らず、各パラメータが数値として入力されるなどして、別の方法で登録されてもよい。ユーザによる実際のジェスチャを用いて登録する場合には、ユーザごとに異なる照合用テーブルを用いるようにしてもよい。この場合には、電子機器1を操作するユーザを識別する手段を電子機器1に設けるようにすればよい。そして決定部220は、識別されたユーザに対応する照合用テーブルを用いるようにすればよい。   In this example, the collation pattern in the collation table is registered using an actual gesture by the user as described above. However, the present invention is not limited to such registration, and each parameter is input as a numerical value. For example, it may be registered by another method. When registering using an actual gesture by a user, a different collation table may be used for each user. In this case, a means for identifying the user who operates the electronic device 1 may be provided in the electronic device 1. And the determination part 220 should just use the table for collation corresponding to the identified user.

続いて、決定部220が照合用テーブルを用いて、ユーザによるジェスチャの入力と照合パターンとを照合する場合の例について説明する。決定部220が照合を行う場合には、上述した各指の先端部に対応した登録領域を用いるのではなく、登録領域より狭い範囲の検出領域を用いる。   Next, an example will be described in which the determination unit 220 uses a collation table to collate a user's input of a gesture with a collation pattern. When the determination unit 220 performs the collation, the detection region that is narrower than the registration region is used instead of the registration region corresponding to the tip of each finger described above.

図31は、本発明の第5実施形態に係る登録領域と検出領域との比較を説明する図である。この例では、人差し指の先端部に設定される検出領域CBを例として説明する。検出領域CBは、挙動測定部210により算出される人差し指の先端部の座標Bを中心LCBとし、検出長CRを半径とした球で定義される。検出長CRは、許容長ARより短い長さとして、予め決められている。検出長CRが許容長ARの半分程度であることが望ましい。検出長CRは、各指に対応して決められていてもよいし、各指全てに対して共通に決められていてもよい。決定部220は、このようにして決められた検出領域を用いて照合パターンとの照合を行う。   FIG. 31 is a diagram for explaining a comparison between a registration area and a detection area according to the fifth embodiment of the present invention. In this example, the detection area CB set at the tip of the index finger will be described as an example. The detection area CB is defined by a sphere having the center LCB as the coordinate B of the tip of the index finger calculated by the behavior measuring unit 210 and the detection length CR as a radius. The detection length CR is determined in advance as a length shorter than the allowable length AR. It is desirable that the detection length CR is about half of the allowable length AR. The detection length CR may be determined corresponding to each finger, or may be determined in common for all the fingers. The determination unit 220 performs collation with the collation pattern using the detection region thus determined.

図32は、本発明の第5実施形態に係る検出領域と照合パターンとの照合について説明する図である。決定部220は、各指について、照合用テーブルに登録されている照合パターンと検出領域の時間変化とを比較して照合を行う。この検出領域は、各指の先端部に対応して算出された座標に基づいて決められているため、指が動いて算出された座標が時間変化すると、検出領域についても時間変化する。この照合は、以下のように行われる。なお、図32では、人差し指の先端部における検出領域CBを例として説明している。後述する図33および図34についても同様である。   FIG. 32 is a diagram illustrating collation between a detection region and a collation pattern according to the fifth embodiment of the present invention. The determination unit 220 performs collation for each finger by comparing the collation pattern registered in the collation table with the temporal change of the detection area. Since this detection area is determined based on the coordinates calculated corresponding to the tip of each finger, if the calculated coordinates are changed with time, the detection area also changes with time. This collation is performed as follows. In FIG. 32, the detection area CB at the tip of the index finger is described as an example. The same applies to FIGS. 33 and 34 described later.

まず、検出領域CBの時間変化により検出領域CBの通過した領域が、軌跡TC(開始点TCsから終了点TCeまで)をすべて含むこと、および許容長ARから定まる外縁AEより内部(許容範囲)に収まっていることの2条件を満たす照合パターンを、照合用テーブルから検索する。以下の説明において、この条件を満たす照合パターンを、検出領域と一致する照合パターンという。   First, the region through which the detection region CB has passed due to the time change of the detection region CB includes all the trajectory TC (from the start point TCs to the end point TCe), and inside (allowable range) from the outer edge AE determined from the allowable length AR. A collation pattern that satisfies the two conditions of being within the range is searched from the collation table. In the following description, a matching pattern that satisfies this condition is referred to as a matching pattern that matches the detection area.

図33は、本発明の第5実施形態に係る検出領域と照合パターンとが一致しない場合の例について説明する図である。図33に示すように、検出領域CBが軌跡TCを含まない状態になった場合であったり、検出領域CBの一部が許容範囲外(外縁AEよりも外側)に出てしまったりした場合には、検出領域CBは、照合パターンと一致しないものとなる。なお、図33に示すように、軌跡TCのうち検出領域CBが通過した部分については、通過部分TCDとして、破線で示している。図34についても同様である。   FIG. 33 is a diagram for explaining an example in the case where the detection region and the verification pattern do not match according to the fifth embodiment of the present invention. As shown in FIG. 33, when the detection area CB does not include the locus TC, or when a part of the detection area CB goes out of the allowable range (outside the outer edge AE). The detection area CB does not match the verification pattern. As shown in FIG. 33, a portion of the trajectory TC through which the detection region CB has passed is indicated by a broken line as a passing portion TCD. The same applies to FIG.

図34は、本発明の第5実施形態に係る検出領域と照合パターンとが一致した場合の例について説明する図である。図34に示すように、検出領域CBが、許容範囲内(外縁AEよりも内側)に収まった状態で、開始点TCsから終了点TCeまでの軌跡TCを通過した場合(軌跡TCがすべて通過部分TCDとなった場合)には、検出領域CBは、照合パターンと一致していることになる。決定部220は、全ての指についての検出領域が各指に対応する照合パターンと一致した場合には、その照合パターンに対応付けられている指示を、装置に対する指示として決定する。   FIG. 34 is a diagram illustrating an example when the detection region and the matching pattern according to the fifth embodiment of the present invention match. As shown in FIG. 34, when the detection area CB passes through the trajectory TC from the start point TCs to the end point TCe in a state where the detection area CB is within the allowable range (inside the outer edge AE) (the trajectory TC is all passing portions). In the case of TCD), the detection area CB coincides with the collation pattern. When the detection areas for all fingers match the matching pattern corresponding to each finger, the determination unit 220 determines an instruction associated with the matching pattern as an instruction for the apparatus.

なお、全ての指についての検出領域が照合パターンと一致していなくてもよく、例えば、予め決められた一部の指について照合パターンと一致をしているだけでもよい。また、検出領域と照合パターンとの一致は、必ずしも上記の2つの条件を満たした場合に限られない。例えば、検出領域が軌跡TCを通過しなかった部分があったとしても、その長さが予め決められた閾値以下であれば、通過したものとみなしてもよい。また、検出領域が許容範囲内に収まっている状態が全体の予め決められた割合以上であれば、許容範囲内に収まっていたものとみなしてもよい。このように、決定部220は、マージンを含んで照合を行うようにしてもよい。   It should be noted that the detection areas for all fingers do not have to match the collation pattern. For example, some predetermined fingers may only coincide with the collation pattern. Further, the match between the detection area and the collation pattern is not necessarily limited to the case where the above two conditions are satisfied. For example, even if there is a portion where the detection region does not pass the trajectory TC, it may be considered that the detection region has passed if the length is equal to or less than a predetermined threshold. Further, if the state where the detection area is within the allowable range is equal to or greater than a predetermined ratio of the whole, it may be considered that the detection area is within the allowable range. As described above, the determination unit 220 may perform collation including a margin.

なお、上述した照合パターンにおいては、許容長ARについては軌跡TCのどの位置でも同じ長さとして決められていたが、位置によって異なる長さとして決められていてもよい。   In the above-described collation pattern, the allowable length AR is determined as the same length at any position on the locus TC, but may be determined as a different length depending on the position.

図35は、本発明の第5実施形態に係る照合パターンの別の例を説明する図である。図35に示す例では、開始点TCsから終了点TCeまでの中央近傍の位置では、軌跡TCから外縁AEまでの距離が許容長AR1となる一方、軌跡TCの開始点TCsまたは終了点TCeに近い位置では、軌跡TCから外縁AEまでの距離が許容長AR1より長い許容長AR2となっている。このように、軌跡TCにおける位置によって、許容長ARが異なるように定められた照合パターンが照合用テーブルに登録されていてもよい。また、軌跡TCが許容範囲の中心を通らないように定められた照合パターンが照合用テーブルに登録されていてもよい。   FIG. 35 is a diagram for explaining another example of the collation pattern according to the fifth embodiment of the present invention. In the example shown in FIG. 35, at the position near the center from the start point TCs to the end point TCe, the distance from the trajectory TC to the outer edge AE is the allowable length AR1, while it is close to the start point TCs or the end point TCe of the trajectory TC. At the position, the distance from the locus TC to the outer edge AE is an allowable length AR2 longer than the allowable length AR1. In this way, a matching pattern that is determined so that the allowable length AR differs depending on the position on the trajectory TC may be registered in the matching table. In addition, a collation pattern determined so that the locus TC does not pass through the center of the allowable range may be registered in the collation table.

また、視線認証判定機能300におけるユーザ確認判定がされている場合とされていない場合とで許容長ARが異なるようにしてもよい。すなわち、判定部330における判定結果に応じて許容長ARが変更されるようにしてもよい。例えば、ユーザ確認判定がされている場合には、されていない場合に比べて許容長ARを長くするようにしてもよい。これとは逆に、判定部330における判定結果に応じて検出長CRが変更されるようにしてもよい。例えば、ユーザ確認判定がされている場合には、されていない場合に比べて検出長CRを短くするようにしてもよい。このようにすると、ユーザが認証領域を視認しているときには、許容長ARが長くなることで、検出領域と照合パターンとが一致しやすくなる。すなわち、ユーザによるジェスチャを認識するマージンが増加する。   Further, the allowable length AR may be different depending on whether or not the user confirmation determination is performed in the line-of-sight authentication determination function 300. That is, the allowable length AR may be changed according to the determination result in the determination unit 330. For example, when the user confirmation determination is made, the allowable length AR may be made longer than when the user confirmation is not made. On the contrary, the detection length CR may be changed according to the determination result in the determination unit 330. For example, when the user confirmation determination is made, the detection length CR may be made shorter than when the user confirmation is not made. In this way, when the user is visually recognizing the authentication area, the permissible length AR becomes longer, so that the detection area and the matching pattern are easily matched. That is, the margin for recognizing a user's gesture increases.

<第6実施形態>
第6実施形態においては、ユーザのジェスチャとして指の動きを用い、指の動きに応じて、文字、数字、記号等の入力(以下、キー入力という)を行う場合について説明する。この構成によれば、キーボード13aを用いなくても、指の動きによってキー入力が可能となる。以下、第6実施形態に係る電子機器について説明する。キー入力は、手のひらが下側を向いて行うことが多いため、第6実施形態では、第1実施形態に係る物体検知装置20が設置される場所が異なっている。
<Sixth Embodiment>
In the sixth embodiment, a case will be described in which finger movement is used as a user's gesture and characters, numbers, symbols, etc. are input (hereinafter referred to as key input) in accordance with the finger movement. According to this configuration, key input can be performed by the movement of a finger without using the keyboard 13a. Hereinafter, an electronic apparatus according to the sixth embodiment will be described. Since key input is often performed with the palm facing downward, in the sixth embodiment, the place where the object detection device 20 according to the first embodiment is installed is different.

図36は、本発明の第6実施形態に係る物体検知装置20Aの構成を説明する図である。図36は、ユーザが作業する机5000の断面を模式的に示した図である。第6実施形態に係る物体検知装置20Aは、机5000の上面の表面部分に設けられている。検知センサ21Aは、机5000の上面方向(矢印A2方向)に向けられて設置され、ユーザの手1000の手のひら側からの検知が可能になっている。また、ユーザが手1000の位置を楽に維持できるように、腕2000を置くためのアームレスト25Aが設けられている。図の奥行き方向の腕2000が置かれる大まかな位置が決められるように、このアームレスト25Aには、腕2000を置くためのくぼみ部分が設けられていてもよい。なお、アームレスト25Aは用いられなくてもよい。   FIG. 36 is a diagram illustrating the configuration of an object detection device 20A according to the sixth embodiment of the present invention. FIG. 36 is a diagram schematically showing a cross section of a desk 5000 on which a user works. The object detection apparatus 20A according to the sixth embodiment is provided on the surface portion of the upper surface of the desk 5000. The detection sensor 21 </ b> A is installed so as to be directed in the upper surface direction (arrow A <b> 2 direction) of the desk 5000 and can be detected from the palm side of the user's hand 1000. Further, an armrest 25A for placing the arm 2000 is provided so that the user can easily maintain the position of the hand 1000. The armrest 25A may be provided with a recess for placing the arm 2000 so that a rough position where the arm 2000 in the depth direction of the figure is placed can be determined. Note that the armrest 25A may not be used.

図37は、本発明の第6実施形態に係る挙動測定部210により算出される座標の位置を説明する図である。第6実施形態に係る挙動測定部210は、第1実施形態と同様に各指の先端部分(以下、指先という場合がある)の座標を算出する。このとき、挙動測定部210は、設定された原点に対する各指先の座標を算出する。なお、座標が算出される箇所は指の先端部分に限らず、指の可動部分であれば、いずれの部分でもよい。   FIG. 37 is a diagram for explaining the positions of coordinates calculated by the behavior measuring unit 210 according to the sixth embodiment of the present invention. Similar to the first embodiment, the behavior measurement unit 210 according to the sixth embodiment calculates the coordinates of the tip portion of each finger (hereinafter sometimes referred to as a fingertip). At this time, the behavior measurement unit 210 calculates the coordinates of each fingertip with respect to the set origin. Note that the location where the coordinates are calculated is not limited to the tip portion of the finger, and may be any portion as long as it is a movable portion of the finger.

原点は、手1000における所定の特徴位置の動きと連動する位置として、CPU11によって設定される。このため、CPU11は、原点設定手段としても機能する。この例では、所定の特徴位置とは、認識空間設定部140で用いられた交点D1とし、交点D1が原点として設定される。なお、交点D1の動きと連動する座標であれば、別の点が原点として設定されてもよい。   The origin is set by the CPU 11 as a position interlocked with the movement of a predetermined feature position in the hand 1000. For this reason, the CPU 11 also functions as an origin setting means. In this example, the predetermined feature position is the intersection D1 used in the recognition space setting unit 140, and the intersection D1 is set as the origin. Note that another point may be set as the origin as long as it is coordinated with the movement of the intersection D1.

このように原点が決められ、この原点を基準として相対的に各指先の座標が算出されることで、手1000の位置が平行に移動(手1000の向きを変えずに移動)しただけでは、各指の位置は変化していないものとして座標が算出される。   In this way, the origin is determined, and the coordinates of each fingertip are calculated relative to this origin, so that the position of the hand 1000 moves in parallel (moves without changing the orientation of the hand 1000). Coordinates are calculated assuming that the position of each finger has not changed.

続いて、決定部220において、ユーザの各指の動作から挙動測定部210によって算出される座標の変化に基づいて、装置に対する指示を決定するための照合用テーブルについて説明する。   Subsequently, a collation table for determining an instruction to the apparatus based on a change in coordinates calculated by the behavior measuring unit 210 from the movement of each finger of the user in the determining unit 220 will be described.

図38は、本発明の第6実施形態に係る決定部220で用いられる照合用テーブルを説明する図である。この例における照合用テーブルは、指の動きを示すパラメータと指示内容とが対応付けられている。指示内容は、キー入力の種類であり、例えば、「「A」入力」とは、「A」のキーを入力する指示である。   FIG. 38 is a diagram illustrating a collation table used in the determination unit 220 according to the sixth embodiment of the present invention. In the collating table in this example, parameters indicating finger movements and instruction contents are associated with each other. The instruction content is the type of key input. For example, “input“ A ”” is an instruction to input the key “A”.

指の動きを示すパラメータは、検出面、開始範囲、収束範囲、および速度範囲である。まず、これらのパラメータの内容を説明する前に、照合用テーブルにこのパラメータが登録されるときの一例を説明する。CPU11は、この登録処理を実行する登録手段としても機能する。   The parameters indicating the finger movement are a detection surface, a start range, a convergence range, and a speed range. First, before explaining the contents of these parameters, an example when these parameters are registered in the verification table will be explained. The CPU 11 also functions as a registration unit that executes this registration process.

まず、表示装置14にキー入力の設定対象となるキーが表示される。例えば、「D」と表示された場合には、Dを入力するための指の動きを設定する。表示装置14に設定対象となるキーが表示された後、ユーザは、図36に示す状態で保持された手1000の指を動かす。この動作がパラメータ化されて照合用テーブルに登録される。   First, a key to be set for key input is displayed on the display device 14. For example, when “D” is displayed, the finger movement for inputting D is set. After the key to be set is displayed on the display device 14, the user moves the finger of the hand 1000 held in the state shown in FIG. This operation is parameterized and registered in the verification table.

図39は、本発明の第6実施形態に係る照合用テーブルに登録される各パラメータを説明する図である。この登録において、手1000(指)は、実線の状態から二点鎖線の状態に動く。なお、動作を見やすくするため、親指および人差し指以外の指については記載を省略し、人差し指を動かした場合の例として図示している。   FIG. 39 is a diagram illustrating parameters registered in the verification table according to the sixth embodiment of the present invention. In this registration, the hand 1000 (finger) moves from a solid line state to a two-dot chain line state. In addition, in order to make an operation | movement easy to see, description is abbreviate | omitted about fingers other than a thumb and an index finger, and it has illustrated as an example at the time of moving an index finger.

図39に示すように指を動かしたときに、CPU11は、指先の移動速度が所定速度以上となる直前の指先の座標を開始座標とし、所定速度以下に減速した直後の指先の座標を収束座標として特定する。照合用テーブルに登録されるパラメータのうち、開始範囲は開始座標に対して所定のマージンを持った範囲として決められ、収束範囲は収束座標に対して所定のマージンを持った範囲として決められる。開始範囲および収束範囲は、図39に示す例では、開始範囲As(m)および収束範囲Ae(m)として決められる。ここで、m=1、2、3、・・・(以下同じ)である。   When the finger is moved as shown in FIG. 39, the CPU 11 uses the coordinates of the fingertip immediately before the moving speed of the fingertip is equal to or higher than a predetermined speed as the start coordinates, and the coordinates of the fingertip immediately after being decelerated below the predetermined speed as the convergence coordinates. As specified. Of the parameters registered in the verification table, the start range is determined as a range having a predetermined margin with respect to the start coordinates, and the convergence range is determined as a range having a predetermined margin with respect to the convergence coordinates. The start range and the convergence range are determined as the start range As (m) and the convergence range Ae (m) in the example shown in FIG. Here, m = 1, 2, 3,... (The same applies hereinafter).

照合用テーブルに登録されるパラメータのうち、検出面は、数ミリ程度、収束範囲Ae(m)よりも開始範囲As(m)側に決められ、指先が通過する位置を含み所定のマージンを持った、所定範囲に拡がる面として決められる。なお、検出面は、指先が通過する方向を法線とした平面であってもよいし、曲面であってもよい。検出面は、図39に示す例では、検出面P(m)として決められる。また、この検出面P(m)には、通過する方向(検出面のいずれの側から通過するか)も規定される。そのため、登録をしたときと逆方向に検出面を指先が通過しても、指先が検出面を通過したものとしては検出されない。   Of the parameters registered in the verification table, the detection surface is determined to be on the start range As (m) side of the convergence range Ae (m) about several millimeters and has a predetermined margin including the position where the fingertip passes. In addition, it is determined as a surface that extends into a predetermined range. Note that the detection surface may be a plane having a normal in the direction in which the fingertip passes or a curved surface. In the example shown in FIG. 39, the detection surface is determined as the detection surface P (m). In addition, the detection surface P (m) also defines the direction of passage (from which side of the detection surface). For this reason, even if the fingertip passes through the detection surface in the direction opposite to the direction of registration, it is not detected that the fingertip has passed the detection surface.

照合用テーブルに登録されるパラメータのうち、速度範囲は、検出面を指先が通過するときの速度に所定のマージンを持って決められる。速度は、図39に示す例では、速度V(m)として決められ、マージンは±β(図38参照)として決められる。   Among the parameters registered in the verification table, the speed range is determined with a predetermined margin for the speed when the fingertip passes the detection surface. In the example shown in FIG. 39, the speed is determined as speed V (m), and the margin is determined as ± β (see FIG. 38).

CPU11は、このようにして決められた各パラメータと設定対象となるキーとを対応付けて照合用テーブルに登録する。決定部220は、挙動測定部210によって算出された座標の変化と、照合用テーブルに登録された各パラメータとを照合して、照合結果に基づいて、装置に対する指示を決定する。   The CPU 11 registers each parameter determined in this way and the key to be set in the matching table in association with each other. The determination unit 220 collates the change in coordinates calculated by the behavior measurement unit 210 with each parameter registered in the collation table, and determines an instruction for the apparatus based on the collation result.

すなわち、決定部220は、挙動測定部210によって算出された座標の変化に基づいて、指先が所定速度以上になる直前の指先の座標(移動開始座標)、所定速度以下に減速した直後の指先の座標(移動収束座標)、指先が通過した検出面、指先が検出面を通過したときの速度を特定しつつ、照合用テーブルに登録された各パラメータと照合し、指示内容(キー入力されたキーの種類)を決定する。   That is, based on the change in coordinates calculated by the behavior measuring unit 210, the determination unit 220 determines the fingertip coordinates (movement start coordinates) immediately before the fingertip becomes equal to or higher than the predetermined speed, and the fingertip immediately after the fingertip has decelerated below the predetermined speed. While specifying the coordinates (movement convergence coordinates), the detection surface through which the fingertip has passed, and the speed at which the fingertip has passed through the detection surface, the parameters are collated with each parameter registered in the collation table, and the instruction content (key input key) Type).

なお、指示内容が決定された場合に、ユーザに対して報知がされるようにしてもよい。報知の種類としては、表示装置14への表示(入力された文字等が表示されてもよい)、スピーカを用いた発音、アームレスト25の振動など様々に取りうる。また、表示装置14に検出面およびこれに対応するキーを表示させ、入力されたキーを発光させる等の表示により報知してもよい。これらの報知をするための処理は、CPU11によって実行される。このとき、CPU11は報知手段として機能する。   In addition, when the instruction content is determined, the user may be notified. Various types of notification can be taken, such as display on the display device 14 (input characters may be displayed), sound generation using a speaker, vibration of the armrest 25, and the like. Moreover, you may alert | report by the display of displaying a detection surface and the key corresponding to this on the display apparatus 14, and making the input key light-emit. Processing for making these notifications is executed by the CPU 11. At this time, the CPU 11 functions as a notification unit.

このように決められる各パラメータのうち、検出面はキーボードのキー表面に対応するが、上述のような処理により、現実のキーボードでは実現が困難な2種類の構成も容易に実現可能である。まず第1には、図39に示すように、検出面は水平に限らず、指先の動きに応じて傾けることができる。第2には、複数段のキーボードが実現できる。これについて、図39(a)、(b)を用いて説明する。   Of the parameters determined in this way, the detection surface corresponds to the key surface of the keyboard, but by the processing as described above, two types of configurations that are difficult to realize with an actual keyboard can be easily realized. First, as shown in FIG. 39, the detection surface is not limited to being horizontal, and can be tilted according to the movement of the fingertip. Second, a multi-stage keyboard can be realized. This will be described with reference to FIGS. 39 (a) and 39 (b).

図39(a)は、図36に示す手1000の状態から指を下げる動作をした場合の図である。図39(b)は、図36に示す手1000の状態から一度、指を上げてから下げる動作をした場合の図である。図39(a)に示す検出面と図39(b)に示す検出面とは、上下方向の高さが異なるものの、上方から見た場合の位置はほぼ重なる状態となる。これは、上下方向に2段重ねたキーボードが存在してもよいことを示しているが、現実のキーボードでは実現困難な構成である。   FIG. 39A is a diagram when the finger is moved down from the state of the hand 1000 shown in FIG. FIG. 39B is a diagram in the case where an operation of raising and lowering the finger once from the state of the hand 1000 shown in FIG. 36 is performed. Although the detection surface shown in FIG. 39A and the detection surface shown in FIG. 39B have different vertical heights, the positions when viewed from above are substantially overlapped. This indicates that there may be two or more stacked keyboards in the vertical direction, but this is difficult to achieve with an actual keyboard.

複数段重ねたキーボードが実現できるため、例えば、1段目を英字、2段目をひらがな(または英大文字)、3段目を数字などとして配置することで、手1000の水平方向の移動量を少なくすることもできる。   Since a keyboard with multiple layers can be realized, for example, by arranging the first row as alphabetic characters, the second row as hiragana (or capital letters), and the third row as numbers, the amount of horizontal movement of the hand 1000 can be reduced. It can also be reduced.

このとき、決定部220は、検出面を通過するときの指先の速度、移動開始座標、および移動収束座標を組み合わせて照合することにより、指先が複数の検出面を通過してしまう場合においても、装置に対する指示を適切に決定することができる。なお、指を大きく動かしても複数の検出面を通過しないような構成(1段のキーボード等)も取りうるため、決定部220は、必ずしも、検出面を通過するときの指先の速度、移動開始座標、および移動収束座標の全てを組み合わせて用いずに、通過した検出面だけを用いて、装置に対する指示を決定してもよい。   At this time, the determination unit 220 matches the fingertip speed, the movement start coordinates, and the movement convergence coordinates when passing through the detection surface, thereby matching the fingertips even when passing through the plurality of detection surfaces. Instructions for the device can be appropriately determined. In addition, since it is possible to adopt a configuration (a single-stage keyboard or the like) that does not pass through a plurality of detection surfaces even if the finger is moved greatly, the determination unit 220 does not necessarily require the fingertip speed and movement start when passing the detection surface. You may determine the instruction | indication with respect to an apparatus using only the detection surface which did not use combining all of a coordinate and a movement convergence coordinate.

また、決定部220が照合する座標は、原点を基準として相対的に各指先の座標が算出されることで、手1000の位置が平行に移動しただけでは、各指の位置は変化していないものとして扱われる。したがって、ユーザは、正確に手1000の位置を決めなくても自由な位置でキー入力が可能となり、ユーザに無理な姿勢を要求しなくてすむ。また、物理的にキーボードを打撃する必要がなくなるため、腱鞘炎になることを防止するという効果もある。また、入力デバイスを小型化できるため、省スペース効果もある。   Further, the coordinates to be collated by the determination unit 220 are calculated by relatively calculating the coordinates of each fingertip with reference to the origin, so that the position of each finger does not change only by moving the position of the hand 1000 in parallel. Treated as a thing. Therefore, the user can perform key input at a free position without determining the position of the hand 1000 accurately, and does not require an excessive posture from the user. In addition, since it is not necessary to physically hit the keyboard, there is an effect of preventing tendonitis. Further, since the input device can be downsized, there is also a space saving effect.

なお、第6実施形態における構成は、他の実施形態とともに用いることも可能である。例えば、ユーザがキー入力の途中で、上述したジェスチャAをした場合には、ジェスチャAに対応した指示が決定されてもよい。   Note that the configuration in the sixth embodiment can also be used with other embodiments. For example, when the user performs the above-described gesture A in the middle of key input, an instruction corresponding to the gesture A may be determined.

<変形例>
以上、本発明の実施形態およびその実施例について説明したが、本発明は以下のように、様々な態様で実施可能である。
<Modification>
As mentioned above, although embodiment and the Example of this invention were described, this invention can be implemented in various aspects as follows.

[変形例1]
上述した視線測定部310は、ユーザの視線方向を測定していたが、ユーザの両眼の視線方向を測定するなどして、さらに、ユーザの注視点(方向だけでなく距離を含む概念)を測定してもよい。この場合には、判定部330は、視線位置VPが認証領域に存在することの判定には、さらに注視点が表示装置14の画面平面上(所定のマージンを許容してもよい)に存在することを条件としてもよい。これは、例えば左眼の視線方向と右眼の視線方向との交点を空間上で求めて注視点として扱い、その交点が表示装置14の画面平面上に存在するか否かを判定すればよい。求めた交点がその画面平面上に存在しない場合として、例えばユーザから見て画面の奥側の位置にある場合(所定のマージンを許容するときには画面の奥側に予め決められた距離以上ずれている場合)には、判定部330は、視線方向が認証領域に存在したとしてもユーザ確認判定をしないようにすればよい。
[Modification 1]
The line-of-sight measurement unit 310 described above measures the user's line-of-sight direction, but further measures the user's point of sight (concept including not only the direction but also the distance) by measuring the line-of-sight direction of the user's eyes. You may measure. In this case, the determination unit 330 further determines that the point of sight exists on the screen plane of the display device 14 (a predetermined margin may be allowed) in determining that the line-of-sight position VP exists in the authentication area. This may be a condition. For example, the intersection of the line of sight of the left eye and the line of sight of the right eye is obtained in space and treated as a gazing point, and it is determined whether or not the intersection exists on the screen plane of the display device 14. . When the obtained intersection does not exist on the screen plane, for example, when it is at the back side of the screen as viewed from the user (when a predetermined margin is allowed, it is shifted by a predetermined distance or more on the back side of the screen) In this case, the determination unit 330 may not perform the user confirmation determination even if the line-of-sight direction exists in the authentication area.

[変形例2]
上述した認識空間設定機能100、ジェスチャ入力機能200および視線認証判定機能300は、情報処理装置10において同時に実現されている場合について説明したが、それぞれ独立して機能してもよい。
[Modification 2]
The recognition space setting function 100, the gesture input function 200, and the line-of-sight authentication determination function 300 described above have been described as being simultaneously implemented in the information processing apparatus 10, but may function independently of each other.

例えば、認識空間設定機能100において設定された認識空間は、ジェスチャ入力のために使われるだけでなく、画像認識の範囲を特定の範囲に限定したい場合など、他の用途にも用いることができる。また、ジェスチャ入力機能200については、認識空間が設定されていない状態においても、検知範囲全体または検知範囲のうち予め決められた範囲において、物体の挙動を測定するようにすればよい。例えば、腕全体の挙動を測定して、この挙動に基づいてユーザの装置に対する指示(腕の振りに応じた画面(または画面の一部)のスクロール指示、拡大、縮小、回転など)を決定してもよい。   For example, the recognition space set by the recognition space setting function 100 is not only used for gesture input, but can also be used for other purposes such as when it is desired to limit the range of image recognition to a specific range. In the gesture input function 200, the behavior of the object may be measured in the entire detection range or a predetermined range of the detection range even when the recognition space is not set. For example, measure the behavior of the entire arm, and based on this behavior, determine instructions to the user's device (such as scrolling the screen (or part of the screen) according to the arm swing, enlargement, reduction, rotation, etc.) May be.

[変形例3]
第4実施形態においては、決定部220は、発光部3150の発光色に応じて、ユーザが同じジェスチャをしたとしても、異なる種類の指示を決定していたが、ユーザの操作部13への操作に応じて、異なる種類の指示を決定するようにしてもよい。例えば、キーボード13aのキーのいくつかに対応して照合用テーブルを設ける。そして、ユーザのキーボード13aへの第1のキーの入力があった後に次のキーが入力されるまでは、決定部220は、第1のキーに対応した照合用テーブルを用いて、装置に対する指示を決定するようにすればよい。なお、認識空間設定機能100を用いた処理の操作部13への開始指示の入力と上記キーの入力を兼ねてもよい。
[Modification 3]
In the fourth embodiment, the determination unit 220 determines different types of instructions according to the emission color of the light emitting unit 3150 even if the user makes the same gesture. Depending on the, different types of instructions may be determined. For example, a collation table is provided corresponding to some of the keys on the keyboard 13a. Then, until the next key is input after the first key is input to the user's keyboard 13a, the determination unit 220 uses the matching table corresponding to the first key to instruct the device. Should be determined. Note that the input of the start instruction to the operation unit 13 of the process using the recognition space setting function 100 may be combined with the input of the key.

[変形例4]
上述した第6実施形態において、左右の手のそれぞれにおいて、個別に処理が行われるようにしてもよい。この場合には、照合用テーブルは左手および右手のそれぞれに対して設けられていればよい。また、物体検知装置20Aは、左手用および右手用の2つを用いてもよい。
[Modification 4]
In the sixth embodiment described above, the processing may be performed individually for each of the left and right hands. In this case, it is only necessary to provide a collation table for each of the left hand and the right hand. Further, two object detection devices 20A, one for left hand and one for right hand, may be used.

また、各指に対して、個別に処理が行われるようにしてもよい。この場合には、照合用テーブルは各指に対して設けられていればよい。このようにすると、同じ位置の検出面を通過する指先が異なれば、例えば、人差し指と中指とでは、異なる指示が決定されることになる。また、各指の長さに対応して調整された傾きおよび位置の検出面として照合用テーブルに登録ができるため、ユーザがより自然な動きでキー入力が可能となる。   Also, each finger may be processed individually. In this case, a collation table may be provided for each finger. In this way, if the fingertips passing through the detection surface at the same position are different, for example, different instructions are determined for the index finger and the middle finger. Further, since the tilt and position detection plane adjusted according to the length of each finger can be registered in the collation table, the user can input keys with more natural movement.

[変形例5]
上述した各実施形態では、電子機器1としてセキュリティ装置に適用することができる。第6実施形態の電気機器をセキュリティ装置に適用した場合について説明する。
[Modification 5]
In each embodiment described above, the electronic device 1 can be applied to a security device. A case where the electrical apparatus according to the sixth embodiment is applied to a security device will be described.

図40は、本発明の変形例5に係るセキュリティシステム600の構成を示す概略図である。セキュリティシステム600は、インターネット、通信回線等のネットワークNWに接続されたセキュリティ装置5およびサーバ6を有する。セキュリティ装置5は、第6実施形態の電子機器をセキュリティ装置に適用した装置であり、例えば、ATM(Automatic teller machine:現金自動預け払い機)、電子錠付き扉等である。また、セキュリティ装置5は、ユーザを識別する識別手段を有している。識別手段は、例えばATMであれば、キャッシュカード等でユーザを識別する。   FIG. 40 is a schematic diagram showing a configuration of a security system 600 according to the fifth modification of the present invention. The security system 600 includes a security device 5 and a server 6 connected to a network NW such as the Internet or a communication line. The security device 5 is a device in which the electronic device of the sixth embodiment is applied to a security device, and is, for example, an ATM (Automatic teller machine), a door with an electronic lock, or the like. Further, the security device 5 has identification means for identifying the user. If the identification means is an ATM, for example, the identification means identifies the user with a cash card or the like.

サーバ6は、複数の照合用テーブルを記憶するとともに、複数のユーザの各々と照合用テーブルとを対応付けた管理テーブルを記憶する。   The server 6 stores a plurality of collation tables and a management table in which each of the plurality of users is associated with the collation table.

図41は、本発明の変形例5に係るサーバ6に記憶された管理テーブルを説明する図である。管理テーブルは、ユーザを識別する情報(この例ではユーザID)と照合用テーブル(Tc1、Tc2、・・・)とを対応付けている。各照合用テーブルは、第6実施形態において説明したとおり、予め各ユーザの指の動作に基づいて登録されている。この登録は、セキュリティ装置5を用いて実行されてもよいし、登録用の装置を別途設けてもよい。   FIG. 41 is a diagram for explaining a management table stored in the server 6 according to the fifth modification of the present invention. The management table associates information for identifying a user (in this example, a user ID) with a matching table (Tc1, Tc2,...). Each verification table is registered in advance based on the movement of each user's finger as described in the sixth embodiment. This registration may be executed using the security device 5 or a registration device may be provided separately.

サーバ6は、セキュリティ装置5から識別したユーザのIDを受信すると、管理テーブルを参照して、そのユーザIDに対応する照合用テーブルを特定し、特定した照合用テーブルをセキュリティ装置5に送信する。   When the server 6 receives the identified user ID from the security device 5, the server 6 refers to the management table, identifies the collation table corresponding to the user ID, and transmits the identified collation table to the security device 5.

セキュリティ装置5は、サーバ6から照合用テーブルを受信すると、その照合用テーブルに基づいて、第6実施形態における処理を行う。例えば、ユーザの指の動きにより、暗証番号の入力に用いることができる。上述したように、セキュリティ装置5は、暗証番号の入力が受け付けられたことをユーザに報知することができる。   When the security device 5 receives the verification table from the server 6, the security device 5 performs processing in the sixth embodiment based on the verification table. For example, it can be used to input a personal identification number by the movement of the user's finger. As described above, the security device 5 can notify the user that the input of the password has been accepted.

図42は、本発明の変形例5に係る表示装置14の表示例を示す図である。図42は、ATMなどのセキュリティ装置5に設けられた表示装置14において、ユーザに対して暗証番号の入力を促す画面が表示されている状態を示している。この画面には、テンキーTKが表示されている。ユーザが指を動かすことにより、決定部220によって指示(ここでは、0から9までの数字のキー入力)が決定されると、図42(a)から図42(b)に示す変化のように、CPU11は決定された数字の表示を変化させる(図42の例では「6」)。表示の変化は、例えば、明るく変化、暗く変化、点滅変化等にすればよい。   FIG. 42 is a diagram showing a display example of the display device 14 according to the fifth modification of the present invention. FIG. 42 shows a state where a screen prompting the user to input a personal identification number is displayed on the display device 14 provided in the security device 5 such as an ATM. On this screen, a numeric keypad TK is displayed. When an instruction (here, key input of numbers from 0 to 9) is determined by the determination unit 220 by moving the finger, the change shown in FIG. 42 (a) to FIG. 42 (b) The CPU 11 changes the display of the determined number (“6” in the example of FIG. 42). The display change may be, for example, bright change, dark change, blinking change, or the like.

この構成によれば、セキュリティ装置5によって識別されたされたユーザによって予め登録された照合用テーブルを利用する。そのため、偽造したキャッシュカード等を用い、他のユーザになりすまして暗証番号を入力しようとしても、手の大きさ、動き等の個人差があり容易には入力できない。このように、セキュリティの効果を高めることもできる。   According to this configuration, the collation table registered in advance by the user identified by the security device 5 is used. For this reason, even if a counterfeit cash card or the like is used to impersonate another user and an attempt is made to input a personal identification number, there is an individual difference such as the size of the hand, movement, etc., and it cannot be input easily. In this way, the security effect can be enhanced.

また、このようなセキュリティ装置5は、キーボードまたはタッチパネル等への接触をしなくても、暗証番号等の入力が可能である。そのため、接触に起因する入力履歴(例えば指紋検出など)により、暗証番号の盗難を防止することができる。また、ATM、クレジットカード暗証入力装置、セキュリティ暗証入力装置、各種販売タッチパネル(切符、商品)、ゲーム施設タッチパネル等は、不特定多数のユーザが利用することになるが、セキュリティ装置5によれば、暗証番号、入力指示のの入力による接触が不要であるため、伝染病等の感染経路を遮断することもできる。   Further, such a security device 5 can input a personal identification number or the like without touching a keyboard or a touch panel. Therefore, the security code can be prevented from being stolen based on the input history (for example, fingerprint detection) caused by the contact. In addition, ATMs, credit card PIN input devices, security PIN input devices, various sales touch panels (tickets, products), game facility touch panels, etc. are used by an unspecified number of users. Since contact with the input of a personal identification number and an input instruction is unnecessary, an infection route such as an infectious disease can be blocked.

[変形例6]
上述した実施形態において、電子機器1をスマートフォンに適用した場合の例について説明する。
[Modification 6]
In the embodiment described above, an example in which the electronic device 1 is applied to a smartphone will be described.

図43は、本発明の変形例6に係る電気機器1Bの構成を示す概略図である。スマートフォンのような電子機器1Bにおいては、物体検知装置の検知センサ21は、表示装置14B側に設けられ、電子機器1Bの表示装置14B側のユーザの手1000を検知するようになっている。このような構成により、例えば、ユーザが一方の手1000で電子機器1Bを持ち、もう一方の手1000において、電子機器1Bに対して接触しない状態で、キー入力等をすることも可能である。   FIG. 43 is a schematic diagram showing a configuration of an electric device 1B according to Modification 6 of the present invention. In the electronic device 1B such as a smartphone, the detection sensor 21 of the object detection device is provided on the display device 14B side, and detects the user's hand 1000 on the display device 14B side of the electronic device 1B. With such a configuration, for example, the user can hold the electronic device 1B with one hand 1000 and perform key input or the like without touching the electronic device 1B with the other hand 1000.

一般には、スマートフォンにおいては、表示面上に設けられたタッチセンサによりユーザの指示が入力される。そのため、指示の入力ができる領域は表示面上に限られることになるが、高齢者や指が太い人などにおいては、細かい入力操作が困難である。電子機器1Bによれば、ユーザによる指示の入力ができる領域が電子機器1Bの表示面側に広がる。また、第6実施形態に示す構成を適用すれば、ユーザの手1000の位置の精度が求められないため、電子機器1に対する指示の入力が容易になる。   Generally, in a smartphone, a user instruction is input by a touch sensor provided on a display surface. For this reason, an area where an instruction can be input is limited to the display surface, but a fine input operation is difficult for an elderly person or a person with a thick finger. According to the electronic device 1B, an area in which an instruction can be input by the user extends to the display surface side of the electronic device 1B. Further, if the configuration shown in the sixth embodiment is applied, the accuracy of the position of the user's hand 1000 is not required, and therefore it is easy to input an instruction to the electronic device 1.

1,1B…電子機器、5…セキュリティ装置、6…サーバ、10…情報処理装置、11…CPU、12…メモリ、13…操作部、13a…キーボード、13b…マウス、14,14B…表示装置、20,20A…物体検知装置、21,21A,21B検知センサ、25A…アームレスト、30…視線測定装置、31…視線センサ、100…認識空間設定機能、110…領域特定部、120…基準点設定部、130…走査部、140…認識空間設定部、200…ジェスチャ入力機能、210…挙動測定部、220…決定部、300…視線認証判定機能、310…視線測定部、320…表示制御部、330…判定部、500…検知部、600…セキュリティシステム、700…実行部、1000…手、2000…腕、3000,3010…伸縮装置、3050,3060…発光装置、3100,3110…伸縮部、3150,3160…発光部、3200…リストバンド、3300…支持部材、5000…机 DESCRIPTION OF SYMBOLS 1,1B ... Electronic device, 5 ... Security apparatus, 6 ... Server, 10 ... Information processing apparatus, 11 ... CPU, 12 ... Memory, 13 ... Operation part, 13a ... Keyboard, 13b ... Mouse, 14, 14B ... Display device, DESCRIPTION OF SYMBOLS 20, 20A ... Object detection apparatus, 21, 21A, 21B detection sensor, 25A ... Armrest, 30 ... Gaze measurement apparatus, 31 ... Gaze sensor, 100 ... Recognition space setting function, 110 ... Area specifying part, 120 ... Reference point setting part , 130 ... scanning section, 140 ... recognition space setting section, 200 ... gesture input function, 210 ... behavior measurement section, 220 ... determination section, 300 ... gaze authentication determination function, 310 ... gaze measurement section, 320 ... display control section, 330 ... Determining unit, 500 ... Detecting unit, 600 ... Security system, 700 ... Executing unit, 1000 ... Hand, 2000 ... Arm, 3000,3010 ... Expandable , 3050,3060 ... light-emitting device, 3100,3110 ... stretch unit, 3150,3160 ... light emitting portion, 3200 ... wristband, 3300 ... support member, 5000 ... desk

本発明の一実施形態によると、所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段と、前記検知データに基づいて、前記検知した物体における所定の特徴位置の動きと連動する原点を設定する原点設定手段と、前記検知範囲の一部であって、前記原点を含む認識空間を、前記特徴位置の動きと連動するように設定する認識空間設定手段と、前記検知データに基づいて、前記認識空間において、前記物体における少なくとも1箇所の座標を算出する座標算出手段と、前記算出された座標と前記原点との相対的な位置関係に基づいて、前記座標が算出された物体の箇所が、前記原点に対して決められた所定範囲の面として設定された検出面を予め決められた側から通過したことを検出し、通過した前記検出面に基づいて装置に対する指示を決定する決定手段とを備える情報処理装置が提供される。
また、本発明の一実施形態によると、所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段と、前記検知データに基づいて、前記検知した物体における所定の特徴位置の動きと連動する原点を設定する原点設定手段と、前記検知データに基づいて、前記物体における少なくとも1箇所の座標を算出する座標算出手段と、前記算出された座標と前記原点との相対的な位置関係に基づいて、前記座標が算出された物体の箇所が、前記原点に対して決められた所定範囲の面として設定された検出面を予め決められた側から通過したことを検出し、通過した前記検出面に基づいて装置に対する指示を決定する決定手段とを備え、前記決定手段は、さらに、前記位置関係に基づいて、前記座標が算出された物体の箇所の速度が、所定速度以上になる前における当該箇所の移動開始位置が予め決められた開始範囲に含まれ、かつ、減速して前記所定速度以下になった後における当該箇所の位置を示す移動収束位置が予め決められた収束範囲に含まれる場合に、前記装置に対する指示を決定する情報処理装置が提供される。
According to an embodiment of the present invention, a detection unit that detects an object existing in a predetermined detection range and outputs detection data corresponding to the detected object, and a predetermined object in the detected object based on the detection data. Origin setting means for setting an origin linked with the movement of the feature position, and recognition space setting means for setting a recognition space that is a part of the detection range and includes the origin so as to be linked with the movement of the feature position And, based on the detection data, in the recognition space, based on a relative position relationship between the calculated coordinates and the origin, the coordinate calculation means for calculating the coordinates of at least one location in the object, It is detected that the location of the object whose coordinates have been calculated has passed through a detection surface set as a surface of a predetermined range determined with respect to the origin from a predetermined side, and has passed The information processing apparatus is provided with a determination means for determining an instruction to the device on the basis of the exit face.
According to an embodiment of the present invention, the detection means for detecting an object existing in a predetermined detection range and outputting detection data corresponding to the detected object, and the detected object based on the detection data Origin setting means for setting an origin that is linked to the movement of a predetermined feature position; coordinate calculation means for calculating at least one coordinate of the object based on the detection data; and the calculated coordinates and the origin. That the location of the object whose coordinates are calculated based on the relative positional relationship of has passed the detection surface set as the surface of the predetermined range determined with respect to the origin from the predetermined side Determining means for detecting and determining an instruction to the apparatus based on the detected surface that has passed, the determining means further comprising an object for which the coordinates are calculated based on the positional relationship The movement indicating the position of the part after the speed of the part is included in the predetermined start range before the speed of the part becomes equal to or higher than the predetermined speed, and after decelerating to the predetermined speed or less. There is provided an information processing apparatus that determines an instruction to the apparatus when the convergence position is included in a predetermined convergence range.

本発明の一実施形態によると、コンピュータを、所定の検知範囲に存在する物体を検知する検知手段から、検知した物体に応じて出力される検知データに基づいて、前記検知した物体における所定の特徴位置の動きと連動する原点を設定する原点設定手段と、前記検知範囲の一部であって、前記原点を含む認識空間を前記特徴位置の動きと連動するように設定する認識空間設定手段と、前記検知データに基づいて、前記認識空間において、前記物体における少なくとも1箇所の座標を算出する座標算出手段と、前記算出された座標と前記原点との相対的な位置関係に基づいて、前記座標が算出された物体の箇所が、前記原点に対して決められた所定範囲の面として設定された検出面を予め決められた側から通過したことを検出し、通過した前記検出面に基づいて装置に対する指示を決定する決定手段として機能させるためのプログラムが提供される。
また、本発明の一実施形態によると、コンピュータを、所定の検知範囲に存在する物体を検知する検知手段から、検知した物体に応じて出力される検知データに基づいて、前記検知した物体における所定の特徴位置の動きと連動する原点を設定する原点設定手段と、前記検知データに基づいて、前記物体における少なくとも1箇所の座標を算出する座標算出手段と、前記算出された座標と前記原点との相対的な位置関係に基づいて、前記座標が算出された物体の箇所が、前記原点に対して決められた所定範囲の面として設定された検出面を予め決められた側から通過したことを検出し、通過した前記検出面に基づいて装置に対する指示を決定する決定手段として機能させ、前記決定手段は、さらに、前記位置関係に基づいて、前記座標が算出された物体の箇所の速度が、所定速度以上になる前における当該箇所の移動開始位置が予め決められた開始範囲に含まれ、かつ、減速して前記所定速度以下になった後における当該箇所の位置を示す移動収束位置が予め決められた収束範囲に含まれる場合に、前記装置に対する指示を決定するプログラムが提供される。
According to an embodiment of the present invention, the computer has a predetermined feature in the detected object based on detection data output according to the detected object from a detection unit that detects an object existing in the predetermined detection range. An origin setting means for setting an origin that is linked to the movement of the position; a recognition space setting means that is a part of the detection range and that sets a recognition space that includes the origin to be linked to the movement of the feature position; Based on the detection data, the coordinate calculation means for calculating at least one coordinate of the object in the recognition space, and the coordinates based on the relative positional relationship between the calculated coordinates and the origin. It is detected that the calculated object has passed the detection surface set as a surface of a predetermined range determined with respect to the origin from a predetermined side, and before passing Program for functioning as a determination means for determining an instruction to the device based on the detection surface is provided.
Further, according to one embodiment of the present invention, the computer causes the predetermined object in the detected object to be detected based on the detection data output in accordance with the detected object from the detection unit that detects the object existing in the predetermined detection range. An origin setting means for setting an origin that is linked to the movement of the feature position, a coordinate calculation means for calculating coordinates of at least one location on the object based on the detection data, and the calculated coordinates and the origin Based on the relative positional relationship, it is detected that the location of the object whose coordinates have been calculated has passed through a detection surface set as a surface of a predetermined range determined with respect to the origin from a predetermined side. And a function for determining an instruction to the apparatus based on the detection surface that has passed, and the determination means further calculates the coordinates based on the positional relationship. The movement start position of the location before the speed of the location of the selected object is equal to or higher than the predetermined speed is included in the predetermined start range, and the speed of the location after the speed is reduced to be equal to or lower than the predetermined speed. A program for determining an instruction to the device when a moving convergence position indicating a position is included in a predetermined convergence range is provided.

本発明の一実施形態によると、所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段と、前記検知データに基づいて、前記検知した物体における所定の特徴位置の動きと連動して当該特徴位置と同じ動きをする原点を設定する原点設定手段と、前記検知範囲の一部であって、前記原点を含む認識空間を、前記特徴位置を基準とした範囲に設定する認識空間設定手段と、前記検知データに基づいて、前記認識空間において、前記物体における少なくとも1箇所の座標を算出する座標算出手段と、前記算出された座標と前記原点との相対的な位置関係に基づいて、前記座標が算出された物体の箇所が、前記原点に対して決められた所定範囲の面として設定された検出面を予め決められた側から通過したことを検出し、通過した前記検出面に基づいて装置に対する指示を決定する決定手段とを備える情報処理装置が提供される。
また、本発明の一実施形態によると、所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段と、前記検知データに基づいて、前記検知した物体における所定の特徴位置の動きと連動する原点を設定する原点設定手段と、前記検知データに基づいて、前記物体における少なくとも1箇所の座標を算出する座標算出手段と、前記算出された座標と前記原点との相対的な位置関係に基づいて、前記座標が算出された物体の箇所が、前記原点に対して決められた所定範囲の面として設定された検出面を予め決められた側から通過したことを検出し、通過した前記検出面に基づいて装置に対する指示を決定する決定手段とを備え、前記決定手段は、さらに、前記位置関係に基づいて、前記座標が算出された物体の箇所の速度が、所定速度以上になる前における当該箇所の移動開始位置が予め決められた開始範囲に含まれ、かつ、減速して前記所定速度以下になった後における当該箇所の位置を示す移動収束位置が予め決められた収束範囲に含まれる場合に、前記装置に対する指示を決定する情報処理装置が提供される。
According to an embodiment of the present invention, a detection unit that detects an object existing in a predetermined detection range and outputs detection data corresponding to the detected object, and a predetermined object in the detected object based on the detection data. Origin setting means for setting an origin that performs the same movement as the feature position in conjunction with the movement of the feature position, and a recognition space that is a part of the detection range and includes the origin, with the feature position as a reference A recognition space setting means for setting a range; a coordinate calculation means for calculating at least one coordinate of the object in the recognition space based on the detection data; and a relative relationship between the calculated coordinates and the origin. The location of the object for which the coordinates are calculated based on a specific positional relationship passes through a detection surface set as a surface of a predetermined range determined with respect to the origin from a predetermined side. Detecting the information processing apparatus comprising a determination means for determining an instruction to the device based on the detection surface that has passed through is provided.
According to an embodiment of the present invention, the detection means for detecting an object existing in a predetermined detection range and outputting detection data corresponding to the detected object, and the detected object based on the detection data Origin setting means for setting an origin that is linked to the movement of a predetermined feature position; coordinate calculation means for calculating at least one coordinate of the object based on the detection data; and the calculated coordinates and the origin. That the location of the object whose coordinates are calculated based on the relative positional relationship of has passed the detection surface set as the surface of the predetermined range determined with respect to the origin from the predetermined side Determining means for detecting and determining an instruction to the apparatus based on the detected surface that has passed, the determining means further comprising an object for which the coordinates are calculated based on the positional relationship The movement indicating the position of the part after the speed of the part is included in the predetermined start range before the speed of the part becomes equal to or higher than the predetermined speed, and after decelerating to the predetermined speed or less. There is provided an information processing apparatus that determines an instruction to the apparatus when the convergence position is included in a predetermined convergence range.

本発明の一実施形態によると、コンピュータを、所定の検知範囲に存在する物体を検知する検知手段から、検知した物体に応じて出力される検知データに基づいて、前記検知した物体における所定の特徴位置の動きと連動して当該特徴位置と同じ動きをする原点を設定する原点設定手段と、前記検知範囲の一部であって、前記原点を含む認識空間を、前記特徴位置を基準とした範囲に設定する認識空間設定手段と、前記検知データに基づいて、前記認識空間において、前記物体における少なくとも1箇所の座標を算出する座標算出手段と、前記算出された座標と前記原点との相対的な位置関係に基づいて、前記座標が算出された物体の箇所が、前記原点に対して決められた所定範囲の面として設定された検出面を予め決められた側から通過したことを検出し、通過した前記検出面に基づいて装置に対する指示を決定する決定手段として機能させるためのプログラムが提供される。
また、本発明の一実施形態によると、コンピュータを、所定の検知範囲に存在する物体を検知する検知手段から、検知した物体に応じて出力される検知データに基づいて、前記検知した物体における所定の特徴位置の動きと連動する原点を設定する原点設定手段と、前記検知データに基づいて、前記物体における少なくとも1箇所の座標を算出する座標算出手段と、前記算出された座標と前記原点との相対的な位置関係に基づいて、前記座標が算出された物体の箇所が、前記原点に対して決められた所定範囲の面として設定された検出面を予め決められた側から通過したことを検出し、通過した前記検出面に基づいて装置に対する指示を決定する決定手段として機能させ、前記決定手段は、さらに、前記位置関係に基づいて、前記座標が算出された物体の箇所の速度が、所定速度以上になる前における当該箇所の移動開始位置が予め決められた開始範囲に含まれ、かつ、減速して前記所定速度以下になった後における当該箇所の位置を示す移動収束位置が予め決められた収束範囲に含まれる場合に、前記装置に対する指示を決定するプログラムが提供される。
According to an embodiment of the present invention, the computer has a predetermined feature in the detected object based on detection data output according to the detected object from a detection unit that detects an object existing in the predetermined detection range. Origin setting means for setting an origin that moves in the same manner as the feature position in conjunction with the movement of the position, and a part of the detection range, the recognition space including the origin being a range based on the feature position A recognition space setting means for setting the coordinates, a coordinate calculation means for calculating at least one coordinate in the object in the recognition space based on the detection data, and a relative relationship between the calculated coordinates and the origin. Based on the positional relationship, the location of the object for which the coordinates have been calculated passes from a predetermined side through a detection surface set as a surface of a predetermined range determined with respect to the origin. It detects that the program to function as a determining means for determining an instruction to the device based on the detection surface that has passed through is provided.
Further, according to one embodiment of the present invention, the computer causes the predetermined object in the detected object to be detected based on the detection data output in accordance with the detected object from the detection unit that detects the object existing in the predetermined detection range. An origin setting means for setting an origin that is linked to the movement of the feature position, a coordinate calculation means for calculating coordinates of at least one location on the object based on the detection data, and the calculated coordinates and the origin Based on the relative positional relationship, it is detected that the location of the object whose coordinates have been calculated has passed through a detection surface set as a surface of a predetermined range determined with respect to the origin from a predetermined side. And a function for determining an instruction to the apparatus based on the detection surface that has passed, and the determination means further calculates the coordinates based on the positional relationship. The movement start position of the location before the speed of the location of the selected object is equal to or higher than the predetermined speed is included in the predetermined start range, and the speed of the location after the speed is reduced to be equal to or lower than the predetermined speed. A program for determining an instruction to the device when a moving convergence position indicating a position is included in a predetermined convergence range is provided.

Claims (11)

所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段と、
前記検知データに基づいて、前記検知した物体における所定の特徴位置の動きと連動する原点を設定する原点設定手段と、
前記検知データに基づいて、前記物体における少なくとも1箇所の座標を算出する座標算出手段と、
前記算出された座標と前記原点との相対的な位置関係に基づいて、前記座標が算出された物体の箇所が、前記原点に対して決められた所定範囲の面として設定された検出面を予め決められた側から通過したことを検出し、通過した前記検出面に基づいて装置に対する指示を決定する決定手段と
を備える情報処理装置。
Detecting means for detecting an object existing in a predetermined detection range and outputting detection data corresponding to the detected object;
Based on the detection data, an origin setting means for setting an origin that is linked to the movement of a predetermined feature position in the detected object;
Coordinate calculation means for calculating coordinates of at least one location in the object based on the detection data;
Based on the relative positional relationship between the calculated coordinates and the origin, a detection surface in which the location of the object for which the coordinates are calculated is set as a plane within a predetermined range determined with respect to the origin is previously set. An information processing apparatus comprising: determining means for detecting passage from a determined side and determining an instruction to the apparatus based on the detection surface that has passed.
前記座標算出手段は、前記物体における複数箇所の座標を算出し、
前記検出面は、各箇所に対応して決められ、
前記決定手段は、前記位置関係に基づいて、前記座標が算出された物体の箇所が、当該箇所に対応する前記検出面を予め決められた側から通過したことを検出した場合に、前記装置に対する指示を決定する請求項1に記載の情報処理装置。
The coordinate calculation means calculates the coordinates of a plurality of locations in the object,
The detection surface is determined corresponding to each location,
The determining means detects the position of the object whose coordinates have been calculated based on the positional relationship when the position of the object has passed through the detection surface corresponding to the position from a predetermined side. The information processing apparatus according to claim 1, wherein an instruction is determined.
前記座標算出手段は、前記物体における複数箇所の座標を算出し、
前記決定手段は、前記位置関係に基づいて、いずれかの前記座標が算出された物体の箇所が、前記検出面を予め決められた側から通過したことを検出した場合に、前記装置に対する指示を決定する請求項1に記載の情報処理装置。
The coordinate calculation means calculates the coordinates of a plurality of locations in the object,
The determining means gives an instruction to the apparatus when it is detected that the location of the object for which any of the coordinates has been calculated has passed the detection surface from a predetermined side based on the positional relationship. The information processing apparatus according to claim 1, wherein the information processing apparatus is determined.
前記決定手段は、さらに、前記位置関係に基づいて、前記座標が算出された物体の箇所が前記検出面を通過するときの速度が、予め決められた速度範囲に含まれている場合に、前記装置に対する指示を決定する請求項1乃至請求項3のいずれかに記載の情報処理装置。   The determination means further includes a speed when the location of the object for which the coordinates are calculated passes through the detection surface based on the positional relationship within a predetermined speed range. The information processing apparatus according to claim 1, wherein an instruction for the apparatus is determined. 前記決定手段は、さらに、前記位置関係に基づいて、前記座標が算出された物体の箇所の速度が、所定速度以上になる前における当該箇所の移動開始位置が予め決められた開始範囲に含まれ、かつ、減速して前記所定速度以下になった後における当該箇所の位置を示す移動収束位置が予め決められた収束範囲に含まれる場合に、前記装置に対する指示を決定する請求項1乃至請求項4のいずれかに記載の情報処理装置。   The determining means may further include, based on the positional relationship, a movement start position of the part before the speed of the part of the object for which the coordinates are calculated exceeds a predetermined speed is included in a predetermined start range. And an instruction to the device is determined when a moving convergence position indicating a position of the portion after being decelerated to be equal to or less than the predetermined speed is included in a predetermined convergence range. 5. The information processing apparatus according to any one of 4. 前記算出された座標に基づいて、前記検出面と前記指示内容との対応関係を照合用テーブルに登録する登録手段をさらに備え、
前記決定手段は、前記位置関係に基づいて、前記座標が算出された物体の箇所が、前記照合用テーブルに登録された検出面を、予め決められた側から通過したことを検出する請求項1乃至請求項5のいずれかに記載の情報処理装置。
Based on the calculated coordinates, further comprising registration means for registering the correspondence between the detection surface and the instruction content in a collation table;
2. The determination unit detects, based on the positional relationship, that the location of the object for which the coordinates have been calculated has passed from a predetermined side through a detection surface registered in the verification table. The information processing apparatus according to claim 5.
前記検知範囲の一部であって、前記原点を含む認証空間を設定する認識空間設定手段をさらに備え、
前記座標算出手段は、前記認証空間における前記物体における少なくとも1箇所の座標を算出する請求項1乃至請求項6のいずれかに記載の情報処理装置。
A recognition space setting means for setting an authentication space that is part of the detection range and includes the origin;
The information processing apparatus according to claim 1, wherein the coordinate calculation unit calculates at least one coordinate of the object in the authentication space.
前記特徴位置は、前記物体に含まれるいずれかの位置である請求項1乃至請求項7のいずれかに記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the characteristic position is any position included in the object. 前記決定手段によって前記装置に対する指示が決定されると、当該指示が受け付けられたことをユーザに対して報知する報知手段をさらに備える請求項1乃至請求項8のいずれかに記載の情報処理装置。   The information processing apparatus according to any one of claims 1 to 8, further comprising notification means for notifying a user that the instruction is accepted when an instruction to the apparatus is determined by the determination means. 請求項1乃至請求項9のいずれかに記載の情報処理装置と、
前記決定された指示に基づく処理を実行する実行手段と
を備える電子機器。
An information processing apparatus according to any one of claims 1 to 9,
An electronic device comprising: execution means for executing processing based on the determined instruction.
コンピュータを、
所定の検知範囲に存在する物体を検知する検知手段から、検知した物体に応じて出力される検知データに基づいて、前記検知した物体における所定の特徴位置の動きと連動する原点を設定する原点設定手段と、
前記検知データに基づいて、前記物体における少なくとも1箇所の座標を算出する座標算出手段と、
前記算出された座標と前記原点との相対的な位置関係に基づいて、前記座標が算出された物体の箇所が、前記原点に対して決められた所定範囲の面として設定された検出面を予め決められた側から通過したことを検出し、通過した前記検出面に基づいて装置に対する指示を決定する決定手段として機能させるためのプログラム。
Computer
Origin setting that sets an origin that is linked to the movement of a predetermined feature position in the detected object, based on detection data that is output according to the detected object from a detection unit that detects an object existing in a predetermined detection range Means,
Coordinate calculation means for calculating coordinates of at least one location in the object based on the detection data;
Based on the relative positional relationship between the calculated coordinates and the origin, a detection surface in which the location of the object for which the coordinates are calculated is set as a plane within a predetermined range determined with respect to the origin is previously set. A program for detecting a passage from a predetermined side and functioning as a determination unit that determines an instruction to the apparatus based on the detection surface that has passed.
JP2012233272A 2012-04-26 2012-10-22 Information processing apparatus, electronic device, and program Expired - Fee Related JP5315450B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012233272A JP5315450B1 (en) 2012-04-26 2012-10-22 Information processing apparatus, electronic device, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012101258 2012-04-26
JP2012101258 2012-04-26
JP2012233272A JP5315450B1 (en) 2012-04-26 2012-10-22 Information processing apparatus, electronic device, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012128125A Division JP5174979B1 (en) 2012-04-26 2012-06-05 Information processing apparatus, electronic device, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013141551A Division JP5993354B2 (en) 2012-04-26 2013-07-05 Information processing device

Publications (2)

Publication Number Publication Date
JP5315450B1 JP5315450B1 (en) 2013-10-16
JP2013242845A true JP2013242845A (en) 2013-12-05

Family

ID=47890549

Family Applications (10)

Application Number Title Priority Date Filing Date
JP2012114529A Expired - Fee Related JP5174978B1 (en) 2012-04-26 2012-05-18 Information processing apparatus, electronic device, and program
JP2012114530A Expired - Fee Related JP5148004B1 (en) 2012-04-26 2012-05-18 Information processing apparatus, electronic device, and program
JP2012128125A Expired - Fee Related JP5174979B1 (en) 2012-04-26 2012-06-05 Information processing apparatus, electronic device, and program
JP2012229326A Expired - Fee Related JP5364194B2 (en) 2012-04-26 2012-10-16 Information processing apparatus, electronic device, and program
JP2012229205A Active JP5232930B1 (en) 2012-04-26 2012-10-16 Information processing apparatus, electronic device, and program
JP2012233272A Expired - Fee Related JP5315450B1 (en) 2012-04-26 2012-10-22 Information processing apparatus, electronic device, and program
JP2012233271A Expired - Fee Related JP5314795B1 (en) 2012-04-26 2012-10-22 Information processing apparatus, electronic device, and program
JP2013018351A Expired - Fee Related JP5444482B2 (en) 2012-04-26 2013-02-01 Information processing apparatus, electronic device, and program
JP2013141551A Expired - Fee Related JP5993354B2 (en) 2012-04-26 2013-07-05 Information processing device
JP2016004171A Withdrawn JP2016048588A (en) 2012-04-26 2016-01-13 Information processing apparatus

Family Applications Before (5)

Application Number Title Priority Date Filing Date
JP2012114529A Expired - Fee Related JP5174978B1 (en) 2012-04-26 2012-05-18 Information processing apparatus, electronic device, and program
JP2012114530A Expired - Fee Related JP5148004B1 (en) 2012-04-26 2012-05-18 Information processing apparatus, electronic device, and program
JP2012128125A Expired - Fee Related JP5174979B1 (en) 2012-04-26 2012-06-05 Information processing apparatus, electronic device, and program
JP2012229326A Expired - Fee Related JP5364194B2 (en) 2012-04-26 2012-10-16 Information processing apparatus, electronic device, and program
JP2012229205A Active JP5232930B1 (en) 2012-04-26 2012-10-16 Information processing apparatus, electronic device, and program

Family Applications After (4)

Application Number Title Priority Date Filing Date
JP2012233271A Expired - Fee Related JP5314795B1 (en) 2012-04-26 2012-10-22 Information processing apparatus, electronic device, and program
JP2013018351A Expired - Fee Related JP5444482B2 (en) 2012-04-26 2013-02-01 Information processing apparatus, electronic device, and program
JP2013141551A Expired - Fee Related JP5993354B2 (en) 2012-04-26 2013-07-05 Information processing device
JP2016004171A Withdrawn JP2016048588A (en) 2012-04-26 2016-01-13 Information processing apparatus

Country Status (1)

Country Link
JP (10) JP5174978B1 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6195893B2 (en) 2013-02-19 2017-09-13 ミラマ サービス インク Shape recognition device, shape recognition program, and shape recognition method
JP2014219712A (en) * 2013-05-01 2014-11-20 コニカミノルタ株式会社 Operation display device
JP6011579B2 (en) 2014-05-21 2016-10-19 株式会社デンソー Gesture input device
JP6494926B2 (en) * 2014-05-28 2019-04-03 京セラ株式会社 Mobile terminal, gesture control program, and gesture control method
JP6376886B2 (en) * 2014-08-05 2018-08-22 アルパイン株式会社 Input system and input method
EP3106343A1 (en) * 2015-06-19 2016-12-21 Continental Automotive GmbH Gesture based user input device for car electronics
JP6540809B2 (en) * 2015-08-06 2019-07-10 株式会社ニコン Electronic control device and electronic control program
CN108027656B (en) * 2015-09-28 2021-07-06 日本电气株式会社 Input device, input method, and program
US10372229B2 (en) 2016-02-25 2019-08-06 Nec Corporation Information processing system, information processing apparatus, control method, and program
JP6538961B2 (en) 2016-03-04 2019-07-03 株式会社ソニー・インタラクティブエンタテインメント Control device
JP6444345B2 (en) * 2016-08-23 2018-12-26 株式会社コロプラ Method and apparatus for supporting input in virtual space, and program for causing computer to execute the method
WO2018198272A1 (en) * 2017-04-27 2018-11-01 株式会社ソニー・インタラクティブエンタテインメント Control device, information processing system, control method, and program
WO2019077652A1 (en) 2017-10-16 2019-04-25 株式会社ソニー・インタラクティブエンタテインメント Information processing system, controller device, and information processing device
JP7291886B2 (en) 2018-01-29 2023-06-16 パナソニックIpマネジメント株式会社 switch device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000056916A (en) * 1998-08-06 2000-02-25 Takenaka Komuten Co Ltd Hand pointing device
JP2004258714A (en) * 2003-02-24 2004-09-16 Toshiba Corp Device for displaying picture
JP2004302992A (en) * 2003-03-31 2004-10-28 Honda Motor Co Ltd Gesture recognition device, its method and gesture recognition program
JP2010134629A (en) * 2008-12-03 2010-06-17 Sony Corp Information processing apparatus and method
WO2012032687A1 (en) * 2010-09-06 2012-03-15 島根県 Image recognition apparatus, operation evaluation method, and program
JP2012068854A (en) * 2010-09-22 2012-04-05 Shimane Prefecture Operation input device and operation determination method and program

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07105371A (en) * 1993-10-04 1995-04-21 Hitachi Ltd Hand print pattern recognition method
JPH0981309A (en) * 1995-09-13 1997-03-28 Toshiba Corp Input device
JP3487494B2 (en) * 1998-04-17 2004-01-19 日本電信電話株式会社 Menu selection method and device
JP3444200B2 (en) * 1998-07-07 2003-09-08 ソニー株式会社 Image data processing apparatus and method, and providing medium
JP2000098871A (en) * 1998-09-28 2000-04-07 Sony Corp Virtual image stereoscopic compositing device, virtual image stereoscopic compositing method, game device and recording medium
JP2000242394A (en) * 1999-02-24 2000-09-08 Nec Corp Virtual keyboard system
JP2001216069A (en) * 2000-02-01 2001-08-10 Toshiba Corp Operation inputting device and direction detecting method
JP2003044203A (en) * 2001-08-02 2003-02-14 Canon I-Tech Inc Information processor
JP2003131785A (en) * 2001-10-22 2003-05-09 Toshiba Corp Interface device, operation control method and program product
JP4053903B2 (en) * 2003-03-07 2008-02-27 日本電信電話株式会社 Pointing method, apparatus, and program
JP2004299025A (en) * 2003-04-01 2004-10-28 Honda Motor Co Ltd Mobile robot control device, mobile robot control method and mobile robot control program
JP2005301693A (en) * 2004-04-12 2005-10-27 Japan Science & Technology Agency Animation editing system
JP2005332229A (en) * 2004-05-20 2005-12-02 Nippon Telegr & Teleph Corp <Ntt> Attitude detector, attitude detection method, and program for the method
JP2006276928A (en) * 2005-03-28 2006-10-12 Canon Inc Piezo-electric motion detection device
JP2009042796A (en) * 2005-11-25 2009-02-26 Panasonic Corp Gesture input device and method
JP2008186120A (en) * 2007-01-29 2008-08-14 Seiko Epson Corp Processor, processing method and program for executing processing according to user's instruction
JP2007164814A (en) * 2007-02-09 2007-06-28 Toshiba Corp Interface device
CA2699844A1 (en) * 2007-08-19 2009-02-26 Ringbow Ltd. Finger-worn devices and related methods of use
JP4318056B1 (en) * 2008-06-03 2009-08-19 島根県 Image recognition apparatus and operation determination method
CN102203695B (en) * 2008-10-27 2015-09-02 索尼电脑娱乐公司 For transmitting the opertaing device of visual information
JP5263833B2 (en) * 2009-05-18 2013-08-14 国立大学法人 奈良先端科学技術大学院大学 Ring-type interface, interface device, and interface method used for wearable computer
JP5282661B2 (en) * 2009-05-26 2013-09-04 ソニー株式会社 Information processing apparatus, information processing method, and program
US20100303297A1 (en) * 2009-05-30 2010-12-02 Anton Mikhailov Color calibration for object tracking
JP5201096B2 (en) * 2009-07-17 2013-06-05 大日本印刷株式会社 Interactive operation device
JP2011095985A (en) * 2009-10-29 2011-05-12 Nikon Corp Image display apparatus
JP2011100396A (en) * 2009-11-09 2011-05-19 Hitachi Ltd Video display device
JP2011118523A (en) * 2009-12-01 2011-06-16 Sekisui House Ltd Drawing display device
JP5569062B2 (en) * 2010-03-15 2014-08-13 オムロン株式会社 Gesture recognition device, method for controlling gesture recognition device, and control program
JP2011215968A (en) * 2010-03-31 2011-10-27 Namco Bandai Games Inc Program, information storage medium and object recognition system
US9069386B2 (en) * 2010-05-11 2015-06-30 Nippon Systemware Co., Ltd. Gesture recognition device, method, program, and computer-readable medium upon which program is stored
JP2012073659A (en) * 2010-09-01 2012-04-12 Shinsedai Kk Operation determination device, fingertip detection device, operation determination method, fingertip detection method, operation determination program, and fingertip detection program
JP2012073658A (en) * 2010-09-01 2012-04-12 Shinsedai Kk Computer system
JP5264844B2 (en) * 2010-09-06 2013-08-14 日本電信電話株式会社 Gesture recognition apparatus and method
JP5625643B2 (en) * 2010-09-07 2014-11-19 ソニー株式会社 Information processing apparatus and information processing method
JP4918171B1 (en) * 2011-07-21 2012-04-18 パナソニック株式会社 Image processing apparatus and document reading system having the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000056916A (en) * 1998-08-06 2000-02-25 Takenaka Komuten Co Ltd Hand pointing device
JP2004258714A (en) * 2003-02-24 2004-09-16 Toshiba Corp Device for displaying picture
JP2004302992A (en) * 2003-03-31 2004-10-28 Honda Motor Co Ltd Gesture recognition device, its method and gesture recognition program
JP2010134629A (en) * 2008-12-03 2010-06-17 Sony Corp Information processing apparatus and method
WO2012032687A1 (en) * 2010-09-06 2012-03-15 島根県 Image recognition apparatus, operation evaluation method, and program
JP2012068854A (en) * 2010-09-22 2012-04-05 Shimane Prefecture Operation input device and operation determination method and program

Also Published As

Publication number Publication date
JP5364194B2 (en) 2013-12-11
JP2013242889A (en) 2013-12-05
JP2013242843A (en) 2013-12-05
JP2016048588A (en) 2016-04-07
JP2013242651A (en) 2013-12-05
JP5174978B1 (en) 2013-04-03
JP5148004B1 (en) 2013-02-20
JP5174979B1 (en) 2013-04-03
JP2014032646A (en) 2014-02-20
JP5993354B2 (en) 2016-09-14
JP5315450B1 (en) 2013-10-16
JP5232930B1 (en) 2013-07-10
JP2013242844A (en) 2013-12-05
JP5444482B2 (en) 2014-03-19
JP2013242834A (en) 2013-12-05
JP2013242652A (en) 2013-12-05
JP5314795B1 (en) 2013-10-16
JP2013242842A (en) 2013-12-05

Similar Documents

Publication Publication Date Title
JP5993354B2 (en) Information processing device
US20210271340A1 (en) Gesture recognition devices and methods
JP6371475B2 (en) Eye-gaze input device, eye-gaze input method, and eye-gaze input program
KR101695174B1 (en) Ergonomic motion detection for receiving character input to electronic devices
US20180232106A1 (en) Virtual input systems and related methods
KR20140100761A (en) Gesture-based user input method and system with touch devices
JP5368618B2 (en) Information processing apparatus, electronic device, information processing method, and program
JP5124694B1 (en) Information processing apparatus, electronic device, information processing method, and program
JP5156874B1 (en) Information processing apparatus, electronic device, information processing method, and program
JP2017010459A (en) User authentication method, electronic device and computer program
JP2013134549A (en) Data input device and data input method
JP2018047626A (en) Image formation device, information processing device and information processing system
KR20180000974A (en) Touch screen apparatus and method of recognizing fingerprint the same
JP5148002B1 (en) Information processing apparatus, electronic device, information processing method, and program
JP2018197900A (en) Information processing apparatus, information processing method, computer program, and storage medium

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130708

R150 Certificate of patent or registration of utility model

Ref document number: 5315450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees