JP2020119042A - Gesture recognition device, gesture recognition system, gesture recognition method, and computer program - Google Patents
Gesture recognition device, gesture recognition system, gesture recognition method, and computer program Download PDFInfo
- Publication number
- JP2020119042A JP2020119042A JP2019007293A JP2019007293A JP2020119042A JP 2020119042 A JP2020119042 A JP 2020119042A JP 2019007293 A JP2019007293 A JP 2019007293A JP 2019007293 A JP2019007293 A JP 2019007293A JP 2020119042 A JP2020119042 A JP 2020119042A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- operated device
- operated
- sensor
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本開示は、ジェスチャー認識装置、ジェスチャー認識システム、ジェスチャー認識方法、及びコンピュータプログラムに関する。 The present disclosure relates to a gesture recognition device, a gesture recognition system, a gesture recognition method, and a computer program.
特許文献1は、ジェスチャーによる操作入力装置を開示している。 Patent Document 1 discloses a gesture-based operation input device.
ジェスチャーによる命令を受け付ける装置においては、意図しない誤動作を抑制することが望まれる。特に、ある装置へ向けられたジェスチャーによって、他の装置が誤動作することを防止することが望まれる。他の装置の誤動作を防止するには、命令となるジェスチャー装置毎に異ならせることが考えられる。しかし、この場合、ユーザは装置毎のジェスチャーを覚える必要があり、ユーザの負担が大きい。したがって、ジェスチャー操作において、ユーザの負担を大きくすることなく、他の装置の誤動作を防止することが望まれる。 In a device that receives a command by a gesture, it is desired to suppress unintended malfunction. In particular, it is desired to prevent a gesture directed to one device from causing another device to malfunction. In order to prevent erroneous operation of other devices, it is conceivable to make them different for each gesture device that gives a command. However, in this case, the user needs to learn the gesture for each device, which imposes a heavy burden on the user. Therefore, in gesture operation, it is desired to prevent malfunction of other devices without increasing the burden on the user.
ここで、特許文献1は、ジェスチャーによる操作対象の数が増えた場合に対処するため、手の操作を判定し、判定操作に基づいて選択したメニューを表示する技術を開示している。しかし、特許文献1の技術では、メニューの表示が必要となる。したがって、特許文献1の技術のようなアプローチをとることなく、ユーザの負担を抑えつつ、他の装置の誤動作を防止することが望まれる。 Here, Patent Document 1 discloses a technique of determining the operation of a hand and displaying a menu selected based on the determination operation in order to deal with the case where the number of operation targets by the gesture increases. However, the technique of Patent Document 1 requires the display of the menu. Therefore, it is desired to prevent malfunction of other devices while reducing the burden on the user without taking the approach of the technique of Patent Document 1.
本開示のある側面は、ジェスチャー認識装置である。開示のジェスチャー認識装置は、ユーザのジェスチャーの動作方向が、前記被操作装置を基準とした所定方向であるかを、少なくとも1以上の被操作装置について判定し、前記ジェスチャーの動作方向が前記所定方向であると判定された前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識するよう動作するプロセッサを備える。 One aspect of the present disclosure is a gesture recognition device. The disclosed gesture recognition device determines, for at least one or more operated devices, whether or not the motion direction of the user's gesture is a predetermined direction with respect to the operated device, and the motion direction of the gesture is the predetermined direction. And a processor operable to recognize the operated device determined to be the target operated device to which the gesture is directed.
本開示の他の側面は、ジェスチャー認識システムである。開示のジェスチャー認識システムは、ユーザのジェスチャーの動作を検出するセンサと、前記センサの検出データに基づいて前記ジェスチャーの動作方向を求め、前記ジェスチャーの動作方向が、被操作装置を基準とした所定方向であるかを判定し、前記ジェスチャーの動作方向が前記所定方向であると判定した場合、前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識するよう動作するプロセッサと、を備える。 Another aspect of the disclosure is a gesture recognition system. A gesture recognition system disclosed discloses a sensor for detecting a gesture motion of a user and a motion direction of the gesture based on detection data of the sensor, and the motion direction of the gesture is a predetermined direction based on the operated device. And a processor that operates to recognize the operated device as the target operated device to which the gesture is directed when it is determined that the operation direction of the gesture is the predetermined direction. ..
開示のジェスチャー認識システムは、ユーザのジェスチャーの動作を検出するセンサと、複数の被操作装置と、プロセッサと、を備えることもできる。前記プロセッサは、前記センサの検出データに基づいて前記ジェスチャーの動作方向を求め、前記ジェスチャーの動作方向が前記被操作装置を基準とした所定方向であるかを、前記複数の被操作装置について判定し、前記ジェスチャーの動作方向が前記所定方向であると判定された前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識するよう動作する。 The disclosed gesture recognition system can also include a sensor that detects a gesture motion of a user, a plurality of operated devices, and a processor. The processor obtains the motion direction of the gesture based on the detection data of the sensor and determines whether the motion direction of the gesture is a predetermined direction with respect to the operated device, for the plurality of operated devices. The operation device is operated so as to recognize the operated device that is determined to have the movement direction of the gesture as the predetermined direction, as the target operated device to which the gesture is directed.
本開示の他の側面は、ジェスチャー認識方法である。開示の方法は、プロセッサが、ユーザのジェスチャーの動作方向が前記被操作装置を基準とした所定方向であるかを、少なくとも1以上の被操作装置について判定し、前記ジェスチャーの動作方向が前記所定方向であると判定された前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識することを含む。 Another aspect of the present disclosure is a gesture recognition method. In the disclosed method, the processor determines, for at least one or more operated devices, whether the motion direction of the user's gesture is a predetermined direction with respect to the operated device, and the motion direction of the gesture is the predetermined direction. Recognizing the operated device determined to be the target operated device to which the gesture is directed.
本開示の他の側面は、コンピュータプログラムである。開示のコンピュータプログラムは、ユーザのジェスチャーの動作方向が、前記被操作装置を基準とした所定方向であるかを、少なくとも1以上の被操作装置について判定し、前記ジェスチャーの動作方向が前記所定方向であると判定された前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識する動作をプロセッサに実行させる。 Another aspect of the disclosure is a computer program. The disclosed computer program determines, for at least one or more operated devices, whether the motion direction of the user's gesture is a predetermined direction with respect to the operated device, and the motion direction of the gesture is the predetermined direction. The processor is caused to execute the operation of recognizing the operated device determined to be the target operated device to which the gesture is directed.
本開示によれば、ユーザの負担を抑えつつ、他の被操作装置の誤動作を防止できる。 According to the present disclosure, it is possible to prevent a malfunction of another operated device while reducing the burden on the user.
[本開示の実施形態の説明] [Description of Embodiments of the Present Disclosure]
(1)実施形態に係るジェスチャー認識装置は、プロセッサを備える。プロセッサは、ユーザのジェスチャーの動作方向が、前記被操作装置を基準とした所定方向であるかを、少なくとも1以上の被操作装置について判定するよう動作する。プロセッサは、前記ジェスチャーの動作方向が前記所定方向であると判定された前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識するよう動作する。同じジェスチャーであっても、異なる位置に設置された被操作装置それぞれを基準とすると、ジェスチャーの動作方向は異なる。したがって、ジェスチャー動作方向が、被操作装置を基準とした所定方向であるか否かによって、ジェスチャーがどの被操作装置に向けられたものであるかを識別することができ、ジェスチャーが向けられていない被操作装置の誤動作を防止できる。しかも、複数の被操作装置に対するジェスチャーは共通のものでよく、ユーザの負担を抑えることができる。 (1) The gesture recognition device according to the embodiment includes a processor. The processor operates to determine, for at least one or more operated devices, whether or not the operation direction of the gesture of the user is a predetermined direction based on the operated device. The processor operates so as to recognize the operated device that is determined to have the operation direction of the gesture as the predetermined direction, as the target operated device to which the gesture is directed. Even if the same gesture is used, the movement directions of the gestures are different when the operated devices installed at different positions are used as references. Therefore, depending on whether or not the gesture operation direction is the predetermined direction with respect to the operated device, it is possible to identify which operated device the gesture is directed to, and the gesture is not directed. A malfunction of the operated device can be prevented. Moreover, the gestures for the plurality of operated devices may be the same, which can reduce the burden on the user.
(2)前記プロセッサは、前記被操作装置を前記対象被操作装置として認識した後に行われたジェスチャーを、前記対象操作装置に対する命令ジェスチャーとして認識するよう更に動作することができる。この場合、命令ジェスチャーは、対象被操作装置だけが認識することになる。 (2) The processor may further operate to recognize a gesture performed after recognizing the operated device as the target operated device as a command gesture for the target operated device. In this case, only the target operated device recognizes the command gesture.
(3)前記プロセッサは、前記命令ジェスチャーの動作方向が前記対象被操作装置を基準とした所定の方向であるかを判定することなく、前記命令ジェスチャーの動作に基づいて、前記命令ジェスチャーが示す命令を認識することができる。この場合、命令ジェスチャーについて動作方向の判定が不要となり、処理負荷が軽減される。 (3) Based on the motion of the command gesture, the processor does not determine whether the motion direction of the command gesture is a predetermined direction with the target operated device as a reference, and the command indicated by the command gesture. Can be recognized. In this case, it is not necessary to determine the motion direction of the command gesture, and the processing load is reduced.
(4)前記プロセッサは、前記ジェスチャーの動作を検出するセンサの検出データに基づいて、前記動作方向を求めるよう更に動作することができる。この場合、動作方法は、センサの検出データに基づいて求められる。 (4) The processor may further operate to obtain the motion direction based on detection data of a sensor that detects the motion of the gesture. In this case, the operation method is obtained based on the detection data of the sensor.
(5)前記センサは、前記被操作装置とは離れて設置されていてもよい。前記プロセッサは、前記検出データに基づいて、前記ジェスチャーの変換前動作方向を求め、前記センサと前記被操作装置との位置関係に基づいて前記変換前動作方向を変換することで、前記動作方向を求めることができる。ここで、前記変換前動作方向は、前記センサを基準とした方向である。前記動作方向は、前記被操作装置を基準とした方向である。この場合、センサと被操作装置離れていても、センサの検出データに基づき、被操作装置を基準とした動作方向を求めることができる。 (5) The sensor may be installed separately from the operated device. The processor obtains the pre-conversion motion direction of the gesture based on the detection data, and converts the motion direction by converting the pre-conversion motion direction based on the positional relationship between the sensor and the operated device. You can ask. Here, the pre-conversion operation direction is a direction based on the sensor. The operation direction is a direction with reference to the operated device. In this case, even if the sensor and the operated device are separated from each other, the operation direction based on the operated device can be obtained based on the detection data of the sensor.
(6)前記動作方向は、前記センサと複数の前記被操作装置それぞれとの位置関係に基づいて、複数の前記被操作装置それぞれを基準とした方向として求められるのが好ましい。この場合、複数の被操作装置それぞれの動作方向が得られる。 (6) It is preferable that the operation direction is obtained based on a positional relationship between the sensor and each of the plurality of operated devices, as a direction with respect to each of the plurality of operated devices. In this case, the operation direction of each of the plurality of operated devices can be obtained.
(7)前記所定方向は、前記被操作装置の位置から前記ジェスチャーが行われた位置へ向かう第1方向を基準とした方向であるのが好ましい。この場合、動作方向が所定方向であるか否かを、動作方向と第1方向との比較により判定できる。 (7) The predetermined direction is preferably a direction based on a first direction from the position of the operated device to the position where the gesture is performed. In this case, it is possible to determine whether or not the operation direction is the predetermined direction by comparing the operation direction and the first direction.
(8)前記プロセッサは、前記ジェスチャーが行われた位置を検出するセンサの検出データに基づいて、前記第1方向を求めるよう更に動作することができる。この場合、第1方向は、センサの検出データに基づいて求められる。 (8) The processor may further operate to obtain the first direction based on detection data of a sensor that detects a position where the gesture is performed. In this case, the first direction is obtained based on the detection data of the sensor.
(9)前記センサは、前記被操作装置とは離れて設置されていてもよい。この場合、前記プロセッサは、前記検出データに基づいて、前記センサから前記ジェスチャーが行われた位置へ向かう変換前第1方向を求めることができる。また、前記プロセッサは、前記センサと前記被操作装置との位置関係に基づいて前記変換前第1方向を変換することで、前記第1方向を求めることができる。この場合、センサと被操作装置とが離れていても、センサの検出データから第1方向を求めることができる。 (9) The sensor may be installed separately from the operated device. In this case, the processor can determine the pre-conversion first direction from the sensor to the position where the gesture is performed, based on the detection data. Further, the processor can obtain the first direction by converting the pre-conversion first direction based on the positional relationship between the sensor and the operated device. In this case, even if the sensor and the operated device are apart from each other, the first direction can be obtained from the detection data of the sensor.
(10)前記第1方向は、前記センサと複数の前記被操作装置それぞれとの位置関係に基づいて、複数の前記被操作装置それぞれから前記ジェスチャーが行われた位置へ向かう方向として求められるのが好ましい。この場合、複数の被操作装置それぞれについての第1方向が得られる。 (10) The first direction is obtained as a direction from each of the plurality of operated devices to the position where the gesture is performed, based on the positional relationship between the sensor and each of the plurality of operated devices. preferable. In this case, the first direction is obtained for each of the plurality of operated devices.
(11)前記プロセッサは、前記対象被操作装置として認識された前記被操作装置をユーザへ通知するよう更に動作するのが好ましい。この場合、ユーザは、対象被操作装置を容易に認識することができる。 (11) The processor preferably further operates to notify the user of the operated device recognized as the target operated device. In this case, the user can easily recognize the target operated device.
(12)前記プロセッサは、前記位置関係の設定処理を実行するよう更に動作することができる。この場合、位置関係の設定が可能となる。 (12) The processor may be further operable to execute the positional relationship setting process. In this case, the positional relationship can be set.
(13)実施形態に係るジェスチャー認識システムは、ユーザのジェスチャーの動作を検出するセンサと、プロセッサと、を備える。プロセッサは、前記センサの検出データに基づいて前記ジェスチャーの動作方向を求め、前記ジェスチャーの動作方向が、被操作装置を基準とした所定方向であるかを判定し、前記ジェスチャーの動作方向が前記所定方向であると判定した場合、前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識するよう動作する。 (13) The gesture recognition system according to the embodiment includes a sensor that detects a gesture motion of a user and a processor. The processor obtains the motion direction of the gesture based on the detection data of the sensor, determines whether the motion direction of the gesture is a predetermined direction based on the operated device, and the motion direction of the gesture is the predetermined direction. When it is determined to be the direction, the operated device is operated so as to be recognized as the target operated device to which the gesture is directed.
(14)実施形態に係るジェスチャー認識システムは、ユーザのジェスチャーの動作を検出するセンサと、複数の被操作装置と、プロセッサと、を備えることができる。前記プロセッサは、前記センサの検出データに基づいて前記ジェスチャーの動作方向を求め、前記ジェスチャーの動作方向が前記被操作装置を基準とした所定方向であるかを、前記複数の被操作装置について判定し、前記ジェスチャーの動作方向が前記所定方向であると判定された前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識するよう動作することができる。 (14) The gesture recognition system according to the embodiment may include a sensor that detects a gesture motion of a user, a plurality of operated devices, and a processor. The processor obtains the motion direction of the gesture based on the detection data of the sensor and determines whether the motion direction of the gesture is a predetermined direction with respect to the operated device, for the plurality of operated devices. It is possible to operate so that the operated device that is determined to have the movement direction of the gesture in the predetermined direction is recognized as the target operated device to which the gesture is directed.
(15)実施形態に係るジェスチャー認識方法は、プロセッサが、ユーザのジェスチャーの動作方向が前記被操作装置を基準とした所定方向であるかを、少なくとも1以上の被操作装置について判定し、前記ジェスチャーの動作方向が前記所定方向であると判定された前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識することを含む。 (15) In the gesture recognition method according to the embodiment, the processor determines, for at least one or more operated devices, whether the operation direction of the user's gesture is a predetermined direction based on the operated device, and the gesture is used. Recognizing the operated device determined to be in the predetermined direction as the target operated device to which the gesture is directed.
(16)実施形態に係るコンピュータプログラムは、ユーザのジェスチャーの動作方向が、前記被操作装置を基準とした所定方向であるかを、少なくとも1以上の被操作装置について判定し、前記ジェスチャーの動作方向が前記所定方向であると判定された前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識する動作をプロセッサに実行させる。コンピュータプログラムは、コンピュータ読み取り可能な、非一時的な記憶媒体に格納される。 (16) The computer program according to the embodiment determines, for at least one or more operated devices, whether or not the operation direction of the user's gesture is a predetermined direction based on the operated device, and the operation direction of the gesture. Causes the processor to execute an operation of recognizing the operated device determined to be in the predetermined direction as the target operated device to which the gesture is directed. The computer program is stored in a computer-readable non-transitory storage medium.
[本開示の実施形態の詳細] [Details of the embodiment of the present disclosure]
図1は、実施形態に係るジェスチャー認識システム10を示している。実施形態のジェスチャー認識システム10は、センサ50及びセンサ50に接続された認識装置15を備える。実施形態の認識装置15は、センサ50により検出されたジェスチャーを認識し、認識したジェスチャーに応じた命令を被操作装置60に実行させる。被操作装置60は、ジェスチャーによる操作が可能な機器であり、例えば、スマート家電、車載装置、又はその他の機器である。被操作装置60は、有線又は無線によって、認識装置15に接続されている。
FIG. 1 shows a
センサ50は、ジェスチャー動作を検出する。実施形態のセンサ50は、センサ50から検出対象までの相対的な距離、検出対象の位置(方位)、及び検出対象の速度を、検出データとして出力する。センサ50は、例えば、ミリ波センサである。ミリ波センサは、周波数変調連続波(FMCW)ミリ波センサであるのが好ましい。FMCWミリ波センサは、検出対象までの相対的な距離、検出対象の位置(方位)、及び検出対象の速度を検出することができる。
The
実施形態のセンサ50は、ジェスチャー動作として、ユーザの手の動作を検出する。手の動作は、片手の動作であってもよいし、両手の動作であってもよい。ジェスチャー動作は、手の動作に限られず、ユーザの他の身体部位の動きであってもよい。
The
実施形態の認識装置15は、センサ50から出力された検出データに基づき、ジェスチャーを行っている手までの距離と位置(方位)、及び速度を監視し、手の動きを追跡する。認識装置15は、手の動きを追跡することで、手が、どの位置で、どのような動作を行っているかを判別することができる。
The
実施形態の認識装置15は、ジェスチャーが、特定の被操作装置60(又は特定のセンサ50)に向けられているのか、他の被操作装置60(又は他のセンサ50)に設けられているのかを判別する機能を有する。認識装置15は、この機能を備えることで、ジェスチャーの動作内容が同じであっても、ジェスチャーが向けられている対象被操作装置60(対象センサ50)を識別することができる。なお、ここでは、一例として、被操作装置60とセンサ50とは一対一であり、両者50,60は非常に近接しており、同じ場所に存在しているものとみなされる。したがって、特定の被操作装置60に向けられたジェスチャーは、その特定の被操作装置60に設けられたセンサ50に向けられているとみなすこともできる。
Whether the gesture is directed to the specific operated device 60 (or the specific sensor 50) or the other operated device 60 (or the other sensor 50) is provided in the
実施形態においては、ジェスチャーとして、事前ジェスチャー(第1ジェスチャー)と命令ジェスチャー(第2ジェスチャー)とが用いられる。事前ジェスチャーは、特定の被操作装置60が、ジェスチャーによる操作の対象である対象被操作装置であることを、認識装置15に認識させるためのジェスチャーである。事前ジェスチャーの動作内容は、複数の被操作装置60について共通でよい。事前ジェスチャーは、例えば、手を左右に振る動作である。事前ジェスチャーは、ジェスチャーによる操作の対象となる対象被操作装置60に向けて行われる。認識装置15は、ジェスチャーの動作方向に基づいて、ジェスチャーが向けられている対象被操作装置60を識別する。
In the embodiment, a pre-gesture (first gesture) and a command gesture (second gesture) are used as gestures. The pre-gesture is a gesture for causing the
ここでは、一例として、図1に示すように、一つの被操作装置60に対して、一つの認識装置15に対して、一つの被操作装置60だけが接続されているものとする。したがって、認識装置15は、事前ジェスチャーが、自装置15に接続された被操作装置60に向けられたものであるか否か、すなわち、自装置15に接続された被操作装置60が対象被操作装置であるか否かを識別する。
Here, as an example, as shown in FIG. 1, it is assumed that only one operated
認識装置15は、事前ジェスチャーによって、自装置15に接続された被操作装置60が対象被操作装置であることを識別すると、対象被操作装置60に対する命令ジェスチャーによる命令を受付可能なモードになる。命令ジェスチャーは、対象被操作装置60に対する命令となるジェスチャーである。事前ジェスチャーが行われても、その事前ジェスチャーが被操作装置60に向けられていなければ、認識装置15は、命令ジェスチャーを受け付けるモードにならない。
When the
ここで、複数の被操作装置60が存在する場合、複数の被操作装置60毎に、事前ジェスチャーの動作内容を異ならせることで、命令ジェスチャーが向けられる被操作装置60を区別することが考えられる。この場合、ユーザは、複数の被操作装置60毎に異なる事前ジェスチャーの動作内容を覚える必要があり、ユーザの負担が大きい。これに対して、本実施形態では、複数の被操作装置60が存在しても、事前ジェスチャーの動作内容自体は共通でよい。事前ジェスチャーが、命令ジェスチャーを与えたい被操作装置60に向けて行われることで、認識装置15は、命令ジェスチャーが与えられるべき被操作装置60を識別することができる。
Here, when there are a plurality of operated
なお、事前ジェスチャーの動作内容は、特に限定されない。事前ジェスチャーの動作内容は、センサ50に向けて手を左右に振る動作のほか、例えば、センサ50に向けて手を上下に振る動作、センサ50に向けて指を指すことを複数回繰り返す動作、両手をセンサ50に向けて広げる動作、センサ50に向けて手を回す動作、又はセンサ50に向けて手を前後に振る動作であってもよい。
The operation content of the pre-gesture is not particularly limited. The operation content of the pre-gesture includes, in addition to the operation of shaking the hand to the left and right toward the
実施形態の認識装置15は、コンピュータによって構成される。図1に示すように、コンピュータは、プロセッサ20及びプロセッサ20に接続されたメモリ30を備える。メモリ30には、コンピュータを認識装置15として機能させるコンピュータプログラム35が格納されている。プロセッサ20は、メモリ30に格納されたコンピュータプログラム35を読み出して実行する。コンピュータプログラム35は、プロセッサ20に、図3に示す認識処理21(後述)を実行させる。なお、実施形態のメモリ30は、一次記憶装置及び二次記憶装置を含む。メモリ30は、三次記憶装置を含んでもよい。
The
認識装置15は、センサ50から出力された検出データを受信する。メモリ30には、受信した検出データ31が格納されている。プロセッサ20は、認識処理21の際に、メモリ30に格納された検出データ31を読み出し、自装置15に接続された被操作装置60が対象被操作装置であるか否かを識別する。
The
図2は、コンピュータプログラム35がプロセッサ20により実行されることにより発揮される機能をブロック図として示している。図2に示すように、認識装置15は、機能ブロックとして、事前ジェスチャーである第1ジェスチャー監視部151と命令ジェスチャーである第2ジェスチャー監視部155とを備える。第1ジェスチャー監視部151及び第2ジェスチャー監視部155は、センサ50の検出データ31から、ジェスチャー動作となるユーザの手の動作を検出する。
FIG. 2 is a block diagram showing functions performed by the
第1ジェスチャー監視部151は、後述の図3におけるステップS101及びS102に相当する。第2ジェスチャー監視部155は、同じ図3におけるステップS107及びS108に相当する。
The first
認識装置15は、機能ブロックとして、判定部152を備える。判定部152は、第1ジェスチャー(事前ジェスチャー)が自装置15向けジェスチャーであるか否かを判定する。判定部152は、後述のように、ジェスチャーの動作方向に基づいて判定する。判定部152が、事前ジェスチャーを自装置15向けジェスチャーであると判定した場合、第2ジェスチャー監視部155が有効になる。判定部152が、事前ジェスチャーを自装置15向けジェスチャーであると判定していない場合、第2ジェスチャー監視部155は無効である。なお、判定部152は、後述の図3におけるステップS103からS105に相当する。
The
認識装置15は、機能ブロックとして、通知装置70に対する通知処理を行う通知部153を備える。通知部153は、事前ジェスチャーによって、被操作装置60が対象被操作装置として認識されたことを、ユーザに通知するための処理を行う。通知装置70は、音、光、画面表示、振動などによって、ユーザへの通知を行う。通知装置70は、被操作装置60に備わっていてもよい。なお、通知部153は、後述の図3におけるステップS106に相当する。
The
認識装置15は、機能ブロックとして、命令実行部156を備える。命令実行部156は、第2ジェスチャー監視部155によって検出された命令ジェスチャーの動作内容を識別し、動作内容が示す命令を、被操作装置60に与える。なお、命令実行部156は、後述の図3におけるステップS109に相当する。
The
図3は、コンピュータプログラム35に従って認識装置15において実行される認識処理21の手順を示している。ステップS101において、プロセッサ20は、センサ50の検出データ31に基づき、ユーザの手の動きを検出し、事前ジェスチャーを監視する。事前ジェスチャー監視は、事前ジェスチャーが行われるまで継続される。なお、事前ジェスチャーの監視中は、命令ジェスチャーの監視は行われない。
FIG. 3 shows a procedure of the
ユーザが、事前ジェスチャーとして設定された動作を行うと、プロセッサ20は、事前ジェスチャーが行われたことを検出する(ステップS102においてYes)。事前ジェスチャーが行われたことの検出は、例えば、事前ジェスチャー動作内容を認識するための機械学習済みモデルを用いて行うことができる。
When the user performs the action set as the pre-gesture, the
プロセッサ20は、検出された事前ジェスチャーが、自装置15に接続された被操作装置60(又はセンサ50)に向けられたものであるかを判定する(ステップS103からステップS105)。判定は、事前ジェスチャーの動作方向(例えば、手を振る方向)が、被操作装置60を基準とした所定方向であるか否かを識別することによって行われる。ここでは、一例として、図4に示すように、被操作装置60からジェスチャーが行われた位置へ向かう第1ベクトル(第1方向)V1が、手を振る方向(動作方向)の第2ベクトルV2と直交するかどうかによって判定される。所定方向は、第1ベクトルV1と直交する方向に限られず、例えば、第1ベクトルV1に対して直交以外の所定角度で交差する方向であってもよいし、第1ベクトルV1に対して平行な方向であってもよい。
The
直交するかどうかの判定において、プロセッサ20は、第1ジェスチャー(事前ジェスチャー)が行われた位置(第1ジェスチャー位置)を示す検出データから、被操作装置60(センサ50)から第1ジェスチャー位置へ向かう第1ベクトルV1を計算する(ステップS103)。ここで、被操作装置60は、センサ50と同じ位置にあるものとみなされる。
In determining whether they are orthogonal to each other, the
プロセッサ20は、手を振る動作を追跡した検出データから、手を振る動作の動作方向を示す第2ベクトルV2を計算する(ステップS104)。そして、プロセッサ20は、第1ベクトルV1と第2ベクトルV2とが直交しているか否かを判定する(ステップS105)。
The
直交している場合(ステップS105においてYes)、プロセッサ20は、事前ジェスチャーが自装置15に接続された被操作装置60に向けられたものであると判断する。すなわち、プロセッサ20は、自装置15に接続された被操作装置60を、ジェスチャーが向けられた対象被操作装置として認識する。この場合、プロセッサ20は、第2ジェスチャー監視部155としての機能を有効化し、その後に行われるジェスチャーを、自装置15に接続された被操作装置60に向けられた命令ジェスチャーとして受付可能になる。また、プロセッサ20は、自装置15に接続された被操作装置60を、ジェスチャーが向けられた対象被操作装置として認識したことをユーザに通知する(ステップS106)。通知は、通知装置70から、音、光等を出力させることによって行われる。通知により、ユーザは、被操作装置60に対して命令ジェスチャーによる命令が行える状態であることを認識することができる。
If they are orthogonal (Yes in step S105), the
直交していない場合(ステップS105においてNo)、プロセッサ20は、事前ジェスチャーは、自装置15に接続された被操作装置60に向けられたものではないと判断し、ステップS101に戻る。この場合、第2ジェスチャー監視部155としての機能は無効のまであり、その後に命令ジェスチャーが行われたとしても、プロセッサ20はその命令ジェスチャーに対する動作をしない。
If they are not orthogonal to each other (No in step S105), the
例えば、図4に示すように、第1ジェスチャー認識システム10A及び第2ジェスチャー認識システム10Bが存在しているものとする。初期状態において、両システム10A,10Bの認識装置15は、いずれも、第1ジェスチャー監視モードM1にある。第1ジェスチャー監視モードM1では、第1ジェスチャーである事前ジェスチャーを監視し、第2ジェスチャーである命令ジェスチャーを監視しない。つまり、第1ジェスチャー監視モードM1では、第1ジェスチャー監視部151の機能が有効であり、第2ジェスチャー監視部155の機能が無効である。
For example, as shown in FIG. 4, it is assumed that the first
この状態において、ユーザ100は、第1ジェスチャー認識システム10Aの被操作装置(電球)60又はセンサ50に向かって(正対して)、事前ジェスチャーを行ったものとする。この場合、第1ジェスチャー認識システム10Aのセンサ50(被操作装置60)から第1ジェスチャー位置へ向かう第1ベクトルV1は、手を振る方向の第2ベクトルV2と直交する。したがって、第1ジェスチャー認識システム10Aの認識装置15は、自装置15に接続された被操作装置60を、第1ジェスチャーが向けられた対象被操作装置として認識する。また、第1ジェスチャー認識システム10Aの認識装置15は、自装置15に接続された通知装置70を動作させ、ステップS106の通知を行う。
In this state, it is assumed that the
一方、第2ジェスチャー認識システム10Bのセンサ50(被操作装置60)から第1ジェスチャー位置へ向かう第1ベクトルV1は、手を振る方向の第2ベクトルV2とは直交しない。したがって、第2ジェスチャー認識システム10Bの認識装置15は、自装置15に接続された被操作装置60を、第1ジェスチャーが向けられた対象被操作装置としては認識しない。
On the other hand, the first vector V1 from the sensor 50 (operated device 60) of the second
したがって、図5に示すように、事前ジェスチャーが行われた後、第2ジェスチャー認識システム10Bの認識装置15は、第1ジェスチャー監視モードM1のままである一方、第1ジェスチャー認識システム10Aの認識装置15は、第2ジェスチャー監視モードM2になる。第2ジェスチャー監視モードM2では、第2ジェスチャーである命令ジェスチャーが監視される。つまり、第2ジェスチャー監視モードM2では、第2ジェスチャー監視部155の機能が有効であり、第1ジェスチャー監視部151の機能が無効である。第2ジェスチャー認識システム10Bの認識装置15は、第1ジェスチャー監視モードM1のままであるため、第1ジェスチャー認識システム10Aに向けて行われた命令ジェスチャーによる誤動作が防止される。
Therefore, as shown in FIG. 5, after the pre-gesture is performed, the
第2ジェスチャー監視モードM2になった第1ジェスチャー認識システム10Aの認識装置15は、第1ジェスチャー位置付近で行われる第2ジェスチャー(命令ジェスチャー)を監視する(図3のステップS107)。図5に示すように、第1ジェスチャー位置付近の所定範囲が、命令ジェスチャーの実行可能範囲200である。実行可能範囲200は、事前ジェスチャーが行われた位置を示す検出データ31に基づき設定される。実行可能範囲200は、例えば、第1ジェスチャー位置を中心とする所定半径の領域である。プロセッサ20は、実行可能範囲200内で行われるジェスチャーだけを監視し、実行可能範囲200外で行われたジェスチャーは命令ジェスチャーとして認識しない。
The
ユーザが、実行可能範囲200内において、命令ジェスチャーとして設定された動作を行うと、第2ジェスチャー監視モードM2になっているプロセッサ20は、命令ジェスチャーが行われたことを検出する(ステップS108においてYes)。この場合、プロセッサ20は、命令ジェスチャーの動作内容に応じた命令内容を認識し、その命令を被操作装置60に与える(ステップS109)。命令は、例えば、電球である被操作装置60の点灯命令である。点灯命令が与えられると、電球である被操作装置60は点灯する。プロセッサ20は、命令実行をすると、第1ジェスチャー監視モードM1に戻る。
When the user performs the operation set as the command gesture in the executable range 200, the
実施形態においては、プロセッサ20は、命令ジェスチャーの動作を検出するだけであり、事前ベクトルに対してステップS103からステップS105で行われたような動作方向の判定は行わない。命令ジェスチャーの動作の検出は、例えば、ジェスチャー動作内容を認識するための機械学習済みモデルを用いて行われる。機械学習済みモデルを用いて、命令ジェスチャーを検出する場合、十分に学習されていれば、ジェスチャーが対象被操作装置60に向けられていなくても、すなわち、動作方向が所定方向でなくても、命令ジェスチャーを検出することができる。したがって、ユーザは、命令ジェスチャー実施時には、対象被操作装置60に正対している必要がなく、ユーザの自由度が高まる。
In the embodiment, the
プロセッサ20は、第2ジェスチャー監視モードM2になってから所定時間内に命令ジェスチャーを検出しない場合、第2ジェスチャー監視モードM2を終了し、第1ジェスチャー監視モードM1に戻る(ステップS110)。
When the
図6は、他の実施形態に係るジェスチャー認識システム10Cを示している。なお、他の実施形態において、特に説明しない点については、図1から図5に基づく説明が援用される。 FIG. 6 shows a gesture recognition system 10C according to another embodiment. Note that, in the other embodiments, the description based on FIGS. 1 to 5 is applied to the points that are not particularly described.
図6では、被操作装置61,62とセンサ50とが離れている。より具体的には、一つの認識装置15に対して、複数の被操作装置61,62が接続されている。複数の被操作装置61,62は互いに離れた位置に設置されている。また、認識装置15に接続されたセンサ50は、被操作装置61に向けられたジェスチャーと、被操作装置62に向けられたジェスチャーと、を検出することができる位置に設置されている。センサ50と複数の被操作装置61,62それぞれとの相対的位置関係は、認識装置15にとって既知である。
In FIG. 6, the operated
センサ50が、被操作装置61,62とは離れて設置されているため、図6に示す認識装置15は、センサ50と被操作装置61,62との位置関係に基づく変換を行って、事前ジェスチャーが、複数の被操作装置61,62のうちのいずれに向けられたものであるかを判定する。これにより、複数の被操作装置61,62に対するジェスチャー操作を、一つの認識装置15によって処理することが可能となる。図6に示すように、メモリ30には、センサ50と被操作装置61,62との位置関係に基づく変換を行いために参照される変換用参照データ33が格納されている。また、プロセッサ20は、変換用参照データ33の設定のための設定処理23(後述)を、コンピュータプログラム35に従って実行することができる。
Since the
図7は、図6に示す他の実施形態に係る認識装置15において、コンピュータプログラム35がプロセッサ20により実行されることにより発揮される機能をブロック図として示している。図7では、図2に示す機能ブロックに加えて、座標変換部157を備えている。また、図7では、第1被操作装置61に対するジェスチャー認識のための第1処理部161と、第2被操作装置62に対するジェスチャー認識のための第2処理部162と、を備えている。
FIG. 7 is a block diagram showing functions exhibited by the
第1処理部161は、図2に示す機能ブロックに加えて、座標変換部157を備えており、第1被操作装置61のための認識処理21を実行する。第2処理部162は、第1処理部161と同様の構成であり、第2被操作装置62のための認識処理21を実行する。
The
図8は、第1処理部161及び第2処理部162それぞれで実行される認識処理21を示している。ただし、以下では、理解の容易のため、第1処理部161において実行される認識処理21を例として説明する。ステップS101において、プロセッサ20は、プロセッサ20は、センサ50の検出データ31に基づき、ユーザの手の動きを検出し、事前ジェスチャーを監視する。
FIG. 8 shows the
ユーザが、事前ジェスチャーとして設定された動作を行うと、プロセッサ20は、事前ジェスチャーが行われたことを検出する(ステップS102においてYes)。
When the user performs the action set as the pre-gesture, the
プロセッサ20は、検出された事前ジェスチャーが、自装置15に接続された被操作装置60(又はセンサ50)に向けられたものであるかを判定する(ステップS103からステップS105)。具体的には、プロセッサ20は、変換前第1ベクトルV11を計算する(ステップS103)。変換前第1ベクトルV11は、第1ジェスチャー(事前ジェスチャー)が行われた位置(第1ジェスチャー位置)を示す検出データから計算される。図9に示すように、変換前第1ベクトルV11は、センサ50から第1ジェスチャー位置へ向かうベクトルである。変換前第1ベクトルV11は、例えば、センサ50の位置を原点とするセンサ座標系におけるベクトルとして表される。
The
プロセッサ20は、変換前第2ベクトルV22を計算する(ステップS104)。変換前第2ベクトルV22は、手を振る動作を追跡した検出データから計算される。図9に示すように、変換前第2ベクトルV22は、センサ50を基準とした場合の、手を振る動作の動作方向(変換前動作方向)を示す。変換前第2ベクトルV22は、例えば、センサ50の位置を原点とするセンサ座標系におけるベクトルとして表される。
The
プロセッサ20は、変換前第1ベクトルV11及び変換前第2ベクトルV22を、変換用参照データ33を用いて変換し、第1ベクトルV1及び第2ベクトルV2を得る(ステップS104−1,S104−2)。
The
ステップS104−1では、センサ50と被操作装置61との相対位置関係に基づき、センサ座標系から被操作装置座標系への変換が行われる。被操作装置座標系は、被操作装置61の位置を原点とする座標系である。
In step S104-1, conversion from the sensor coordinate system to the operated device coordinate system is performed based on the relative positional relationship between the
ステップS104−2では、センサ50と被操作装置61との相対位置関係に基づき、被操作装置座標系の変換前第1ベクトルV11及び変換前第2ベクトルV22を回転させ、第1ベクトルV1及び第2ベクトルV2が得られる。第1ベクトルV1は、被操作装置61から第1ジェスチャー位置へ向かうベクトルである。第2ベクトルV2は、被操作装置61を基準とした場合の、手を振る動作の動作方向を示す。
In step S104-2, the pre-conversion first vector V11 and the pre-conversion second vector V22 of the coordinate system of the operated device are rotated based on the relative positional relationship between the
そして、プロセッサ20は、第1ベクトルV1と第2ベクトルV2とが直交しているか否かを判定する(ステップS105)。
Then, the
直交している場合(ステップS105においてYes)、プロセッサ20は、事前ジェスチャーが自装置15に接続された被操作装置60に向けられたものであると判断する。また、プロセッサ20は、自装置15に接続された被操作装置60を、ジェスチャーが向けられた対象被操作装置として認識したことをユーザに通知する(ステップS106)。
If they are orthogonal (Yes in step S105), the
直交していない場合(ステップS105においてNo)、プロセッサ20は、事前ジェスチャーは、自装置15に接続された被操作装置60に向けられたものではないと判断し、ステップS101に戻る。
If they are not orthogonal to each other (No in step S105), the
図8において、ステップS106以降の処理は、図示されていないが、図3と同様である。すなわち、図8に示すステップS106の次には、図3に示すステップS107以降の処理が実行される。 Although not shown in FIG. 8, the process after step S106 is the same as that in FIG. That is, after the step S106 shown in FIG. 8, the processing after the step S107 shown in FIG. 3 is executed.
図10は、ベクトル変換に用いられる変換用参照データ33の設定処理23の実施の説明図である。ここでは、第1被操作装置61としてのテレビ用の変換用参照データ33の設定について説明する。プロセッサ20は、設定処理23のため、テレビ61の画面等に、ユーザ100に対して、事前ジェスチャーとなる動作を指示する表示を行わせる。図10では、一例として「テレビ正面で手を振ってください」旨の表示がなされている。ユーザ100が、動作の指示に従って、テレビ61の正面で手を振った場合、テレビ61からジェスチャー位置に向かうベクトルと手を振る方向とは直交しているはずである。認識装置15は、ユーザ100が手を振っているときにおいて、センサ50の検出データに基づいて、センサ50からジェスチャー位置に向かう学習第1ベクトルV111と、センサ50を基準とした手を振る方向を示す学習第2ベクトルV222と、を計算する。プロセッサ20は、学習第1ベクトルV111と学習第2ベクトルV222とから、変換用参照データ33を計算し、メモリ30に保存する。保存された変換用参照データ33は、事前ジェスチャーの認識に用いられる。
FIG. 10 is an explanatory diagram of the implementation of the
[付記] [Appendix]
なお、今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味、及び範囲内でのすべての変更が含まれることが意図される。 It should be understood that the embodiments disclosed this time are exemplifications in all points and not restrictive. The scope of the present invention is shown not by the above meaning but by the scope of the claims, and is intended to include meanings equivalent to the scope of the claims and all modifications within the scope.
10 :ジェスチャー認識システム
10A :第1ジェスチャー認識システム
10B :第2ジェスチャー認識システム
10C :ジェスチャー認識システム
15 :認識装置
20 :プロセッサ
21 :認識処理
23 :設定処理
30 :メモリ
31 :検出データ
33 :変換用参照データ
35 :コンピュータプログラム
50 :センサ
60 :被操作装置
61 :第1被操作装置
62 :第2被操作装置
70 :通知装置
100 :ユーザ
151 :第1ジェスチャー監視部
152 :判定部
153 :通知部
155 :第2ジェスチャー監視部
156 :命令実行部
157 :座標変換部
161 :第1処理部
162 :第2処理部
200 :実行可能範囲
M1 :第1ジェスチャー監視モード
M2 :第2ジェスチャー監視モード
10:
Claims (16)
を備えるジェスチャー認識装置。 For at least one or more operated devices, it is determined whether the operation direction of the user's gesture is a predetermined direction based on the operated device, and the operation direction of the gesture is determined to be the predetermined direction. A gesture recognition device comprising a processor that operates to recognize an operation device as a target operated device to which the gesture is directed.
請求項1に記載のジェスチャー認識装置。 The gesture recognition device according to claim 1, wherein the processor further operates to recognize a gesture performed after recognizing the operated device as the target operated device as a command gesture for the target operated device.
請求項2に記載のジェスチャー認識装置。 The processor recognizes the command indicated by the command gesture based on the motion of the command gesture without determining whether the motion direction of the command gesture is a predetermined direction with respect to the target operated device. The gesture recognition device according to claim 2.
請求項1から3のいずれか1項に記載のジェスチャー認識装置。 The gesture recognition device according to claim 1, wherein the processor further operates to obtain the movement direction based on detection data of a sensor that detects the movement of the gesture.
前記プロセッサは、
前記検出データに基づいて、前記ジェスチャーの変換前動作方向を求め、
前記センサと前記被操作装置との位置関係に基づいて前記変換前動作方向を変換することで、前記動作方向を求め、
前記変換前動作方向は、前記センサを基準とした方向であり、
前記動作方向は、前記被操作装置を基準とした方向である
請求項4に記載のジェスチャー認識装置。 The sensor is installed separately from the operated device,
The processor is
Based on the detection data, the pre-conversion motion direction of the gesture is obtained,
By converting the pre-conversion operation direction based on the positional relationship between the sensor and the operated device, the operation direction is obtained,
The pre-conversion operation direction is a direction with respect to the sensor,
The gesture recognition device according to claim 4, wherein the operation direction is a direction with respect to the operated device as a reference.
請求項5に記載のジェスチャー認識装置。 The gesture recognition device according to claim 5, wherein the movement direction is obtained as a direction with respect to each of the plurality of operated devices, based on a positional relationship between the sensor and each of the plurality of operated devices.
請求項1から6のいずれか1項に記載のジェスチャー認識装置。 The gesture recognition device according to claim 1, wherein the predetermined direction is a direction based on a first direction from a position of the operated device to a position where the gesture is performed.
請求項7に記載のジェスチャー認識装置。 The gesture recognition device according to claim 7, wherein the processor further operates to obtain the first direction based on detection data of a sensor that detects a position where the gesture is performed.
前記プロセッサは、
前記検出データに基づいて、前記センサから前記ジェスチャーが行われた位置へ向かう変換前第1方向を求め、
前記センサと前記被操作装置との位置関係に基づいて前記変換前第1方向を変換することで、前記第1方向を求める
請求項8に記載のジェスチャー認識装置。 The sensor is installed separately from the operated device,
The processor is
Based on the detection data, a pre-conversion first direction from the sensor to the position where the gesture is performed is obtained,
The gesture recognition device according to claim 8, wherein the first direction is obtained by converting the pre-conversion first direction based on a positional relationship between the sensor and the operated device.
請求項9に記載のジェスチャー認識装置。 The said 1st direction is calculated|required as a direction which goes to the position where the said gesture was performed from each of these to-be-operated devices based on the positional relationship of the said sensor and each of these to-be-operated devices. Gesture recognizer.
請求項1から10のいずれか1項に記載のジェスチャー認識装置。 The gesture recognition device according to claim 1, wherein the processor further operates to notify a user of the operated device recognized as the target operated device.
請求項5,6,9,及び10のいずれか1項に記載のジェスチャー認識装置。 The gesture recognition device according to any one of claims 5, 6, 9, and 10, wherein the processor further operates to execute the setting process of the positional relationship.
前記センサの検出データに基づいて前記ジェスチャーの動作方向を求め、前記ジェスチャーの動作方向が、被操作装置を基準とした所定方向であるかを判定し、前記ジェスチャーの動作方向が前記所定方向であると判定した場合、前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識するよう動作するプロセッサと、
を備えるジェスチャー認識システム。 A sensor that detects the motion of the user's gesture,
The motion direction of the gesture is obtained based on the detection data of the sensor, it is determined whether the motion direction of the gesture is a predetermined direction with reference to the operated device, and the motion direction of the gesture is the predetermined direction. When it is determined that the operated device, a processor that operates to recognize the operated device as a target operated device to which the gesture is directed,
Gesture recognition system with.
複数の被操作装置と、
プロセッサと、
を備え、
前記プロセッサは、
前記センサの検出データに基づいて前記ジェスチャーの動作方向を求め、
前記ジェスチャーの動作方向が前記被操作装置を基準とした所定方向であるかを、前記複数の被操作装置について判定し、
前記ジェスチャーの動作方向が前記所定方向であると判定された前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識するよう動作する
ジェスチャー認識システム。 A sensor that detects the motion of the user's gesture,
A plurality of operated devices,
A processor,
Equipped with
The processor is
Obtaining the motion direction of the gesture based on the detection data of the sensor,
For the plurality of operated devices, it is determined whether the movement direction of the gesture is a predetermined direction based on the operated device,
A gesture recognition system that operates to recognize the operated device that is determined to have the movement direction of the gesture as the predetermined direction, as a target operated device to which the gesture is directed.
ことを含むジェスチャー認識方法。 The processor determines, for at least one or more operated devices, whether the operation direction of the user's gesture is a predetermined direction with respect to the operated device, and the operation direction of the gesture is determined to be the predetermined direction. A gesture recognition method, comprising recognizing the operated device as a target operated device to which the gesture is directed.
It is determined for at least one or more operated devices whether the operation direction of the gesture of the user is a predetermined direction with reference to the operated device, and the operation direction of the gesture is determined to be the predetermined direction. A computer program for causing a processor to perform an operation of recognizing an operated device as a target operated device to which the gesture is directed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019007293A JP2020119042A (en) | 2019-01-18 | 2019-01-18 | Gesture recognition device, gesture recognition system, gesture recognition method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019007293A JP2020119042A (en) | 2019-01-18 | 2019-01-18 | Gesture recognition device, gesture recognition system, gesture recognition method, and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020119042A true JP2020119042A (en) | 2020-08-06 |
Family
ID=71890761
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019007293A Pending JP2020119042A (en) | 2019-01-18 | 2019-01-18 | Gesture recognition device, gesture recognition system, gesture recognition method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020119042A (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009037434A (en) * | 2007-08-02 | 2009-02-19 | Tokyo Metropolitan Univ | Control equipment operation gesture recognition device; control equipment operation gesture recognition system, and control equipment operation gesture recognition program |
JP2017073256A (en) * | 2015-10-06 | 2017-04-13 | パナソニックIpマネジメント株式会社 | Illumination control device and illumination system |
-
2019
- 2019-01-18 JP JP2019007293A patent/JP2020119042A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009037434A (en) * | 2007-08-02 | 2009-02-19 | Tokyo Metropolitan Univ | Control equipment operation gesture recognition device; control equipment operation gesture recognition system, and control equipment operation gesture recognition program |
JP2017073256A (en) * | 2015-10-06 | 2017-04-13 | パナソニックIpマネジメント株式会社 | Illumination control device and illumination system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102185166B1 (en) | Electronic device and method for recognizing biometrics information | |
EP2991370B1 (en) | Wearable electronic device | |
AU2013200054B2 (en) | Touch free operation of devices by use of depth sensors | |
KR102090750B1 (en) | Electronic device and method for recognizing fingerprint | |
WO2017069176A1 (en) | Line-of-sight input device, line-of-sight input method, and line-of-sight input program | |
CN106605187B (en) | Information processing apparatus, information processing method, and program | |
EP3062208B1 (en) | Electronic device and control method thereof | |
JP6921193B2 (en) | Game programs, information processing devices, information processing systems, and game processing methods | |
US8937608B2 (en) | Touch panel system, electronic information device, and method for detecting indicator position | |
JP2016521894A (en) | System and method for performing device actions based on detected gestures | |
US20170052632A1 (en) | Information processing apparatus, method for controlling the same, and storage medium | |
EP3040252B1 (en) | Steering wheel control system | |
US9665238B2 (en) | Input control device, thin-client system, input control method, and recording medium | |
US9552073B2 (en) | Electronic device | |
CN105260022A (en) | Gesture-based screen capture control method and apparatus | |
US10019919B2 (en) | Processing apparatus, command generation method and storage medium | |
US20150077331A1 (en) | Display control device, display control method, and program | |
JP2020119042A (en) | Gesture recognition device, gesture recognition system, gesture recognition method, and computer program | |
JP5812582B2 (en) | Information processing apparatus and information processing method | |
US9536526B2 (en) | Electronic device with speaker identification, method and storage medium | |
US20190095093A1 (en) | Information processing apparatus, information processing method, and computer readable medium | |
EP3779645A1 (en) | Electronic device determining method and system, computer system, and readable storage medium | |
AU2015309688B2 (en) | Methods and systems for positioning and controlling sound images in three-dimensional space | |
CN107066193B (en) | Vehicle audio main unit and operation method thereof | |
EP4369167A1 (en) | Method and device for moving application by using handle part |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210721 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20220422 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220727 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221206 |