JP2020119042A - Gesture recognition device, gesture recognition system, gesture recognition method, and computer program - Google Patents

Gesture recognition device, gesture recognition system, gesture recognition method, and computer program Download PDF

Info

Publication number
JP2020119042A
JP2020119042A JP2019007293A JP2019007293A JP2020119042A JP 2020119042 A JP2020119042 A JP 2020119042A JP 2019007293 A JP2019007293 A JP 2019007293A JP 2019007293 A JP2019007293 A JP 2019007293A JP 2020119042 A JP2020119042 A JP 2020119042A
Authority
JP
Japan
Prior art keywords
gesture
operated device
operated
sensor
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019007293A
Other languages
Japanese (ja)
Inventor
東田 宣男
Norio Higashida
宣男 東田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2019007293A priority Critical patent/JP2020119042A/en
Publication of JP2020119042A publication Critical patent/JP2020119042A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To prevent a malfunction of other devices while suppressing a load on a user in a gesture operation.SOLUTION: A gesture recognition device 15 of a disclosure includes a processor 20 which determines whether a motion direction V2 of a gesture of a user is a prescribed direction with an operation object device 60 as a reference for at least one or more operation object devices 60, and operates so as to recognize the operation object device 60 in which the motion direction V2 of the gesture is determined to be the prescribed direction as a gesture directed operation object device.SELECTED DRAWING: Figure 1

Description

本開示は、ジェスチャー認識装置、ジェスチャー認識システム、ジェスチャー認識方法、及びコンピュータプログラムに関する。 The present disclosure relates to a gesture recognition device, a gesture recognition system, a gesture recognition method, and a computer program.

特許文献1は、ジェスチャーによる操作入力装置を開示している。 Patent Document 1 discloses a gesture-based operation input device.

特開2009−104297号公報JP, 2009-104297, A

ジェスチャーによる命令を受け付ける装置においては、意図しない誤動作を抑制することが望まれる。特に、ある装置へ向けられたジェスチャーによって、他の装置が誤動作することを防止することが望まれる。他の装置の誤動作を防止するには、命令となるジェスチャー装置毎に異ならせることが考えられる。しかし、この場合、ユーザは装置毎のジェスチャーを覚える必要があり、ユーザの負担が大きい。したがって、ジェスチャー操作において、ユーザの負担を大きくすることなく、他の装置の誤動作を防止することが望まれる。 In a device that receives a command by a gesture, it is desired to suppress unintended malfunction. In particular, it is desired to prevent a gesture directed to one device from causing another device to malfunction. In order to prevent erroneous operation of other devices, it is conceivable to make them different for each gesture device that gives a command. However, in this case, the user needs to learn the gesture for each device, which imposes a heavy burden on the user. Therefore, in gesture operation, it is desired to prevent malfunction of other devices without increasing the burden on the user.

ここで、特許文献1は、ジェスチャーによる操作対象の数が増えた場合に対処するため、手の操作を判定し、判定操作に基づいて選択したメニューを表示する技術を開示している。しかし、特許文献1の技術では、メニューの表示が必要となる。したがって、特許文献1の技術のようなアプローチをとることなく、ユーザの負担を抑えつつ、他の装置の誤動作を防止することが望まれる。 Here, Patent Document 1 discloses a technique of determining the operation of a hand and displaying a menu selected based on the determination operation in order to deal with the case where the number of operation targets by the gesture increases. However, the technique of Patent Document 1 requires the display of the menu. Therefore, it is desired to prevent malfunction of other devices while reducing the burden on the user without taking the approach of the technique of Patent Document 1.

本開示のある側面は、ジェスチャー認識装置である。開示のジェスチャー認識装置は、ユーザのジェスチャーの動作方向が、前記被操作装置を基準とした所定方向であるかを、少なくとも1以上の被操作装置について判定し、前記ジェスチャーの動作方向が前記所定方向であると判定された前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識するよう動作するプロセッサを備える。 One aspect of the present disclosure is a gesture recognition device. The disclosed gesture recognition device determines, for at least one or more operated devices, whether or not the motion direction of the user's gesture is a predetermined direction with respect to the operated device, and the motion direction of the gesture is the predetermined direction. And a processor operable to recognize the operated device determined to be the target operated device to which the gesture is directed.

本開示の他の側面は、ジェスチャー認識システムである。開示のジェスチャー認識システムは、ユーザのジェスチャーの動作を検出するセンサと、前記センサの検出データに基づいて前記ジェスチャーの動作方向を求め、前記ジェスチャーの動作方向が、被操作装置を基準とした所定方向であるかを判定し、前記ジェスチャーの動作方向が前記所定方向であると判定した場合、前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識するよう動作するプロセッサと、を備える。 Another aspect of the disclosure is a gesture recognition system. A gesture recognition system disclosed discloses a sensor for detecting a gesture motion of a user and a motion direction of the gesture based on detection data of the sensor, and the motion direction of the gesture is a predetermined direction based on the operated device. And a processor that operates to recognize the operated device as the target operated device to which the gesture is directed when it is determined that the operation direction of the gesture is the predetermined direction. ..

開示のジェスチャー認識システムは、ユーザのジェスチャーの動作を検出するセンサと、複数の被操作装置と、プロセッサと、を備えることもできる。前記プロセッサは、前記センサの検出データに基づいて前記ジェスチャーの動作方向を求め、前記ジェスチャーの動作方向が前記被操作装置を基準とした所定方向であるかを、前記複数の被操作装置について判定し、前記ジェスチャーの動作方向が前記所定方向であると判定された前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識するよう動作する。 The disclosed gesture recognition system can also include a sensor that detects a gesture motion of a user, a plurality of operated devices, and a processor. The processor obtains the motion direction of the gesture based on the detection data of the sensor and determines whether the motion direction of the gesture is a predetermined direction with respect to the operated device, for the plurality of operated devices. The operation device is operated so as to recognize the operated device that is determined to have the movement direction of the gesture as the predetermined direction, as the target operated device to which the gesture is directed.

本開示の他の側面は、ジェスチャー認識方法である。開示の方法は、プロセッサが、ユーザのジェスチャーの動作方向が前記被操作装置を基準とした所定方向であるかを、少なくとも1以上の被操作装置について判定し、前記ジェスチャーの動作方向が前記所定方向であると判定された前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識することを含む。 Another aspect of the present disclosure is a gesture recognition method. In the disclosed method, the processor determines, for at least one or more operated devices, whether the motion direction of the user's gesture is a predetermined direction with respect to the operated device, and the motion direction of the gesture is the predetermined direction. Recognizing the operated device determined to be the target operated device to which the gesture is directed.

本開示の他の側面は、コンピュータプログラムである。開示のコンピュータプログラムは、ユーザのジェスチャーの動作方向が、前記被操作装置を基準とした所定方向であるかを、少なくとも1以上の被操作装置について判定し、前記ジェスチャーの動作方向が前記所定方向であると判定された前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識する動作をプロセッサに実行させる。 Another aspect of the disclosure is a computer program. The disclosed computer program determines, for at least one or more operated devices, whether the motion direction of the user's gesture is a predetermined direction with respect to the operated device, and the motion direction of the gesture is the predetermined direction. The processor is caused to execute the operation of recognizing the operated device determined to be the target operated device to which the gesture is directed.

本開示によれば、ユーザの負担を抑えつつ、他の被操作装置の誤動作を防止できる。 According to the present disclosure, it is possible to prevent a malfunction of another operated device while reducing the burden on the user.

図1は、ジェスチャー認識システムのハードウェア構成図である。FIG. 1 is a hardware configuration diagram of a gesture recognition system. 図2は、ジェスチャー認識システムの機能ブロック図である。FIG. 2 is a functional block diagram of the gesture recognition system. 図3は、認識処理のフローチャートである。FIG. 3 is a flowchart of the recognition process. 図4は、事前ジェスチャー認識の説明図である。FIG. 4 is an explanatory diagram of pre-gesture recognition. 図5は、命令ジェスチャー認識の説明図である。FIG. 5 is an explanatory diagram of command gesture recognition. 図6は、他の実施形態に係るジェスチャー認識システムのハードウェア構成図である。FIG. 6 is a hardware configuration diagram of a gesture recognition system according to another embodiment. 図7は、他の実施形態に係るジェスチャー認識システムの機能ブロック図である。FIG. 7 is a functional block diagram of a gesture recognition system according to another embodiment. 図8は、他の実施形態に係る認識処理のフローチャートである。FIG. 8 is a flowchart of the recognition process according to another embodiment. 図9は、他の実施形態における事前ジェスチャー認識の説明図である。FIG. 9 is an explanatory diagram of pre-gesture recognition in another embodiment. 図10は、設定処理の説明図である。FIG. 10 is an explanatory diagram of the setting process.

[本開示の実施形態の説明] [Description of Embodiments of the Present Disclosure]

(1)実施形態に係るジェスチャー認識装置は、プロセッサを備える。プロセッサは、ユーザのジェスチャーの動作方向が、前記被操作装置を基準とした所定方向であるかを、少なくとも1以上の被操作装置について判定するよう動作する。プロセッサは、前記ジェスチャーの動作方向が前記所定方向であると判定された前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識するよう動作する。同じジェスチャーであっても、異なる位置に設置された被操作装置それぞれを基準とすると、ジェスチャーの動作方向は異なる。したがって、ジェスチャー動作方向が、被操作装置を基準とした所定方向であるか否かによって、ジェスチャーがどの被操作装置に向けられたものであるかを識別することができ、ジェスチャーが向けられていない被操作装置の誤動作を防止できる。しかも、複数の被操作装置に対するジェスチャーは共通のものでよく、ユーザの負担を抑えることができる。 (1) The gesture recognition device according to the embodiment includes a processor. The processor operates to determine, for at least one or more operated devices, whether or not the operation direction of the gesture of the user is a predetermined direction based on the operated device. The processor operates so as to recognize the operated device that is determined to have the operation direction of the gesture as the predetermined direction, as the target operated device to which the gesture is directed. Even if the same gesture is used, the movement directions of the gestures are different when the operated devices installed at different positions are used as references. Therefore, depending on whether or not the gesture operation direction is the predetermined direction with respect to the operated device, it is possible to identify which operated device the gesture is directed to, and the gesture is not directed. A malfunction of the operated device can be prevented. Moreover, the gestures for the plurality of operated devices may be the same, which can reduce the burden on the user.

(2)前記プロセッサは、前記被操作装置を前記対象被操作装置として認識した後に行われたジェスチャーを、前記対象操作装置に対する命令ジェスチャーとして認識するよう更に動作することができる。この場合、命令ジェスチャーは、対象被操作装置だけが認識することになる。 (2) The processor may further operate to recognize a gesture performed after recognizing the operated device as the target operated device as a command gesture for the target operated device. In this case, only the target operated device recognizes the command gesture.

(3)前記プロセッサは、前記命令ジェスチャーの動作方向が前記対象被操作装置を基準とした所定の方向であるかを判定することなく、前記命令ジェスチャーの動作に基づいて、前記命令ジェスチャーが示す命令を認識することができる。この場合、命令ジェスチャーについて動作方向の判定が不要となり、処理負荷が軽減される。 (3) Based on the motion of the command gesture, the processor does not determine whether the motion direction of the command gesture is a predetermined direction with the target operated device as a reference, and the command indicated by the command gesture. Can be recognized. In this case, it is not necessary to determine the motion direction of the command gesture, and the processing load is reduced.

(4)前記プロセッサは、前記ジェスチャーの動作を検出するセンサの検出データに基づいて、前記動作方向を求めるよう更に動作することができる。この場合、動作方法は、センサの検出データに基づいて求められる。 (4) The processor may further operate to obtain the motion direction based on detection data of a sensor that detects the motion of the gesture. In this case, the operation method is obtained based on the detection data of the sensor.

(5)前記センサは、前記被操作装置とは離れて設置されていてもよい。前記プロセッサは、前記検出データに基づいて、前記ジェスチャーの変換前動作方向を求め、前記センサと前記被操作装置との位置関係に基づいて前記変換前動作方向を変換することで、前記動作方向を求めることができる。ここで、前記変換前動作方向は、前記センサを基準とした方向である。前記動作方向は、前記被操作装置を基準とした方向である。この場合、センサと被操作装置離れていても、センサの検出データに基づき、被操作装置を基準とした動作方向を求めることができる。 (5) The sensor may be installed separately from the operated device. The processor obtains the pre-conversion motion direction of the gesture based on the detection data, and converts the motion direction by converting the pre-conversion motion direction based on the positional relationship between the sensor and the operated device. You can ask. Here, the pre-conversion operation direction is a direction based on the sensor. The operation direction is a direction with reference to the operated device. In this case, even if the sensor and the operated device are separated from each other, the operation direction based on the operated device can be obtained based on the detection data of the sensor.

(6)前記動作方向は、前記センサと複数の前記被操作装置それぞれとの位置関係に基づいて、複数の前記被操作装置それぞれを基準とした方向として求められるのが好ましい。この場合、複数の被操作装置それぞれの動作方向が得られる。 (6) It is preferable that the operation direction is obtained based on a positional relationship between the sensor and each of the plurality of operated devices, as a direction with respect to each of the plurality of operated devices. In this case, the operation direction of each of the plurality of operated devices can be obtained.

(7)前記所定方向は、前記被操作装置の位置から前記ジェスチャーが行われた位置へ向かう第1方向を基準とした方向であるのが好ましい。この場合、動作方向が所定方向であるか否かを、動作方向と第1方向との比較により判定できる。 (7) The predetermined direction is preferably a direction based on a first direction from the position of the operated device to the position where the gesture is performed. In this case, it is possible to determine whether or not the operation direction is the predetermined direction by comparing the operation direction and the first direction.

(8)前記プロセッサは、前記ジェスチャーが行われた位置を検出するセンサの検出データに基づいて、前記第1方向を求めるよう更に動作することができる。この場合、第1方向は、センサの検出データに基づいて求められる。 (8) The processor may further operate to obtain the first direction based on detection data of a sensor that detects a position where the gesture is performed. In this case, the first direction is obtained based on the detection data of the sensor.

(9)前記センサは、前記被操作装置とは離れて設置されていてもよい。この場合、前記プロセッサは、前記検出データに基づいて、前記センサから前記ジェスチャーが行われた位置へ向かう変換前第1方向を求めることができる。また、前記プロセッサは、前記センサと前記被操作装置との位置関係に基づいて前記変換前第1方向を変換することで、前記第1方向を求めることができる。この場合、センサと被操作装置とが離れていても、センサの検出データから第1方向を求めることができる。 (9) The sensor may be installed separately from the operated device. In this case, the processor can determine the pre-conversion first direction from the sensor to the position where the gesture is performed, based on the detection data. Further, the processor can obtain the first direction by converting the pre-conversion first direction based on the positional relationship between the sensor and the operated device. In this case, even if the sensor and the operated device are apart from each other, the first direction can be obtained from the detection data of the sensor.

(10)前記第1方向は、前記センサと複数の前記被操作装置それぞれとの位置関係に基づいて、複数の前記被操作装置それぞれから前記ジェスチャーが行われた位置へ向かう方向として求められるのが好ましい。この場合、複数の被操作装置それぞれについての第1方向が得られる。 (10) The first direction is obtained as a direction from each of the plurality of operated devices to the position where the gesture is performed, based on the positional relationship between the sensor and each of the plurality of operated devices. preferable. In this case, the first direction is obtained for each of the plurality of operated devices.

(11)前記プロセッサは、前記対象被操作装置として認識された前記被操作装置をユーザへ通知するよう更に動作するのが好ましい。この場合、ユーザは、対象被操作装置を容易に認識することができる。 (11) The processor preferably further operates to notify the user of the operated device recognized as the target operated device. In this case, the user can easily recognize the target operated device.

(12)前記プロセッサは、前記位置関係の設定処理を実行するよう更に動作することができる。この場合、位置関係の設定が可能となる。 (12) The processor may be further operable to execute the positional relationship setting process. In this case, the positional relationship can be set.

(13)実施形態に係るジェスチャー認識システムは、ユーザのジェスチャーの動作を検出するセンサと、プロセッサと、を備える。プロセッサは、前記センサの検出データに基づいて前記ジェスチャーの動作方向を求め、前記ジェスチャーの動作方向が、被操作装置を基準とした所定方向であるかを判定し、前記ジェスチャーの動作方向が前記所定方向であると判定した場合、前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識するよう動作する。 (13) The gesture recognition system according to the embodiment includes a sensor that detects a gesture motion of a user and a processor. The processor obtains the motion direction of the gesture based on the detection data of the sensor, determines whether the motion direction of the gesture is a predetermined direction based on the operated device, and the motion direction of the gesture is the predetermined direction. When it is determined to be the direction, the operated device is operated so as to be recognized as the target operated device to which the gesture is directed.

(14)実施形態に係るジェスチャー認識システムは、ユーザのジェスチャーの動作を検出するセンサと、複数の被操作装置と、プロセッサと、を備えることができる。前記プロセッサは、前記センサの検出データに基づいて前記ジェスチャーの動作方向を求め、前記ジェスチャーの動作方向が前記被操作装置を基準とした所定方向であるかを、前記複数の被操作装置について判定し、前記ジェスチャーの動作方向が前記所定方向であると判定された前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識するよう動作することができる。 (14) The gesture recognition system according to the embodiment may include a sensor that detects a gesture motion of a user, a plurality of operated devices, and a processor. The processor obtains the motion direction of the gesture based on the detection data of the sensor and determines whether the motion direction of the gesture is a predetermined direction with respect to the operated device, for the plurality of operated devices. It is possible to operate so that the operated device that is determined to have the movement direction of the gesture in the predetermined direction is recognized as the target operated device to which the gesture is directed.

(15)実施形態に係るジェスチャー認識方法は、プロセッサが、ユーザのジェスチャーの動作方向が前記被操作装置を基準とした所定方向であるかを、少なくとも1以上の被操作装置について判定し、前記ジェスチャーの動作方向が前記所定方向であると判定された前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識することを含む。 (15) In the gesture recognition method according to the embodiment, the processor determines, for at least one or more operated devices, whether the operation direction of the user's gesture is a predetermined direction based on the operated device, and the gesture is used. Recognizing the operated device determined to be in the predetermined direction as the target operated device to which the gesture is directed.

(16)実施形態に係るコンピュータプログラムは、ユーザのジェスチャーの動作方向が、前記被操作装置を基準とした所定方向であるかを、少なくとも1以上の被操作装置について判定し、前記ジェスチャーの動作方向が前記所定方向であると判定された前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識する動作をプロセッサに実行させる。コンピュータプログラムは、コンピュータ読み取り可能な、非一時的な記憶媒体に格納される。 (16) The computer program according to the embodiment determines, for at least one or more operated devices, whether or not the operation direction of the user's gesture is a predetermined direction based on the operated device, and the operation direction of the gesture. Causes the processor to execute an operation of recognizing the operated device determined to be in the predetermined direction as the target operated device to which the gesture is directed. The computer program is stored in a computer-readable non-transitory storage medium.

[本開示の実施形態の詳細] [Details of the embodiment of the present disclosure]

図1は、実施形態に係るジェスチャー認識システム10を示している。実施形態のジェスチャー認識システム10は、センサ50及びセンサ50に接続された認識装置15を備える。実施形態の認識装置15は、センサ50により検出されたジェスチャーを認識し、認識したジェスチャーに応じた命令を被操作装置60に実行させる。被操作装置60は、ジェスチャーによる操作が可能な機器であり、例えば、スマート家電、車載装置、又はその他の機器である。被操作装置60は、有線又は無線によって、認識装置15に接続されている。 FIG. 1 shows a gesture recognition system 10 according to the embodiment. The gesture recognition system 10 of the embodiment includes a sensor 50 and a recognition device 15 connected to the sensor 50. The recognition device 15 of the embodiment recognizes the gesture detected by the sensor 50 and causes the operated device 60 to execute a command according to the recognized gesture. The operated device 60 is a device that can be operated by a gesture, and is, for example, a smart home appliance, an in-vehicle device, or another device. The operated device 60 is connected to the recognition device 15 by wire or wirelessly.

センサ50は、ジェスチャー動作を検出する。実施形態のセンサ50は、センサ50から検出対象までの相対的な距離、検出対象の位置(方位)、及び検出対象の速度を、検出データとして出力する。センサ50は、例えば、ミリ波センサである。ミリ波センサは、周波数変調連続波(FMCW)ミリ波センサであるのが好ましい。FMCWミリ波センサは、検出対象までの相対的な距離、検出対象の位置(方位)、及び検出対象の速度を検出することができる。 The sensor 50 detects a gesture motion. The sensor 50 of the embodiment outputs the relative distance from the sensor 50 to the detection target, the position (direction) of the detection target, and the speed of the detection target as detection data. The sensor 50 is, for example, a millimeter wave sensor. The millimeter wave sensor is preferably a frequency modulated continuous wave (FMCW) millimeter wave sensor. The FMCW millimeter wave sensor can detect the relative distance to the detection target, the position (direction) of the detection target, and the speed of the detection target.

実施形態のセンサ50は、ジェスチャー動作として、ユーザの手の動作を検出する。手の動作は、片手の動作であってもよいし、両手の動作であってもよい。ジェスチャー動作は、手の動作に限られず、ユーザの他の身体部位の動きであってもよい。 The sensor 50 of the embodiment detects a motion of the user's hand as a gesture motion. The motion of the hand may be a motion of one hand or a motion of both hands. The gesture motion is not limited to the motion of the hand, and may be the motion of another body part of the user.

実施形態の認識装置15は、センサ50から出力された検出データに基づき、ジェスチャーを行っている手までの距離と位置(方位)、及び速度を監視し、手の動きを追跡する。認識装置15は、手の動きを追跡することで、手が、どの位置で、どのような動作を行っているかを判別することができる。 The recognition device 15 of the embodiment monitors the distance and position (orientation) and speed of the hand making the gesture and tracks the movement of the hand based on the detection data output from the sensor 50. By recognizing the movement of the hand, the recognition device 15 can determine what position and what movement the hand is performing.

実施形態の認識装置15は、ジェスチャーが、特定の被操作装置60(又は特定のセンサ50)に向けられているのか、他の被操作装置60(又は他のセンサ50)に設けられているのかを判別する機能を有する。認識装置15は、この機能を備えることで、ジェスチャーの動作内容が同じであっても、ジェスチャーが向けられている対象被操作装置60(対象センサ50)を識別することができる。なお、ここでは、一例として、被操作装置60とセンサ50とは一対一であり、両者50,60は非常に近接しており、同じ場所に存在しているものとみなされる。したがって、特定の被操作装置60に向けられたジェスチャーは、その特定の被操作装置60に設けられたセンサ50に向けられているとみなすこともできる。 Whether the gesture is directed to the specific operated device 60 (or the specific sensor 50) or the other operated device 60 (or the other sensor 50) is provided in the recognition device 15 of the embodiment. It has a function to discriminate. By having this function, the recognition device 15 can identify the target operated device 60 (target sensor 50) to which the gesture is directed even if the gesture operation content is the same. Here, as an example, it is assumed that the operated device 60 and the sensor 50 have a one-to-one relationship, and the two 50, 60 are very close to each other and are present at the same place. Therefore, the gesture directed to the specific operated device 60 can be regarded as being directed to the sensor 50 provided in the specific operated device 60.

実施形態においては、ジェスチャーとして、事前ジェスチャー(第1ジェスチャー)と命令ジェスチャー(第2ジェスチャー)とが用いられる。事前ジェスチャーは、特定の被操作装置60が、ジェスチャーによる操作の対象である対象被操作装置であることを、認識装置15に認識させるためのジェスチャーである。事前ジェスチャーの動作内容は、複数の被操作装置60について共通でよい。事前ジェスチャーは、例えば、手を左右に振る動作である。事前ジェスチャーは、ジェスチャーによる操作の対象となる対象被操作装置60に向けて行われる。認識装置15は、ジェスチャーの動作方向に基づいて、ジェスチャーが向けられている対象被操作装置60を識別する。 In the embodiment, a pre-gesture (first gesture) and a command gesture (second gesture) are used as gestures. The pre-gesture is a gesture for causing the recognition device 15 to recognize that the specific operated device 60 is the target operated device that is the target of the operation by the gesture. The operation content of the pre-gesture may be common to the plurality of operated devices 60. The pre-gesture is, for example, an action of shaking the hand from side to side. The pre-gesture is performed toward the target operated device 60 that is the target of the gesture operation. The recognition device 15 identifies the target operated device 60 to which the gesture is directed, based on the motion direction of the gesture.

ここでは、一例として、図1に示すように、一つの被操作装置60に対して、一つの認識装置15に対して、一つの被操作装置60だけが接続されているものとする。したがって、認識装置15は、事前ジェスチャーが、自装置15に接続された被操作装置60に向けられたものであるか否か、すなわち、自装置15に接続された被操作装置60が対象被操作装置であるか否かを識別する。 Here, as an example, as shown in FIG. 1, it is assumed that only one operated device 60 is connected to one operated device 60 and one recognition device 15. Therefore, the recognition device 15 determines whether or not the pre-gesture is directed to the operated device 60 connected to the own device 15, that is, the operated device 60 connected to the own device 15 is the target operated device. Identify whether it is a device.

認識装置15は、事前ジェスチャーによって、自装置15に接続された被操作装置60が対象被操作装置であることを識別すると、対象被操作装置60に対する命令ジェスチャーによる命令を受付可能なモードになる。命令ジェスチャーは、対象被操作装置60に対する命令となるジェスチャーである。事前ジェスチャーが行われても、その事前ジェスチャーが被操作装置60に向けられていなければ、認識装置15は、命令ジェスチャーを受け付けるモードにならない。 When the recognition device 15 identifies that the operated device 60 connected to the own device 15 is the target operated device by the pre-gesture, the recognition device 15 enters a mode in which it is possible to accept a command by the command gesture for the target operated device 60. The command gesture is a gesture that gives a command to the target operated device 60. Even if the pre-gesture is performed, if the pre-gesture is not directed to the operated device 60, the recognition device 15 does not enter the mode for receiving the command gesture.

ここで、複数の被操作装置60が存在する場合、複数の被操作装置60毎に、事前ジェスチャーの動作内容を異ならせることで、命令ジェスチャーが向けられる被操作装置60を区別することが考えられる。この場合、ユーザは、複数の被操作装置60毎に異なる事前ジェスチャーの動作内容を覚える必要があり、ユーザの負担が大きい。これに対して、本実施形態では、複数の被操作装置60が存在しても、事前ジェスチャーの動作内容自体は共通でよい。事前ジェスチャーが、命令ジェスチャーを与えたい被操作装置60に向けて行われることで、認識装置15は、命令ジェスチャーが与えられるべき被操作装置60を識別することができる。 Here, when there are a plurality of operated devices 60, it is conceivable to distinguish the operated device 60 to which the command gesture is directed by changing the operation content of the pre-gesture for each of the plurality of operated devices 60. .. In this case, the user needs to learn the operation content of the different pre-gestures for each of the plurality of operated devices 60, which imposes a heavy burden on the user. On the other hand, in the present embodiment, even if there are a plurality of operated devices 60, the action content itself of the pre-gesture may be common. Since the pre-gesture is performed toward the operated device 60 to which the command gesture is to be given, the recognition device 15 can identify the operated device 60 to which the command gesture is to be given.

なお、事前ジェスチャーの動作内容は、特に限定されない。事前ジェスチャーの動作内容は、センサ50に向けて手を左右に振る動作のほか、例えば、センサ50に向けて手を上下に振る動作、センサ50に向けて指を指すことを複数回繰り返す動作、両手をセンサ50に向けて広げる動作、センサ50に向けて手を回す動作、又はセンサ50に向けて手を前後に振る動作であってもよい。 The operation content of the pre-gesture is not particularly limited. The operation content of the pre-gesture includes, in addition to the operation of shaking the hand to the left and right toward the sensor 50, for example, the operation of shaking the hand up and down toward the sensor 50, the operation of repeating pointing the finger toward the sensor 50 a plurality of times, The operation may be an operation of spreading both hands toward the sensor 50, an operation of turning the hand toward the sensor 50, or an operation of shaking the hand back and forth toward the sensor 50.

実施形態の認識装置15は、コンピュータによって構成される。図1に示すように、コンピュータは、プロセッサ20及びプロセッサ20に接続されたメモリ30を備える。メモリ30には、コンピュータを認識装置15として機能させるコンピュータプログラム35が格納されている。プロセッサ20は、メモリ30に格納されたコンピュータプログラム35を読み出して実行する。コンピュータプログラム35は、プロセッサ20に、図3に示す認識処理21(後述)を実行させる。なお、実施形態のメモリ30は、一次記憶装置及び二次記憶装置を含む。メモリ30は、三次記憶装置を含んでもよい。 The recognition device 15 of the embodiment is configured by a computer. As shown in FIG. 1, the computer includes a processor 20 and a memory 30 connected to the processor 20. A computer program 35 that causes a computer to function as the recognition device 15 is stored in the memory 30. The processor 20 reads and executes the computer program 35 stored in the memory 30. The computer program 35 causes the processor 20 to execute the recognition process 21 (described later) shown in FIG. The memory 30 of the embodiment includes a primary storage device and a secondary storage device. The memory 30 may include a tertiary storage device.

認識装置15は、センサ50から出力された検出データを受信する。メモリ30には、受信した検出データ31が格納されている。プロセッサ20は、認識処理21の際に、メモリ30に格納された検出データ31を読み出し、自装置15に接続された被操作装置60が対象被操作装置であるか否かを識別する。 The recognition device 15 receives the detection data output from the sensor 50. The memory 30 stores the received detection data 31. During the recognition process 21, the processor 20 reads the detection data 31 stored in the memory 30 and identifies whether the operated device 60 connected to the self device 15 is the target operated device.

図2は、コンピュータプログラム35がプロセッサ20により実行されることにより発揮される機能をブロック図として示している。図2に示すように、認識装置15は、機能ブロックとして、事前ジェスチャーである第1ジェスチャー監視部151と命令ジェスチャーである第2ジェスチャー監視部155とを備える。第1ジェスチャー監視部151及び第2ジェスチャー監視部155は、センサ50の検出データ31から、ジェスチャー動作となるユーザの手の動作を検出する。 FIG. 2 is a block diagram showing functions performed by the computer program 35 being executed by the processor 20. As shown in FIG. 2, the recognition device 15 includes, as functional blocks, a first gesture monitoring unit 151 that is a pre-gesture and a second gesture monitoring unit 155 that is a command gesture. The first gesture monitoring unit 151 and the second gesture monitoring unit 155 detect the motion of the user's hand, which is a gesture motion, from the detection data 31 of the sensor 50.

第1ジェスチャー監視部151は、後述の図3におけるステップS101及びS102に相当する。第2ジェスチャー監視部155は、同じ図3におけるステップS107及びS108に相当する。 The first gesture monitoring unit 151 corresponds to steps S101 and S102 in FIG. 3 described later. The second gesture monitoring unit 155 corresponds to steps S107 and S108 in the same FIG.

認識装置15は、機能ブロックとして、判定部152を備える。判定部152は、第1ジェスチャー(事前ジェスチャー)が自装置15向けジェスチャーであるか否かを判定する。判定部152は、後述のように、ジェスチャーの動作方向に基づいて判定する。判定部152が、事前ジェスチャーを自装置15向けジェスチャーであると判定した場合、第2ジェスチャー監視部155が有効になる。判定部152が、事前ジェスチャーを自装置15向けジェスチャーであると判定していない場合、第2ジェスチャー監視部155は無効である。なお、判定部152は、後述の図3におけるステップS103からS105に相当する。 The recognition device 15 includes a determination unit 152 as a functional block. The determination unit 152 determines whether or not the first gesture (preliminary gesture) is a gesture for the own device 15. The determination unit 152 makes a determination based on the motion direction of the gesture, as described below. When the determination unit 152 determines that the pre-gesture is a gesture for the own device 15, the second gesture monitoring unit 155 becomes valid. If the determination unit 152 does not determine that the pre-gesture is a gesture for the own device 15, the second gesture monitoring unit 155 is invalid. The determination unit 152 corresponds to steps S103 to S105 in FIG. 3 described later.

認識装置15は、機能ブロックとして、通知装置70に対する通知処理を行う通知部153を備える。通知部153は、事前ジェスチャーによって、被操作装置60が対象被操作装置として認識されたことを、ユーザに通知するための処理を行う。通知装置70は、音、光、画面表示、振動などによって、ユーザへの通知を行う。通知装置70は、被操作装置60に備わっていてもよい。なお、通知部153は、後述の図3におけるステップS106に相当する。 The recognition device 15 includes a notification unit 153 that performs notification processing for the notification device 70 as a functional block. The notification unit 153 performs processing for notifying the user that the operated device 60 has been recognized as the target operated device by the advance gesture. The notification device 70 notifies the user by sound, light, screen display, vibration, or the like. The notification device 70 may be included in the operated device 60. The notification unit 153 corresponds to step S106 in FIG. 3 described later.

認識装置15は、機能ブロックとして、命令実行部156を備える。命令実行部156は、第2ジェスチャー監視部155によって検出された命令ジェスチャーの動作内容を識別し、動作内容が示す命令を、被操作装置60に与える。なお、命令実行部156は、後述の図3におけるステップS109に相当する。 The recognition device 15 includes an instruction execution unit 156 as a functional block. The command execution unit 156 identifies the operation content of the command gesture detected by the second gesture monitoring unit 155, and gives the operated device 60 the command indicated by the operation content. The instruction execution unit 156 corresponds to step S109 in FIG. 3 described later.

図3は、コンピュータプログラム35に従って認識装置15において実行される認識処理21の手順を示している。ステップS101において、プロセッサ20は、センサ50の検出データ31に基づき、ユーザの手の動きを検出し、事前ジェスチャーを監視する。事前ジェスチャー監視は、事前ジェスチャーが行われるまで継続される。なお、事前ジェスチャーの監視中は、命令ジェスチャーの監視は行われない。 FIG. 3 shows a procedure of the recognition process 21 executed in the recognition device 15 according to the computer program 35. In step S101, the processor 20 detects the movement of the user's hand based on the detection data 31 of the sensor 50 and monitors the pre-gesture. Pre-gesture monitoring continues until a pre-gesture is made. Note that the command gesture is not monitored while the pre-gesture is being monitored.

ユーザが、事前ジェスチャーとして設定された動作を行うと、プロセッサ20は、事前ジェスチャーが行われたことを検出する(ステップS102においてYes)。事前ジェスチャーが行われたことの検出は、例えば、事前ジェスチャー動作内容を認識するための機械学習済みモデルを用いて行うことができる。 When the user performs the action set as the pre-gesture, the processor 20 detects that the pre-gesture has been performed (Yes in step S102). The detection that the pre-gesture has been performed can be performed using, for example, a machine-learned model for recognizing the pre-gesture operation content.

プロセッサ20は、検出された事前ジェスチャーが、自装置15に接続された被操作装置60(又はセンサ50)に向けられたものであるかを判定する(ステップS103からステップS105)。判定は、事前ジェスチャーの動作方向(例えば、手を振る方向)が、被操作装置60を基準とした所定方向であるか否かを識別することによって行われる。ここでは、一例として、図4に示すように、被操作装置60からジェスチャーが行われた位置へ向かう第1ベクトル(第1方向)V1が、手を振る方向(動作方向)の第2ベクトルV2と直交するかどうかによって判定される。所定方向は、第1ベクトルV1と直交する方向に限られず、例えば、第1ベクトルV1に対して直交以外の所定角度で交差する方向であってもよいし、第1ベクトルV1に対して平行な方向であってもよい。 The processor 20 determines whether the detected pre-gesture is directed to the operated device 60 (or the sensor 50) connected to the self device 15 (step S103 to step S105). The determination is performed by identifying whether or not the motion direction of the pre-gesture (for example, the direction of waving the hand) is the predetermined direction based on the operated device 60. Here, as an example, as shown in FIG. 4, the first vector (first direction) V1 heading from the operated device 60 to the position where the gesture is performed is the second vector V2 in the waving direction (movement direction). It is determined by whether or not The predetermined direction is not limited to the direction orthogonal to the first vector V1, and may be, for example, a direction intersecting the first vector V1 at a predetermined angle other than orthogonal, or may be parallel to the first vector V1. It may be a direction.

直交するかどうかの判定において、プロセッサ20は、第1ジェスチャー(事前ジェスチャー)が行われた位置(第1ジェスチャー位置)を示す検出データから、被操作装置60(センサ50)から第1ジェスチャー位置へ向かう第1ベクトルV1を計算する(ステップS103)。ここで、被操作装置60は、センサ50と同じ位置にあるものとみなされる。 In determining whether they are orthogonal to each other, the processor 20 moves from the operated device 60 (sensor 50) to the first gesture position from the detection data indicating the position (first gesture position) at which the first gesture (previous gesture) is performed. The first vector V1 to head is calculated (step S103). Here, the operated device 60 is considered to be in the same position as the sensor 50.

プロセッサ20は、手を振る動作を追跡した検出データから、手を振る動作の動作方向を示す第2ベクトルV2を計算する(ステップS104)。そして、プロセッサ20は、第1ベクトルV1と第2ベクトルV2とが直交しているか否かを判定する(ステップS105)。 The processor 20 calculates the second vector V2 indicating the movement direction of the hand shaking motion from the detection data tracking the hand shaking motion (step S104). Then, the processor 20 determines whether or not the first vector V1 and the second vector V2 are orthogonal to each other (step S105).

直交している場合(ステップS105においてYes)、プロセッサ20は、事前ジェスチャーが自装置15に接続された被操作装置60に向けられたものであると判断する。すなわち、プロセッサ20は、自装置15に接続された被操作装置60を、ジェスチャーが向けられた対象被操作装置として認識する。この場合、プロセッサ20は、第2ジェスチャー監視部155としての機能を有効化し、その後に行われるジェスチャーを、自装置15に接続された被操作装置60に向けられた命令ジェスチャーとして受付可能になる。また、プロセッサ20は、自装置15に接続された被操作装置60を、ジェスチャーが向けられた対象被操作装置として認識したことをユーザに通知する(ステップS106)。通知は、通知装置70から、音、光等を出力させることによって行われる。通知により、ユーザは、被操作装置60に対して命令ジェスチャーによる命令が行える状態であることを認識することができる。 If they are orthogonal (Yes in step S105), the processor 20 determines that the pre-gesture is directed to the operated device 60 connected to the self device 15. That is, the processor 20 recognizes the operated device 60 connected to the own device 15 as the target operated device to which the gesture is directed. In this case, the processor 20 enables the function as the second gesture monitoring unit 155, and can accept a gesture performed thereafter as a command gesture directed to the operated device 60 connected to the own device 15. Further, the processor 20 notifies the user that the operated device 60 connected to the own device 15 is recognized as the target operated device to which the gesture is directed (step S106). The notification is performed by outputting sound, light, or the like from the notification device 70. The notification allows the user to recognize that the operated device 60 is in a state in which a command gesture can be commanded.

直交していない場合(ステップS105においてNo)、プロセッサ20は、事前ジェスチャーは、自装置15に接続された被操作装置60に向けられたものではないと判断し、ステップS101に戻る。この場合、第2ジェスチャー監視部155としての機能は無効のまであり、その後に命令ジェスチャーが行われたとしても、プロセッサ20はその命令ジェスチャーに対する動作をしない。 If they are not orthogonal to each other (No in step S105), the processor 20 determines that the pre-gesture is not directed to the operated device 60 connected to the own device 15, and returns to step S101. In this case, the function as the second gesture monitoring unit 155 remains disabled, and even if a command gesture is performed after that, the processor 20 does not operate for the command gesture.

例えば、図4に示すように、第1ジェスチャー認識システム10A及び第2ジェスチャー認識システム10Bが存在しているものとする。初期状態において、両システム10A,10Bの認識装置15は、いずれも、第1ジェスチャー監視モードM1にある。第1ジェスチャー監視モードM1では、第1ジェスチャーである事前ジェスチャーを監視し、第2ジェスチャーである命令ジェスチャーを監視しない。つまり、第1ジェスチャー監視モードM1では、第1ジェスチャー監視部151の機能が有効であり、第2ジェスチャー監視部155の機能が無効である。 For example, as shown in FIG. 4, it is assumed that the first gesture recognition system 10A and the second gesture recognition system 10B exist. In the initial state, the recognition devices 15 of both systems 10A and 10B are in the first gesture monitoring mode M1. In the first gesture monitoring mode M1, the pre-gesture that is the first gesture is monitored, and the command gesture that is the second gesture is not monitored. That is, in the first gesture monitoring mode M1, the function of the first gesture monitoring unit 151 is valid and the function of the second gesture monitoring unit 155 is invalid.

この状態において、ユーザ100は、第1ジェスチャー認識システム10Aの被操作装置(電球)60又はセンサ50に向かって(正対して)、事前ジェスチャーを行ったものとする。この場合、第1ジェスチャー認識システム10Aのセンサ50(被操作装置60)から第1ジェスチャー位置へ向かう第1ベクトルV1は、手を振る方向の第2ベクトルV2と直交する。したがって、第1ジェスチャー認識システム10Aの認識装置15は、自装置15に接続された被操作装置60を、第1ジェスチャーが向けられた対象被操作装置として認識する。また、第1ジェスチャー認識システム10Aの認識装置15は、自装置15に接続された通知装置70を動作させ、ステップS106の通知を行う。 In this state, it is assumed that the user 100 has performed a pre-gesture toward (directly facing) the operated device (light bulb) 60 or the sensor 50 of the first gesture recognition system 10A. In this case, the first vector V1 from the sensor 50 (operated device 60) of the first gesture recognition system 10A toward the first gesture position is orthogonal to the second vector V2 in the waving direction. Therefore, the recognition device 15 of the first gesture recognition system 10A recognizes the operated device 60 connected to the own device 15 as the target operated device to which the first gesture is directed. In addition, the recognition device 15 of the first gesture recognition system 10A operates the notification device 70 connected to the own device 15 to perform the notification of step S106.

一方、第2ジェスチャー認識システム10Bのセンサ50(被操作装置60)から第1ジェスチャー位置へ向かう第1ベクトルV1は、手を振る方向の第2ベクトルV2とは直交しない。したがって、第2ジェスチャー認識システム10Bの認識装置15は、自装置15に接続された被操作装置60を、第1ジェスチャーが向けられた対象被操作装置としては認識しない。 On the other hand, the first vector V1 from the sensor 50 (operated device 60) of the second gesture recognition system 10B toward the first gesture position is not orthogonal to the second vector V2 in the direction of waving the hand. Therefore, the recognition device 15 of the second gesture recognition system 10B does not recognize the operated device 60 connected to the own device 15 as the target operated device to which the first gesture is directed.

したがって、図5に示すように、事前ジェスチャーが行われた後、第2ジェスチャー認識システム10Bの認識装置15は、第1ジェスチャー監視モードM1のままである一方、第1ジェスチャー認識システム10Aの認識装置15は、第2ジェスチャー監視モードM2になる。第2ジェスチャー監視モードM2では、第2ジェスチャーである命令ジェスチャーが監視される。つまり、第2ジェスチャー監視モードM2では、第2ジェスチャー監視部155の機能が有効であり、第1ジェスチャー監視部151の機能が無効である。第2ジェスチャー認識システム10Bの認識装置15は、第1ジェスチャー監視モードM1のままであるため、第1ジェスチャー認識システム10Aに向けて行われた命令ジェスチャーによる誤動作が防止される。 Therefore, as shown in FIG. 5, after the pre-gesture is performed, the recognition device 15 of the second gesture recognition system 10B remains in the first gesture monitoring mode M1 while the recognition device of the first gesture recognition system 10A. 15 becomes the second gesture monitoring mode M2. In the second gesture monitoring mode M2, the command gesture that is the second gesture is monitored. That is, in the second gesture monitoring mode M2, the function of the second gesture monitoring unit 155 is valid and the function of the first gesture monitoring unit 151 is invalid. Since the recognition device 15 of the second gesture recognition system 10B remains in the first gesture monitoring mode M1, the malfunction caused by the command gesture performed toward the first gesture recognition system 10A is prevented.

第2ジェスチャー監視モードM2になった第1ジェスチャー認識システム10Aの認識装置15は、第1ジェスチャー位置付近で行われる第2ジェスチャー(命令ジェスチャー)を監視する(図3のステップS107)。図5に示すように、第1ジェスチャー位置付近の所定範囲が、命令ジェスチャーの実行可能範囲200である。実行可能範囲200は、事前ジェスチャーが行われた位置を示す検出データ31に基づき設定される。実行可能範囲200は、例えば、第1ジェスチャー位置を中心とする所定半径の領域である。プロセッサ20は、実行可能範囲200内で行われるジェスチャーだけを監視し、実行可能範囲200外で行われたジェスチャーは命令ジェスチャーとして認識しない。 The recognition device 15 of the first gesture recognition system 10A in the second gesture monitoring mode M2 monitors the second gesture (command gesture) performed near the first gesture position (step S107 in FIG. 3 ). As shown in FIG. 5, the predetermined range near the first gesture position is the executable range 200 of the command gesture. The executable range 200 is set based on the detection data 31 indicating the position where the pre-gesture is performed. The executable range 200 is, for example, a region having a predetermined radius centered on the first gesture position. The processor 20 monitors only gestures performed within the feasible range 200, and does not recognize gestures performed outside the feasible range 200 as command gestures.

ユーザが、実行可能範囲200内において、命令ジェスチャーとして設定された動作を行うと、第2ジェスチャー監視モードM2になっているプロセッサ20は、命令ジェスチャーが行われたことを検出する(ステップS108においてYes)。この場合、プロセッサ20は、命令ジェスチャーの動作内容に応じた命令内容を認識し、その命令を被操作装置60に与える(ステップS109)。命令は、例えば、電球である被操作装置60の点灯命令である。点灯命令が与えられると、電球である被操作装置60は点灯する。プロセッサ20は、命令実行をすると、第1ジェスチャー監視モードM1に戻る。 When the user performs the operation set as the command gesture in the executable range 200, the processor 20 in the second gesture monitoring mode M2 detects that the command gesture has been performed (Yes in step S108). ). In this case, the processor 20 recognizes the command content according to the motion content of the command gesture and gives the command to the operated device 60 (step S109). The command is, for example, a command to light the operated device 60, which is a light bulb. When the lighting command is given, the operated device 60, which is a light bulb, is turned on. After executing the instruction, the processor 20 returns to the first gesture monitoring mode M1.

実施形態においては、プロセッサ20は、命令ジェスチャーの動作を検出するだけであり、事前ベクトルに対してステップS103からステップS105で行われたような動作方向の判定は行わない。命令ジェスチャーの動作の検出は、例えば、ジェスチャー動作内容を認識するための機械学習済みモデルを用いて行われる。機械学習済みモデルを用いて、命令ジェスチャーを検出する場合、十分に学習されていれば、ジェスチャーが対象被操作装置60に向けられていなくても、すなわち、動作方向が所定方向でなくても、命令ジェスチャーを検出することができる。したがって、ユーザは、命令ジェスチャー実施時には、対象被操作装置60に正対している必要がなく、ユーザの自由度が高まる。 In the embodiment, the processor 20 only detects the motion of the command gesture, and does not determine the motion direction with respect to the pre-vector such as that performed in steps S103 to S105. The motion of the command gesture is detected by using, for example, a machine-learned model for recognizing the content of the gesture motion. When a command gesture is detected using the machine-learned model, if the command gesture is not sufficiently directed, the gesture may not be directed to the target operated device 60, that is, the operation direction may not be the predetermined direction. A command gesture can be detected. Therefore, the user does not have to face the target operated device 60 when performing the command gesture, and the degree of freedom of the user increases.

プロセッサ20は、第2ジェスチャー監視モードM2になってから所定時間内に命令ジェスチャーを検出しない場合、第2ジェスチャー監視モードM2を終了し、第1ジェスチャー監視モードM1に戻る(ステップS110)。 When the processor 20 does not detect the command gesture within the predetermined time after entering the second gesture monitoring mode M2, the processor 20 ends the second gesture monitoring mode M2 and returns to the first gesture monitoring mode M1 (step S110).

図6は、他の実施形態に係るジェスチャー認識システム10Cを示している。なお、他の実施形態において、特に説明しない点については、図1から図5に基づく説明が援用される。 FIG. 6 shows a gesture recognition system 10C according to another embodiment. Note that, in the other embodiments, the description based on FIGS. 1 to 5 is applied to the points that are not particularly described.

図6では、被操作装置61,62とセンサ50とが離れている。より具体的には、一つの認識装置15に対して、複数の被操作装置61,62が接続されている。複数の被操作装置61,62は互いに離れた位置に設置されている。また、認識装置15に接続されたセンサ50は、被操作装置61に向けられたジェスチャーと、被操作装置62に向けられたジェスチャーと、を検出することができる位置に設置されている。センサ50と複数の被操作装置61,62それぞれとの相対的位置関係は、認識装置15にとって既知である。 In FIG. 6, the operated devices 61 and 62 are separated from the sensor 50. More specifically, a plurality of operated devices 61 and 62 are connected to one recognition device 15. The plurality of operated devices 61 and 62 are installed at positions separated from each other. Further, the sensor 50 connected to the recognition device 15 is installed at a position where a gesture directed to the operated device 61 and a gesture directed to the operated device 62 can be detected. The relative positional relationship between the sensor 50 and each of the plurality of operated devices 61 and 62 is known to the recognition device 15.

センサ50が、被操作装置61,62とは離れて設置されているため、図6に示す認識装置15は、センサ50と被操作装置61,62との位置関係に基づく変換を行って、事前ジェスチャーが、複数の被操作装置61,62のうちのいずれに向けられたものであるかを判定する。これにより、複数の被操作装置61,62に対するジェスチャー操作を、一つの認識装置15によって処理することが可能となる。図6に示すように、メモリ30には、センサ50と被操作装置61,62との位置関係に基づく変換を行いために参照される変換用参照データ33が格納されている。また、プロセッサ20は、変換用参照データ33の設定のための設定処理23(後述)を、コンピュータプログラム35に従って実行することができる。 Since the sensor 50 is installed separately from the operated devices 61 and 62, the recognition device 15 illustrated in FIG. 6 performs conversion based on the positional relationship between the sensor 50 and the operated devices 61 and 62 to perform advance conversion. It is determined which of the plurality of operated devices 61 and 62 the gesture is directed to. Thereby, it becomes possible to process the gesture operation with respect to the plurality of operated devices 61 and 62 by the single recognition device 15. As shown in FIG. 6, the memory 30 stores conversion reference data 33 that is referred to in order to perform conversion based on the positional relationship between the sensor 50 and the operated devices 61 and 62. Further, the processor 20 can execute a setting process 23 (described later) for setting the conversion reference data 33 according to the computer program 35.

図7は、図6に示す他の実施形態に係る認識装置15において、コンピュータプログラム35がプロセッサ20により実行されることにより発揮される機能をブロック図として示している。図7では、図2に示す機能ブロックに加えて、座標変換部157を備えている。また、図7では、第1被操作装置61に対するジェスチャー認識のための第1処理部161と、第2被操作装置62に対するジェスチャー認識のための第2処理部162と、を備えている。 FIG. 7 is a block diagram showing functions exhibited by the computer program 35 being executed by the processor 20 in the recognition device 15 according to another embodiment shown in FIG. In FIG. 7, a coordinate conversion unit 157 is provided in addition to the functional blocks shown in FIG. Further, in FIG. 7, a first processing unit 161 for gesture recognition with respect to the first operated device 61 and a second processing unit 162 for gesture recognition with respect to the second operated device 62 are provided.

第1処理部161は、図2に示す機能ブロックに加えて、座標変換部157を備えており、第1被操作装置61のための認識処理21を実行する。第2処理部162は、第1処理部161と同様の構成であり、第2被操作装置62のための認識処理21を実行する。 The first processing unit 161 includes a coordinate conversion unit 157 in addition to the functional blocks shown in FIG. 2, and executes the recognition process 21 for the first operated device 61. The second processing unit 162 has the same configuration as the first processing unit 161, and executes the recognition process 21 for the second operated device 62.

図8は、第1処理部161及び第2処理部162それぞれで実行される認識処理21を示している。ただし、以下では、理解の容易のため、第1処理部161において実行される認識処理21を例として説明する。ステップS101において、プロセッサ20は、プロセッサ20は、センサ50の検出データ31に基づき、ユーザの手の動きを検出し、事前ジェスチャーを監視する。 FIG. 8 shows the recognition process 21 executed by each of the first processing unit 161 and the second processing unit 162. However, for ease of understanding, the recognition process 21 executed in the first processing unit 161 will be described below as an example. In step S101, the processor 20 detects the movement of the user's hand based on the detection data 31 of the sensor 50 and monitors the pre-gesture.

ユーザが、事前ジェスチャーとして設定された動作を行うと、プロセッサ20は、事前ジェスチャーが行われたことを検出する(ステップS102においてYes)。 When the user performs the action set as the pre-gesture, the processor 20 detects that the pre-gesture has been performed (Yes in step S102).

プロセッサ20は、検出された事前ジェスチャーが、自装置15に接続された被操作装置60(又はセンサ50)に向けられたものであるかを判定する(ステップS103からステップS105)。具体的には、プロセッサ20は、変換前第1ベクトルV11を計算する(ステップS103)。変換前第1ベクトルV11は、第1ジェスチャー(事前ジェスチャー)が行われた位置(第1ジェスチャー位置)を示す検出データから計算される。図9に示すように、変換前第1ベクトルV11は、センサ50から第1ジェスチャー位置へ向かうベクトルである。変換前第1ベクトルV11は、例えば、センサ50の位置を原点とするセンサ座標系におけるベクトルとして表される。 The processor 20 determines whether the detected pre-gesture is directed to the operated device 60 (or the sensor 50) connected to the self device 15 (step S103 to step S105). Specifically, the processor 20 calculates the pre-transformation first vector V11 (step S103). The pre-conversion first vector V11 is calculated from the detection data indicating the position (first gesture position) at which the first gesture (previous gesture) is performed. As shown in FIG. 9, the pre-conversion first vector V11 is a vector from the sensor 50 toward the first gesture position. The pre-transformation first vector V11 is represented, for example, as a vector in the sensor coordinate system having the position of the sensor 50 as the origin.

プロセッサ20は、変換前第2ベクトルV22を計算する(ステップS104)。変換前第2ベクトルV22は、手を振る動作を追跡した検出データから計算される。図9に示すように、変換前第2ベクトルV22は、センサ50を基準とした場合の、手を振る動作の動作方向(変換前動作方向)を示す。変換前第2ベクトルV22は、例えば、センサ50の位置を原点とするセンサ座標系におけるベクトルとして表される。 The processor 20 calculates the pre-transform second vector V22 (step S104). The pre-conversion second vector V22 is calculated from the detection data obtained by tracking the waving motion. As shown in FIG. 9, the pre-conversion second vector V22 indicates the motion direction of the waving motion with respect to the sensor 50 (pre-conversion motion direction). The pre-conversion second vector V22 is represented, for example, as a vector in the sensor coordinate system whose origin is the position of the sensor 50.

プロセッサ20は、変換前第1ベクトルV11及び変換前第2ベクトルV22を、変換用参照データ33を用いて変換し、第1ベクトルV1及び第2ベクトルV2を得る(ステップS104−1,S104−2)。 The processor 20 converts the pre-conversion first vector V11 and the pre-conversion second vector V22 using the conversion reference data 33 to obtain the first vector V1 and the second vector V2 (steps S104-1, S104-2). ).

ステップS104−1では、センサ50と被操作装置61との相対位置関係に基づき、センサ座標系から被操作装置座標系への変換が行われる。被操作装置座標系は、被操作装置61の位置を原点とする座標系である。 In step S104-1, conversion from the sensor coordinate system to the operated device coordinate system is performed based on the relative positional relationship between the sensor 50 and the operated device 61. The operated device coordinate system is a coordinate system whose origin is the position of the operated device 61.

ステップS104−2では、センサ50と被操作装置61との相対位置関係に基づき、被操作装置座標系の変換前第1ベクトルV11及び変換前第2ベクトルV22を回転させ、第1ベクトルV1及び第2ベクトルV2が得られる。第1ベクトルV1は、被操作装置61から第1ジェスチャー位置へ向かうベクトルである。第2ベクトルV2は、被操作装置61を基準とした場合の、手を振る動作の動作方向を示す。 In step S104-2, the pre-conversion first vector V11 and the pre-conversion second vector V22 of the coordinate system of the operated device are rotated based on the relative positional relationship between the sensor 50 and the operated device 61, and the first vector V1 and the Two vectors V2 are obtained. The first vector V1 is a vector from the operated device 61 toward the first gesture position. The second vector V2 indicates the motion direction of the motion of shaking the hand when the operated device 61 is used as a reference.

そして、プロセッサ20は、第1ベクトルV1と第2ベクトルV2とが直交しているか否かを判定する(ステップS105)。 Then, the processor 20 determines whether or not the first vector V1 and the second vector V2 are orthogonal to each other (step S105).

直交している場合(ステップS105においてYes)、プロセッサ20は、事前ジェスチャーが自装置15に接続された被操作装置60に向けられたものであると判断する。また、プロセッサ20は、自装置15に接続された被操作装置60を、ジェスチャーが向けられた対象被操作装置として認識したことをユーザに通知する(ステップS106)。 If they are orthogonal (Yes in step S105), the processor 20 determines that the pre-gesture is directed to the operated device 60 connected to the self device 15. Further, the processor 20 notifies the user that the operated device 60 connected to the own device 15 is recognized as the target operated device to which the gesture is directed (step S106).

直交していない場合(ステップS105においてNo)、プロセッサ20は、事前ジェスチャーは、自装置15に接続された被操作装置60に向けられたものではないと判断し、ステップS101に戻る。 If they are not orthogonal to each other (No in step S105), the processor 20 determines that the pre-gesture is not directed to the operated device 60 connected to the own device 15, and returns to step S101.

図8において、ステップS106以降の処理は、図示されていないが、図3と同様である。すなわち、図8に示すステップS106の次には、図3に示すステップS107以降の処理が実行される。 Although not shown in FIG. 8, the process after step S106 is the same as that in FIG. That is, after the step S106 shown in FIG. 8, the processing after the step S107 shown in FIG. 3 is executed.

図10は、ベクトル変換に用いられる変換用参照データ33の設定処理23の実施の説明図である。ここでは、第1被操作装置61としてのテレビ用の変換用参照データ33の設定について説明する。プロセッサ20は、設定処理23のため、テレビ61の画面等に、ユーザ100に対して、事前ジェスチャーとなる動作を指示する表示を行わせる。図10では、一例として「テレビ正面で手を振ってください」旨の表示がなされている。ユーザ100が、動作の指示に従って、テレビ61の正面で手を振った場合、テレビ61からジェスチャー位置に向かうベクトルと手を振る方向とは直交しているはずである。認識装置15は、ユーザ100が手を振っているときにおいて、センサ50の検出データに基づいて、センサ50からジェスチャー位置に向かう学習第1ベクトルV111と、センサ50を基準とした手を振る方向を示す学習第2ベクトルV222と、を計算する。プロセッサ20は、学習第1ベクトルV111と学習第2ベクトルV222とから、変換用参照データ33を計算し、メモリ30に保存する。保存された変換用参照データ33は、事前ジェスチャーの認識に用いられる。 FIG. 10 is an explanatory diagram of the implementation of the setting process 23 of the conversion reference data 33 used for vector conversion. Here, the setting of the conversion reference data 33 for the television as the first operated device 61 will be described. Because of the setting process 23, the processor 20 causes the screen of the television 61 or the like to display the user 100 instructing an action that is a pre-gesture. In FIG. 10, as an example, a message “Please shake your hand in front of the TV” is displayed. When the user 100 shakes his/her hand in front of the television 61 according to the operation instruction, the vector from the television 61 to the gesture position and the direction of the hand should be orthogonal. When the user 100 is waving his/her hand, the recognition device 15 determines the learning first vector V111 heading from the sensor 50 to the gesture position and the waving direction based on the sensor 50 based on the detection data of the sensor 50. The learning second vector V222 shown is calculated. The processor 20 calculates the conversion reference data 33 from the learning first vector V111 and the learning second vector V222, and stores it in the memory 30. The stored conversion reference data 33 is used for recognition of a pre-gesture.

[付記] [Appendix]

なお、今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味、及び範囲内でのすべての変更が含まれることが意図される。 It should be understood that the embodiments disclosed this time are exemplifications in all points and not restrictive. The scope of the present invention is shown not by the above meaning but by the scope of the claims, and is intended to include meanings equivalent to the scope of the claims and all modifications within the scope.

10 :ジェスチャー認識システム
10A :第1ジェスチャー認識システム
10B :第2ジェスチャー認識システム
10C :ジェスチャー認識システム
15 :認識装置
20 :プロセッサ
21 :認識処理
23 :設定処理
30 :メモリ
31 :検出データ
33 :変換用参照データ
35 :コンピュータプログラム
50 :センサ
60 :被操作装置
61 :第1被操作装置
62 :第2被操作装置
70 :通知装置
100 :ユーザ
151 :第1ジェスチャー監視部
152 :判定部
153 :通知部
155 :第2ジェスチャー監視部
156 :命令実行部
157 :座標変換部
161 :第1処理部
162 :第2処理部
200 :実行可能範囲
M1 :第1ジェスチャー監視モード
M2 :第2ジェスチャー監視モード
10: Gesture recognition system 10A: First gesture recognition system 10B: Second gesture recognition system 10C: Gesture recognition system 15: Recognition device 20: Processor 21: Recognition process 23: Setting process 30: Memory 31: Detection data 33: Conversion Reference data 35: Computer program 50: Sensor 60: Operated device 61: First operated device 62: Second operated device 70: Notification device 100: User 151: First gesture monitoring unit 152: Judgment unit 153: Notification unit 155: Second gesture monitoring unit 156: Instruction execution unit 157: Coordinate conversion unit 161: First processing unit 162: Second processing unit 200: Executable range M1: First gesture monitoring mode M2: Second gesture monitoring mode

Claims (16)

ユーザのジェスチャーの動作方向が、被操作装置を基準とした所定方向であるかを、少なくとも1以上の被操作装置について判定し、前記ジェスチャーの動作方向が前記所定方向であると判定された前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識するよう動作するプロセッサ
を備えるジェスチャー認識装置。
For at least one or more operated devices, it is determined whether the operation direction of the user's gesture is a predetermined direction based on the operated device, and the operation direction of the gesture is determined to be the predetermined direction. A gesture recognition device comprising a processor that operates to recognize an operation device as a target operated device to which the gesture is directed.
前記プロセッサは、前記被操作装置を前記対象被操作装置として認識した後に行われたジェスチャーを、前記対象操作装置に対する命令ジェスチャーとして認識するよう更に動作する
請求項1に記載のジェスチャー認識装置。
The gesture recognition device according to claim 1, wherein the processor further operates to recognize a gesture performed after recognizing the operated device as the target operated device as a command gesture for the target operated device.
前記プロセッサは、前記命令ジェスチャーの動作方向が前記対象被操作装置を基準とした所定の方向であるかを判定することなく、前記命令ジェスチャーの動作に基づいて、前記命令ジェスチャーが示す命令を認識する
請求項2に記載のジェスチャー認識装置。
The processor recognizes the command indicated by the command gesture based on the motion of the command gesture without determining whether the motion direction of the command gesture is a predetermined direction with respect to the target operated device. The gesture recognition device according to claim 2.
前記プロセッサは、前記ジェスチャーの動作を検出するセンサの検出データに基づいて、前記動作方向を求めるよう更に動作する
請求項1から3のいずれか1項に記載のジェスチャー認識装置。
The gesture recognition device according to claim 1, wherein the processor further operates to obtain the movement direction based on detection data of a sensor that detects the movement of the gesture.
前記センサは、前記被操作装置とは離れて設置され、
前記プロセッサは、
前記検出データに基づいて、前記ジェスチャーの変換前動作方向を求め、
前記センサと前記被操作装置との位置関係に基づいて前記変換前動作方向を変換することで、前記動作方向を求め、
前記変換前動作方向は、前記センサを基準とした方向であり、
前記動作方向は、前記被操作装置を基準とした方向である
請求項4に記載のジェスチャー認識装置。
The sensor is installed separately from the operated device,
The processor is
Based on the detection data, the pre-conversion motion direction of the gesture is obtained,
By converting the pre-conversion operation direction based on the positional relationship between the sensor and the operated device, the operation direction is obtained,
The pre-conversion operation direction is a direction with respect to the sensor,
The gesture recognition device according to claim 4, wherein the operation direction is a direction with respect to the operated device as a reference.
前記動作方向は、前記センサと複数の前記被操作装置それぞれとの位置関係に基づいて、複数の前記被操作装置それぞれを基準とした方向として求められる
請求項5に記載のジェスチャー認識装置。
The gesture recognition device according to claim 5, wherein the movement direction is obtained as a direction with respect to each of the plurality of operated devices, based on a positional relationship between the sensor and each of the plurality of operated devices.
前記所定方向は、前記被操作装置の位置から前記ジェスチャーが行われた位置へ向かう第1方向を基準とした方向である
請求項1から6のいずれか1項に記載のジェスチャー認識装置。
The gesture recognition device according to claim 1, wherein the predetermined direction is a direction based on a first direction from a position of the operated device to a position where the gesture is performed.
前記プロセッサは、前記ジェスチャーが行われた位置を検出するセンサの検出データに基づいて、前記第1方向を求めるよう更に動作する
請求項7に記載のジェスチャー認識装置。
The gesture recognition device according to claim 7, wherein the processor further operates to obtain the first direction based on detection data of a sensor that detects a position where the gesture is performed.
前記センサは、前記被操作装置とは離れて設置され、
前記プロセッサは、
前記検出データに基づいて、前記センサから前記ジェスチャーが行われた位置へ向かう変換前第1方向を求め、
前記センサと前記被操作装置との位置関係に基づいて前記変換前第1方向を変換することで、前記第1方向を求める
請求項8に記載のジェスチャー認識装置。
The sensor is installed separately from the operated device,
The processor is
Based on the detection data, a pre-conversion first direction from the sensor to the position where the gesture is performed is obtained,
The gesture recognition device according to claim 8, wherein the first direction is obtained by converting the pre-conversion first direction based on a positional relationship between the sensor and the operated device.
前記第1方向は、前記センサと複数の前記被操作装置それぞれとの位置関係に基づいて、複数の前記被操作装置それぞれから前記ジェスチャーが行われた位置へ向かう方向として求められる
請求項9に記載のジェスチャー認識装置。
The said 1st direction is calculated|required as a direction which goes to the position where the said gesture was performed from each of these to-be-operated devices based on the positional relationship of the said sensor and each of these to-be-operated devices. Gesture recognizer.
前記プロセッサは、前記対象被操作装置として認識された前記被操作装置をユーザへ通知するよう更に動作する
請求項1から10のいずれか1項に記載のジェスチャー認識装置。
The gesture recognition device according to claim 1, wherein the processor further operates to notify a user of the operated device recognized as the target operated device.
前記プロセッサは、前記位置関係の設定処理を実行するよう更に動作する
請求項5,6,9,及び10のいずれか1項に記載のジェスチャー認識装置。
The gesture recognition device according to any one of claims 5, 6, 9, and 10, wherein the processor further operates to execute the setting process of the positional relationship.
ユーザのジェスチャーの動作を検出するセンサと、
前記センサの検出データに基づいて前記ジェスチャーの動作方向を求め、前記ジェスチャーの動作方向が、被操作装置を基準とした所定方向であるかを判定し、前記ジェスチャーの動作方向が前記所定方向であると判定した場合、前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識するよう動作するプロセッサと、
を備えるジェスチャー認識システム。
A sensor that detects the motion of the user's gesture,
The motion direction of the gesture is obtained based on the detection data of the sensor, it is determined whether the motion direction of the gesture is a predetermined direction with reference to the operated device, and the motion direction of the gesture is the predetermined direction. When it is determined that the operated device, a processor that operates to recognize the operated device as a target operated device to which the gesture is directed,
Gesture recognition system with.
ユーザのジェスチャーの動作を検出するセンサと、
複数の被操作装置と、
プロセッサと、
を備え、
前記プロセッサは、
前記センサの検出データに基づいて前記ジェスチャーの動作方向を求め、
前記ジェスチャーの動作方向が前記被操作装置を基準とした所定方向であるかを、前記複数の被操作装置について判定し、
前記ジェスチャーの動作方向が前記所定方向であると判定された前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識するよう動作する
ジェスチャー認識システム。
A sensor that detects the motion of the user's gesture,
A plurality of operated devices,
A processor,
Equipped with
The processor is
Obtaining the motion direction of the gesture based on the detection data of the sensor,
For the plurality of operated devices, it is determined whether the movement direction of the gesture is a predetermined direction based on the operated device,
A gesture recognition system that operates to recognize the operated device that is determined to have the movement direction of the gesture as the predetermined direction, as a target operated device to which the gesture is directed.
プロセッサが、ユーザのジェスチャーの動作方向が前記被操作装置を基準とした所定方向であるかを、少なくとも1以上の被操作装置について判定し、前記ジェスチャーの動作方向が前記所定方向であると判定された前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識する
ことを含むジェスチャー認識方法。
The processor determines, for at least one or more operated devices, whether the operation direction of the user's gesture is a predetermined direction with respect to the operated device, and the operation direction of the gesture is determined to be the predetermined direction. A gesture recognition method, comprising recognizing the operated device as a target operated device to which the gesture is directed.
ユーザのジェスチャーの動作方向が、前記被操作装置を基準とした所定方向であるかを、少なくとも1以上の被操作装置について判定し、前記ジェスチャーの動作方向が前記所定方向であると判定された前記被操作装置を、前記ジェスチャーが向けられた対象被操作装置として認識する動作をプロセッサに実行させるためのコンピュータプログラム。

It is determined for at least one or more operated devices whether the operation direction of the gesture of the user is a predetermined direction with reference to the operated device, and the operation direction of the gesture is determined to be the predetermined direction. A computer program for causing a processor to perform an operation of recognizing an operated device as a target operated device to which the gesture is directed.

JP2019007293A 2019-01-18 2019-01-18 Gesture recognition device, gesture recognition system, gesture recognition method, and computer program Pending JP2020119042A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019007293A JP2020119042A (en) 2019-01-18 2019-01-18 Gesture recognition device, gesture recognition system, gesture recognition method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019007293A JP2020119042A (en) 2019-01-18 2019-01-18 Gesture recognition device, gesture recognition system, gesture recognition method, and computer program

Publications (1)

Publication Number Publication Date
JP2020119042A true JP2020119042A (en) 2020-08-06

Family

ID=71890761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019007293A Pending JP2020119042A (en) 2019-01-18 2019-01-18 Gesture recognition device, gesture recognition system, gesture recognition method, and computer program

Country Status (1)

Country Link
JP (1) JP2020119042A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037434A (en) * 2007-08-02 2009-02-19 Tokyo Metropolitan Univ Control equipment operation gesture recognition device; control equipment operation gesture recognition system, and control equipment operation gesture recognition program
JP2017073256A (en) * 2015-10-06 2017-04-13 パナソニックIpマネジメント株式会社 Illumination control device and illumination system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037434A (en) * 2007-08-02 2009-02-19 Tokyo Metropolitan Univ Control equipment operation gesture recognition device; control equipment operation gesture recognition system, and control equipment operation gesture recognition program
JP2017073256A (en) * 2015-10-06 2017-04-13 パナソニックIpマネジメント株式会社 Illumination control device and illumination system

Similar Documents

Publication Publication Date Title
KR102185166B1 (en) Electronic device and method for recognizing biometrics information
EP2991370B1 (en) Wearable electronic device
AU2013200054B2 (en) Touch free operation of devices by use of depth sensors
KR102090750B1 (en) Electronic device and method for recognizing fingerprint
WO2017069176A1 (en) Line-of-sight input device, line-of-sight input method, and line-of-sight input program
CN106605187B (en) Information processing apparatus, information processing method, and program
EP3062208B1 (en) Electronic device and control method thereof
JP6921193B2 (en) Game programs, information processing devices, information processing systems, and game processing methods
US8937608B2 (en) Touch panel system, electronic information device, and method for detecting indicator position
JP2016521894A (en) System and method for performing device actions based on detected gestures
US20170052632A1 (en) Information processing apparatus, method for controlling the same, and storage medium
EP3040252B1 (en) Steering wheel control system
US9665238B2 (en) Input control device, thin-client system, input control method, and recording medium
US9552073B2 (en) Electronic device
CN105260022A (en) Gesture-based screen capture control method and apparatus
US10019919B2 (en) Processing apparatus, command generation method and storage medium
US20150077331A1 (en) Display control device, display control method, and program
JP2020119042A (en) Gesture recognition device, gesture recognition system, gesture recognition method, and computer program
JP5812582B2 (en) Information processing apparatus and information processing method
US9536526B2 (en) Electronic device with speaker identification, method and storage medium
US20190095093A1 (en) Information processing apparatus, information processing method, and computer readable medium
EP3779645A1 (en) Electronic device determining method and system, computer system, and readable storage medium
AU2015309688B2 (en) Methods and systems for positioning and controlling sound images in three-dimensional space
CN107066193B (en) Vehicle audio main unit and operation method thereof
EP4369167A1 (en) Method and device for moving application by using handle part

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210721

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20220422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220727

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221206