JP2021101324A - Gesture detection device, gesture detection method, and program - Google Patents
Gesture detection device, gesture detection method, and program Download PDFInfo
- Publication number
- JP2021101324A JP2021101324A JP2019233172A JP2019233172A JP2021101324A JP 2021101324 A JP2021101324 A JP 2021101324A JP 2019233172 A JP2019233172 A JP 2019233172A JP 2019233172 A JP2019233172 A JP 2019233172A JP 2021101324 A JP2021101324 A JP 2021101324A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- housing
- information
- unit
- detection device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 81
- 230000007704 transition Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 9
- 238000000034 method Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、ジェスチャ検出装置、ジェスチャ検出方法、およびプログラムに関する。 The present invention relates to a gesture detection device, a gesture detection method, and a program.
車両内において、前方を注視しながらターンシグナル装置、ヘッドランプ装置、ワイパー装置等の車載機器を、手指のジェスチャを用いて操作することが提案されている(例えば特許文献1参照)。 It has been proposed to operate an in-vehicle device such as a turn signal device, a headlamp device, and a wiper device in a vehicle while gazing at the front using a gesture of fingers (see, for example, Patent Document 1).
しかしながら、従来技術による指さしや手のジェスチャを用いた操作では、その指さしや手のジェスチャが国や地域によってはマナー違反であり、指をさされた人が不快に感じる場合がある。 However, in the operation using the pointing or hand gesture by the conventional technique, the pointing or hand gesture is a violation of etiquette in some countries or regions, and the person who is pointed at the finger may feel uncomfortable.
本発明は、このような事情を考慮してなされたものであり、筐体内でジェスチャを行う場合に、筐体外にいる人に対して不快な感じを与えないようにするジェスチャ検出装置、ジェスチャ検出方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and when performing a gesture inside the housing, a gesture detection device and a gesture detection that do not give an unpleasant feeling to a person outside the housing. One of the purposes is to provide methods and programs.
この発明に係るジェスチャ検出装置、ジェスチャ検出方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係るジェスチャ検出装置は、筐体内の利用者の所定のジェスチャを認識するジェスチャ認識部と、前記所定のジェスチャが認識された際、前記筐体内で前記所定のジェスチャが行われていることを示す報知情報を前記筐体外に出力する情報出力部と、を備えるジェスチャ検出装置である。
The gesture detection device, the gesture detection method, and the program according to the present invention have the following configurations.
(1): The gesture detection device according to one aspect of the present invention includes a gesture recognition unit that recognizes a predetermined gesture of a user in the housing, and the predetermined gesture in the housing when the predetermined gesture is recognized. It is a gesture detection device including an information output unit that outputs notification information indicating that a gesture is being performed to the outside of the housing.
(2):上記(1)の態様において、前記情報出力部は、前記筐体が所定の国や地域内で使用され、前記ジェスチャ認識部が前記ジェスチャの認識を行う状態にあるときに、前記報知情報を前記筐体外に出力するものである。 (2): In the aspect of (1) above, the information output unit is described when the housing is used in a predetermined country or region and the gesture recognition unit is in a state of recognizing the gesture. The notification information is output to the outside of the housing.
(3):上記(1)または(2)の態様において、前記情報出力部は、前記ジェスチャ認識部が前記ジェスチャの認識を行わない状態から前記ジェスチャの認識を行う状態に遷移したことに基づいて、前記報知情報を前記筐体外に出力するものである。 (3): In the aspect of (1) or (2) above, the information output unit has transitioned from a state in which the gesture recognition unit does not recognize the gesture to a state in which the gesture recognition is performed. , The notification information is output to the outside of the housing.
(4):上記(1)から(3)のいずれか1つ態様において、前記情報出力部は、前記ジェスチャ認識部が、前記利用者の所定のジェスチャを認識したことに基づいて、前記報知情報を前記筐体外に出力するものである。 (4): In any one of the above (1) to (3), the information output unit is based on the fact that the gesture recognition unit recognizes a predetermined gesture of the user. Is output to the outside of the housing.
(5):上記(4)の態様において、前記所定のジェスチャは、前記情報出力部に情報を出力させる指示以外のジェスチャであるものである。 (5): In the aspect of (4) above, the predetermined gesture is a gesture other than an instruction to output information to the information output unit.
(6):上記(4)または(5)の態様において、前記所定のジェスチャは、前記筐体外の人にとって不快なジェスチャであるものである。 (6): In the aspect of (4) or (5) above, the predetermined gesture is a gesture that is unpleasant for a person outside the housing.
(7):上記(4)から(6)のいずれか1つ態様において、前記情報出力部は、前記所定のジェスチャが行われる前に、前記報知情報を前記筐体外に出力するものである。 (7): In any one of the above (4) to (6), the information output unit outputs the broadcast information to the outside of the housing before the predetermined gesture is performed.
(8):上記(1)から(7)のいずれか1つの態様において、前記筐体外の人を検出する人検出部、を備え、前記情報出力部は、前記人が検出された際、前記報知情報を前記筐体外に出力するものである。 (8): In any one of the above (1) to (7), the information output unit includes a person detection unit that detects a person outside the housing, and the information output unit is said to be said when the person is detected. The notification information is output to the outside of the housing.
(9):上記(8)の態様において、前記ジェスチャ認識部は、前記ジェスチャが指し示す方向を推定し、前記情報出力部は、推定された前記ジェスチャが指し示す方向に前記人が検出された際、前記報知情報を前記筐体外に出力するものである。 (9): In the aspect of (8) above, when the gesture recognition unit estimates the direction pointed to by the gesture, and the information output unit detects the person in the direction pointed to by the estimated gesture. The notification information is output to the outside of the housing.
(10):上記(8)の態様において、記情報出力部は、推定されたジェスチャが指し示す方向に前記人が検出された際、前記報知情報を、前記筐体外の前記推定されたジェスチャが指し示す方向の領域を少なくとも含む領域に出力するものである。 (10): In the aspect of (8) above, when the person is detected in the direction indicated by the estimated gesture, the information output unit points out the notification information by the estimated gesture outside the housing. It outputs to the area including at least the area in the direction.
(11):上記(4)から(7)のいずれか1つの態様において、前記所定のジェスチャは、国や地域毎に設定されているものである。 (11): In any one of the above (4) to (7), the predetermined gesture is set for each country or region.
(12):上記(1)から(11)のいずれか1つの態様において、前記情報出力部は、前記報知情報を前記筐体外に出力中であることを、前記筐体内に出力するものである。 (12): In any one of the above (1) to (11), the information output unit outputs that the notification information is being output to the outside of the housing. ..
(13):上記(1)から(12)のいずれか1つの態様において、前記筐体の移動速度を取得する取得部を備え、前記情報出力部は、取得された前記移動速度が閾値以上の場合に前記報知情報を出力し、取得された前記移動速度が閾値未満の場合に前記報知情報を出力しないものである。 (13): In any one of the above (1) to (12), the information output unit includes an acquisition unit for acquiring the movement speed of the housing, and the information output unit has the acquired movement speed equal to or higher than a threshold value. In this case, the notification information is output, and when the acquired movement speed is less than the threshold value, the notification information is not output.
(14):上記(1)から(13)のいずれか1つの態様において、前記報知情報は画像情報であり、前記報知情報を表示する画像表示装置を備え、前記情報出力部は、前記報知情報を前記画像表示装置に表示させることで報知させるものである。 (14): In any one of the above (1) to (13), the notification information is image information, includes an image display device for displaying the notification information, and the information output unit is the notification information. Is displayed on the image display device to notify the user.
(15):この発明の一態様に係るジェスチャ検出方法は、筐体内の利用者のジェスチャを認識し、前記ジェスチャの認識を行う状態にあるときに、前記筐体内で前記ジェスチャが行われていることを示す報知情報を前記筐体外に出力する、ジェスチャ検出方法である。 (15): In the gesture detection method according to one aspect of the present invention, the gesture is performed in the housing when the user's gesture in the housing is recognized and the gesture is recognized. This is a gesture detection method that outputs notification information indicating that to the outside of the housing.
(16):この発明の一態様に係るプログラムは、ジェスチャ検出装置のコンピュータに、筐体内の利用者のジェスチャを認識させ、前記ジェスチャの認識を行う状態にあるときに、前記筐体内で前記ジェスチャが行われていることを示す報知情報を前記筐体外に出力させる、プログラムである。 (16): In the program according to one aspect of the present invention, when the computer of the gesture detection device is in a state of recognizing the gesture of the user in the housing and recognizing the gesture, the gesture is performed in the housing. This is a program that outputs notification information indicating that the above-mentioned is being performed to the outside of the housing.
(1)〜(16)によれば、筐体内でジェスチャを行った場合に、ジェスチャが行われていることを筐体外に出力するようにしたので、筐体外にいる人に対して不快な感じを与えないようにすることができる。
(2)によれば、少なくとも1つのジェスチャについてNGが付されている国や地域(文化圏)において、そのジェスチャが行われる際、筐体外にいる人に対して不快な感じを与えないようにすることができる。
(3)によれば、操作部に対する操作されたことやジェスチャ認識機能を起動させるウェイクアップワードが発話されたことなどにより遷移させることができる。
(4)によれば、利用者の所定のジェスチャに基づいて報知するようにしたので、所定のジェスチャが行われる際、筐体外にいる人に対して不快な感じを与えないようにすることができる。
(5)によれば、他のジェスチャによって報知されることを防止することができる。
(6)によれば、筐体外にいる人に対して不快な感じを与えないようにすることができる。
(7)によれば、ジェスチャが行われる前に報知するようにしたので、筐体外にいる人に対して、より不快な感じを与えないようにすることができる。
(8)によれば、筐体内でジェスチャを行いかつ筐体外に人が検出された場合に、ジェスチャが行われていることを筐体外に出力するようにしたので、筐体外にいる人に対して不快な感じを与えないようにすることができる。
(9)によれば、筐体内でジェスチャを行いかつ筐体外のジェスチャが指し示す方向に人が検出された場合に、ジェスチャが行われていることを筐体外に出力するようにしたので、筐体外にいる人に対して不快な感じを与えないようにすることができる。
(10)によれば、筐体内でジェスチャを行いかつ筐体外のジェスチャが指し示す方向に人が検出された場合に、ジェスチャが行われていることをジェスチャが指し示す方向の筐体外に出力するようにしたので、ジェスチャが指し示す方向の筐体外にいる人に対して不快な感じを与えないようにすることができる。
(11)によれば、国や地域によってタブーとされているジェスチャに応じて報知情報の出力を制御することができる。
(12)によれば、筐体内に報知情報を出力していることを報知するようにしたので、人に遠慮せずにジェスチャを行うことができる。
(13)によれば、筐体が移動している場合、筐体の移動速度に応じて報知情報を報知するか報知しないか切り替えることができる。
(14)によれば、報知情報を画像表示装置に表示させて報知するため、筐体外の人にジェスチャが筐体内で行われていることを報知することができる。
According to (1) to (16), when a gesture is performed inside the housing, the fact that the gesture is being performed is output to the outside of the housing, so that the person outside the housing feels uncomfortable. Can be avoided.
According to (2), in a country or region (cultural area) where at least one gesture is NG, when the gesture is performed, do not give an unpleasant feeling to the person outside the housing. can do.
According to (3), the transition can be made by operating the operation unit or by uttering a wakeup word that activates the gesture recognition function.
According to (4), since the notification is made based on the predetermined gesture of the user, it is possible to prevent the person outside the housing from feeling uncomfortable when the predetermined gesture is performed. it can.
According to (5), it is possible to prevent being notified by another gesture.
According to (6), it is possible to prevent a person outside the housing from feeling uncomfortable.
According to (7), since the notification is made before the gesture is performed, it is possible to prevent the person outside the housing from feeling more uncomfortable.
According to (8), when a gesture is performed inside the housing and a person is detected outside the housing, the fact that the gesture is being performed is output to the outside of the housing. It can be prevented from giving an unpleasant feeling.
According to (9), when a gesture is performed inside the housing and a person is detected in the direction indicated by the gesture outside the housing, the fact that the gesture is being performed is output to the outside of the housing. It is possible to prevent the person in the room from feeling uncomfortable.
According to (10), when a gesture is performed inside the housing and a person is detected in the direction indicated by the gesture outside the housing, the gesture is output to the outside of the housing in the direction indicated by the gesture. Therefore, it is possible to prevent the person outside the housing in the direction indicated by the gesture from feeling uncomfortable.
According to (11), it is possible to control the output of the notification information according to the gesture that is taboo by the country or region.
According to (12), since the notification that the notification information is output in the housing is notified, the gesture can be performed without hesitation to a person.
According to (13), when the housing is moving, it is possible to switch whether to notify the notification information or not according to the moving speed of the housing.
According to (14), since the notification information is displayed on the image display device for notification, it is possible to notify a person outside the housing that the gesture is being performed inside the housing.
以下、図面を参照し、本発明のジェスチャ検出装置、ジェスチャ検出方法、およびプログラムの実施形態について説明する。 Hereinafter, the gesture detection device, the gesture detection method, and the embodiment of the program of the present invention will be described with reference to the drawings.
[ジェスチャシステム1の概要]
まず、ジェスチャシステム1の概要を説明する。なお、以下の例では、ジェスチャ検出装置を車両で用いる例を説明するが、これに限らない、ジェスチャ検出装置が用いられる筐体は、車両に限らない。筐体は、例えば窓の外を人が通る部屋等であってもよい。
[Overview of Gesture System 1]
First, the outline of the gesture system 1 will be described. In the following example, an example in which the gesture detection device is used in a vehicle will be described, but the housing in which the gesture detection device is used is not limited to the vehicle. The housing may be, for example, a room in which a person passes outside the window.
図1は、本実施形態に係るジェスチャシステム1の概要を示す図である。図1に示すように、筐体12に、ジェスチャ検出装置11と報知部13が取り付けられている。符号huiは乗員であり、符号huoは車外の人である。図1に示すように、車両内の乗員huiが、指さし確認やジェスチャによる車両内の機器の操作を行った場合、人huoは自分が指さされたように見え不快に感じる場合もある。また、国や地域、宗教等によっては、タブーとされているジェスチャ等もあり、そのようなジェスチャを行った場合は、人huoとのトラブルになる場合もあり得る。このため、本実施形態では、車両内でジェスチャが行われた際、このようなトラブルを防ぐために、ジェスチャ検出装置11が車両内でジェスチャが行われていることを人huoに報知する。
FIG. 1 is a diagram showing an outline of the gesture system 1 according to the present embodiment. As shown in FIG. 1, a
ジェスチャ検出装置11は、車両内で所定のジェスチャが行われたことを認識し、所定のジェスチャが認識された際に人huoを検出する。なお、所定のジェスチャとは、例えば国や地域、宗教等によってタブーと見なされている動作や人を不快にさせる動作等である。ジェスチャ検出装置11は、車両外に人が検出された場合、車両内で行われるジェスチャを人huoに報知する。また、ジェスチャ検出装置11は、車両外に人が検出された場合、ジェスチャが行われていることを人huoに報知していることを示す情報または車両外の人に不快に思われるジェスチャであることを示す情報を、車両内に表示させる。なお、ジェスチャ検出装置11は、報知を意図したジェスチャを検出したことにより報知部13から報知させるのではなく、タブーと見なされている動作や人を不快にさせる動作を検出した際に報知させる。すなわち、所定のジェスチャは、報知の指示以外のジャスチャであり、車両外の人にとって不快なジャスチャである。
The
筐体12は、例えば車両である。筐体12は、ジェスチャ検出装置11と報知部13に加え、不図示の車両制御部、駆動部、車輪、電源装置、音響機器、空調機器、通信機器、フロントガラス、サイドガラス、リアガラス等を備える。なお、筐体12内の機器(音響機器、空調機器、通信機器、ターンシグナル装置、ヘッドランプ装置、ワイパー装置等)は、ジェスチャによって操作されるようにしてもよい。このジェスチャによる筐体12内の機器の操作は、例えば車両制御部が行う。
The
報知部13は、例えばフロントガラス21に取り付けられている表示装置である。報知部13は、ジェスチャ検出装置11が出力する報知情報を報知する。なお、報知部13は、スピーカなどの音声出力装置であってもよい。報知情報は、例えば画像情報である。なお、報知情報には、車両内でジェスチャが行われていることを示す情報が含まれている。または、報知情報には、行われている(または行われた)ジェスチャが、その国や地域でタブーなものであることを示す情報が含まれている。
The
[ジェスチャ検出装置11の構成例]
ジェスチャ検出装置11の構成例を説明する。図2は、本実施形態に係るジェスチャ検出装置11の構成例を示すブロック図である。図2に示すように、ジェスチャ検出装置11は、ジェスチャ認識部111、人検出部112、記憶部113、情報出力部114、および取得部115を備える。記憶部113は、ジェスチャモデル記憶部1131、人モデル記憶部1132、および報知情報記憶部1133を備える。ジェスチャ検出装置11は、報知部13および表示部14に接続されている。なお、ジェスチャ検出装置11は、報知部13および表示部14を備えていてもよい。また、ジェスチャ検出装置11には、操作部15が接続されていてもよい。
[Configuration example of gesture detection device 11]
A configuration example of the
[ジェスチャ検出装置11の機能]
ジェスチャ認識部111は、ジェスチャモデル記憶部1131を参照して乗員の所定のジェスチャを認識する。ジェスチャ認識部111は、例えば撮影部と画像取得部と画像処理部等を備える。なお、撮影部が備える撮影装置は1つであってもよく、複数であってもよい。ジェスチャ認識部111は、撮影された画像に対して所定の画像処理(例えば二値化処理、エッジ検出処理、特徴量抽出処理、クラスタリング処理等)を行う。ジェスチャ認識部111は、画像処理された画像とジェスチャモデル記憶部1131が記憶するモデル画像を比較して、例えばパターンマッチングの手法によって所定のジェスチャを認識する。ジェスチャ認識部111は、認識した認識結果を情報出力部114に出力する。また、ジェスチャ認識部111は、画像処理した結果に基づいて、ジェスチャが示す方向を推定し、推定した方向を示す情報を人検出部112に出力する。なお、ジェスチャが示す方向とは、例えば人差し指が指し示す方向である。なお、ジェスチャ認識部111は、例えば光を用いた検出器によって乗員の所定のジェスチャを認識するようにしてもよい。なお、乗員は、ジェスチャを行う前に、操作部15を操作して、ジェスチャを開始することを設定するようにしてもよい。この場合、ジェスチャ認識部111は、操作部15が出力する操作結果に基づいて、ジェスチャ入力を受け付ける設定にするようにしてもよい。また、操作部15は、音声を認識して操作を受け付けるようにしてもよい。操作部15は、例えばジェスチャ入力機能をオン状態にするためのウェイクアップワードが発話されることに基づいて、ジェスチャ入力を受け付けるようにしてもよい。この場合、情報出力部114は、ジェスチャ認識部111が、ジェスチャの認識を行わない状態からジェスチャの認識を行う状態に遷移したことに基づいて、報知するようにしてもよい。また、ジェスチャの認識を行わない状態からジェスチャの認識を行う状態への遷移は、操作部15に対する操作されたことやジェスチャ認識機能を起動させるウェイクアップワードが発話されたことなどにより遷移されるようにしてもよい。
[Function of gesture detection device 11]
The
人検出部112は、人モデル記憶部1132を参照してジェスチャ認識部111が出力する方向に人が存在しているか否かを検出する。人検出部112は、例えばレーザー等を利用したLiDAR(Light Detection and Ranging)装置である。人検出部112は、検出した検出結果を情報出力部114に出力する。なお、人検出部112は、例えば撮影部と画像取得部と画像処理部等を備え、撮影された画像に基づいて人を検出するようにしてもよい。
The
記憶部113は、移動速度に対する閾値を記憶する。
The
ジェスチャモデル記憶部1131は、ジェスチャを認識する際に用いられるモデルを記憶する。なお、モデルは、乗員がジェスチャを行った画像を元に生成してもよく、予め記憶していてもよい。なお、モデルは、例えば国や地域毎に記憶する。また、ジェスチャモデル記憶部1131は、ジェスチャ毎に、国(または地域)と、その国(または地域)の人が当該ジェスチャを不快に感じるか否かを関連付けて記憶する。
The gesture
人モデル記憶部1132は、車両外の人を検出する際に用いられるモデルを記憶する。人モデル記憶部1132は、例えば国や地域や宗教に特有の衣装やアクセサリーを検出できるモデルを記憶する。
The human
報知情報記憶部1133は、ジェスチャの示す方向に人が存在する際に報知する情報を記憶する。報知する情報は、例えばテキスト情報である。なお、報知情報記憶部1133は、報知する情報を国や地域や宗教毎に、国や地域や宗教に応じた言語やフレーズで記憶する。また、報知情報記憶部1133は、報知情報を報知している際に表示部14に表示するテキスト情報を記憶する。
The notification
情報出力部114は、所定のジェスチャが認識された際、ジェスチャの示す方向に人が存在する際に報知する情報を、報知情報記憶部1133から読み出す。情報出力部114は、読み出した情報を報知情報に変換し、変換した報知情報を報知部13に出力することで車両外に報知する。また、情報出力部114は、報知情報を報知している際に表示部14に表示するテキスト情報を報知情報記憶部1133から読み出す。情報出力部114は、読み出した情報を画像情報に変換し、変換した画像情報を表示部14に出力することで車両内に表示させる。なお、画像情報には、報知情報を報知していることを示す情報が含まれている。なお、情報出力部114は、取得部115が取得した位置情報に基づいて、車両が走行している国や地域を取得するようにしてもよい。また、情報出力部114は、取得部115が取得した車両の移動速度が閾値以上の場合に報知情報を報知させ、車両の移動速度が閾値未満の場合に報知情報を報知させないようにしてもよい。すなわち、本実施形態によれば、移動速度に応じて報知情報の報知を行うか否かを切り替えることができる。なお、情報出力部114は、車両が停車している場合に報知情報を報知させ、車両が走行している場合に報知情報を報知させないようにしてもよい。
When a predetermined gesture is recognized, the
取得部115は、筐体12が車両の場合、車両の移動速度を取得し、取得した移動速度を示す情報を情報出力部114に出力する。取得部115は、例えばGPS(Global Positioning System;全地球測位システム)の受信装置を備え、受信装置が受信した情報に基づいて車両が移動している位置(緯度経度)情報を取得し、取得した位置情報を情報出力部114に出力する。
When the
表示部14は、例えば液晶表示装置、または有機EL(Electro Luminescence)表示装置等である。表示部14は、情報出力部114が出力する画像情報を表示する。
The
操作部15は、例えば表示部14上に設けられているタッチパネルセンサである。操作部15は、利用者が操作した操作結果をジェスチャ認識部111に出力する。なお、操作部15は、音声入力部と音声認識部とによって構成されていてもよい。
The
なお、ジェスチャ検出装置11の構成要素は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
The component of the
[ジェスチャモデルの例]
次に、ジェスチャモデル記憶部1131が記憶するモデルの例を説明する。図3は、本実施形態に係るジェスチャモデル記憶部1131が記憶するモデルの例を示す図である。図3に示すように、ジェスチャモデル記憶部1131は、ジェスチャ毎に、国(または地域、文化圏)と、その国(または地域、文化圏)の人が当該ジェスチャを不快に感じるか否かを関連付けて記憶する。ジェスチャモデル記憶部1131は、例えば第1のジェスチャに、第1の国と第2の国において当該ジェスチャを不快に感じないことを示す情報(OK)と、第3の国において当該ジェスチャを不快に感じることを示す情報(NG)とを関連付けて記憶する。なお、所定の国や地域内とは、少なくとも1つのジェスチャについてNGが付されている国や地域(文化圏)である。このため、情報出力部114は、どのジェスチャに対してもNGがついていない(すべてOK)の国(文化圏)で使用されている場合、報知を実行しなくてもよい。
[Example of gesture model]
Next, an example of the model stored in the gesture
[報知部13に報知される報知情報の例]
次に、報知部13に報知される報知情報の例を説明する。図4は、本実施形態に係る報知部13に報知される報知情報の例を示す図である。図4において、符号g11は報知情報を表し、符号g12はジェスチャの例として人差し指による指さしを表し、符号g13は表示部14に表示される画像情報を表している。なお、符号g11に示す例は、報知情報が画像情報の例であり、車両内から見た画像例である。また、符号g11に示す例は、ジェスチャが示す方向がフロントガラスの前方下部の例である。なお、図4に示す例は、乗員が行ったジェスチャが、その国では不快に思われる場合の動作例を示している。
[Example of notification information notified to the notification unit 13]
Next, an example of the notification information notified to the
図4に示すように、ジェスチャ検出装置11は、乗員がジェスチャを行った際、且つそのジェスチャが示す方向(符号g14)に人huoが存在する場合、その人huoに対して報知情報g11を報知する。この際、報知情報が表示される位置は、ジェスチャが指し示す方向に対応する報知部13上の位置である。図5を用いて説明するように、報知部13は、複数に分割されていて個別に制御可能である。また、報知画像は、国や地域に応じた言語や内容である。また、報知画像は、人huoから見て読める状態で報知する。このため、符号g11は、車両内から見た画像のため、テキスト画像が反転している。なお、図4に示した例では、フロントガラスに報知情報を報知する例を示したが、これに限らない。ジェスチャが示す方向が、例えば右方向の場合、ジェスチャ検出装置11は、右方向のサイドガラスに設けられた報知部13に報知情報を報知させる。また、ジェスチャ検出装置11は、車両外に報知情報を報知している際、行ったジェスチャが相手に不快感を与えるジェスチャであることを示す情報を符号g13のように車両内に表示させる。なお、ジェスチャ検出装置11は、報知情報を報知していることを示す情報を車両内に表示させるようにしてもよい。なお、車両内へは、表示に限らず、例えば音声による報知であってもよい。なお、ジェスチャ認識部111は、ジェスチャが示す方向を、撮影した画像を画像処理した結果に基づいて推定する。なお、報知情報は、周囲の明るさに応じて表示の輝度やコントラスト等の表示方法を変更するようにしてもよい。
As shown in FIG. 4, the
[報知部13が表示装置の例]
次に、報知部13が表示装置の例を説明する。図5は、本実施形態に係る報知部13が表示装置の例を示す図である。図5は、報知部13が車両(筐体12)のフロントガラス21の内側に取り付けられている例である。なお、報知部13は、ジェスチャを行う乗員と、人(huo)との間に設けられていればよいので、例えばフロントガラスに内蔵されていてもよく、フロントガラスの外側に設けられていてもよい。図5に示す例では、報知部13は、報知部13−1〜13−4を備え、高さ方向に4分割されている。情報出力部114は、ジェスチャが指し示す方向に人が検出された場合、ジェスチャが指し示す方向に対応する報知部13−1〜13−4のうちの少なくとも1つに報知情報を表示させる。なお、報知部13は、テキストが表示される方向である横方向にも分割されていてもよい。
[Example of display device in which the
Next, the
[ジェスチャと報知情報の表示可否と表示位置の関係例]
次に、ジェスチャと報知情報の表示可否と表示位置の関係例を説明する。図6は、本実施形態に係るジェスチャと報知情報の表示可否と表示位置の関係例を示す図である。符号g101が示す図は、例えば時刻t1において乗員が第1のジェスチャを行った際の報知情報の表示可否と表示位置の関係例を説明するための図である。符号103が示す図は、例えば時刻t2において乗員が第2のジェスチャを行った際の報知情報の表示可否と表示位置の関係例を説明するための図である。
[Example of relationship between gesture and display availability of notification information and display position]
Next, an example of the relationship between the displayability of the gesture and the notification information and the display position will be described. FIG. 6 is a diagram showing an example of the relationship between the display availability and the display position of the gesture and the notification information according to the present embodiment. The figure indicated by reference numeral g101 is a diagram for explaining an example of the relationship between display availability and display position of the notification information when the occupant performs the first gesture, for example, at time t1. The figure indicated by reference numeral 103 is a diagram for explaining an example of the relationship between display availability and display position of the notification information when the occupant performs the second gesture, for example, at time t2.
符号g101に示す例において、ジェスチャ検出装置11は、第1のジェスチャが相手に不快感を与えるジェスチャであると判断し、当該ジェスチャの示す方向に人huo1が存在していると判断する。このため、ジェスチャ検出装置11は、ジェスチャの示す方向に対応する報知部13の位置に報知情報(g11)を報知させる。なお、ジェスチャ検出装置11は、ジェスチャの示す方向に人huo2が存在していない場合であっても報知してもよく、報知する場合、ジェスチャの示す方向に対応する位置の領域を少なくとも含む領域に報知させるようにしてもよい。
In the example shown by reference numeral g101, the
符号g103に示す例において、ジェスチャ検出装置11は、第2のジェスチャが相手に不快感を与えないジェスチャであると判断し、当該ジェスチャの示す方向に人huo2が存在していると判断する。このため、ジェスチャ検出装置11は、ジェスチャの示す方向に人huo2が存在していても、報知情報を報知しない。
In the example shown by reference numeral g103, the
図6に示したように、本実施形態では、ジェスチャの示す方向に対応する報知部13の位置に報知情報を報知させる。また、本実施形態では、ジェスチャと、ジェスチャが行われた国や地域に基づいて、報知情報の報知可否を判断する。なお、上述したように、ジェスチャ検出装置11が車両に搭載されている場合、車両の移動速度が閾値以上の場合、仮に車両外に人がいても、車両内で行われているジェスチャが車両外の人から見えないと判断して、ジェスチャの形や動作にかかわらず、そして車両外の人の有無にかかわらず報知情報を報知しないようにしてもよい。
As shown in FIG. 6, in the present embodiment, the notification information is notified to the position of the
また、情報出力部114は、車両が所定の国や地域内で使用され、ジェスチャ認識部111がジェスチャの認識を行う状態にあるときに、報知するようにしてもよい。また、情報出力部114は、ジェスチャ認識部111が、ジェスチャの認識を行わない状態からジェスチャの認識を行う状態に遷移したことに基づいて、報知するようにしてもよい。また、情報出力部114は、ジェスチャ認識部111が、利用者の所定のジェスチャを認識したことに基づいて、報知するようにしてもよい。
Further, the
[ジェスチャ検出装置11の処理手順例]
次に、ジェスチャ検出装置11の処理手順例を説明する。図7は、本実施形態に係るジェスチャ検出装置11の処理のフローチャートである。
[Example of processing procedure of gesture detection device 11]
Next, an example of the processing procedure of the
取得部115は、車両の移動速度を取得する。取得部115は、GPSの受信装置が受信した情報に基づいて車両が移動している位置(緯度経度)情報を取得する(ステップS1)。
The
ジェスチャ認識部111は、例えば所定の時間間隔毎に乗員を含む画像を撮影する。次に、ジェスチャ認識部111は、撮影された画像に対して画像処理を行い、画像処理された画像とジェスチャモデル記憶部1131を比較して乗員の所定のジェスチャを行っているか否かを判別する(ステップS2)。
The
ジェスチャ認識部111は、乗員が所定のジェスチャを行っていると判別した場合(ステップS2;YES)、撮影された画像に対する画像処理の結果に基づいてジェスチャが示す方向を推定する(ステップS3)。ジェスチャ認識部111は、乗員が所定のジェスチャを行っていないと判別した場合(ステップS2;NO)、ステップS1の処理に戻す。
When the
乗員が所定のジェスチャを行っている場合、人検出部112は、人モデル記憶部1132を参照してジェスチャ認識部111が出力する方向に人が存在しているか否かを判別する(ステップS4)。人検出部112は、ジェスチャ認識部111が出力する方向に人が存在していないと判別した場合(ステップS4;NO)、ステップS10の処理に進める。
When the occupant is performing a predetermined gesture, the
ジェスチャ認識部111が出力する方向に人が存在していると判別された場合(ステップS4;YES)、情報出力部114は、取得部115が取得した移動速度が閾値以上であるか否かを判別する(ステップS5)。情報出力部114は、移動速度が閾値以上であると判別した場合(ステップS5;YES)、ステップS1の処理に戻す。
When it is determined that a person exists in the direction of output by the gesture recognition unit 111 (step S4; YES), the
情報出力部114は、移動速度が閾値未満であると判別した場合(ステップS5;YES)、報知情報記憶部1133から報知するテキスト情報を取得して、取得したテキスト情報に基づいて報知情報を生成する(ステップS6)。次に、情報出力部114は、生成した報知情報を報知部13に出力する。次に、情報出力部114は、報知情報を報知中であることを示す画像情報を生成し、生成した画像情報を表示部14に出力する(ステップS7)。
When the
情報出力部114は、報知情報を、報知部13によって車両外に報知させる(ステップS8)。次に、情報出力部114は、画像情報を、表示部14によって車両内に表示させる(ステップS9)。
The
情報出力部114は、ジェスチャ認識部111が出力する方向に人が存在していないと判別した場合(ステップS4;NO)、すなわちジェスチャが検出されても、ジェスチャが示す方向に人がいない場合、報知情報を生成する(ステップS10)。次に、情報出力部114は、生成した報知情報を報知部13に出力する。または、情報出力部114は、生成した報知情報を表示部14に出力する(ステップS11)。
When the
情報出力部114は、報知情報を、報知部13によって車両1内に報知させる(ステップS12)。または、情報出力部114は、報知情報を、表示部14によって車両1内に表示させる(ステップS12)。なお、車両1内に報知または表示される報知情報は、例えば「この地域では、そのジェスチャがタブーであること」を示す情報である。
The
なお、情報出力部114は、報知可能な方向全てに対して報知情報を報知させるようにしてもよい。また、情報出力部114は、人の有無を検出せずに、ジェスチャが認識された際に報知情報を報知させるようにしてもよい。この場合、情報出力部114は、車両外の人の有無や方向を検出せずに報知情報を報知させるようにしてもよい。また、情報出力部114は、移動速度にかかわらずに報知情報を報知させるようにしてもよい。また、報知情報を表示させる位置は、ジェスチャが示す方向に限らず、車両外の人から見える位置であってもよい。
The
以上のように、本実施形態では、車両内で指さし等のジェスチャを行った場合に、ジェスチャを行っていることを人に対して報知するようにした。
この構成によって、本実施形態によれば、車両内で指さし等のジェスチャを行った場合に、車両外の人とのトラブルを防ぐことができる。
As described above, in the present embodiment, when a gesture such as pointing is performed in the vehicle, the person is notified that the gesture is being performed.
With this configuration, according to the present embodiment, it is possible to prevent troubles with a person outside the vehicle when a gesture such as pointing inside the vehicle is performed.
また、本実施形態によれば、筐体内でジェスチャを行った場合かつ筐体外に人が検出された際に、ジェスチャが行われていることを筐体外に出力するようにしたので、筐体外の人に対して不快な感じを与えないようにすることができる。
また、本実施形態によれば、筐体内でジェスチャを行った場合かつジェスチャが指し示す方向に筐体外に人が検出された際に、ジェスチャが行われていることを筐体外に出力するようにしたので、筐体外の人に対して不快な感じを与えないようにすることができる。
Further, according to the present embodiment, when a gesture is performed inside the housing and a person is detected outside the housing, the fact that the gesture is being performed is output to the outside of the housing. It is possible to prevent the person from feeling uncomfortable.
Further, according to the present embodiment, when a gesture is performed inside the housing and a person is detected outside the housing in the direction indicated by the gesture, the fact that the gesture is being performed is output to the outside of the housing. Therefore, it is possible to prevent the person outside the housing from feeling uncomfortable.
また、本実施形態によれば、筐体内でジェスチャを行った場合かつジェスチャが指し示す方向に筐体外に人が検出された際に、ジェスチャが行われていることをジェスチャが指し示す方向の筐体外に出力するようにしたので、ジェスチャが指し示す方向の筐体外の人に対して不快な感じを与えないようにすることができる。
また、本実施形態によれば、国や地域や例えば宗教等によってタブーとされているジェスチャに応じて報知情報の出力を制御することができる。
また、本実施形態によれば、筐体内に報知情報を出力していることを報知するようにしたので、乗員は、人に遠慮せずにジェスチャを行うことができる。
Further, according to the present embodiment, when a gesture is performed inside the housing and a person is detected outside the housing in the direction indicated by the gesture, the gesture is performed outside the housing in the direction indicated by the gesture. Since the output is made, it is possible not to give an unpleasant feeling to a person outside the housing in the direction indicated by the gesture.
Further, according to the present embodiment, it is possible to control the output of the notification information according to the gesture that is taboo by the country or region or, for example, religion.
Further, according to the present embodiment, since the notification that the notification information is output to the inside of the housing is notified, the occupant can make a gesture without hesitation.
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.
1…ジェスチャシステム、
12…筐体、
11…ジェスチャ検出装置、
13…報知部、
111…ジェスチャ認識部、
112…人検出部、
113…記憶部、
114…情報出力部、
1131…ジェスチャモデル記憶部、
1132…人モデル記憶部、
1133…報知情報記憶部
1 ... Gesture system,
12 ... Housing,
11 ... Gesture detector,
13 ... Notification unit,
111 ... Gesture recognition unit,
112 ... Human detector,
113 ... Memory unit,
114 ... Information output unit,
1131 ... Gesture model storage,
1132 ... Human model memory,
1133 ... Notification information storage unit
Claims (16)
前記ジェスチャ認識部が、前記ジェスチャの認識を行う状態にあるときに、前記筐体内で前記ジェスチャが行われていることを示す報知情報を前記筐体外に出力する情報出力部と、
を備えるジェスチャ検出装置。 Gesture recognition unit that can recognize the gesture of the user in the housing,
When the gesture recognition unit is in a state of recognizing the gesture, an information output unit that outputs notification information indicating that the gesture is being performed inside the housing and outside the housing.
Gesture detector.
請求項1に記載のジェスチャ検出装置。 The information output unit outputs the notification information to the outside of the housing when the housing is used in a predetermined country or region and the gesture recognition unit is in a state of recognizing the gesture.
The gesture detection device according to claim 1.
請求項1または請求項2に記載のジェスチャ検出装置。 The information output unit outputs the notification information to the outside of the housing based on the transition from the state in which the gesture recognition unit does not recognize the gesture to the state in which the gesture is recognized.
The gesture detection device according to claim 1 or 2.
請求項1から請求項3のいずれか1項に記載のジェスチャ検出装置。 The information output unit outputs the notification information to the outside of the housing based on the gesture recognition unit recognizing a predetermined gesture of the user.
The gesture detection device according to any one of claims 1 to 3.
前記情報出力部に情報を出力させる指示以外のジェスチャである、
請求項4に記載のジェスチャ検出装置。 The predetermined gesture is
This is a gesture other than the instruction to output information to the information output unit.
The gesture detection device according to claim 4.
前記筐体外の人にとって不快なジェスチャである、
請求項4または請求項5に記載のジェスチャ検出装置。 The predetermined gesture is
An unpleasant gesture for people outside the enclosure,
The gesture detection device according to claim 4 or 5.
前記所定のジェスチャが行われる前に、前記報知情報を前記筐体外に出力する、
請求項4から請求項6のいずれか1項に記載のジェスチャ検出装置。 The information output unit
The notification information is output to the outside of the housing before the predetermined gesture is performed.
The gesture detection device according to any one of claims 4 to 6.
前記情報出力部は、
前記人が検出された際、前記報知情報を前記筐体外に出力する、
請求項1から請求項7のいずれか1項に記載のジェスチャ検出装置。 A person detection unit for detecting a person outside the housing is provided.
The information output unit
When the person is detected, the notification information is output to the outside of the housing.
The gesture detection device according to any one of claims 1 to 7.
前記ジェスチャが指し示す方向を推定し、
前記情報出力部は、
推定された前記ジェスチャが指し示す方向に前記人が検出された際、前記報知情報を前記筐体外に出力する、
請求項8に記載のジェスチャ検出装置。 The gesture recognition unit is
Estimate the direction pointed to by the gesture
The information output unit
When the person is detected in the direction indicated by the estimated gesture, the notification information is output to the outside of the housing.
The gesture detection device according to claim 8.
推定されたジェスチャが指し示す方向に前記人が検出された際、前記報知情報を、前記筐体外の前記推定されたジェスチャが指し示す方向の領域を少なくとも含む領域に出力する、
請求項8に記載のジェスチャ検出装置。 The information output unit
When the person is detected in the direction indicated by the estimated gesture, the notification information is output to a region outside the housing that includes at least a region in the direction indicated by the estimated gesture.
The gesture detection device according to claim 8.
国や地域毎に設定されている、
請求項4から請求項7のいずれか1項に記載のジェスチャ検出装置。 The predetermined gesture is
Set for each country or region,
The gesture detection device according to any one of claims 4 to 7.
前記報知情報を前記筐体外に出力中であることを、前記筐体内に出力する、
請求項1から請求項11のいずれか1項に記載のジェスチャ検出装置。 The information output unit
The fact that the notification information is being output to the outside of the housing is output to the inside of the housing.
The gesture detection device according to any one of claims 1 to 11.
前記情報出力部は、
取得された前記移動速度が閾値以上の場合に前記報知情報を出力し、取得された前記移動速度が閾値未満の場合に前記報知情報を出力しない、
請求項1から請求項12のいずれか1項に記載のジェスチャ検出装置。 It is provided with an acquisition unit for acquiring the moving speed of the housing.
The information output unit
The notification information is output when the acquired movement speed is equal to or higher than the threshold value, and the notification information is not output when the acquired movement speed is less than the threshold value.
The gesture detection device according to any one of claims 1 to 12.
前記報知情報を表示する画像表示装置を備え、
前記情報出力部は、
前記報知情報を前記画像表示装置に表示させることで報知させる、
請求項1から請求項13のいずれか1項に記載のジェスチャ検出装置。 The notification information is image information and is
An image display device for displaying the notification information is provided.
The information output unit
The notification information is displayed on the image display device to notify the notification.
The gesture detection device according to any one of claims 1 to 13.
前記ジェスチャの認識を行う状態にあるときに、前記筐体内で前記ジェスチャが行われていることを示す報知情報を前記筐体外に出力する、
ジェスチャ検出方法。 Recognize the user's gesture in the housing and
When the gesture is being recognized, notification information indicating that the gesture is being performed inside the housing is output to the outside of the housing.
Gesture detection method.
筐体内の利用者のジェスチャを認識させ、
前記ジェスチャの認識を行う状態にあるときに、前記筐体内で前記ジェスチャが行われていることを示す報知情報を前記筐体外に出力させる、
プログラム。 On the computer of the gesture detector,
Recognize the user's gesture inside the housing
When the gesture is being recognized, notification information indicating that the gesture is being performed inside the housing is output to the outside of the housing.
program.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019233172A JP7175257B2 (en) | 2019-12-24 | 2019-12-24 | GESTURE DETECTION DEVICE, GESTURE DETECTION METHOD, AND PROGRAM |
JP2022178421A JP7412507B2 (en) | 2019-12-24 | 2022-11-07 | Gesture detection device, gesture detection method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019233172A JP7175257B2 (en) | 2019-12-24 | 2019-12-24 | GESTURE DETECTION DEVICE, GESTURE DETECTION METHOD, AND PROGRAM |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022178421A Division JP7412507B2 (en) | 2019-12-24 | 2022-11-07 | Gesture detection device, gesture detection method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021101324A true JP2021101324A (en) | 2021-07-08 |
JP7175257B2 JP7175257B2 (en) | 2022-11-18 |
Family
ID=76651421
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019233172A Active JP7175257B2 (en) | 2019-12-24 | 2019-12-24 | GESTURE DETECTION DEVICE, GESTURE DETECTION METHOD, AND PROGRAM |
JP2022178421A Active JP7412507B2 (en) | 2019-12-24 | 2022-11-07 | Gesture detection device, gesture detection method, and program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022178421A Active JP7412507B2 (en) | 2019-12-24 | 2022-11-07 | Gesture detection device, gesture detection method, and program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7175257B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022264663A1 (en) | 2021-06-18 | 2022-12-22 | 株式会社Jvcケンウッド | Bit extension processing device, bit extension processing method, and bit extension processing program |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011238120A (en) * | 2010-05-12 | 2011-11-24 | Nippon Hoso Kyokai <Nhk> | Discomfort degree estimation device and discomfort degree estimation program |
JP2014081788A (en) * | 2012-10-16 | 2014-05-08 | Canon Inc | Hand gesture recognition device and control method thereof |
JP2014102674A (en) * | 2012-11-20 | 2014-06-05 | Alpine Electronics Inc | Gesture input device |
WO2017018259A1 (en) * | 2015-07-30 | 2017-02-02 | ソニーセミコンダクタソリューションズ株式会社 | Electronic device, control method and program |
JPWO2017138146A1 (en) * | 2016-02-12 | 2018-02-15 | 三菱電機株式会社 | Information display device and information display method |
US20180129981A1 (en) * | 2016-11-04 | 2018-05-10 | Honda Motor Co., Ltd | Vehicle control system, vehicle control method, and vehicle control program |
JP2019106645A (en) * | 2017-12-13 | 2019-06-27 | 株式会社コロナ | Remote control |
JPWO2018198157A1 (en) * | 2017-04-24 | 2019-11-07 | 三菱電機株式会社 | Notification control device and notification control method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6699206B2 (en) | 2016-02-02 | 2020-05-27 | 富士通株式会社 | Method for determining local structure of sample and X-ray analyzer |
JP6865101B2 (en) | 2017-05-24 | 2021-04-28 | スタンレー電気株式会社 | Lamp |
-
2019
- 2019-12-24 JP JP2019233172A patent/JP7175257B2/en active Active
-
2022
- 2022-11-07 JP JP2022178421A patent/JP7412507B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011238120A (en) * | 2010-05-12 | 2011-11-24 | Nippon Hoso Kyokai <Nhk> | Discomfort degree estimation device and discomfort degree estimation program |
JP2014081788A (en) * | 2012-10-16 | 2014-05-08 | Canon Inc | Hand gesture recognition device and control method thereof |
JP2014102674A (en) * | 2012-11-20 | 2014-06-05 | Alpine Electronics Inc | Gesture input device |
WO2017018259A1 (en) * | 2015-07-30 | 2017-02-02 | ソニーセミコンダクタソリューションズ株式会社 | Electronic device, control method and program |
JPWO2017138146A1 (en) * | 2016-02-12 | 2018-02-15 | 三菱電機株式会社 | Information display device and information display method |
US20180129981A1 (en) * | 2016-11-04 | 2018-05-10 | Honda Motor Co., Ltd | Vehicle control system, vehicle control method, and vehicle control program |
JP2018073351A (en) * | 2016-11-04 | 2018-05-10 | 本田技研工業株式会社 | Vehicle control system, vehicle control method, and vehicle control program |
JPWO2018198157A1 (en) * | 2017-04-24 | 2019-11-07 | 三菱電機株式会社 | Notification control device and notification control method |
JP2019106645A (en) * | 2017-12-13 | 2019-06-27 | 株式会社コロナ | Remote control |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022264663A1 (en) | 2021-06-18 | 2022-12-22 | 株式会社Jvcケンウッド | Bit extension processing device, bit extension processing method, and bit extension processing program |
Also Published As
Publication number | Publication date |
---|---|
JP7412507B2 (en) | 2024-01-12 |
JP7175257B2 (en) | 2022-11-18 |
JP2023009149A (en) | 2023-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10943400B2 (en) | Multimodal user interface for a vehicle | |
US10466800B2 (en) | Vehicle information processing device | |
US9275274B2 (en) | System and method for identifying handwriting gestures in an in-vehicle information system | |
US9881605B2 (en) | In-vehicle control apparatus and in-vehicle control method | |
CN102575943B (en) | For the information based on gesture and the order input of motor vehicles | |
US20160004321A1 (en) | Information processing device, gesture detection method, and gesture detection program | |
US9477315B2 (en) | Information query by pointing | |
JP2007200298A (en) | Image processing apparatus | |
US20100121527A1 (en) | Information processing apparatus | |
JP2007249477A (en) | Onboard information transmission device | |
US11059458B2 (en) | System and method for cleaning obstructions for the sensors of an autonomous vehicle | |
JP2017090613A (en) | Voice recognition control system | |
CN108349389A (en) | Commanding apparatus and method for receiving the character string inputted by user in a motor vehicle | |
JP2014102674A (en) | Gesture input device | |
JP7412507B2 (en) | Gesture detection device, gesture detection method, and program | |
JP2016038621A (en) | Space input system | |
JP2008020406A (en) | Navigation device | |
KR20220041831A (en) | Activation of speech recognition | |
WO2022188362A1 (en) | Distraction reminding method and apparatus, electronic device, and storage medium | |
CN112083795A (en) | Object control method and device, storage medium and electronic equipment | |
JP2007099191A (en) | Data processor | |
CN116529125A (en) | Method and apparatus for controlled hand-held steering wheel gesture interaction | |
CN111638786B (en) | Display control method, device, equipment and storage medium of vehicle-mounted rear projection display system | |
JP7313271B2 (en) | GESTURE DETECTION DEVICE, GESTURE DETECTION METHOD, AND PROGRAM | |
US20210097727A1 (en) | Computer apparatus and method implementing sound detection and responses thereto |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220921 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221011 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221108 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7175257 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |