JP2021098481A - Vehicle control device - Google Patents
Vehicle control device Download PDFInfo
- Publication number
- JP2021098481A JP2021098481A JP2019232067A JP2019232067A JP2021098481A JP 2021098481 A JP2021098481 A JP 2021098481A JP 2019232067 A JP2019232067 A JP 2019232067A JP 2019232067 A JP2019232067 A JP 2019232067A JP 2021098481 A JP2021098481 A JP 2021098481A
- Authority
- JP
- Japan
- Prior art keywords
- occupant
- gesture
- unit
- information
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 87
- 230000007246 mechanism Effects 0.000 claims abstract description 69
- 230000005540 biological transmission Effects 0.000 claims description 10
- 230000001939 inductive effect Effects 0.000 claims description 5
- 238000004378 air conditioning Methods 0.000 claims description 4
- 238000000034 method Methods 0.000 description 57
- 230000008569 process Effects 0.000 description 55
- 230000008859 change Effects 0.000 description 14
- 230000033001 locomotion Effects 0.000 description 12
- 230000003068 static effect Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 230000009471 action Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 241000203475 Neopanax arboreus Species 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、車両制御装置に関する。 The present invention relates to a vehicle control device.
従来、センサを備える装置に対してユーザが所定のジェスチャを行うことによって対象物を操作する技術が公知である。 Conventionally, a technique for manipulating an object by a user performing a predetermined gesture on a device including a sensor is known.
特許文献1では、センサから身体の一部までの距離の経時的変化に基づいて表示部に表示されている画像の操作を容易に行うことができる入力装置が開示されている。当該入力装置においては、動作認識部がライダから距離情報を取得し、ライダから人物の指までの距離の経時的変化に基づいて、表示面に表示された操作画像に対するクリック操作等の動作を認識する。そして、動作認識部の認識結果に基づいて、表示面に表示されている操作画像に対して、クリック操作等に対応する処理を行う。 Patent Document 1 discloses an input device capable of easily manipulating an image displayed on a display unit based on a change over time in the distance from a sensor to a part of the body. In the input device, the motion recognition unit acquires the distance information from the rider and recognizes the motion such as a click operation on the operation image displayed on the display surface based on the time course of the distance from the rider to the finger of the person. To do. Then, based on the recognition result of the motion recognition unit, a process corresponding to a click operation or the like is performed on the operation image displayed on the display surface.
特許文献1に開示された従来技術では、所定空間内に滞在するユーザが意図した指の動作以外の動作も、操作画像に対するクリック操作等の動作として誤認識されてしまう虞がある。 In the prior art disclosed in Patent Document 1, there is a possibility that an operation other than the finger operation intended by the user staying in the predetermined space may be erroneously recognized as an operation such as a click operation on the operation image.
本発明の一態様は、上記の問題に鑑みてなされたものであり、車両内に滞在する乗員によるジェスチャ操作の認識精度をより向上させることができる車両制御装置を実現することを目的とする。 One aspect of the present invention has been made in view of the above problems, and an object of the present invention is to realize a vehicle control device capable of further improving the recognition accuracy of a gesture operation by an occupant staying in the vehicle.
上記の課題を解決するために、本発明の一態様に係る車両制御装置は、車室空間内に滞在する乗員によるジェスチャを認識することにより、車両に搭載された所定機構を作動させる車両制御装置であって、車室空間内に滞在する乗員によるジェスチャを検出する検出部と、前記検出部に対し、前記車室空間内において前記検出部が前記乗員によるジェスチャを検出する3次元領域であるジェスチャ検出領域を設定する設定部と、前記設定部により設定されたジェスチャ検出領域において、前記検出部により検出されたジェスチャの軌跡を認識する認識部と、前記認識部により認識されたジェスチャの軌跡に基づいて前記所定機構の作動内容を特定するための作動情報を生成する生成部とを備え、前記生成部により生成された作動情報を用いて前記所定機構を作動させる構成である。 In order to solve the above problems, the vehicle control device according to one aspect of the present invention is a vehicle control device that operates a predetermined mechanism mounted on the vehicle by recognizing a gesture by an occupant staying in the vehicle interior space. A detection unit that detects a gesture by an occupant staying in the vehicle interior space, and a gesture that is a three-dimensional region in which the detection unit detects a gesture by the occupant in the vehicle interior space with respect to the detection unit. Based on the setting unit that sets the detection area, the recognition unit that recognizes the locus of the gesture detected by the detection unit in the gesture detection area set by the setting unit, and the locus of the gesture recognized by the recognition unit. The predetermined mechanism is provided with a generation unit for generating operation information for specifying the operation content of the predetermined mechanism, and the predetermined mechanism is operated using the operation information generated by the generation unit.
前記の構成によれば、ジェスチャ検出領域において行われたジェスチャに限り、対応する作動内容が所定機構に反映される。これにより、車両内に滞在する乗員によるジェスチャ操作の認識精度をより向上させることができる車両制御装置を実現できる。 According to the above configuration, the corresponding operation content is reflected in the predetermined mechanism only for the gesture performed in the gesture detection region. As a result, it is possible to realize a vehicle control device capable of further improving the recognition accuracy of the gesture operation by the occupant staying in the vehicle.
本発明の一態様に係る車両制御装置では、前記設定部は、前記乗員が着座するシートに関する情報であるシート情報及び、前記乗員の体格又は姿勢の少なくとも一方に関する情報である乗員情報、のうちの少なくとも一方に基づいて、前記ジェスチャ検出領域を設定する構成としてもよい。 In the vehicle control device according to one aspect of the present invention, the setting unit includes seat information which is information about a seat on which the occupant sits and occupant information which is information about at least one of the physique or posture of the occupant. The gesture detection region may be set based on at least one of them.
前記の構成によれば、シート情報または乗員情報に応じて好適なジェスチャ検出領域を設定できる。 According to the above configuration, a suitable gesture detection area can be set according to the seat information or the occupant information.
本発明の一態様に係る車両制御装置では、前記生成部により生成された作動情報を、前記所定機構を作動させる制御部に送信する送信部を更に備える構成としてもよい。 The vehicle control device according to one aspect of the present invention may further include a transmission unit that transmits the operation information generated by the generation unit to the control unit that operates the predetermined mechanism.
前記の構成によれば、車両制御装置とは分離して制御部を実現できる。 According to the above configuration, the control unit can be realized separately from the vehicle control device.
本発明の一態様に係る車両制御装置では、前記生成部により生成された作動情報を用いて前記所定機構を作動させる制御部を更に備える構成としてもよい。 The vehicle control device according to one aspect of the present invention may further include a control unit that operates the predetermined mechanism using the operation information generated by the generation unit.
前記の構成によれば、所定機構を自身で作動させることのできる車両制御装置を実現できる。 According to the above configuration, it is possible to realize a vehicle control device capable of operating a predetermined mechanism by itself.
本発明の一態様に係る車両制御装置では、前記乗員が着座するシートに関する情報であるシート情報は、前記シートの位置及び角度のうちの少なくとも一方を表す情報であり、前記乗員の体格又は姿勢の少なくとも一方に関する情報である乗員情報は、前記乗員の身長及び身体の向きのうちの少なくとも一方を表す情報であり、前記設定部は、前記シート情報及び前記乗員情報のうちの少なくとも一方が変化した場合に、前記ジェスチャ検出領域の設定を更新する構成としてもよい。 In the vehicle control device according to one aspect of the present invention, the seat information, which is information about the seat on which the occupant sits, is information representing at least one of the position and angle of the seat, and is the physique or posture of the occupant. The occupant information, which is information about at least one of them, is information representing at least one of the height and body orientation of the occupant, and the setting unit is in the case where at least one of the seat information and the occupant information is changed. In addition, the setting of the gesture detection area may be updated.
前記の構成によれば、上述したシート情報または乗員情報が変化した場合に、ジェスチャ検出領域を好適な領域に更新できる。 According to the above configuration, the gesture detection region can be updated to a suitable region when the above-mentioned seat information or occupant information changes.
本発明の一態様に係る車両制御装置では、前記乗員に対して前記乗員によるジェスチャを誘導する表示画面を表示させる表示制御部を更に備える構成としてもよい。 The vehicle control device according to one aspect of the present invention may further include a display control unit that displays a display screen that guides the occupant to make a gesture by the occupant.
前記の構成によれば、表示画面を乗員が確認しながらジェスチャ操作を行うことができるので、利便性の向上に寄与する。 According to the above configuration, the occupant can perform the gesture operation while checking the display screen, which contributes to the improvement of convenience.
本発明の一態様に係る車両制御装置では、前記表示画面は、前記乗員が視認可能となるように前記車室空間内に設置されたディスプレイ上に表示される画面である構成としてもよい。 In the vehicle control device according to one aspect of the present invention, the display screen may be a screen displayed on a display installed in the vehicle interior space so that the occupant can see it.
前記の構成によれば、ディスプレイに表示された画面を乗員が確認しながらジェスチャ操作を行うことができるので、利便性の向上に寄与する。 According to the above configuration, the occupant can perform the gesture operation while checking the screen displayed on the display, which contributes to the improvement of convenience.
本発明の一態様に係る車両制御装置では、前記表示画面は、前記乗員が視認可能となるように前記車室空間内に投影される画面である構成としてもよい。 In the vehicle control device according to one aspect of the present invention, the display screen may be a screen projected in the vehicle interior space so that the occupant can see it.
前記の構成によれば、例えば、物理的なディスプレイが設置しにくい場所においても表示画面を表示させて乗員によるジェスチャ操作を誘導することができる。 According to the above configuration, for example, the display screen can be displayed even in a place where a physical display is difficult to install, and the gesture operation by the occupant can be guided.
本発明の一態様に係る車両制御装置では、前記乗員に対して前記乗員によるジェスチャを誘導する音声を出力する音声出力部を更に備える構成としてもよい。 The vehicle control device according to one aspect of the present invention may further include a voice output unit that outputs a voice for inducing a gesture by the occupant to the occupant.
前記の構成によれば、視覚が不自由な乗員に対してもジェスチャ操作を誘導することができる。 According to the above configuration, the gesture operation can be guided even to the visually impaired occupant.
本発明の一態様に係る車両制御装置では、前記所定機構は、前記車両に搭載されたシート設備、ウィンドウ設備、空調設備、照明設備、音響設備、及びドア設備のうちの少なくとも一つに関する機構である構成としてもよい。 In the vehicle control device according to one aspect of the present invention, the predetermined mechanism is a mechanism related to at least one of seat equipment, window equipment, air conditioning equipment, lighting equipment, sound equipment, and door equipment mounted on the vehicle. It may have a certain configuration.
前記の構成によれば、上述した各設備を作動させることのできる車両制御装置を実現できる。 According to the above configuration, it is possible to realize a vehicle control device capable of operating each of the above-mentioned facilities.
本発明の一態様に係る車両制御装置では、前記設定部は、前記乗員による所定のジェスチャ及び前記乗員による所定の音声入力のうちの少なくとも一方がなされることをトリガーとして、前記ジェスチャ検出領域の設定を開始する構成としてもよい。 In the vehicle control device according to one aspect of the present invention, the setting unit sets the gesture detection region by using at least one of a predetermined gesture by the occupant and a predetermined voice input by the occupant as a trigger. May be configured to start.
前記の構成によれば、乗員が意図しないジェスチャによって所定機構が誤作動することをより抑制できる。 According to the above configuration, it is possible to further prevent the predetermined mechanism from malfunctioning due to a gesture not intended by the occupant.
本発明の一態様によれば、車両内に滞在する乗員によるジェスチャ操作の認識精度をより向上させることができる車両制御装置を実現できる。 According to one aspect of the present invention, it is possible to realize a vehicle control device capable of further improving the recognition accuracy of the gesture operation by the occupant staying in the vehicle.
以下、本発明の実施形態について、図1〜図14を参照して詳細に説明する。ただし、本実施形態に記載されている構成は、特に特定的な記載がない限り、この発明の範囲をそれのみに限定する趣旨ではなく、単なる説明例に過ぎない。 Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS. 1 to 14. However, the configuration described in the present embodiment is not intended to limit the scope of the present invention to the present invention unless otherwise specified, and is merely an example of explanation.
〔実施形態1〕
以下、本発明の一実施形態について説明する。本実施形態においては、車室空間内の特定の領域において乗員が所定のジェスチャを行ったことに応答して、所定機構を作動させるシステムの一例について説明する。一例として、所定機構は、乗員が着座するシート設備であるものとして説明するが、これに限定されず、ウィンドウ設備、空調設備、照明設備、音響設備またはドア設備等であってもよい。所定機構の作動内容は特に限定されないが、例えばドア設備の場合は、車両のドアの開閉等が挙げられる。
[Embodiment 1]
Hereinafter, an embodiment of the present invention will be described. In the present embodiment, an example of a system that operates a predetermined mechanism in response to an occupant performing a predetermined gesture in a specific area in the vehicle interior space will be described. As an example, the predetermined mechanism will be described as a seat facility in which an occupant sits, but the present invention is not limited to this, and may be window equipment, air conditioning equipment, lighting equipment, audio equipment, door equipment, and the like. The operation content of the predetermined mechanism is not particularly limited, and for example, in the case of door equipment, opening and closing of a vehicle door and the like can be mentioned.
〔1.車両の構成〕
図1は、本実施形態に係る車両が備えるシステムであって、車両制御装置1、シートECU(Electronic Central Unit)20、及びシート設備40を含むシステムの機能ブロック図である。
[1. Vehicle configuration]
FIG. 1 is a functional block diagram of a system included in a vehicle according to the present embodiment, which includes a vehicle control device 1, a seat ECU (Electronic Central Unit) 20, and a
(車両制御装置1)
車両制御装置1は、車室空間内に滞在する乗員によるジェスチャを認識することにより、車両に搭載された所定機構を作動させるECUである。車両制御装置1は、検出部2、設定部3、認識部4、生成部5、記憶部6、受信部7および送信部8を備えている。
(Vehicle control device 1)
The vehicle control device 1 is an ECU that operates a predetermined mechanism mounted on the vehicle by recognizing a gesture by an occupant staying in the vehicle interior space. The vehicle control device 1 includes a
検出部2は、車室空間内に滞在する乗員によるジェスチャ、及び乗員の体格又は姿勢の少なくとも一方を検出する。検出部2は、例えば自身が形成する電波エリア内における乗員の動きを検出するミリ波レーダや、LiDAR(Light Detection And Ranging)等として実現される。この構成において、検出部2は、照射した電波が返ってくるまでの時間(TOF: Time Of Flight)を計測することによって物体の形状を取得する。
The
なお、別の態様として、検出部2は、図示しないカメラの撮影画像を参照して乗員のジェスチャ、及び乗員の体格又は姿勢の少なくとも一方を検出する構成であってもよい。また、当該構成においては、CNN(Convolutional Neural Network)やRNN(Recurrent Neural Network)といったニューラルネットワーク等を用いた既存の機械学習手法が用いられる構成でもよい。また、図示しない上記カメラは、TOFカメラであってもよい。
As another aspect, the
また、検出部2は、乗員によるジェスチャを示す情報を認識部4に出力し、乗員の体格又は姿勢の少なくとも一方に関する情報である乗員情報を設定部3に出力する。
Further, the
設定部3は、車室空間内において検出部2が乗員によるジェスチャを検出する3次元領域であるジェスチャ検出領域を、検出部2に対して設定する。また、設定部3は、乗員が着座するシートに関するシート情報51及び上記乗員情報のうちの少なくとも何れかに基づいてジェスチャ検出領域を設定してもよい。ここで、シート情報51は、シート設備40を制御するシートECU20から受信部7を介して設定部3が取得する情報である。図1に示すように、シート情報51は、例えばシートの座面、背もたれ又はヘッドレストの位置及び角度等を示す情報であってもよい。
The setting unit 3 sets a gesture detection area, which is a three-dimensional area in which the
図2は、検出部2による検出が可能な電波エリアを示す領域、及びジェスチャ検出領域の一例を示す図である。図2において、領域61は、検出部2が乗員の動きを検出することが可能な上記電波エリアとなる領域を示している。領域62は、乗客の身体が占める領域を示している。領域63は、領域61のうち、設定部3によって設定されるジェスチャ検出領域を示している。検出部2は、ジェスチャ検出領域である領域63以外においてなされたジェスチャを含む乗員の動きは、当該乗員の動きが領域61内においてなされたものであっても検出の対象とはしない。また、ジェスチャ検出領域は、領域62の前方において、乗員が指を動かすことのできる領域が設定されることが望ましい。
FIG. 2 is a diagram showing an example of a region showing a radio wave area that can be detected by the
なお、図2において、検出部2は、車室の天井に設けられており、後部座席に着座する乗員を検出対象としているが、これに限定されず、シート設備40の前方に検出部2が設けられていてもよいし、前部座席に着座する乗員を検出対象としていてもよい。
In FIG. 2, the
また、設定部3は、乗員による所定のジェスチャ、及び乗員による所定の音声入力のうちの少なくとも一方がなされることをトリガーとしてジェスチャ検出領域の設定を開始する構成であってもよい。つまり、上記トリガーとなる行動が乗員によってなされない限り、検出部2は乗員によるジェスチャの検出を開始しない構成であってもよい。また、検出部2が乗員による音声入力を検出し、入力された音声を認識部4が認識する構成であってもよい。
Further, the setting unit 3 may be configured to start setting the gesture detection area by triggering at least one of a predetermined gesture by the occupant and a predetermined voice input by the occupant. That is, the
認識部4は、設定部3により設定されたジェスチャ検出領域において、検出部2により検出されたジェスチャの軌跡を認識する。ここで、認識部4がジェスチャの軌跡を認識する構成は、既存のモーションセンサーデバイス等を用いて実現されてもよい。
The recognition unit 4 recognizes the locus of the gesture detected by the
また、認識部4は、ジェスチャの軌跡を認識した結果を、生成部5に出力する。詳細については後述するが、本開示において認識部4が認識する乗員のジェスチャには、乗員の身体の姿勢により表される静的なジェスチャ(例えば、手の形)と、乗員の身体の動きにより表される動的なジェスチャ(例えば、手の動き)とが含まれる。
Further, the recognition unit 4 outputs the result of recognizing the locus of the gesture to the
生成部5は、認識部4により認識されたジェスチャの軌跡に基づいて、車室空間内における所定機構の作動内容を特定するための作動情報を生成する。作動情報は、所定機構の各作動内容に対応付けられた識別番号または識別符号であり得る。例えば、生成部5は、記憶部6が格納する情報であって、認識部4の認識結果と作動情報とが対応付けられたテーブルを示す情報を参照して作動情報を生成する構成であってもよい。
The
記憶部6は、各種情報を格納する記憶装置である。記憶部6は、例えば上述したテーブルを示す情報や、ジェスチャ検出領域を規定する座標情報等を格納する。
The
受信部7は、設定部3に入力されるシート情報51をシートECU20から取得する。送信部8は、生成部5により生成された作動情報をシートECU20に対して送信する。また、送信された作動情報は、シートECU20の制御部23によって参照される。別の側面から言えば、送信部8は、生成部5により生成された作動情報を、所定機構を作動させる制御部23に送信する構成である、と言える。
The receiving unit 7 acquires the
なお、上述したように所定機構はシート設備40に限定されないため、送信部8は、シート設備40以外の所定機構を制御するECUのそれぞれに対して対応する作動情報を送信し得る。
Since the predetermined mechanism is not limited to the
(シートECU20)
シートECU20は、車両制御装置1から送信される作動情報に基づいてシート設備40を制御する装置であって、受信部21、動作要求判定部22、制御部23、シート状態入力部24、シート状態判定部25および送信部26を備えている。
(Seat ECU 20)
The
受信部21は、車両制御装置1の送信部8から送信された作動情報を受信して動作要求判定部22に出力する。
The receiving
動作要求判定部22は、作動情報が示す所定機構の作動内容が、作動情報が入力された時点における所定機構の状態に対して反映可能か否かを判定する。例えば動作要求判定部22は、シート設備40の背もたれが最大限に倒れている場合に、シート設備40の背もたれを倒すことを指示する作動情報を取得したときは、シート設備40に当該作動情報を反映できないものとしてこれを破棄してもよい。また、動作要求判定部22は、制御部23に含まれるか、制御部23と一体である構成であってもよい。
The operation
制御部23は、作動情報を用いて所定機構を作動させる制御装置である。具体的には、制御部23は、作動情報を参照して所定機構に反映させるべき作動内容を特定し、作動のための制御信号を当該所定機構に出力する。例えば、作動情報が上述したように識別番号または識別符号である構成において、制御部23は、シートECU20が備える図示しない記憶部であって、識別番号または識別符号と、所定機構に反映させるべき作動内容とが対応付けられたテーブルを示す情報を参照して所定機構に反映させるべき作動内容を特定してもよい。
The
シート状態入力部24は、シート設備40に関するシート情報51を、シート設備40から取得してシート状態判定部25に出力する。
The seat
シート状態判定部25は、シート状態入力部24から入力されたシート情報51を参照して、シート設備40を構成するシートの座面、背もたれ又はヘッドレスト等の各部の位置及び角度、並びにそれらがどのように変化したかを判定する。
The seat
送信部26は、シート状態判定部25による判定結果を、車両制御装置1に対して送信する。
The
(シート設備40)
シート設備40は、車室空間内に設けられた1又は複数の座席(シート)であって、駆動部41と、シート情報51をシートECU20に出力する機構とを備えている。
(Seat equipment 40)
The
駆動部41は、シートECU20の制御部23から入力された制御信号に基づいてシート設備40の各部を作動させ、座面の位置や背もたれの角度等を変化させる。駆動部41は、例えばシートスライドモータ42、シートリクライニングモータ43等として実現される。
The
(付記事項)
なお、図1に示す構成とは別の態様として、シートECU20は、車両制御装置1と一体である構成であってもよい。図3は当該構成を示す機能ブロック図である。図3に示す車両制御装置1aは、生成部5により生成された作動情報を用いて所定機構を作動させる制御部23等の部材を、図1に示す構成から更に備える構成である、と言える。
(Additional notes)
In addition to the configuration shown in FIG. 1, the
〔2.処理の流れ〕
本実施形態に係る車両制御装置1における各処理の流れについて項目ごとに説明する。
[2. Process flow]
The flow of each process in the vehicle control device 1 according to the present embodiment will be described for each item.
(動的なジェスチャによる所定機構の制御)
乗員の身体の動きにより表される動的なジェスチャによって車室空間内の所定機構を作動させる処理の流れについて説明する。
(Control of a predetermined mechanism by dynamic gesture)
The flow of processing for operating a predetermined mechanism in the passenger compartment space by a dynamic gesture represented by the movement of the occupant's body will be described.
まず、上述した動的なジェスチャについて図4を参照して補足する。図4は、乗員が指先を回すことによる動的なジェスチャの一例を示す図である。動的なジェスチャを用いる場合、乗員が身体の一部を、ある形状から別の形状に遷移させることに応答して所定機構が作動する。例えば図4に示すジェスチャでウィンドウ設備を操作する場合、指を右に回転させている間だけ車両のウィンドウが開き、指を止めるとウィンドウの開閉が停止し、指を左に回転させている間だけ車両のウィンドウが閉じるといった構成であってもよい。 First, the above-mentioned dynamic gesture will be supplemented with reference to FIG. FIG. 4 is a diagram showing an example of a dynamic gesture caused by the occupant turning his / her fingertip. When using dynamic gestures, a predetermined mechanism is activated in response to the occupant transitioning a part of the body from one shape to another. For example, when operating the window equipment with the gesture shown in FIG. 4, the window of the vehicle opens only while the finger is rotated to the right, and when the finger is stopped, the opening and closing of the window stops and the finger is rotated to the left. It may be configured such that the window of the vehicle is closed only.
続いて、動的なジェスチャによって所定機構を作動させる場合における処理の流れについて図5を参照して説明する。図5は、当該処理の流れを示すフローチャートである。なお、図5のフローチャートに示す例において、設定部3は、乗員による所定のジェスチャ、及び乗員による所定の音声入力のうちの少なくとも一方がなされることをトリガーとして、所定時間に限りジェスチャ検出領域を設定する。また、後述する図7のフローチャートに示す例においても同様である。 Subsequently, the flow of processing when the predetermined mechanism is operated by a dynamic gesture will be described with reference to FIG. FIG. 5 is a flowchart showing the flow of the process. In the example shown in the flowchart of FIG. 5, the setting unit 3 sets the gesture detection area only for a predetermined time by using at least one of a predetermined gesture by the occupant and a predetermined voice input by the occupant as a trigger. Set. The same applies to the example shown in the flowchart of FIG. 7 described later.
ステップS101において、上述したトリガーとなる乗員の行動がなされる前、設定部3は、ジェスチャ検出領域を設定しない。 In step S101, the setting unit 3 does not set the gesture detection area before the above-mentioned trigger action of the occupant is performed.
ステップS102において、トリガーとなる乗員の行動を認識部4が認識したか否かの判定が実行される。上記行動を認識部4が認識した場合、続いてステップS103の処理が実行され、認識していない場合、図5のフローチャートに基づく処理が終了する。なお、ステップS102を含む各ステップにおける判定処理は、当該ステップにおける動作主体自身が行うものであってもよいし、当該ステップにおける動作主体以外の車両制御装置1の各部が行うものであってもよい。 In step S102, it is determined whether or not the recognition unit 4 has recognized the behavior of the occupant that is the trigger. When the recognition unit 4 recognizes the above action, the process of step S103 is subsequently executed, and when it is not recognized, the process based on the flowchart of FIG. 5 ends. The determination process in each step including step S102 may be performed by the operating entity itself in the step, or may be performed by each part of the vehicle control device 1 other than the operating entity in the step. ..
ステップS103において、設定部3は、ジェスチャ検出領域を設定する。つまり検出部2によって乗員のジェスチャの検出が可能となる。
In step S103, the setting unit 3 sets the gesture detection area. That is, the
ステップS104において、所定機構を作動させる所定のジェスチャの開始を、認識部4が認識したか否かの判定が実行される。上記ジェスチャの開始を認識部4が認識した場合、続いてステップS105の処理が実行され、認識していない場合、続いてステップS106の処理が実行される。 In step S104, it is determined whether or not the recognition unit 4 has recognized the start of a predetermined gesture that activates the predetermined mechanism. If the recognition unit 4 recognizes the start of the gesture, the process of step S105 is subsequently executed, and if it is not recognized, the process of step S106 is subsequently executed.
ステップS105において、生成部5が作動情報を生成することに起因して、所定機構が作動する。
In step S105, the predetermined mechanism operates due to the
ステップS106において、設定部3がジェスチャ検出領域を設定してから所定時間が経過したか否かの判定が実行される。上記所定時間が経過した場合、図5のフローチャートに基づく処理が終了し、上記所定時間が経過していない場合、ステップS104の処理が繰り返される。 In step S106, it is determined whether or not a predetermined time has elapsed since the setting unit 3 set the gesture detection area. When the predetermined time has elapsed, the process based on the flowchart of FIG. 5 is completed, and when the predetermined time has not elapsed, the process of step S104 is repeated.
ステップS107において、所定のジェスチャの終了を、認識部4が認識したかの判定が実行される。上記ジェスチャの終了を認識部4が認識した場合、続いてステップS109の処理が実行され、認識していない場合、続いてステップS108の処理が実行される。 In step S107, it is determined whether or not the recognition unit 4 has recognized the end of the predetermined gesture. If the recognition unit 4 recognizes the end of the gesture, the process of step S109 is subsequently executed, and if it is not recognized, the process of step S108 is subsequently executed.
ステップS108において、設定部3がジェスチャ検出領域を設定してから所定時間が経過したか否かの判定が実行される。上記所定時間が経過した場合、続いてステップS109の処理が実行され、上記時間が経過していない場合、ステップS107の処理が繰り返される。なお、本ステップS108においては、ステップS104で所定のジェスチャの開始を認識部4が認識してから所定時間が経過したか否かの判定が実行される構成であってもよい。 In step S108, it is determined whether or not a predetermined time has elapsed since the setting unit 3 set the gesture detection area. When the predetermined time has elapsed, the process of step S109 is subsequently executed, and when the time has not elapsed, the process of step S107 is repeated. In this step S108, it may be configured that the recognition unit 4 recognizes the start of the predetermined gesture in step S104 and determines whether or not a predetermined time has elapsed.
ステップS109において、所定機構の動作を停止させる作動情報を生成部5が生成することに起因して、ステップS105から作動していた所定機構の動作が停止する。
In step S109, the operation of the predetermined mechanism that has been operating from step S105 is stopped due to the
なお、所定機構の動作の停止を明示的に指示する作動情報を生成部5が生成する構成ではなく、所定機構をリアルタイムに作動させる信号としての作動情報の送信を車両制御装置1が停止することによって所定機構の動作が停止する構成であってもよい。
It should be noted that the vehicle control device 1 stops the transmission of the operation information as a signal for operating the predetermined mechanism in real time, instead of the configuration in which the
(静的なジェスチャによる所定機構の制御)
乗員の身体の姿勢により表される静的なジェスチャによって車室空間内の所定機構を作動させる処理の流れについて説明する。
(Control of a predetermined mechanism by static gesture)
The flow of processing for operating a predetermined mechanism in the passenger compartment space by a static gesture represented by the posture of the occupant's body will be described.
まず、上述した静的なジェスチャについて図6を参照して補足する。図6は、乗員が指先を立てることによる静的なジェスチャの例を示す図である。静的なジェスチャを用いる場合、乗員が身体の一部を、ある形状にすることに応答して所定機構が動作し、その形状にするまでにどのように身体が動かされたかという過程は問われない。 First, the static gesture described above will be supplemented with reference to FIG. FIG. 6 is a diagram showing an example of a static gesture caused by the occupant raising his / her fingertip. When using static gestures, the process of how a predetermined mechanism operates in response to a part of the body being shaped by the occupant and how the body is moved to that shape is questioned. Absent.
続いて、静的なジェスチャによって所定機構を作動させる場合における処理の流れについて図7を参照して説明する。図7は、当該処理の流れを示すフローチャートである。 Subsequently, the flow of processing when the predetermined mechanism is operated by a static gesture will be described with reference to FIG. 7. FIG. 7 is a flowchart showing the flow of the process.
図7のフローチャートは、ステップS104の処理に代わりステップS204の処理が実行される点と、ステップS105の処理に続いてステップS109の処理が実行される点において、図5のフローチャートと相違する。また、ステップS105において所定機構が作動する程度は、予め規定されている。ステップS204の処理は、以下の通りである。 The flowchart of FIG. 7 is different from the flowchart of FIG. 5 in that the process of step S204 is executed instead of the process of step S104 and the process of step S109 is executed following the process of step S105. Further, the degree to which the predetermined mechanism operates in step S105 is predetermined. The process of step S204 is as follows.
ステップS204において、所定機構を作動させる所定の静的なジェスチャを、認識部4が認識したか否かの判定が実行される。上記ジェスチャの開始を認識部4が認識した場合、続いてステップS105の処理が実行され、認識していない場合、続いてステップS106の処理が実行される。 In step S204, it is determined whether or not the recognition unit 4 has recognized a predetermined static gesture that activates the predetermined mechanism. If the recognition unit 4 recognizes the start of the gesture, the process of step S105 is subsequently executed, and if it is not recognized, the process of step S106 is subsequently executed.
(ジェスチャ検出領域の設定)
以下、設定部3がジェスチャ検出領域の設定を更新する処理の流れについて説明する。図8は、当該処理の流れを示すフローチャートである。
(Setting of gesture detection area)
Hereinafter, the flow of the process in which the setting unit 3 updates the setting of the gesture detection area will be described. FIG. 8 is a flowchart showing the flow of the process.
ステップS301において、シート設備40の少なくとも一部において位置及び角度のうち少なくとも一方が変化した場合、シート状態判定部25が当該変化を検出する。
In step S301, when at least one of the position and the angle changes in at least a part of the
ステップS302において、例えば乗員が入れ替わったことによって、対象となるシート設備40に着座している乗員の体格又は姿勢のうち少なくとも一方が変化した場合、検出部2が当該変化を検出する。
In step S302, when at least one of the physique or posture of the occupant seated in the
ステップS303において、設定部3は、シート設備40の状態および変化を示すシート情報51、並びに乗員の状態および変化を示す乗員情報を取得する。また、本ステップS303において、設定部は、シート情報51及び前記乗員情報のうちの少なくとも一方が直近に取得したものから変化した場合に、ジェスチャ検出領域の設定を更新する。
In step S303, the setting unit 3 acquires the
(シート情報51に応じたジェスチャ検出領域の更新)
図9は、シート情報51の変化に応じて設定部3がジェスチャ検出領域の設定を更新する処理の流れを示すフローチャートである。また、図9に示す処理は、図8のフローチャートにおけるステップS303の処理に対応する。
(Update of gesture detection area according to sheet information 51)
FIG. 9 is a flowchart showing a flow of processing in which the setting unit 3 updates the setting of the gesture detection area according to the change of the
ステップS401において、設定部3は、受信部7を介してシートECU20からシート情報51を取得する。
In step S401, the setting unit 3 acquires the
ステップS402において、設定部3は、シート情報51が、直近に取得したものから変化したか否か、即ち、シート設備40において位置及び方向のうち少なくとも一方が変化したか否かを判定する。ここで、シート設備40における位置及び方向には、シート設備40の一部分における位置及び方向も含まれる。シート情報51が変化した場合、設定部3は、続いてステップS403の処理を実行し、シート情報51が変化していない場合、図9のフローチャートに基づく処理が終了する。
In step S402, the setting unit 3 determines whether or not the
ステップS403において、設定部3は、シート情報51が、シート設備40自体が前方に移動したことを示しているか否かを判定する。シート情報51が、シート設備40自体が前方に移動したことを示している場合、設定部3は、続いてステップS404の処理を実行し、そうでない場合、設定部3は、続いてステップS405の処理を実行する。
In step S403, the setting unit 3 determines whether or not the
ステップS404において、設定部3は、ジェスチャ検出領域を前方に移動させる。また、ジェスチャ検出領域の移動距離は、シート設備40の移動距離に応じたものであってもよい。以降のステップにおいて、シート設備40の移動に応じてジェスチャ検出領域を移動させる場合においても同様である。
In step S404, the setting unit 3 moves the gesture detection area forward. Further, the moving distance of the gesture detection area may correspond to the moving distance of the
ステップS405において、設定部3は、シート情報51が、シート設備40自体が後方に移動したことを示しているか否かを判定する。シート情報51が、シート設備40自体が後方に移動したことを示している場合、設定部3は、続いてステップS406の処理を実行し、そうでない場合、続いてステップS407の処理を実行する。
In step S405, the setting unit 3 determines whether or not the
ステップS406において、設定部3は、ジェスチャ検出領域を後方に移動させる。 In step S406, the setting unit 3 moves the gesture detection area backward.
ステップS407において、設定部3は、シート設備40の背もたれが前方に移動したことを示しているか否か、即ち、シート設備40の背もたれのリクライニングが起こされたか否かを判定する。シート情報51が、背もたれが前方に移動したことを示している場合、設定部3は、続いてステップS408の処理を実行し、そうでない場合、続いてステップS409の処理を実行する。
In step S407, the setting unit 3 determines whether or not the backrest of the
ステップS408において、設定部3は、ジェスチャ検出領域を前方下方に移動させる。 In step S408, the setting unit 3 moves the gesture detection region forward and downward.
ステップS409において、設定部3は、シート情報51が、シート設備40の背もたれが後方に移動したことを示しいているか否か、即ち、シート設備40の背もたれのリクライニングが倒されたか否かを判定する。シート情報51が、背もたれが後方に移動したことを示している場合、設定部3は、続いてステップS410の処理を実行し、そうでない場合、続いてステップS411の処理を実行する。
In step S409, the setting unit 3 determines whether or not the
ステップS410において、設定部3は、ジェスチャ検出領域を後方上方に移動させる。 In step S410, the setting unit 3 moves the gesture detection region backward and upward.
ステップS411及びS412以降においては、シート情報51が、シート設備40の対象となる箇所において位置及び方向のうち少なくとも一方が変化したことを示しているか否を、設定部3が判定し、変化したことを示している場合、ジェスチャ検出領域を所定の方向に移動させ、そうでなければ、他の部分について同様の判定を行う処理を、シート設備40の各箇所について繰り返す。
In steps S411 and S412 and thereafter, the setting unit 3 determines whether or not the
(乗員情報に応じたジェスチャ検出領域の更新)
図10は、乗員情報の変化に応じて設定部3がジェスチャ検出領域の設定を更新する処理の流れを示すフローチャートである。また、図10に示す処理は、図8のフローチャートにおけるステップS303の処理に対応する。
(Update of gesture detection area according to occupant information)
FIG. 10 is a flowchart showing a flow of processing in which the setting unit 3 updates the setting of the gesture detection area according to the change of the occupant information. Further, the process shown in FIG. 10 corresponds to the process of step S303 in the flowchart of FIG.
ステップS501において、設定部3は、検出部2から乗員情報を取得する。
In step S501, the setting unit 3 acquires occupant information from the
ステップS502において、設定部3は、当該乗員情報が、直近に取得したものから変化したか否か、即ち、乗員の体格又は姿勢の少なくとも一方が変化したか否かを判定する。乗員情報が変化していない場合、設定部3は、続いてステップS503の処理を実行し、乗員情報が変化していない場合、図10のフローチャートに基づく処理が終了する。 In step S502, the setting unit 3 determines whether or not the occupant information has changed from the most recently acquired information, that is, whether or not at least one of the physique or posture of the occupant has changed. If the occupant information has not changed, the setting unit 3 subsequently executes the process of step S503, and if the occupant information has not changed, the process based on the flowchart of FIG. 10 ends.
ステップS503において、設定部3は、当該乗員情報が、乗員の体格が大きくなったことを示しているか否かを判定する。当該乗員情報が、乗員の体格が大きくなったことを示している場合、設定部3は、続いてステップS504の処理を実行し、そうでない場合、設定部3は、続いてステップS505の処理を実行する。 In step S503, the setting unit 3 determines whether or not the occupant information indicates that the occupant's physique has increased. If the occupant information indicates that the occupant's physique has increased, the setting unit 3 subsequently executes the process of step S504, and if not, the setting unit 3 subsequently executes the process of step S505. Execute.
ステップS504において、設定部3は、ジェスチャ検出領域を前方に移動させる。また、ジェスチャ検出領域の移動距離は、乗員の体格又は姿勢の変化の程度に応じたものであってもよい。以降のステップにおいて、乗員の体格又は姿勢の変化に応じてジェスチャ検出領域を移動させる場合においても同様である。 In step S504, the setting unit 3 moves the gesture detection area forward. Further, the moving distance of the gesture detection region may be determined according to the degree of change in the physique or posture of the occupant. The same applies to the case where the gesture detection area is moved according to the change in the physique or posture of the occupant in the subsequent steps.
ステップS505において、設定部3は、当該乗員情報が、乗員の体格が小さくなったことを示しているか否かを判定する。当該乗員情報が、乗員の体格が小さくなったことを示しいている場合、設定部3は、続いてステップS506の処理を実行し、そうでない場合、設定部3は、続いてステップS507の処理を実行する。 In step S505, the setting unit 3 determines whether or not the occupant information indicates that the occupant's physique has become smaller. If the occupant information indicates that the occupant's physique has become smaller, the setting unit 3 subsequently executes the process of step S506, and if not, the setting unit 3 subsequently executes the process of step S507. Execute.
ステップS506において、設定部3は、ジェスチャ検出領域を後方に移動させる。 In step S506, the setting unit 3 moves the gesture detection area backward.
ステップS507おいて、設定部3は、当該乗員情報が、乗員の姿勢が左側を向いている状態に変化したか否かを判定する。当該乗員情報が、乗員の姿勢が左側を向いている状態に変化したことを示している場合、設定部3は、続いてステップS508の処理を実行し、そうでない場合、設定部3は、続いてステップS509の処理を実行する。 In step S507, the setting unit 3 determines whether or not the occupant information has changed to a state in which the occupant's posture is facing to the left. If the occupant information indicates that the occupant's posture has changed to the left side, the setting unit 3 subsequently executes the process of step S508, and if not, the setting unit 3 continues. The process of step S509 is executed.
ステップS508において、設定部3は、ジェスチャ検出領域を左方に移動させる。 In step S508, the setting unit 3 moves the gesture detection area to the left.
ステップS509において、設定部3は、当該乗員情報が、乗員の状態が右側を向いている状態に変化したか否かを判定する。当該乗員情報が、乗員の姿勢が右側を向いている状態に変化したことを示している場合、設定部3は、続いてステップS510の処理を実行し、そうでない場合、設定部3は、ステップS511の処理を実行する。 In step S509, the setting unit 3 determines whether or not the occupant information has changed to a state in which the occupant's state is facing to the right. If the occupant information indicates that the occupant's posture has changed to the right side, the setting unit 3 subsequently executes the process of step S510, and if not, the setting unit 3 steps. The process of S511 is executed.
ステップS510において、設定部3は、ジェスチャ検出領域を右方に移動させる。 In step S510, the setting unit 3 moves the gesture detection area to the right.
ステップS511及びS512以降においては、当該乗員情報が、乗員の体格又は姿勢の少なくとも一方に関する項目について変化したことを示しているか否を、設定部3が判定し、変化したことを示している場合、ジェスチャ検出領域を所定の方向に移動させ、そうでなければ、他の項目について同様の判定を行う処理を各項目について繰り返す。 In steps S511 and S512 and thereafter, when the setting unit 3 determines whether or not the occupant information indicates that the item relating to at least one of the physique or posture of the occupant has changed, and indicates that the change has occurred. The gesture detection area is moved in a predetermined direction, and if not, the process of making the same determination for other items is repeated for each item.
〔実施形態2〕
本発明の第2の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、重複する説明を繰り返さない。また、以降の実施形態においても同様である。本実施形態においては、シートECU20等を介して車両制御装置1が作動させる所定機構の候補が複数種類存在する場合において、乗員がトリガーとなる所定のジェスチャを行うことによって、作動させる所定機構が決定される構成の一例について説明する。
[Embodiment 2]
A second embodiment of the present invention will be described below. For convenience of explanation, the members having the same functions as the members described in the above-described embodiment are designated by the same reference numerals, and duplicate explanations will not be repeated. The same applies to the subsequent embodiments. In the present embodiment, when there are a plurality of candidates for a predetermined mechanism to be operated by the vehicle control device 1 via the
上記構成は、所定機構を選択するジェスチャと所定機構とが、1対1又は多対1に対応付けられることによって実現され得る。 The above configuration can be realized by associating a gesture for selecting a predetermined mechanism with a predetermined mechanism in a one-to-one or many-to-one manner.
一例としては、乗員の指の形状により表される静的なジェスチャと各機構とが関連付けられており、指を1本立てるジェスチャにはシート設備40が対応付けられていてもよい。また、指を2本立てるジェスチャにはウィンドウ設備が対応付けられ、指を3本立てるジェスチャには空調設備が対応付けられ、指を4本立てるジェスチャ操作には照明設備が対応付けられ、指を5本立てるジェスチャには音響設備が対応付けられ、両手で指を6本立てるジェスチャ操作にはドア設備が対応付けられていてもよい。
As an example, a static gesture represented by the shape of the occupant's finger is associated with each mechanism, and the
上記の例においては、乗員が指を1〜5本立てたことに応答して、車両制御装置1が、対応する所定機構に対する別のジェスチャ操作を受け付ける構成である。また、当該ジェスチャ操作が所定機構の動作に反映され終わった場合、車両制御装置1は、乗員が指を1〜5本立てるジェスチャを行うことを待機する状態に再度移行する。 In the above example, the vehicle control device 1 receives another gesture operation for the corresponding predetermined mechanism in response to the occupant raising 1 to 5 fingers. Further, when the gesture operation is completely reflected in the operation of the predetermined mechanism, the vehicle control device 1 shifts to the state of waiting for the occupant to perform the gesture of raising 1 to 5 fingers again.
なお、別の態様として、乗員が所定の音声入力を行うことをトリガーとして、車両制御装置1が作動させる所定機構が決定される構成であってもよいし、ジェスチャによるトリガーと音声によるトリガーとの併用であってもよい。 As another aspect, a predetermined mechanism for operating the vehicle control device 1 may be determined by triggering the occupant to input a predetermined voice, or a gesture trigger and a voice trigger may be used. It may be used in combination.
また、実施形態1で上述した図5および図7のステップS102におけるトリガーとなる乗員の行動に、本実施形態の構成が適用されてもよい。例えば、ステップS102において、トリガーとなる乗員の行動として、乗員が指を1〜5本立てるジェスチャを行ったことを認識部4が認識した場合に、ステップS103において設定部3がジェスチャ検出領域を設定し、続くステップにおいて、当該ジェスチャに対応する所定機構が操作可能となる構成であってもよい。 Further, the configuration of the present embodiment may be applied to the behavior of the occupant as the trigger in step S102 of FIGS. 5 and 7 described above in the first embodiment. For example, in step S102, when the recognition unit 4 recognizes that the occupant has made a gesture of raising 1 to 5 fingers as a trigger action of the occupant, the setting unit 3 sets the gesture detection area in step S103. However, in the subsequent steps, the predetermined mechanism corresponding to the gesture may be operable.
〔実施形態3〕
本発明の第3の実施形態について、以下に説明する。本実施形態においては、車両制御装置が、乗員によるジェスチャを誘導する表示画面を表示させる構成の一例について説明する。
[Embodiment 3]
A third embodiment of the present invention will be described below. In the present embodiment, an example of a configuration in which the vehicle control device displays a display screen for guiding a gesture by an occupant will be described.
図11は、本実施形態に係る車両が備えるシステムであって、車両制御装置1b、シートECU20、およびシートを含むシステムの機能ブロック図である。図11に示すように、本実施形態に係る車両制御装置1bは、図1に示す車両制御装置1の構成から表示制御部11を更に備える構成である。
FIG. 11 is a functional block diagram of a system included in the vehicle according to the present embodiment, which includes a
表示制御部11は、乗員に対して、当該乗員によるジェスチャを誘導する表示画面12を表示させる。
The
表示制御部11が表示させる表示画面12は、乗員が視認可能となるように車室空間内に設置されたディスプレイ上に表示させる画面であってもよい。図12は、上記ディスプレイ上に表示された表示画面12の一例を示す図である。
The
図12の例において、ディスプレイは、座席の後方に設けられており、当該座席の後方に着座している乗客がこれを視認する。なお、ディスプレイは、例えば前部座席の前方に設けられていてもよい。 In the example of FIG. 12, the display is provided behind the seat, and a passenger seated behind the seat visually recognizes the display. The display may be provided in front of the front seat, for example.
また、図12の表示画面12においては、乗客が指でつまみを回すジェスチャを行うことによって、音声設備における選曲を行うことができることが示唆されている。
Further, on the
また、図13は、実施形態2において上述した構成であって、乗員が指を1〜6本立てるジェスチャをトリガーとして車両制御装置1bが作動させる所定機構が決定される構成において、当該ジェスチャを誘導する表示画面12を示している。ただし、図13の例においては、ドア設備についての表示は省略されている。
Further, FIG. 13 shows the above-described configuration in the second embodiment in which the gesture is guided in a configuration in which a predetermined mechanism for operating the
また、本実施形態に係る表示画面12は、タッチパネル上に表示されるものであってもよい。図13において「手の形でも選択できます。」とは、タッチパネル上のユーザインターフェースオブジェクト71〜75に触れて選択することによっても車両制御装置1bが作動させる所定機構を乗員が決定できることを示唆している。
Further, the
〔実施形態3の変形例1〕
表示制御部11が表示させる表示画面12は、乗員が視認可能となるように車室空間内に投影される画面であってもよい。
[Modification 1 of Embodiment 3]
The
空中に表示画面を投影する近年の技術としては、下記の例が挙げられる。
“さきトレ|エンタメ業界にも進出する「空中ディスプレイ」の最新活用事例”、[online]、電通テック、[2019年12月17日検索]、インターネット(URL:https://bae.dentsutec.co.jp/articles/aska3d/)
図14は、車室空間内に投影された表示画面12の一例を示している。また、図14の表示画面12においては、乗客が指を回す操作を行うことによって、ウィンドウ設備におけるウィンドウの開閉を行うことができることが示唆されている。
Recent techniques for projecting a display screen in the air include the following examples.
"Sakitore | Latest use cases of" aerial display "that is also expanding into the entertainment industry", [online], Dentsu Tec, [Search on December 17, 2019], Internet (URL: https://bae.dentsutec.co .jp / articles / aska3d /)
FIG. 14 shows an example of the
〔実施形態3の変形例2〕
車両制御装置1は、表示画面ではなく、音声によって乗員のジェスチャを誘導する構成であってもよい。また、上記構成を実現する本変形例に係る車両制御装置1は、乗員に対して乗員によるジェスチャを誘導する音声を出力する音声出力部を更に備える構成であってもよい。
[
The vehicle control device 1 may be configured to guide the occupant's gesture by voice instead of the display screen. Further, the vehicle control device 1 according to the present modification that realizes the above configuration may further include a voice output unit that outputs a voice for inducing a gesture by the occupant to the occupant.
〔付記事項〕
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
[Additional notes]
The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present invention.
1、1a、1b 車両制御装置(ジェスチャ入力ECU)
2 検出部
3 設定部
4 認識部
5 生成部
6 記憶部
7、21 受信部
8、26 送信部
11 表示制御部
12 表示画面
20 シートECU
22 動作要求判定部
23 制御部
40 シート設備
1,1a, 1b Vehicle control device (gesture input ECU)
2 Detection unit 3 Setting unit 4
22 Operation
Claims (11)
車室空間内に滞在する乗員によるジェスチャを検出する検出部と、
前記検出部に対し、前記車室空間内において前記検出部が前記乗員によるジェスチャを検出する3次元領域であるジェスチャ検出領域を設定する設定部と、
前記設定部により設定されたジェスチャ検出領域において、前記検出部により検出されたジェスチャの軌跡を認識する認識部と、
前記認識部により認識されたジェスチャの軌跡に基づいて前記所定機構の作動内容を特定するための作動情報を生成する生成部と
を備え、
前記生成部により生成された作動情報を用いて前記所定機構を作動させる
ことを特徴とする車両制御装置。 A vehicle control device that activates a predetermined mechanism mounted on a vehicle by recognizing a gesture by an occupant staying in the passenger compartment space.
A detector that detects gestures by occupants staying in the passenger compartment,
With respect to the detection unit, a setting unit for setting a gesture detection region, which is a three-dimensional region in which the detection unit detects a gesture by the occupant in the vehicle interior space,
In the gesture detection area set by the setting unit, a recognition unit that recognizes the trajectory of the gesture detected by the detection unit, and
It is provided with a generation unit that generates operation information for specifying the operation content of the predetermined mechanism based on the locus of the gesture recognized by the recognition unit.
A vehicle control device characterized in that the predetermined mechanism is operated by using the operation information generated by the generation unit.
前記乗員が着座するシートに関する情報であるシート情報及び、前記乗員の体格又は姿勢の少なくとも一方に関する情報である乗員情報、のうちの少なくとも一方に基づいて、前記ジェスチャ検出領域を設定する
ことを特徴とする請求項1に記載の車両制御装置。 The setting unit
The gesture detection region is set based on at least one of the seat information which is the information about the seat on which the occupant sits and the occupant information which is the information about at least one of the physique or the posture of the occupant. The vehicle control device according to claim 1.
ことを特徴とする請求項1又は2に記載の車両制御装置。 The vehicle control device according to claim 1 or 2, further comprising a transmission unit that transmits operation information generated by the generation unit to a control unit that operates the predetermined mechanism.
ことを特徴とする請求項1又は2に記載の車両制御装置。 The vehicle control device according to claim 1 or 2, further comprising a control unit that operates the predetermined mechanism using the operation information generated by the generation unit.
前記乗員の体格又は姿勢の少なくとも一方に関する情報である乗員情報は、前記乗員の身長及び身体の向きのうちの少なくとも一方を表す情報であり、
前記設定部は、前記シート情報及び前記乗員情報のうちの少なくとも一方が変化した場合に、前記ジェスチャ検出領域の設定を更新する
ことを特徴とする請求項1から4までの何れか1項に記載の車両制御装置。 The seat information, which is information about the seat on which the occupant sits, is information representing at least one of the position and angle of the seat.
The occupant information, which is information on at least one of the physique or posture of the occupant, is information representing at least one of the height and body orientation of the occupant.
The setting unit according to any one of claims 1 to 4, wherein the setting unit updates the setting of the gesture detection area when at least one of the seat information and the occupant information changes. Vehicle control device.
ことを特徴とする請求項1から5までの何れか1項に記載の車両制御装置。 The vehicle control device according to any one of claims 1 to 5, further comprising a display control unit for displaying a display screen for inducing a gesture by the occupant to the occupant.
ことを特徴とする請求項6に記載の車両制御装置。 The vehicle control device according to claim 6, wherein the display screen is a screen displayed on a display installed in the passenger compartment space so that the occupant can see the display screen.
ことを特徴とする請求項6に記載の車両制御装置。 The vehicle control device according to claim 6, wherein the display screen is a screen projected into the vehicle interior space so that the occupant can see it.
ことを特徴とする請求項1から8までの何れか1項に記載の車両制御装置。 The vehicle control device according to any one of claims 1 to 8, further comprising a voice output unit that outputs a voice for inducing a gesture by the occupant to the occupant.
前記車両に搭載されたシート設備、ウィンドウ設備、空調設備、照明設備、音響設備、及びドア設備のうちの少なくとも一つに関する機構である
ことを特徴とする請求項1から9までの何れか1項に記載の車両制御装置。 The predetermined mechanism is
Any one of claims 1 to 9, wherein the mechanism is related to at least one of a seat facility, a window facility, an air conditioning facility, a lighting facility, an audio facility, and a door facility mounted on the vehicle. The vehicle control device according to.
前記乗員による所定のジェスチャ及び前記乗員による所定の音声入力のうちの少なくとも一方がなされることをトリガーとして、前記ジェスチャ検出領域の設定を開始する
ことを特徴とする請求項1から10の何れか1項に記載の車両制御装置。 The setting unit
Any one of claims 1 to 10, wherein the setting of the gesture detection area is started by triggering at least one of the predetermined gesture by the occupant and the predetermined voice input by the occupant. The vehicle control device according to the section.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019232067A JP2021098481A (en) | 2019-12-23 | 2019-12-23 | Vehicle control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019232067A JP2021098481A (en) | 2019-12-23 | 2019-12-23 | Vehicle control device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021098481A true JP2021098481A (en) | 2021-07-01 |
Family
ID=76540956
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019232067A Pending JP2021098481A (en) | 2019-12-23 | 2019-12-23 | Vehicle control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021098481A (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017211884A (en) * | 2016-05-26 | 2017-11-30 | トヨタ紡織株式会社 | Motion detection system |
JP2017215949A (en) * | 2016-04-30 | 2017-12-07 | トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド | Intelligent tutorial for gesture |
JP2018120531A (en) * | 2017-01-27 | 2018-08-02 | トヨタ紡織株式会社 | Gesture user interface system |
-
2019
- 2019-12-23 JP JP2019232067A patent/JP2021098481A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017215949A (en) * | 2016-04-30 | 2017-12-07 | トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド | Intelligent tutorial for gesture |
JP2017211884A (en) * | 2016-05-26 | 2017-11-30 | トヨタ紡織株式会社 | Motion detection system |
JP2018120531A (en) * | 2017-01-27 | 2018-08-02 | トヨタ紡織株式会社 | Gesture user interface system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110045825B (en) | Gesture recognition system for vehicle interaction control | |
CN106427571B (en) | Interactive operating device and method for operating same | |
US9738158B2 (en) | Motor vehicle control interface with gesture recognition | |
EP3237256B1 (en) | Controlling a vehicle | |
US10589676B2 (en) | Vehicle display system with user input display | |
JP5563153B2 (en) | Operating device | |
GB2501575A (en) | Interacting with vehicle controls through gesture recognition | |
US9649938B2 (en) | Method for synchronizing display devices in a motor vehicle | |
US20160132126A1 (en) | System for information transmission in a motor vehicle | |
US20150116200A1 (en) | System and method for gestural control of vehicle systems | |
JP2017211884A (en) | Motion detection system | |
Neßelrath et al. | Combining speech, gaze, and micro-gestures for the multimodal control of in-car functions | |
US20160334879A1 (en) | Gesture guidance device for moving platform, gesture guidance system for moving platform, and gesture guidance method for moving platform | |
KR102084032B1 (en) | User interface, means of transport and method for distinguishing a user | |
KR101438615B1 (en) | System and method for providing a user interface using 2 dimension camera in a vehicle | |
JP2020042602A (en) | Operation apparatus | |
US20180267620A1 (en) | Motor vehicle with at least one radar unit | |
JP2021098481A (en) | Vehicle control device | |
JP2018132824A (en) | Operation device | |
JP6819539B2 (en) | Gesture input device | |
KR101393573B1 (en) | System and method for providing user interface using optical scanning | |
JP2005292976A (en) | Virtual interface controller | |
KR100986333B1 (en) | an input unit using three- dimensional image for automobile | |
JP2020197942A (en) | Input device | |
KR20200085970A (en) | Vehcle and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221220 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230613 |