JP6342874B2 - Image recognition device - Google Patents
Image recognition device Download PDFInfo
- Publication number
- JP6342874B2 JP6342874B2 JP2015228898A JP2015228898A JP6342874B2 JP 6342874 B2 JP6342874 B2 JP 6342874B2 JP 2015228898 A JP2015228898 A JP 2015228898A JP 2015228898 A JP2015228898 A JP 2015228898A JP 6342874 B2 JP6342874 B2 JP 6342874B2
- Authority
- JP
- Japan
- Prior art keywords
- detection space
- behavior detection
- behavior
- distance
- image recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
Description
本発明は、撮影対象の3次元認識が可能な距離画像センサから入力される信号に基づいて人間の挙動を認識する画像認識装置に関する。 The present invention relates to an image recognition apparatus for recognizing human behavior based on a signal input from a distance image sensor capable of three-dimensional recognition of an imaging target.
例えば、車両上に搭載された様々な車載機器を運転者が操作する場合には、通常は、各々の車載機器を操作するために様々な箇所に設けられた専用のボタンを操作する必要がある。しかし、操作の度に目的のボタンが存在する位置を探して、その位置に指を位置合わせしなければならないので、この操作のために運転者は視線を前方から一時的にずらしたり、自分の手や指の動きに格別な注意を払う必要があり、安全運転の妨げになる。 For example, when a driver operates various in-vehicle devices mounted on a vehicle, it is usually necessary to operate dedicated buttons provided at various locations in order to operate each in-vehicle device. . However, every time an operation is performed, the position where the target button exists must be searched, and the finger must be aligned to that position. For this operation, the driver temporarily shifts his / her line of sight from the front, Special attention must be paid to the movement of hands and fingers, which hinders safe driving.
そこで、従来より運転者のボタン操作を不要にするための技術が開発されている。例えば、車両の室内に設けられたカメラによって運転者の挙動を画像認識し、所定の挙動を検出すると、その挙動に応じて車両に搭載された装置が動作する操作入力装置が知られている(特許文献1)。 Therefore, techniques for eliminating the need for driver's button operation have been developed. For example, an operation input device is known in which when a driver's behavior is image-recognized by a camera provided in a vehicle interior and a predetermined behavior is detected, a device mounted on the vehicle operates according to the behavior ( Patent Document 1).
特許文献1のようにカメラで撮影した画像を認識して人間の挙動を検出する場合に、一般的なカメラでは二次元画像しか撮影できないので、奥行き方向の位置や挙動を検出することができず、操作パターン(ジェスチャー)の自由度を上げることができないし、検出が不要な時に挙動を検出してしまう可能性もある。 When a human behavior is detected by recognizing an image captured by a camera as in Patent Document 1, a general camera can only capture a two-dimensional image, so that the position and behavior in the depth direction cannot be detected. The degree of freedom of the operation pattern (gesture) cannot be increased, and the behavior may be detected when the detection is unnecessary.
近年では、撮影対象の3次元認識が可能なTOF(Time Of Flight)距離画像センサ(以下、TOFカメラと称する)が市販されている。また、TOFカメラの他にも、撮影対象の3次元認識が可能なカメラが存在する。TOFカメラは、光源の光が測定対象物に当たって戻るまでの時間を画素毎に検出できるので、奥行き方向の距離に相当する位置情報を含む立体的な画像を撮影できる。 In recent years, a TOF (Time Of Flight) distance image sensor (hereinafter referred to as a TOF camera) capable of three-dimensional recognition of an imaging target is commercially available. In addition to the TOF camera, there is a camera capable of three-dimensional recognition of an imaging target. Since the TOF camera can detect the time until the light from the light source hits the measurement target and returns for each pixel, it can capture a stereoscopic image including position information corresponding to the distance in the depth direction.
一方、特許文献1のような操作入力装置においては、事前に定めた特定の二次元または三次元空間(以下、挙動検出空間と称する)でのみ運転者の挙動を検出し、車載機器の動作に反映することが想定される。例えば、通常の運転状態のように、運転者の手がステアリングホイール(ハンドル)の近傍にある状況でのみ、運転者の手や指の挙動に応じて車載機器を操作するように制御すれば、運転者が無意識に手を動かしたような状況では車載機器が作動することはなくなる。 On the other hand, in the operation input device as in Patent Document 1, the behavior of the driver is detected only in a specific two-dimensional or three-dimensional space (hereinafter referred to as behavior detection space) determined in advance, and the operation of the in-vehicle device is performed. It is assumed to be reflected. For example, if the driver's hand is in the vicinity of the steering wheel (handle) as in a normal driving state, and control is performed so that the in-vehicle device is operated according to the behavior of the driver's hand or finger, In a situation where the driver moves his / her hand unconsciously, the in-vehicle device will not operate.
しかし、特許文献1のような操作入力装置では、運転者の手や指の挙動だけを監視しているので、認識可能な操作パターンの種類を増やすことが難しく、認識精度を上げることも難しい。例えば、運転者の微妙な手や指の形状の違いを区別しようとすると、装置が手や指の形状を間違って認識する場合があり、運転者が意図しているジェスチャーの操作パターンと、装置が実際に認識する操作パターンとの相違により誤動作が生じる可能性が想定される。 However, since the operation input device as in Patent Document 1 monitors only the behavior of the driver's hand and fingers, it is difficult to increase the types of operation patterns that can be recognized, and it is also difficult to increase the recognition accuracy. For example, when trying to distinguish the differences in the shape of the driver's delicate hands and fingers, the device may incorrectly recognize the shape of the hand or finger, and the gesture operation pattern intended by the driver and the device There is a possibility that a malfunction may occur due to a difference from the operation pattern that is actually recognized.
したがって、例えば運転者の手の他に他の部位の挙動も同時に検出することが考えられる。しかしながら、人間の様々な部位の挙動検出を可能にするためには、撮影するカメラの画角を大きくしたり、車両に設置するカメラの台数を増やす必要がある。しかし、カメラの画角を大きくすると、形状や位置の検出精度が低下して認識精度が下がることになる。また、車両に設置するカメラの台数を増やす場合には装置のコストが大幅に上昇するのは避けられない。 Therefore, for example, it is conceivable to simultaneously detect the behavior of other parts in addition to the driver's hand. However, in order to make it possible to detect the behavior of various human parts, it is necessary to increase the angle of view of the camera to be photographed or to increase the number of cameras installed in the vehicle. However, when the angle of view of the camera is increased, the detection accuracy of the shape and position is lowered and the recognition accuracy is lowered. In addition, when the number of cameras installed in the vehicle is increased, it is inevitable that the cost of the apparatus increases significantly.
また、TOFカメラが計測する距離には誤差が発生することがある。特に、高温の環境下においては光源からの照射角度が温度により変化して誤差が増大する傾向がある。したがって、温度変化の激しい車室内などにTOFカメラを設置する場合にはTOFカメラが計測する距離や三次元座標の誤差の影響が懸念される。 In addition, an error may occur in the distance measured by the TOF camera. In particular, in a high-temperature environment, there is a tendency that the angle of irradiation from the light source varies with temperature and the error increases. Therefore, when the TOF camera is installed in a vehicle room where the temperature changes rapidly, there is a concern about the influence of the distance measured by the TOF camera and the error of the three-dimensional coordinates.
TOFカメラが計測する距離の誤差が大きくなると、挙動検出空間が、拡大、縮小、または変位してしまう。その結果、挙動検出空間の外側に運転者の手が存在する場合であっても、無意識のうちに行われる手の挙動に反応し、車載機器が動作してしまう可能性がある。つまり、運転者が意図していない操作が勝手に行われてしまう。このような誤動作は、運転者の想定外の動作であるため運転者の思考に混乱を招き運転に支障を来す可能性がある。 When the error in the distance measured by the TOF camera increases, the behavior detection space is enlarged, reduced, or displaced. As a result, even when the driver's hand is present outside the behavior detection space, there is a possibility that the in-vehicle device may operate in response to the behavior of the hand performed unconsciously. That is, an operation unintended by the driver is performed without permission. Since such a malfunction is an operation that is not expected by the driver, the driver's thinking may be confused and the driving may be hindered.
本発明は、上述した事情に鑑みてなされたものであり、その目的は、装置コストの増大を抑制しつつ、認識可能なジェスチャーの操作パターンの種類を増やすこと、および操作検出精度を向上することが可能な画像認識装置を提供することにある。 The present invention has been made in view of the above-described circumstances, and an object thereof is to increase the types of recognizable gesture operation patterns and improve operation detection accuracy while suppressing an increase in apparatus cost. An object of the present invention is to provide an image recognition apparatus capable of performing the above.
前述した目的を達成するために、本発明に係る画像認識装置は、下記(1)〜(5)を特徴としている。
(1) 撮影対象の3次元認識が可能な距離画像センサから入力される信号に基づいて人間の挙動を認識する画像認識装置であって、
人間の挙動を認識する空間として、
第1の挙動検出空間と、
前記距離画像センサと前記第1の挙動検出空間とを結ぶ線上に少なくとも一部分が位置し、且つ前記第1の挙動検出空間とは重複しない第2の挙動検出空間と、
が事前に決定され、
前記第1の挙動検出空間と前記第2の挙動検出空間とは、前記距離画像センサと前記第1の挙動検出空間とを結ぶ線上において互いに離隔した位置に割り当てられ、
前記第1の挙動検出空間及び前記第2の挙動検出空間の少なくとも一方において人間の挙動を認識した結果を出力に反映する、
画像認識装置。
In order to achieve the above-described object, an image recognition apparatus according to the present invention is characterized by the following (1) to (5).
(1) An image recognition device for recognizing human behavior based on a signal input from a distance image sensor capable of three-dimensional recognition of an imaging target,
As a space to recognize human behavior,
A first behavior detection space;
A second behavior detection space that is at least partially located on a line connecting the distance image sensor and the first behavior detection space and that does not overlap the first behavior detection space;
Is determined in advance,
The first behavior detection space and the second behavior detection space are assigned to positions separated from each other on a line connecting the distance image sensor and the first behavior detection space,
A result of recognizing human behavior in at least one of the first behavior detection space and the second behavior detection space is reflected in the output;
Image recognition device.
上記(1)の構成の画像認識装置によれば、装置コストの増大を抑制しつつ、認識可能なジェスチャーの操作パターンの種類を増やすこと、および操作検出精度を向上することが可能になる。すなわち、第1の挙動検出空間および第2の挙動検出空間のそれぞれにおいて人間の挙動を認識することにより、操作パターンの種類を増やすことができる。また、第1の挙動検出空間および第2の挙動検出空間が、距離画像センサから視て同じ線上に配置されるので、距離画像センサが撮像する際の画角を大きくすることなく、両方の挙動検出空間を同時に監視できる。したがって、撮影した各認識対象物に対応する画像データの画素数が増え、認識精度が向上する。 According to the image recognition device having the configuration (1), it is possible to increase the types of gesture operation patterns that can be recognized and to improve operation detection accuracy while suppressing an increase in device cost. That is, the types of operation patterns can be increased by recognizing human behavior in each of the first behavior detection space and the second behavior detection space. In addition, since the first behavior detection space and the second behavior detection space are arranged on the same line as viewed from the distance image sensor, both behaviors can be obtained without increasing the angle of view when the distance image sensor captures an image. The detection space can be monitored simultaneously. Therefore, the number of pixels of the image data corresponding to each recognized recognition object increases, and the recognition accuracy is improved.
(2) 前記第1の挙動検出空間は、人間の顔の表情を認識可能な領域に割り当てられ、
前記第2の挙動検出空間は、人間の手又は指の動きを認識可能な領域に割り当てられている、
上記(1)に記載の画像認識装置。
(2) The first behavior detection space is assigned to an area where human facial expressions can be recognized,
The second behavior detection space is assigned to an area where human hand or finger movement can be recognized.
The image recognition apparatus according to (1) above.
上記(2)の構成の画像認識装置によれば、第1の挙動検出空間の画像を処理することにより、人間の顔の表情に関する挙動を検出でき、同時に第2の挙動検出空間の画像を処理することにより、人間の手又は指の動きに関する挙動を検出できる。 According to the image recognition device having the configuration (2) above, it is possible to detect the behavior related to the facial expression of the human face by processing the image in the first behavior detection space, and simultaneously process the image in the second behavior detection space. By doing so, it is possible to detect a behavior related to the movement of a human hand or finger.
(3) 前記第1の挙動検出空間及び前記第2の挙動検出空間それぞれにおいて人間の挙動を認識し、認識された人間の挙動の組合せに応じてその人間が為した操作を識別する、
上記(1)に記載の画像認識装置。
(3) Recognizing a human behavior in each of the first behavior detection space and the second behavior detection space, and identifying an operation performed by the human in accordance with a recognized combination of human behaviors.
The image recognition apparatus according to (1) above.
上記(3)の構成の画像認識装置によれば、第1の挙動検出空間における挙動と、第2の挙動検出空間における挙動との組み合わせを利用するので、これら全体の挙動に対応する操作の種類をより高精度で認識可能になる。すなわち、運転者が特定のジェスチャー以外で特別な複数の挙動を同時に行う確率は非常に低いので、各挙動検出空間における微妙な変化を認識しなくても、特定のジェスチャーか否かを容易に区別できる。 According to the image recognition device having the configuration (3), the combination of the behavior in the first behavior detection space and the behavior in the second behavior detection space is used, and therefore the types of operations corresponding to these overall behaviors. Can be recognized with higher accuracy. In other words, the probability that the driver will perform a plurality of special behaviors other than a specific gesture at the same time is very low, so it is easy to distinguish whether a gesture is a specific gesture without recognizing subtle changes in each behavior detection space. it can.
(4) 前記距離画像センサから入力される信号に基づき認識される事前に定めた特定の撮影対象までの第1の計測距離と、前記距離画像センサから前記特定の撮影対象までの距離を事前に実測して得られた参照距離との比率を算出し、前記第1の挙動検出空間および前記第2の挙動検出空間を特定するパラメータ、または前記距離画像センサから入力される信号に基づき認識される挙動監視対象の任意の点までの第2の計測距離を、前記比率に基づく補正量により補正する計測値補正部、を更に備えた、
上記(1)に記載の画像認識装置。
(4) A first measurement distance to a predetermined specific photographing target recognized based on a signal input from the distance image sensor and a distance from the distance image sensor to the specific photographing target are determined in advance. A ratio with a reference distance obtained by actual measurement is calculated and recognized based on a parameter specifying the first behavior detection space and the second behavior detection space, or a signal input from the distance image sensor. A measurement value correction unit that corrects the second measurement distance to an arbitrary point of the behavior monitoring target by a correction amount based on the ratio;
The image recognition apparatus according to (1) above.
上記(4)の構成の画像認識装置によれば、例えばTOFカメラを利用する場合のように、距離画像センサが計測した距離等の結果に大きな誤差が含まれている場合であっても、誤差を自動的に修正できるので、第1の挙動検出空間及び第2の挙動検出空間以外の領域で検出した挙動により誤動作が生じるのを防止できる。 According to the image recognition device having the configuration (4), even when a large error is included in the result of the distance measured by the distance image sensor, for example, when a TOF camera is used, the error Can be automatically corrected, so that it is possible to prevent malfunctions caused by behaviors detected in regions other than the first behavior detection space and the second behavior detection space.
(5) 前記第1の挙動検出空間および前記第2の挙動検出空間の少なくとも一方が、車室内の特定の固定部位を基準として、前記固定部位に隣接する領域、もしくは前記固定部位の周辺の領域に割り当てられている、
上記(1)または(2)に記載の画像認識装置。
(5) At least one of the first behavior detection space and the second behavior detection space is a region adjacent to the fixed portion, or a region around the fixed portion, with a specific fixed portion in the vehicle interior as a reference Assigned to the
The image recognition apparatus according to (1) or (2) above.
上記(5)の構成の画像認識装置によれば、第1の挙動検出空間や第2の挙動検出空間を、車室内の特定の固定部位を基準として定めているので、運転者が通常の運転姿勢である場合のような、特定の条件に限り運転者のジェスチャーを認識可能になる。したがって、運転者が無意識のうちに行った挙動を、特定のジェスチャーとして装置が誤認識するのを避けることができる。 According to the image recognition device having the configuration of (5) above, the first behavior detection space and the second behavior detection space are determined with reference to a specific fixed part in the passenger compartment. The driver's gesture can be recognized only under a specific condition such as the case of the posture. Therefore, it is possible to prevent the device from misrecognizing a behavior that the driver has unconsciously performed as a specific gesture.
本発明の画像認識装置によれば、装置コストの増大を抑制しつつ、認識可能なジェスチャーの操作パターンの種類を増やすこと、および操作検出精度を向上することが可能になる。すなわち、前記第1の挙動検出空間および第2の挙動検出空間のそれぞれにおいて人間の挙動を認識することにより、操作パターンの種類を増やすことができる。また、前記第1の挙動検出空間および第2の挙動検出空間が、前記距離画像センサから視て同じ線上に配置されるので、前記距離画像センサが撮像する際の画角を大きくすることなく、両方の挙動検出空間を同時に監視できる。したがって、撮影した各認識対象物に対応する画像データの画素数が増え、認識精度が向上する。 According to the image recognition device of the present invention, it is possible to increase the types of recognizable gesture operation patterns and improve operation detection accuracy while suppressing an increase in device cost. That is, it is possible to increase the types of operation patterns by recognizing human behavior in each of the first behavior detection space and the second behavior detection space. In addition, since the first behavior detection space and the second behavior detection space are arranged on the same line as viewed from the distance image sensor, without increasing the angle of view when the distance image sensor images, Both behavior detection spaces can be monitored simultaneously. Therefore, the number of pixels of the image data corresponding to each recognized recognition object increases, and the recognition accuracy is improved.
以上、本発明について簡潔に説明した。更に、以下に説明される発明を実施するための形態(以下、「実施形態」という。)を添付の図面を参照して通読することにより、本発明の詳細は更に明確化されるであろう。 The present invention has been briefly described above. Further, the details of the present invention will be further clarified by reading through a mode for carrying out the invention described below (hereinafter referred to as “embodiment”) with reference to the accompanying drawings. .
本発明に関する具体的な実施形態について、各図を参照しながら以下に説明する。 Specific embodiments relating to the present invention will be described below with reference to the drawings.
<画像認識装置を使用する環境の具体例>
<車室内の構成例>
車両の室内における運転席近傍の主要な構成要素の配置例を図3に示す。本発明の画像認識装置は、例えば図3に示したような車両に搭載した状態で使用される。
<Specific example of environment using image recognition device>
<Example of vehicle interior configuration>
FIG. 3 shows an example of the arrangement of main components in the vicinity of the driver's seat in the vehicle interior. The image recognition apparatus of the present invention is used in a state where it is mounted on a vehicle as shown in FIG. 3, for example.
図3に示すように車両の室内には、運転席シート34および助手席シート35が設けてあり、運転席シート34の前方にステアリングホイール31が配置されている。また、前方のダッシュボード33の中央付近には矩形の表示画面を有するディスプレイユニット32が設置されている。このディスプレイユニット32は、カーナビゲーション装置やカーオーディオ装置の表示部として利用することができる。
As shown in FIG. 3, a
また、ディスプレイユニット32を使用しない表示装置として、ヘッドアップディスプレイ(HUD)の本体がダッシュボード33の下方に格納されている。このヘッドアップディスプレイを使用する際には、表示光を反射する透明なコンバイナ(反射板)がダッシュボード33の内側から上昇してダッシュボード33上に現れ、運転者が視認できる位置に位置決めされる。
As a display device that does not use the
運転席シート34の左前方の運転者が操作可能な位置に、可動構造の操作レバー36が配置されている。この操作レバー36は、車両のトランスミッションの変速モードを切り替えるために利用される。
An
また、ステアリングホイール31よりも少し前方のダッシュボード33上にTOFカメラ21が固定した状態で設置されている。このTOFカメラ21は、撮影対象の3次元認識が可能なTOF(Time Of Flight)距離画像センサである。すなわち、TOFカメラ21は、光源の光が測定対象物に当たって戻るまでの時間を画素毎に検出し、奥行き方向の距離に相当する位置情報を含む立体的な画像を撮影できる。
Further, the
<位置関係の具体例>
本発明の実施形態の画像認識装置を搭載した車両の車室内を車両の右側面側から視た各部の位置関係の例を図1に示す。
<Specific examples of positional relationship>
FIG. 1 shows an example of the positional relationship of each part when the interior of a vehicle equipped with the image recognition device of the embodiment of the present invention is viewed from the right side of the vehicle.
図3に示したTOFカメラ21は、ステアリングホイール31と対向する位置に設置してあり、ステアリングホイール31の全体と、ステアリングホイール31を操作する運転者の手との両方が同時に映る範囲を撮影できるように撮影方向および画角を事前に調整してある。
The
より具体的には、図1に示すように、TOFカメラ21の撮影範囲25Aの中に、運転者30の顔30fと、手30hと、ステアリングホイール31等の車両上の特定の固定部位が含まれるように位置決めしてある。
More specifically, as shown in FIG. 1, the fixed range on the vehicle such as the
また、本実施形態では、運転者のジェスチャーを検出するための三次元の挙動検出空間として、2つの挙動検出空間ArF、ArHが事前に定めてある。挙動検出空間ArFは、運転者30の顔30fの挙動を認識するための空間であり、図1に示すように運転者30が通常の運転姿勢である場合における顔30fの位置を含む領域に割り当てられている。挙動検出空間ArHは、運転者30の手30hの挙動を認識するための空間であり、図1に示すように運転者30が通常の運転姿勢である場合における手30hの位置を含む領域に割り当てられている。挙動検出空間ArFおよびArHの各々は、大きさが固定された直方体形状の三次元空間である。
In this embodiment, two behavior detection spaces ArF and ArH are determined in advance as a three-dimensional behavior detection space for detecting a driver's gesture. The behavior detection space ArF is a space for recognizing the behavior of the
実際の車両においては、運転者30の運転姿勢や位置を調整できるので、調整された実際の運転姿勢や位置に合わせて各挙動検出空間ArF、ArHを自動的に調整している。例えば、顔30fを検出するための挙動検出空間ArFについては、運転席シート34のヘッドレスト34hの実際の位置を算出した後で、この位置を基準として所定距離離れた領域に割り当てている。また、手30hを検出するための挙動検出空間ArHについては、ステアリングホイール31の実際の姿勢(ティルト角度など)や位置を算出した後で、この位置を基準として所定距離離れた領域に割り当てている。
In an actual vehicle, since the driving posture and position of the
また、図1に示すように、TOFカメラ21の同じ撮影方向の軸Azに沿って、奥行き方向(Z方向)に互いにずれた位置に2つの挙動検出空間ArHおよびArFがそれぞれ割り当ててある。TOFカメラ21側から視ると、2つの挙動検出空間ArHおよびArFは一部分のみが重なり、それぞれの空間内の手や顔が同時に撮影できる状態になっている。
Further, as shown in FIG. 1, two behavior detection spaces ArH and ArF are assigned to positions shifted from each other in the depth direction (Z direction) along the axis Az in the same shooting direction of the
この場合、同じ軸Az上に2つの挙動検出空間ArHおよびArFが配置されているので、撮影範囲25Aに相当するTOFカメラ21の画角を格別に広げなくても、1台のTOFカメラ21だけで2つの挙動検出空間ArHおよびArFの両方の撮影対象を同時に撮影できる。画角を小さくすることにより、画像認識精度が向上する。また、複数のTOFカメラ21を設置する必要がないためコストの上昇を抑制できる。
In this case, since the two behavior detection spaces ArH and ArF are arranged on the same axis Az, only one
また、複数の挙動検出空間ArHおよびArFのそれぞれについて挙動の認識を行うことにより、利用可能なジェスチャーの種類を増やすことが可能になる。また、ジェスチャーの認識精度を上げることが可能であるし、ユーザにとって使いやすいジェスチャーを採用することも可能になる。 In addition, it is possible to increase the types of gestures that can be used by recognizing the behavior for each of the plurality of behavior detection spaces ArH and ArF. In addition, it is possible to increase gesture recognition accuracy, and it is also possible to employ gestures that are easy for the user to use.
<車載システムの構成例>
本発明の実施形態における画像認識装置10を含む車載システムの構成例を図2に示す。図2の車載システムは、図1および図3に示した車両に搭載されている。
<In-vehicle system configuration example>
A configuration example of an in-vehicle system including the
図2に示す画像認識装置10は、運転者の所定のジェスチャー、すなわち身振り、手振りのような挙動から車載機器に対する操作の指示を自動的に認識し、該当する車載機器を制御することができる。
The
実際には、TOFカメラ21により運転者の手、指、顔や、ステアリングホイール31などを撮影し、この撮影により得られる三次元画像から、手、指、顔等の挙動をジェスチャーとして認識する。したがって、運転者は特別なボタン等を操作しなくてもジェスチャーにより車載機器を操作することができる。そのため、運転者が車載機器を操作する際に、目的のボタンを探したり、操作のためにステアリングホイール31から手を離したりする必要がなくなり、安全運転の向上に役立つ機能を提供できる。
Actually, the
但し、本実施形態では、画像認識装置10が手、指、顔等の挙動を検出するのは、これらが事前に定めた挙動検出空間ArH、ArF等の内側に存在する場合のみに限定してある。これにより、例えば運転者が無意識のうちに動かした手の動きを特定のジェスチャーとして誤認識するのを防止し、車載機器が想定外の動作をするのを避けることができる。
However, in the present embodiment, the
図2に示すように、TOFカメラ21は光源部21aおよび受光部21bを備えている。光源部21aは、パルス状の光を撮影対象物に照射することができる。受光部21bは、CMOSなどで構成される二次元イメージセンサを備えている。また、受光部21bが検出した二次元画像を構成する画素毎に、光源部21aの光が手などの撮影対象物にあたり受光部21bに戻るまでの時間(Time Of Flight)に応じた距離情報を検出する回路がTOFカメラ21に内蔵されている。したがって、TOFカメラ21は三次元画像を撮影できる。
As shown in FIG. 2, the
TOFカメラ21が撮影した三次元画像の情報は、画像認識装置10の入力に印加される。図2に示すように、画像認識装置10は画像認識処理部11およびジェスチャー監視制御部12を備えている。
Information on the three-dimensional image captured by the
画像認識処理部11は、TOFカメラ21から出力される画像情報に対する情報処理を高速で実行し、事前に登録した特定形状のパターンを認識したり、認識したパターンの三次元座標上の位置、寸法、色、動き、形状変化などを計測する機能を有している。
The image
ジェスチャー監視制御部12は、運転者の手が事前に定めた挙動検出空間の内側に存在するか否かを識別する。また、運転者の手が事前に定めた挙動検出空間の内側に存在する場合には、画像認識処理部11の認識結果に基づき運転者の手、指、顔等の挙動を監視して、事前に登録したジェスチャーのパターンと一致するか否かを識別する。特定のジェスチャーと一致する挙動を検知した場合には、事前に定めた制御を実施する。
The gesture
上位ECU(電子制御ユニット)22は、ステアリングホイール31の位置や姿勢を表す情報や、運転席シート34の位置や姿勢を表す情報や、車両のイグニッションオンオフを示す情報などをジェスチャー監視制御部12に与えることができる。
The host ECU (electronic control unit) 22 sends information indicating the position and posture of the
図2に示した車載システムにおいては、画像認識装置10の出力にHUDユニット23、カーナビゲーション装置24、およびカーオーディオ装置26が接続されている。画像認識装置10は、運転者のジェスチャーに基づいて、HUDユニット23、カーナビゲーション装置24、およびカーオーディオ装置26のそれぞれを制御することができる。
In the in-vehicle system shown in FIG. 2, the HUD unit 23, the
例えば、特定のジェスチャーによりHUDユニット23の動作を起動する時には、HUDユニット23に含まれる図示しない透明なコンバイナが、図3に示したダッシュボード33の下方から上昇してダッシュボード33上に現れ、運転者が視認可能な状態になる。その状態で、HUDユニット23から投射された表示光がコンバイナで反射され、運転者の目の位置で視認可能な虚像が結像される。また、特定のジェスチャーによりHUDユニット23の動作を終了する時には、前記コンバイナが下降してダッシュボード33の下方に収納される。
For example, when the operation of the HUD unit 23 is activated by a specific gesture, a transparent combiner (not shown) included in the HUD unit 23 rises from below the
また、カーナビゲーション装置24を操作するための様々なボタンや、カーオーディオ装置26を操作するための様々なボタンと同様の機能を、画像認識装置10が認識可能な各種のジェスチャーに割り当てることが可能である。
In addition, various buttons for operating the
<ジェスチャーの具体例>
運転者の手の挙動に基づくジェスチャーの具体例を図5(A)および図5(B)にそれぞれ示す。
<Specific examples of gestures>
Specific examples of gestures based on the behavior of the driver's hand are shown in FIGS. 5 (A) and 5 (B), respectively.
例えば、HUDユニット23の動作を起動するためのジェスチャーの操作を行う場合には、運転者30は左手LHおよび右手RHを図5(A)に示すようにステアリングホイール31に触れた状態のまま、左手LHを下から上に向かってなぞるように移動する。また、この時の左手LHおよび右手RHの位置は、挙動検出空間ArHの領域内に位置するように合わせる。この操作をTOFカメラ21の撮影した画像に基づき画像認識装置10が特定のジェスチャーとして認識し、画像認識装置10はHUDユニット23に起動のための制御信号を送る。
For example, when performing a gesture operation for activating the operation of the HUD unit 23, the
また、HUDユニット23の動作を終了するためのジェスチャーの操作を行う場合には、運転者30は左手LHおよび右手RHを図5(B)に示すようにステアリングホイール31に触れた状態のまま、左手LHを上から下に向かってなぞるように移動する。また、この時の左手LHおよび右手RHの位置は、挙動検出空間ArHの領域内に位置するように合わせる。この操作をTOFカメラ21の撮影した画像に基づき画像認識装置10が特定のジェスチャーとして認識し、画像認識装置10はHUDユニット23に動作終了のための制御信号を送る。
Further, when performing a gesture operation to end the operation of the HUD unit 23, the
なお、通常の運転操作とジェスチャーとの区別を容易にするために、図5(A)、図5(B)よりももっと複雑な操作を行うようにしてもよい。例えば、特定の指の曲げ伸ばし等により特別な手の形状を表現したり、なぞる操作を複数回繰り返すようなジェスチャーパターンを採用してもよい。 In order to easily distinguish between a normal driving operation and a gesture, a more complicated operation than that shown in FIGS. 5A and 5B may be performed. For example, a gesture pattern that expresses a special hand shape by bending or stretching a specific finger or repeating a tracing operation a plurality of times may be employed.
また、本実施形態では画像認識装置10が挙動検出空間ArF内の顔30fの表情も認識できるので、手の挙動と顔の挙動とを組み合わせたジェスチャーを採用することも考えられる。例えば、図5(A)に示したような手の挙動が検出され、且つ挙動検出空間ArF内の顔30fにおいて、目の視線の方向が前方を向いている場合に限り、HUDユニット23を起動するためのジェスチャーとして認識する。また、図5(B)に示したような手の挙動が検出され、且つ挙動検出空間ArF内の顔30fにおいて、目の視線の方向が前方を向いている場合に限り、HUDユニット23の動作を終了するためのジェスチャーとして認識する。
In the present embodiment, since the
挙動検出空間ArF内の挙動と、挙動検出空間ArH内の挙動とをそれぞれ独立した機器の制御に割り当ててもよい。例えば、図5(A)、図5(B)のような挙動検出空間ArH内の手の挙動は、HUDユニット23の操作のためのジェスチャーとして割り当て、挙動検出空間ArF内の顔の挙動はカーナビゲーション装置24、カーオーディオ装置26、あるいはエアコンのような機器を操作するためのジェスチャーとして割り当てることが考えられる。
The behavior in the behavior detection space ArF and the behavior in the behavior detection space ArH may be assigned to independent device control. For example, the hand behavior in the behavior detection space ArH as shown in FIGS. 5A and 5B is assigned as a gesture for operating the HUD unit 23, and the facial behavior in the behavior detection space ArF is the car. It is conceivable to assign it as a gesture for operating a device such as the
<計測誤差の説明>
図2に示した画像認識装置10は、TOFカメラ21の撮影により得られる三次元画像を認識するので、認識対象の手や顔の位置が事前に定めた挙動検出空間ArF、ArHの範囲内に存在するか否かを識別できる。
<Explanation of measurement error>
Since the
しかし、TOFカメラ21から認識対象までの計測距離に比較的大きな誤差が発生する場合がある。実際には、高温の環境下で、光源部21aからの光の照射角度や画角が大きく変動するため、撮影方向(奥行き方向Z)の計測距離や、他の軸方向(X、Y)の座標位置にも誤差が発生する。車両においては、車室内の環境温度が大きく変動する可能性があるため、TOFカメラ21の計測誤差は無視できない程度に大きくなる。
However, a relatively large error may occur in the measurement distance from the
TOFカメラ21の計測した距離に大きな誤差が発生すると、三次元画像に基づいて認識される認識対象の手の位置が実際の位置に対して大きくずれてしまう。そして、実際の手の位置が挙動検出空間ArH、ArFの範囲外にある時であっても、画像認識装置10が手や顔の挙動に反応してジェスチャーを検出する可能性がある。つまり、運転者がジェスチャーを行う意図がない状況で画像認識装置10がジェスチャーを誤検出してしまうので、HUDユニット23等の車載機器が運転者の想定外の動作を行うことになる。このような誤動作を防止するために、後述するように画像認識装置10は三次元画像に基づいて認識される認識対象の位置を自動的に補正する機能を搭載している。
When a large error occurs in the distance measured by the
<画像認識装置10の動作>
<処理手順の概要>
本発明の実施形態における画像認識装置10の主要な動作例を図4に示す。すなわち、図2に示した画像認識装置10のジェスチャー監視制御部12に内蔵されるコンピュータ(図示せず)または画像認識処理部11が、図4に示した手順に従って運転者のジェスチャーに対応するための制御を実施する。
<Operation of
<Outline of processing procedure>
FIG. 4 shows a main operation example of the
図1に示した手順には、TOFカメラ21の出力する三次元画像に基づいて認識される認識対象の手の位置を補正するための処理が含まれている。具体的には、ステアリングホイール31の位置を基準として、補正のための比率R1を求め、認識された手や顔の位置を補正する。
The procedure shown in FIG. 1 includes a process for correcting the position of the hand to be recognized that is recognized based on the three-dimensional image output from the
ステアリングホイール31は、基本的には車体に固定されているので、TOFカメラ21からステアリングホイール31上の特定位置までの距離は既知として扱うことができる。そこで、この距離を事前に実測して距離参照値Lrefとして画像認識装置10上の定数テーブルTB1に登録しておく。
Since the
但し、実際の車両においてステアリングホイール31はティルト角度や操舵軸の長さを変更するための姿勢調整機能を搭載している場合が多く、TOFカメラ21からステアリングホイール31上の特定位置までの距離も可変である。そこで、ステアリングホイール31の複数の姿勢のそれぞれの状態で実測した複数の距離参照値Lrefを定数テーブルTB1に登録しておき、ステアリングホイール31の実際の姿勢に応じて最適な距離参照値Lrefを選択的に使用する。
However, in an actual vehicle, the
TOFカメラ21が撮影した三次元画像に基づいて認識されるステアリングホイール31上の特定位置の三次元座標に基づいて、TOFカメラ21から前記特定位置までの距離計測値L1を算出できる。ここで、計測誤差が発生していると、距離参照値Lrefと距離計測値L1との間に差異が現れる。そこで、これらの比率R1を算出し、これを距離の誤差を補正するための補正係数として使用する。
R1=L1/Lref ・・・(1)
A distance measurement value L1 from the
R1 = L1 / Lref (1)
つまり、TOFカメラ21の位置からこれが撮影した三次元画像に基づいて認識される監視対象の手の位置までの距離計測値L2は、TOFカメラ21の特性により生じる距離の計測誤差を含んでいるので、この計測誤差を減らすために前記比率R1を用いて距離計測値L2等を補正する。
That is, the distance measurement value L2 from the position of the
補正後の距離計測値等を用いて、監視対象の手や顔の位置と挙動検出空間ArH、ArFの各範囲の閾値とを比較することにより、手や顔の位置が各挙動検出空間の範囲内か否かを正しく識別できる。 Using the corrected distance measurement values and the like, the position of the hand or face is compared with the threshold value of each range of the behavior detection spaces ArH and ArF, so that the position of the hand or face is the range of each behavior detection space. It is possible to correctly identify whether it is within or not.
また、各挙動検出空間ArF、ArHが予め固定されている場合には、運転者の実際の運転姿勢の調整などに伴って、各挙動検出空間ArF、ArHが所望の空間からずれる可能性がある。例えば、運転席シート34の前後方向の位置調整を行うと、運転時の実際の顔30fの位置が前後に移動して、挙動検出空間ArF内で顔を検出できなくなる可能性がある。
Further, when the behavior detection spaces ArF and ArH are fixed in advance, the behavior detection spaces ArF and ArH may deviate from the desired spaces in accordance with the adjustment of the actual driving posture of the driver. . For example, if the position of the driver's
そこで、挙動検出空間ArFを決める場合には、車両上に固定されている運転席シート34のヘッドレスト34hの位置を基準として、その周囲の近傍の空間として挙動検出空間ArFの位置を決定する。但し、運転席シート34の移動や姿勢調整に伴ってヘッドレスト34hの位置が変化するので、運転席シート34の位置や姿勢の情報を取得してヘッドレスト34hの位置を算出し、その結果を挙動検出空間ArFの位置に反映する。
Therefore, when determining the behavior detection space ArF, the position of the behavior detection space ArF is determined as a space in the vicinity of the
また、挙動検出空間ArHを決める場合には、車両上に固定されているステアリングホイール31の位置を基準として、その周囲の近傍の空間として挙動検出空間ArHの位置を決定する。但し、ステアリングホイール31のティルト角度等の姿勢調整に伴ってステアリングホイール31の位置や高さが変化するので、ステアリングホイール31の姿勢の情報を取得して実際のステアリングホイール31の位置を特定し、その結果を挙動検出空間ArHの位置に反映する。
Further, when determining the behavior detection space ArH, the position of the behavior detection space ArH is determined as a space near the periphery of the
<処理手順の詳細>
車両のイグニッションがオンになると、ジェスチャー監視制御部12が実行する処理は図1のステップS11からS12に進む。ステップS12では、ジェスチャー監視制御部12は上位ECU22から、ステアリングホイール31のティルト角度(高さの違いに相当)や、運転席シート34の位置および姿勢などの情報を取得する。
<Details of processing procedure>
When the ignition of the vehicle is turned on, the process executed by the gesture
次のステップS13では、ジェスチャー監視制御部12は、S12で取得したステアリングホイール31の姿勢の情報に基づいて、ステアリングホイール31の実際の各部の位置を特定し、この位置を基準として挙動検出空間ArHの位置を決定する。また、S12で取得した運転席シート34の位置および姿勢の情報に基づいて、ヘッドレスト34hの実際の位置を算出し、この位置を基準として挙動検出空間ArFの位置を決定する。なお、ステアリングホイール31やヘッドレスト34hの各部の位置を特定するために必要な姿勢と各部の位置との関係や、各部の相対距離を表す定数については、定数テーブルTB1から取得する。
In the next step S13, the gesture
例えば、ヘッドレスト34hの位置に対して、標準的な人の頭の寸法の半分程度の距離だけ離れた位置の前方に隣接するように挙動検出空間ArFの前後方向(Z方向)の位置を決定する。また、挙動検出空間ArFの横方向(X)および縦方向(Y)の位置については、ヘッドレスト34hのほぼ中央の位置と一致するように決定する。
For example, the position in the front-rear direction (Z direction) of the behavior detection space ArF is determined so as to be adjacent to the front of a position separated from the position of the
ステップS14では、ジェスチャー監視制御部12は、S12で取得した姿勢の情報をパラメータとして、これに対応付けられた1つの距離参照値Lrefを定数テーブルTB1から取得する。つまり、TOFカメラ21の位置から固定されたステアリングホイール31上の特定位置までの実際の距離を表す値を距離参照値Lrefとして取得する。
In step S14, the gesture
次のステップS15で、ジェスチャー監視制御部12はTOFカメラ21が撮影を開始するように制御する。この後で、TOFカメラ21の撮影により得られる三次元画像のデータが画像のフレーム毎に順次に画像認識処理部11およびジェスチャー監視制御部12に入力される。
In the next step S15, the gesture
ステップS16では、画像認識処理部11が入力される三次元画像のデータを処理して所定の画像認識を実行する。すなわち、入力された三次元画像から抽出される様々な特徴量と、事前に登録してあるステアリングホイール31の形状、手の形状、指の形状などの参照データとを比較することにより、ステアリングホイール31、手、指、顔などのそれぞれの認識対象物を認識する。
In step S16, the image
ステップS17では、ジェスチャー監視制御部12は、S16における画像認識処理部11の認識結果に基づき、基準位置として事前に定めたステアリングホイール31上の特定位置の位置座標を特定し、TOFカメラ21から前記特定位置までの距離計測値L1を算出する。なお、前記「特定位置」については、例えば突起などの特別な形状、着色やマークなどの特徴的な目印を利用することにより容易に特定できる。
In step S <b> 17, the gesture
ステップS18では、ジェスチャー監視制御部12は、S14で取得した距離参照値LrefとS17で算出した距離計測値L1とに基づき、前記第(1)式の比率R1を算出する。
In step S18, the gesture
例えば、TOFカメラ21からステアリングホイール31までの実際の距離が30cmである場合には、距離参照値Lrefが30cmになる。また、画像認識により得られた距離計測値L1が50cmの場合には、距離参照値Lrefと異なるので誤差が含まれていることになる。そこで、比率R1(50/30)を補正値として利用すれば、距離計測値L1と距離参照値Lrefの誤差がなくなるように補正することができる。
For example, when the actual distance from the
ステップS19では、ジェスチャー監視制御部12は、画像認識処理部11の認識結果に基づき、手の位置座標を取得し、TOFカメラ21の位置から手の位置までの奥行き方向(Z方向)の距離を表す距離計測値L2を算出する。また、画像認識処理部11の認識結果に基づき、顔の位置座標を取得し、TOFカメラ21の位置から顔の位置までの奥行き方向(Z方向)の距離を表す距離計測値L3を算出する。
In step S19, the gesture
ステップS20では、ジェスチャー監視制御部12は、S19で取得した手の位置までの距離計測値L2をS18で得た比率R1を用いて補正し、補正後の距離計測値L21を取得する。また、S19で取得した顔の位置までの距離計測値L3をS19で得た比率R1を用いて補正し、補正後の距離計測値L31を取得する。更に、距離以外の各座標の位置についても比率R1を用いて補正する。
L21=L2/R1 ・・・(2)
L31=L3/R1 ・・・(3)
In step S20, the gesture
L21 = L2 / R1 (2)
L31 = L3 / R1 (3)
ステップS21では、ジェスチャー監視制御部12は、補正後の距離計測値L21を含む運転者の手の位置の三次元座標を、挙動検出空間ArHの範囲を特定する閾値と比較して、手が挙動検出空間ArHの範囲内か否かを識別する。ここで、手の位置が挙動検出空間ArHの範囲内であれば次のS22に進み、範囲外であればS23に進む。
In step S21, the gesture
ステップS22では、ジェスチャー監視制御部12は、画像認識処理部11の画像認識結果に基づき、例えば図5(A)、図5(B)に示したような挙動検出空間ArH内の運転者の手や指の挙動を監視する。
In step S22, the gesture
ステップS23では、ジェスチャー監視制御部12は、補正後の距離計測値L31を含む運転者の顔の位置の三次元座標を、挙動検出空間ArFの範囲を特定する閾値と比較して、顔が挙動検出空間ArFの範囲内か否かを識別する。ここで、顔の位置が挙動検出空間ArFの範囲内であれば次のS24に進み、範囲外であればS25に進む。
In step S23, the gesture
ステップS24では、ジェスチャー監視制御部12は、画像認識処理部11の画像認識結果に基づき、挙動検出空間ArF内の運転者の顔の表情などの挙動を監視する。例えば、左右の目の視線の方向、口の形状、顔の向き、頭部の傾きなどを監視する。
In step S24, the gesture
ステップS25では、ジェスチャー監視制御部12は、S22で検出した手や指の挙動パターン、およびS24で検出した顔の表情等の挙動パターンを事前に登録してあるジェスチャーの基準パターンと対比して、これらが一致するか否かを識別する。
In step S25, the
S25における比較の結果、ジェスチャー監視制御部12が登録済みのジェスチャーを検出した場合には、S26からS27に進む。そして、該当するジェスチャーに対応付けられた制御を実行するように、ジェスチャー監視制御部12がS27で車載機器に対して制御信号を出力する。
As a result of the comparison in S25, if the gesture
例えば、図5(A)に示した手のジェスチャーを検出し、且つ顔の視線の方向が前方であることを検出した場合には、ジェスチャー監視制御部12がHUDユニット23に対して動作を起動するための信号を出力する。また、図5(B)に示したジェスチャーを検出し、且つ顔の視線の方向が前方であることを検出した場合には、ジェスチャー監視制御部12がHUDユニット23に対して動作を終了するための信号を出力する。
For example, when the gesture of the hand shown in FIG. 5A is detected and the direction of the line of sight of the face is detected to be forward, the gesture
<変形例の説明>
変形例の画像認識装置10Bを搭載した車両の車室内の構成例を図6に示す。図6に示した変形例においては、前述の挙動検出空間ArF、ArHの代わりに、挙動検出空間ArL、ArDを用いる場合を想定している。
<Description of modification>
FIG. 6 shows a configuration example of the interior of a vehicle in which the
図6に示した挙動検出空間ArLは、操作レバー36の位置を基準として、操作レバー36のノブの箇所を囲むような直方体形状の領域として割り当ててある。また、挙動検出空間ArDは、ディスプレイユニット32の位置を基準として、ディスプレイユニット32の画面と対向するように隣接する直方体形状の領域として割り当ててある。
The behavior detection space ArL shown in FIG. 6 is assigned as a rectangular parallelepiped region surrounding the position of the knob of the
また、図6に示した例では、TOFカメラ21Bが車室内の天井部に設置してあり、撮影方向を下方に向けてある。つまり、車室内の天井から下方に位置する挙動検出空間ArDおよびArLの付近を同時に撮影できるようにTOFカメラ21Bの撮影範囲25Bおよび向きを調整してある。
In the example shown in FIG. 6, the
ここで、操作レバー36の位置やディスプレイユニット32の位置は変化しないので、TOFカメラ21から操作レバー36やディスプレイユニット32までの距離を前述の距離参照値Lrefと同様の定数として定数テーブルTB1に登録しておき、比率R1を算出するための基準値として利用できる。
Here, since the position of the
したがって、図6に示した画像認識装置10Bにおいては、運転者30による次のようなジェスチャーを認識できる。
(1)運転者30が手を操作レバー36に近づけた場合の手や指の形状や動きのパターン
(2)運転者30が手をディスプレイユニット32の画面に近づけた時の手や指の形状や動きのパターン
Therefore, in the
(1) Hand and finger shape and movement pattern when the
<画像認識装置10の利点>
図1に示した画像認識装置10においては、TOFカメラ21の撮影方向を示す同一の軸Azの延長線上に複数の挙動検出空間ArH、ArFを設けてある。したがって、TOFカメラ21の画角を大きくすることなしに、複数の挙動検出空間ArH、ArFの両方の認識対象物を同時に撮影できる。そのため、認識精度の低下を防止できる。また、複数のカメラを搭載する必要がないため、コストの上昇を抑制できる。
<Advantages of
In the
また、複数の挙動検出空間ArH、ArFのそれぞれについて人間の挙動を検出できるので、認識可能なジェスチャーの種類を増やすことが可能である。また、複数の挙動の組み合わせを1つのジェスチャーとして割り当てることも可能になるので、自由度の高いジェスチャーを実現可能であり、例えば直感的に操作できる使いやすいユーザインタフェースを提供できる。 In addition, since human behavior can be detected for each of the plurality of behavior detection spaces ArH and ArF, it is possible to increase the types of gestures that can be recognized. In addition, since a combination of a plurality of behaviors can be assigned as one gesture, a highly flexible gesture can be realized, and for example, an easy-to-use user interface that can be operated intuitively can be provided.
なお、上述の画像認識装置10においては撮影対象の3次元認識が可能な距離画像センサとしてTOFカメラ21を採用しているが、これ以外の距離画像センサを利用してもよい。また、挙動検出空間の数については可能であれば3以上に増やしてもよい。
In the
ここで、上述した本発明に係る画像認識装置の実施形態の特徴をそれぞれ以下[1]〜[5]に簡潔に纏めて列記する。
上述の画像認識装置10に関する特徴的な事項について、以下に纏めて列挙する。
[1] 撮影対象の3次元認識が可能な距離画像センサ(TOFカメラ21)から入力される信号に基づいて人間の挙動を認識する画像認識装置(10)であって、
人間の挙動を認識する空間として、
第1の挙動検出空間(ArFまたはArH)と、
前記距離画像センサと前記第1の挙動検出空間とを結ぶ線上に少なくとも一部分が位置し、且つ前記第1の挙動検出空間とは重複しない第2の挙動検出空間(ArHまたはArF)と、
が事前に決定され、
前記第1の挙動検出空間及び前記第2の挙動検出空間の少なくとも一方において人間の挙動を認識した結果を出力に反映する(S26、S27)、
画像認識装置。
Here, the features of the above-described embodiment of the image recognition apparatus according to the present invention are briefly summarized and listed in the following [1] to [5], respectively.
The characteristic items related to the
[1] An image recognition device (10) for recognizing a human behavior based on a signal input from a distance image sensor (TOF camera 21) capable of three-dimensional recognition of an imaging target,
As a space to recognize human behavior,
A first behavior detection space (ArF or ArH);
A second behavior detection space (ArH or ArF) that is at least partially located on a line connecting the distance image sensor and the first behavior detection space and does not overlap with the first behavior detection space;
Is determined in advance,
The result of recognizing human behavior in at least one of the first behavior detection space and the second behavior detection space is reflected in the output (S26, S27),
Image recognition device.
[2] 前記第1の挙動検出空間は、人間の顔の表情を認識可能な領域(ArF)に割り当てられ、
前記第2の挙動検出空間は、人間の手又は指の動きを認識可能な領域(ArH)に割り当てられている、
上記[1]に記載の画像認識装置。
[2] The first behavior detection space is allocated to an area (ArF) where human facial expressions can be recognized,
The second behavior detection space is assigned to an area (ArH) where human hand or finger movement can be recognized,
The image recognition apparatus according to [1] above.
[3] 前記第1の挙動検出空間及び前記第2の挙動検出空間それぞれにおいて人間の挙動を認識し(S22、S24)、認識された人間の挙動の組合せに応じてその人間が為した操作を識別する(S25、S26)、
上記[1]に記載の画像認識装置。
[3] Recognize human behavior in each of the first behavior detection space and the second behavior detection space (S22, S24), and perform an operation performed by the human according to the recognized combination of human behaviors. Identify (S25, S26),
The image recognition apparatus according to [1] above.
[4] 前記距離画像センサから入力される信号に基づき認識される事前に定めた特定の撮影対象までの第1の計測距離(距離計測値L1)と、前記距離画像センサから前記特定の撮影対象までの距離を事前に実測して得られた参照距離(距離参照値Lref)との比率(R1)を算出し、前記第1の挙動検出空間および前記第2の挙動検出空間を特定するパラメータ、または前記距離画像センサから入力される信号に基づき認識される挙動監視対象の任意の点までの第2の計測距離(距離計測値L2)を、前記比率に基づく補正量により補正する計測値補正部(S20)、を更に備えた、
上記[1]に記載の画像認識装置。
[4] A first measurement distance (distance measurement value L1) to a predetermined specific imaging target recognized based on a signal input from the distance image sensor, and the specific imaging target from the distance image sensor A parameter (R1) for calculating a ratio (R1) to a reference distance (distance reference value Lref) obtained by actually measuring the distance up to and determining the first behavior detection space and the second behavior detection space; Alternatively, a measurement value correction unit that corrects the second measurement distance (distance measurement value L2) to an arbitrary point of the behavior monitoring target recognized based on the signal input from the distance image sensor by the correction amount based on the ratio. (S20)
The image recognition apparatus according to [1] above.
[5] 前記第1の挙動検出空間および前記第2の挙動検出空間の少なくとも一方が、車室内の特定の固定部位(ステアリングホイール31、ヘッドレスト34h、操作レバー36、ディスプレイユニット32)を基準として、前記固定部位に隣接する領域、もしくは前記固定部位の周辺の領域に割り当てられている、
上記[1]または[2]に記載の画像認識装置。
[5] At least one of the first behavior detection space and the second behavior detection space is based on a specific fixed portion (
The image recognition apparatus according to the above [1] or [2].
10 画像認識装置
11 画像認識処理部
12 ジェスチャー監視制御部
21 TOFカメラ
21a 光源部
21b 受光部
22 上位ECU
23 HUDユニット
24 カーナビゲーション装置
25A,25B 撮影範囲
26 カーオーディオ装置
30 運転者
30f 顔
30h 手
31 ステアリングホイール
32 ディスプレイユニット
33 ダッシュボード
34 運転席シート
34h ヘッドレスト
35 助手席シート
36 操作レバー
LH 左手
RH 右手
TB1 定数テーブル
Az 撮影方向の軸
ArH,ArF,ArL,ArD 挙動検出空間
Lref 距離参照値
L1,L2,L3 距離計測値
R1 比率
DESCRIPTION OF
23
Claims (5)
人間の挙動を認識する空間として、
第1の挙動検出空間と、
前記距離画像センサと前記第1の挙動検出空間とを結ぶ線上に少なくとも一部分が位置し、且つ前記第1の挙動検出空間とは重複しない第2の挙動検出空間と、
が事前に決定され、
前記第1の挙動検出空間と前記第2の挙動検出空間とは、前記距離画像センサと前記第1の挙動検出空間とを結ぶ線上において互いに離隔した位置に割り当てられ、
前記第1の挙動検出空間及び前記第2の挙動検出空間の少なくとも一方において人間の挙動を認識した結果を出力に反映する、
画像認識装置。 An image recognition apparatus for recognizing a human behavior based on a signal input from a distance image sensor capable of three-dimensional recognition of an imaging target,
As a space to recognize human behavior,
A first behavior detection space;
A second behavior detection space that is at least partially located on a line connecting the distance image sensor and the first behavior detection space and that does not overlap the first behavior detection space;
Is determined in advance,
The first behavior detection space and the second behavior detection space are assigned to positions separated from each other on a line connecting the distance image sensor and the first behavior detection space,
A result of recognizing human behavior in at least one of the first behavior detection space and the second behavior detection space is reflected in the output;
Image recognition device.
前記第2の挙動検出空間は、人間の手又は指の動きを認識可能な領域に割り当てられている、
請求項1に記載の画像認識装置。 The first behavior detection space is assigned to an area where a human facial expression can be recognized,
The second behavior detection space is assigned to an area where human hand or finger movement can be recognized.
The image recognition apparatus according to claim 1.
請求項1に記載の画像認識装置。 Recognizing a human behavior in each of the first behavior detection space and the second behavior detection space, and identifying an operation performed by the human according to a recognized combination of human behaviors;
The image recognition apparatus according to claim 1.
請求項1に記載の画像認識装置。 A first measurement distance to a predetermined specific photographing target recognized based on a signal input from the distance image sensor and a distance from the distance image sensor to the specific photographing target are measured in advance. A behavior monitoring target that is recognized based on a parameter that calculates a ratio with the obtained reference distance and that specifies the first behavior detection space and the second behavior detection space, or a signal input from the distance image sensor A measurement value correction unit that corrects the second measurement distance to an arbitrary point by a correction amount based on the ratio,
The image recognition apparatus according to claim 1.
請求項1または請求項2に記載の画像認識装置。 At least one of the first behavior detection space and the second behavior detection space is assigned to a region adjacent to the fixed portion or a region around the fixed portion with a specific fixed portion in the vehicle interior as a reference. ing,
The image recognition apparatus according to claim 1 or 2.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015228898A JP6342874B2 (en) | 2015-11-24 | 2015-11-24 | Image recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015228898A JP6342874B2 (en) | 2015-11-24 | 2015-11-24 | Image recognition device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017097608A JP2017097608A (en) | 2017-06-01 |
JP2017097608A5 JP2017097608A5 (en) | 2018-02-08 |
JP6342874B2 true JP6342874B2 (en) | 2018-06-13 |
Family
ID=58816995
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015228898A Expired - Fee Related JP6342874B2 (en) | 2015-11-24 | 2015-11-24 | Image recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6342874B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109949362A (en) * | 2019-03-01 | 2019-06-28 | 广东九联科技股份有限公司 | A kind of material visible detection method |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10721393B2 (en) * | 2017-12-29 | 2020-07-21 | Axis Ab | Laser ranging and illumination |
CN109614953A (en) * | 2018-12-27 | 2019-04-12 | 华勤通讯技术有限公司 | A kind of control method based on image recognition, mobile unit and storage medium |
KR102252866B1 (en) * | 2019-05-08 | 2021-05-18 | 주식회사 바이오로그디바이스 | the method for recognizing a face using ToF camera |
CN110618681A (en) * | 2019-09-09 | 2019-12-27 | 四川福德机器人股份有限公司 | Modular fine positioning device |
CN114467126A (en) | 2019-09-26 | 2022-05-10 | 斯玛特艾公司 | Distance determination between an image sensor and a target region |
JP2023038048A (en) * | 2021-09-06 | 2023-03-16 | ソニーセミコンダクタソリューションズ株式会社 | Operation detection device, information processing system, and operation detection method |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005135439A (en) * | 2004-12-28 | 2005-05-26 | Toshiba Corp | Operation input device |
JP5051468B2 (en) * | 2008-12-25 | 2012-10-17 | トヨタ自動車株式会社 | Sensor calibration apparatus and sensor calibration method |
JP5260398B2 (en) * | 2009-04-23 | 2013-08-14 | 日野自動車株式会社 | Camera arrangement structure |
JP5812582B2 (en) * | 2010-07-20 | 2015-11-17 | キヤノン株式会社 | Information processing apparatus and information processing method |
JP5958876B2 (en) * | 2011-10-21 | 2016-08-02 | スズキ株式会社 | Vehicle input device |
JP6039074B2 (en) * | 2013-07-01 | 2016-12-07 | パイオニア株式会社 | Imaging system |
JP6331567B2 (en) * | 2014-03-27 | 2018-05-30 | 株式会社デンソー | Display input device for vehicle |
-
2015
- 2015-11-24 JP JP2015228898A patent/JP6342874B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109949362A (en) * | 2019-03-01 | 2019-06-28 | 广东九联科技股份有限公司 | A kind of material visible detection method |
Also Published As
Publication number | Publication date |
---|---|
JP2017097608A (en) | 2017-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6342874B2 (en) | Image recognition device | |
US9696814B2 (en) | Information processing device, gesture detection method, and gesture detection program | |
JP5261554B2 (en) | Human-machine interface for vehicles based on fingertip pointing and gestures | |
KR101459441B1 (en) | System and method for providing a user interface using finger start points shape recognition in a vehicle | |
CN105966311B (en) | Method for calibrating a camera, device for a vehicle and computer program product | |
US11301678B2 (en) | Vehicle safety system with no-control operation | |
JP2010184600A (en) | Onboard gesture switch device | |
JP6581482B2 (en) | Image recognition device | |
JP2007259931A (en) | Visual axis detector | |
KR101438615B1 (en) | System and method for providing a user interface using 2 dimension camera in a vehicle | |
JP6589796B2 (en) | Gesture detection device | |
JP6011579B2 (en) | Gesture input device | |
JP2017097759A (en) | Visual line direction detection device, and visual line direction detection system | |
KR20200037725A (en) | Device control apparatus | |
US10296101B2 (en) | Information processing system, information processing apparatus, control method, and program | |
WO2018061603A1 (en) | Gestural manipulation system, gestural manipulation method, and program | |
JP3933139B2 (en) | Command input device | |
JP2006335112A (en) | Command input device | |
JP2010029262A (en) | Sight line measuring apparatus and program | |
WO2018193579A1 (en) | Image recognition device | |
KR101976498B1 (en) | System and method for gesture recognition of vehicle | |
JP5136948B2 (en) | Vehicle control device | |
JP2006327526A (en) | Operating device of car-mounted appliance | |
KR20150027608A (en) | Remote control system based on gesture and method thereof | |
JP6413645B2 (en) | Operation input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170725 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180330 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180417 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180517 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6342874 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |