JP2007249352A - Information processing device and method, recording medium, and program - Google Patents
Information processing device and method, recording medium, and program Download PDFInfo
- Publication number
- JP2007249352A JP2007249352A JP2006069003A JP2006069003A JP2007249352A JP 2007249352 A JP2007249352 A JP 2007249352A JP 2006069003 A JP2006069003 A JP 2006069003A JP 2006069003 A JP2006069003 A JP 2006069003A JP 2007249352 A JP2007249352 A JP 2007249352A
- Authority
- JP
- Japan
- Prior art keywords
- face
- driver
- initial direction
- initial
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、情報処理装置および方法、記録媒体、並びに、プログラムに関し、特に、ドライバが運転中に正面を向いている場合の顔の向きを、迅速かつ確実に求めることができるようにした情報処理装置および方法、記録媒体、並びに、プログラムに関する。 The present invention relates to an information processing apparatus and method, a recording medium, and a program, and in particular, information processing that can quickly and surely determine the orientation of a face when a driver is facing the front during driving. The present invention relates to an apparatus and method, a recording medium, and a program.
従来、撮像した画像間のオプティカルフローを画像処理により求め、求めたオプティカルフローに基づいて、ドライバの顔の向きを検出することが提案されている(例えば、特許文献1参照)。 Conventionally, it has been proposed to obtain an optical flow between captured images by image processing, and detect the orientation of the driver's face based on the obtained optical flow (see, for example, Patent Document 1).
ところで、近年、開発が盛んである運転を支援する運転支援装置などにおいて、ドライバの脇見を検出する場合、例えば、ドライバが運転中に正面を向いている場合の顔の向き(以下、イニシャル方向と称する)を基準とするドライバの顔の向きを検出することにより、脇見が検出される。従って、この場合、イニシャル方向をできる限り正確に設定することが重要となる。 By the way, in a driving support device that supports driving that has been actively developed in recent years, for example, when detecting a driver's side look, the direction of the face when the driver is facing the front during driving (hereinafter referred to as the initial direction). Is detected by detecting the direction of the driver's face relative to the driver's face. Therefore, in this case, it is important to set the initial direction as accurately as possible.
しかしながら、特許文献1に記載の発明では、ドライバを撮像するカメラをドライバの正面下方に設置することが前提とされ、イニシャル方向を求めることについては言及されていない。従って、ドライバの身長、ドライビングポジション(運転姿勢)などの違いに対応して、イニシャル方向が調整することができないため、想定したイニシャル方向と実際のイニシャル方向との間に誤差が生じる場合がある。また、特許文献1の図1にあるように、カメラをドライバの正面下方に設置した場合、ステアリングホイールやドライバの手などが邪魔になり、ドライバの顔が撮影できないときがある。
However, in the invention described in
そこで、従来、車両の走行速度および先行車との車間距離に基づいて、眼の位置データを測定するサンプル数またはサンプリング時間を設定し、設定したサンプル数またはサンプリング時間における測定値の平均値を、ドライバが正面を向いている場合の眼の位置(イニシャル位置)に設定することが提案されている(例えば、特許文献2参照)。 Therefore, conventionally, the number of samples or sampling time for measuring eye position data is set based on the traveling speed of the vehicle and the inter-vehicle distance with the preceding vehicle, and the average value of the measured values at the set number of samples or sampling time is It has been proposed to set the eye position (initial position) when the driver is facing the front (see, for example, Patent Document 2).
また、ドライバが運転姿勢を保ち、正面遠方を向いた状態で、所定のスイッチを押すことにより、イニシャル方向(基準方向)を設定することが提案されている(例えば、特許文献3参照)。 In addition, it has been proposed to set an initial direction (reference direction) by pressing a predetermined switch while the driver maintains a driving posture and faces far away (see, for example, Patent Document 3).
しかしながら、特許文献2に記載の発明では、先行車がない場合、先行車との車間距離を検出できないため、イニシャル位置を設定することができない。また、特許文献1に記載の発明では、毎回、所定のサンプル数またはサンプリング時間以上、眼の位置データを測定する必要があり、イニシャル位置を設定するまでに時間を要してしまう。
However, in the invention described in
また、特許文献3に記載の発明では、イニシャル方向を設定するために、ドライバが所定の操作を行う必要があり、イニシャル方向の設定が忘れられたり、実際に運転中に正面遠方を向いている状態と異なる状態において、イニシャル方向が設定されてしまう可能性がある。
Further, in the invention described in
本発明は、このような状況に鑑みてなされたものであり、イニシャル方向を迅速かつ確実に求めることができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to quickly and reliably obtain the initial direction.
本発明の一側面の情報処理装置は、運転席に座っているドライバを撮影した画像である入力画像におけるドライバの顔の位置である検出位置を検出する位置検出手段と、入力画像におけるドライバの顔の位置と、ドライバが運転中に正面を向いている場合の顔の向きであるイニシャル方向とが予め関連づけられているデータである変換データから、検出位置に対応するイニシャル方向を取得するイニシャル方向取得手段とを備える。 An information processing apparatus according to an aspect of the present invention includes a position detection unit that detects a detection position that is a position of a driver's face in an input image that is an image of a driver sitting in a driver's seat, and a driver's face in the input image. Initial direction acquisition that acquires the initial direction corresponding to the detected position from the conversion data that is the data in which the initial position that is the orientation of the face when the driver is facing the front during driving is pre-associated Means.
本発明の一側面の情報処理装置においては、運転席に座っているドライバを撮影した画像である入力画像におけるドライバの顔の位置である検出位置が検出され、入力画像におけるドライバの顔の位置と、ドライバが運転中に正面を向いている場合の顔の向きであるイニシャル方向とが予め関連づけられているデータである変換データから、検出位置に対応するイニシャル方向が取得される。 In the information processing apparatus according to one aspect of the present invention, a detection position that is a position of the driver's face in the input image that is an image obtained by photographing the driver sitting in the driver's seat is detected, and the position of the driver's face in the input image is detected. The initial direction corresponding to the detected position is acquired from the conversion data, which is data associated in advance with the initial direction, which is the face direction when the driver is facing the front during driving.
従って、入力画像におけるドライバの顔の位置に基づいて、ドライバが運転中に正面を向いている場合の顔の向きを求めることができる。また、ドライバが運転中に正面を向いている場合の顔の向きを、迅速かつ確実に求めることができる。 Therefore, based on the position of the driver's face in the input image, the face orientation when the driver is facing the front during driving can be obtained. In addition, the face orientation when the driver is facing the front during driving can be quickly and reliably obtained.
この位置検出手段、イニシャル方向取得手段は、例えば、CPU(Central Processing Unit)により構成される。 The position detection means and the initial direction acquisition means are constituted by, for example, a CPU (Central Processing Unit).
この情報処理装置は、入力画像に基づいて検出されたドライバの顔の向きを、イニシャル方向を基準とする向きに変換する変換手段をさらに備えることができる。 The information processing apparatus may further include conversion means for converting the orientation of the driver's face detected based on the input image into an orientation based on the initial direction.
これにより、ドライバが運転中に正面を向いている場合の顔の向きを基準とするドライバの顔の向きを検出することができる。 Thereby, it is possible to detect the face direction of the driver based on the face direction when the driver is facing the front during driving.
この変換手段は、例えば、CPUにより構成される。 This conversion means is constituted by, for example, a CPU.
この情報処理装置は、入力画像に基づいて前記ドライバの顔の向きを検出する顔向き検出手段をさらに備えることができる。 The information processing apparatus may further include a face direction detecting unit that detects a face direction of the driver based on an input image.
これにより、ドライバの顔の向きとイニシャル方向の両方を検出することができる。 Thereby, both the direction of the driver's face and the initial direction can be detected.
この顔向き検出手段は、例えば、CPUにより構成される。また、この顔向き検出手段および顔検出手段は、例えば、顔の向きを検出する専用の装置により構成するようにすることもできる。 This face orientation detection means is constituted by a CPU, for example. Further, the face direction detecting means and the face detecting means can be configured by a dedicated device for detecting the face direction, for example.
この位置検出手段には、複数の方向から運転席に座っているドライバを撮影した複数の入力画像について検出位置を検出させ、イニシャル方向取得手段には、それぞれの入力画像に対応する変換データから、それぞれの入力画像における検出位置に対応するイニシャル方向を取得させることができる。 This position detection means detects detection positions for a plurality of input images obtained by photographing a driver sitting in the driver's seat from a plurality of directions, and the initial direction acquisition means uses conversion data corresponding to each input image, The initial direction corresponding to the detection position in each input image can be acquired.
これにより、イニシャル方向を検出できる範囲を広げることができる。 Thereby, the range which can detect an initial direction can be expanded.
本発明の一側面の情報処理方法、プログラム、または、記録媒体に記録されているプログラムは、運転席に座っているドライバを撮影した画像である入力画像におけるドライバの顔の位置である検出位置を検出する位置検出ステップと、入力画像におけるドライバの顔の位置と、ドライバが運転中に正面を向いている場合の顔の向きであるイニシャル方向とが予め関連づけられているデータである変換データからの、検出位置に対応するイニシャル方向の取得を制御するイニシャル方向取得制御ステップとを含む。 An information processing method, a program, or a program recorded on a recording medium according to one aspect of the present invention includes a detection position that is a position of a driver's face in an input image that is an image of a driver sitting in a driver's seat. The position detection step to detect, the position of the driver's face in the input image, and the conversion data, which is data in which the initial direction, which is the orientation of the face when the driver faces the front while driving, is associated in advance. And an initial direction acquisition control step for controlling acquisition of an initial direction corresponding to the detected position.
本発明の一側面の情報処理方法、プログラム、または、記録媒体に記録されているプログラムにおいては、運転席に座っているドライバを撮影した画像である入力画像におけるドライバの顔の位置である検出位置が検出され、入力画像におけるドライバの顔の位置と、ドライバが運転中に正面を向いている場合の顔の向きであるイニシャル方向とが予め関連づけられているデータである変換データからの、検出位置に対応するイニシャル方向の取得が制御される。 In an information processing method, program, or program recorded on a recording medium according to one aspect of the present invention, a detection position that is a position of a driver's face in an input image that is an image of a driver sitting in a driver's seat Detected position from the conversion data, which is data in which the position of the driver's face in the input image and the initial direction, which is the face direction when the driver is facing the front during driving, are associated in advance The acquisition of the initial direction corresponding to is controlled.
従って、入力画像におけるドライバの顔の位置に基づいて、ドライバが運転中に正面を向いている場合の顔の向きを求めることができる。また、ドライバが運転中に正面を向いている場合の顔の向きを、迅速かつ確実に求めることができる。 Therefore, based on the position of the driver's face in the input image, the face orientation when the driver is facing the front during driving can be obtained. In addition, the face orientation when the driver is facing the front during driving can be quickly and reliably obtained.
この位置検出ステップは、例えば、運転席に座っているドライバを撮影した画像である入力画像におけるドライバの顔の位置である検出位置をCPUにより検出する位置検出ステップにより構成され、このイニシャル方向制御ステップは、例えば、入力画像におけるドライバの顔の位置と、ドライバが運転中に正面を向いている場合の顔の向きであるイニシャル方向とが予め関連づけられているデータである変換データからの、検出位置に対応するイニシャル方向の取得をCPUにより制御するイニシャル方向取得制御ステップにより構成される。 This position detection step includes, for example, a position detection step in which the CPU detects a detection position that is the position of the driver's face in the input image that is an image of the driver sitting in the driver's seat. This initial direction control step Is, for example, a detection position from conversion data that is data in which the position of the driver's face in the input image and the initial direction, which is the orientation of the face when the driver is facing the front during driving, are associated in advance. The initial direction acquisition control step in which the acquisition of the initial direction corresponding to is controlled by the CPU.
以上のように、本発明の一側面によれば、入力画像におけるドライバの顔の位置に基づいて、ドライバが運転中に正面を向いている場合の顔の向きを求めることができる。また、本発明の一側面によれば、ドライバが運転中に正面を向いている場合の顔の向きを、迅速かつ確実に求めることができる。 As described above, according to one aspect of the present invention, the face orientation when the driver is facing the front during driving can be obtained based on the position of the driver's face in the input image. In addition, according to one aspect of the present invention, it is possible to quickly and surely determine the orientation of the face when the driver is facing the front during driving.
以下、図を参照して、本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明を適用した顔向き検出装置の第1の実施の形態を示すブロック図である。顔向き検出装置1は、カメラ11、顔検出部12、イニシャル方向取得部13、顔向き検出部14、および、記憶部15を含むように構成される。
FIG. 1 is a block diagram showing a first embodiment of a face direction detecting device to which the present invention is applied. The face
カメラ11は、顔向き検出装置1が設けられている車両の運転席に座っているドライバ2の顔を撮影した画像(以下、入力画像と称する)を顔検出部12および顔向き検出部14に供給する。
The
なお、カメラ11は、ドライバの体格および姿勢などの違いに関わらず、運転中のドライバ2の顔をできる限り撮影することができる位置に設置されることが望ましい。例えば、カメラ11は、車両内のセンタミラー(ルームミラー)の根元付近(センタミラーが車両に取り付けられているあたり)に設置され、前方左斜め上方向からドライバ2を撮影する。
The
顔検出部12は、所定の手法に基づいて、入力画像の中からドライバ2の顔の位置を検出し、検出結果を示す情報をイニシャル方向取得部13および顔向き検出部14に供給する。なお、顔検出部12が、入力画像の中からドライバ2の顔の位置を検出する手法は、特定の手法に限定されるものではなく、顔の位置をより迅速かつ正確に検出できる手法が望ましい。
The
イニシャル方向取得部13は、図2を参照して後述するように、記憶部15に記憶されている、入力画像におけるドライバの顔の位置と、ドライバが運転中に正面を向いている場合の顔の向きであるイニシャル方向とが予め関連づけられている変換テーブルから、顔検出部12により検出された、入力画像におけるドライバ2の顔の位置に対応するイニシャル方向を取得する。イニシャル方向取得部13は、取得したイニシャル方向を示す情報を、顔向き検出装置1の後段の装置に供給する。なお、変換テーブルについては、図4乃至図6を参照して後述する。また、以下では、イニシャル方向は、カメラ11から見た顔の向き、すなわち、入力画像における顔の向きにより表されるものとする。
As will be described later with reference to FIG. 2, the initial
顔向き検出部14は、所定の手法を用いて、カメラ11から見た、すなわち、入力画像におけるドライバ2の顔の向きを検出する。顔向き検出部14は、検出結果を示す情報を、顔向き検出装置1の後段の装置に供給する。なお、顔向き検出部14が、ドライバ2の顔の向きを検出する手法は、特定の手法に限定されるものではなく、顔の向きをより迅速かつ正確に検出できる手法が望ましい。例えば、顔向きを検出する手法の詳細については、特許2982204号公報などに、その詳細が開示されている。
The face
顔向き検出装置1の後段の装置は、例えば、イニシャル方向取得部13からの情報、および、顔向き検出部14からの検出結果に基づいて、イニシャル方向を基準とするドライバ2の顔の向き、すなわち、ドライバ2のイニシャル方向を基準とする顔の向きを検出し、検出結果に基づいて、所定の処理(例えば、ドライバ2の脇見の検出、車両の制御など)を行う。
The subsequent device of the face
次に、図2のフローチャートを参照して、顔向き検出装置1により実行される顔向き検出処理を説明する。なお、この処理は、例えば、顔向き検出装置1が設けられている車両のアクセサリー(ACC)用の電源からの顔向き検出装置1への供給が開始されたとき、開始される。
Next, the face direction detection process executed by the face
ステップS1において、カメラ11は、運転席周辺の撮影を開始する。すなわち、カメラ11により運転席に座っているドライバ2の顔の撮影が開始される。
In step S1, the
ステップS2において、顔検出部12および顔向き検出部14は、カメラ11により撮影された入力画像を取得する。
In step S <b> 2, the
ステップS3において、顔検出部12は、ドライバ2の顔の位置を検出する。具体的には、まず、顔検出部12は、所定の手法を用いて、入力画像の中からドライバ2の顔が写っている顔領域を検出する。図3は、入力画像の例を示しており、ドライバ2の顔が写っている顔領域31が検出される。次に、顔検出部12は、検出した顔領域の中心点をドライバ2の顔の位置として検出する。図3の例においては、顔領域31の中心点32が、ドライバの顔の位置として検出される。
In step S <b> 3, the
ステップS4において、顔検出部12は、ステップS3の処理において、ドライバ2の顔が検出できたか否かを判定する。ドライバ2の顔が検出できたと判定された場合、処理はステップS5に進む。
In step S4, the
ステップS5において、イニシャル方向取得部13は、イニシャル方向を取得する。具体的には、顔検出部12は、ドライバ2の顔が検出できたと判定した場合、検出結果を示す情報を、イニシャル方向取得部13に供給する。イニシャル方向取得部13は、記憶部15に記憶されている変換テーブルを読み出す。ここで、図4乃至図6を参照して、変換テーブルについて説明する。
In step S5, the initial
図4は、ドライバ2およびカメラ11を上から見た図であり、ドライバ2とカメラ11との位置関係を示している。なお、図中、矢印41は、車両の前方の方向を示し、位置42および43は、ドライバ2の頭部の位置を示している。また、図4の例において、カメラ11は、車両内のセンタミラー(ルームミラー)の根元、すなわち、前方左斜め上方向からドライバ2を撮影する位置に設置されているものとする。
FIG. 4 is a view of the
一般的に、運転中にドライバが正面を向いている場合の顔の位置は、ドライバ、または、ドライビングポジションの違い(例えば、座席の前後の位置、背もたれの角度などによる運転姿勢の違い)により、車両の前後および上下方向に変化する。一方、一般的に運転席は左右方向に移動しないため、ドライバまたはドライビングポジションが違っても、運転中にドライバが正面を向いている場合の顔の位置は、左右方向にはほとんど変化しない。すなわち、運転中にドライバが正面を向いている場合の顔の位置は、ドライバまたはドライビングポジションの違いにより、車両の前後および上下方向の2次元の平面上を変化すると考えられる。 In general, the position of the face when the driver is facing the front during driving depends on the driver or the difference in driving position (for example, the position of the front and back of the seat, the difference in driving posture due to the angle of the backrest, etc.) It changes in the front and rear and up and down directions of the vehicle. On the other hand, since the driver's seat generally does not move in the left-right direction, even if the driver or driving position is different, the position of the face when the driver faces the front during driving hardly changes in the left-right direction. That is, it is considered that the position of the face when the driver is facing the front during driving changes on a two-dimensional plane in the front-rear and vertical directions of the vehicle due to the difference in the driver or driving position.
また、一般的に、ドライバまたはドライビングポジションが違っても、運転中にドライバが正面を向いている場合の車両に対する顔の向きは、ほぼ同様であり、図4の例においては、ほぼ矢印41の方向となる。従って、ドライバまたはドライビングポジションが違っても、ドライバの顔の位置が同じであれば、運転中にドライバが正面を向いている場合のカメラ11から見たドライバの顔の向き、すなわち、イニシャル方向はほぼ同じになり、ドライバの顔の位置が異なれば、イニシャル方向はほぼ異なると言える。すなわち、カメラ11に対するドライバの顔の位置と、イニシャル方向とはほぼ1対1に対応すると言える。
In general, even if the driver or the driving position is different, the face direction with respect to the vehicle when the driver is facing the front during driving is substantially the same. In the example of FIG. Direction. Therefore, even if the driver or driving position is different, if the driver's face position is the same, the driver's face orientation viewed from the
例えば、ドライバ2が矢印41の方向を向いている場合、ドライバ2の頭部が位置42にあるとき、カメラ11から見たドライバ2の左右方向(水平方向)の顔の向きを示す角度をθ1、ドライバ2の頭部が位置43にあるとき、カメラ11から見たドライバ2の左右方向(水平方向)の顔の向きを示す角度をθ2とすると、θ1<θ2となる。すなわち、運転中にドライバ2が正面を向いている場合、ドライバ2の顔の位置が前方にあるほど、例えば、ドライバ2のドライビングポジションが前方にあるほど、左方向の傾き(角度)が大きくなり、ドライバ2の顔の位置が後方にあるほど、例えば、ドライバ2のドライビングポジションが後方にあるほど、左方向の傾き(角度)が小さくなる。
For example, when the
また、図示はしないが、同様に、運転中にドライバ2が正面を向いている場合、カメラ11から見たドライバ2の顔の向きは、ドライバ2の顔の位置が下にあるほど、例えば、ドライバ2の座高が低いほど、下方向の傾き(角度)が大きくなり、ドライバ2の顔の位置が上にあるほど、例えば、ドライバ2の座高が高いほど、下方向の傾き(角度)が小さくなる。
Although not shown, similarly, when the
上述したように、運転中のカメラ11に対するドライバの顔の位置は、車両の前後および上下方向の2次元の平面上を移動し、かつ、カメラ11に対するドライバの顔の位置と、イニシャル方向とはほぼ1対1に対応するので、入力画像におけるドライバの顔の位置と、イニシャル方向とはほぼ1対1に対応する。従って、入力画像におけるドライバの顔の位置が分かれば、イニシャル方向をほぼ正確に推定することができる。
As described above, the position of the driver's face relative to the
図5は、運転中にドライバが正面を向いている場合の顔の向きと、入力画像におけるドライバの顔の位置との関係を模式的に表した図である。なお、図5においては、入力画像が縦3×横4の合計12の領域に分割されている。例えば、ドライバの顔の位置が左下隅の領域内である場合、入力画像におけるドライバの顔の向き(カメラ11から見たドライバの顔の向き、すなわち、イニシャル方向)は、左右方向については、ドライバの顔の位置が左上隅の領域内である場合とほぼ同じ方向となり、上下方向については、ドライバの顔の位置が右下隅の領域内である場合とほぼ同じ方向となる。同様に、ドライバの顔の位置が右上隅の領域内である場合、入力画像におけるドライバの顔の向きは、左右方向については、ドライバの顔の位置が右下隅の領域内である場合とほぼ同じ方向となり、上下方向については、ドライバの顔の位置が入力画像の左上隅の領域内である場合とほぼ同じ方向となる。
FIG. 5 is a diagram schematically showing the relationship between the face orientation when the driver is facing the front during driving and the position of the driver's face in the input image. In FIG. 5, the input image is divided into a total of 12 areas of 3 × 4 in the vertical direction. For example, when the position of the driver's face is in the lower left corner area, the driver's face direction in the input image (the driver's face direction as viewed from the
図6は、変換テーブルの例を示す図である。変換テーブルは、ドライバまたはドライビングポジションの違いに関わらず、入力画像におけるドライバの顔の位置とイニシャル方向とがほぼ1対1に対応するという性質に基づいて、入力画像におけるドライバの顔の位置とイニシャル方向とが関連づけられたデータである。図6においては、図5の場合と同様に、入力画像が縦3×横4の合計12の領域に分割され、各領域に対してイニシャル方向が1つずつ対応づけられている。例えば、図6の変換テーブルにおいては、入力画像の左上隅の領域に対応するイニシャル方向は、左方向45°、下方向0°であり、入力画像の右下隅の領域に対応するイニシャル方向は、左方向30°、下方向10°である。 FIG. 6 is a diagram illustrating an example of a conversion table. The conversion table is based on the property that the face position and the initial direction of the driver in the input image have a one-to-one correspondence regardless of the difference in the driver or driving position. This data is associated with a direction. In FIG. 6, as in the case of FIG. 5, the input image is divided into a total of 12 regions of 3 × 4 in length, and one initial direction is associated with each region. For example, in the conversion table of FIG. 6, the initial direction corresponding to the upper left corner region of the input image is 45 ° leftward and 0 ° downward, and the initial direction corresponding to the lower right corner region of the input image is The leftward direction is 30 ° and the downward direction is 10 °.
なお、各車種、および、想定されるカメラ11の設置位置ごとに、事前に計測などを行うことにより、各車種および設置位置に応じた変換テーブルが個別に作成され、顔向き検出装置1においては、カメラ11が設置される車種および設置位置に対応した変換テーブルが用いられる。
In addition, by performing measurement or the like in advance for each vehicle type and each assumed installation position of the
図2に戻り、ステップS5において、イニシャル方向取得部13は、変換テーブルから、顔検出部12により検出されたドライバの顔の位置に対応するイニシャル方向を取得する。
Returning to FIG. 2, in step S5, the initial
ステップS6において、イニシャル方向取得部13は、イニシャル方向を出力する。具体的には、イニシャル方向取得部13は、イニシャル方向を示す情報を、顔向き検出装置1の後段の装置に出力する。
In step S6, the initial
ステップS7において、顔向き検出部14は、ドライバ2の顔の向きを検出する。具体的には、顔検出部12は、ドライバ2の顔が検出できたと判定した場合、検出結果を示す情報を顔向き検出部14に供給する。顔向き検出部14は、所定の手法を用いて、入力画像、および、顔検出部12により検出されたドライバ2の顔の位置に基づいて、カメラ11から見たドライバの顔の向きを検出する。
In step S <b> 7, the face
ステップS8において、顔向き検出部14は、ステップS7の処理において、ドライバ2の顔の向きが検出できたか否かを判定する。ドライバ2の顔の向きが検出できたと判定された場合、処理はステップS9に進む。
In step S8, the face
ステップS9において、顔向き検出部14は、ドライバ2の顔の向きを出力する。具体的には、顔向き検出部14は、検出したドライバ2の顔の向きの検出結果を示す情報を、顔向き検出装置1の後段の装置に出力する。その後、処理はステップS11に進む。
In step S <b> 9, the face
ステップS8において、ドライバ2の顔の向きが検出できなかったと判定された場合、処理はステップS10に進む。
If it is determined in step S8 that the face direction of the
また、ステップS4において、顔検出部12は、ドライバ2の顔が検出できなかったと判定した場合、処理はステップS10に進む。
If the
ステップS10において、顔向き検出部14は、検出エラーを出力する。具体的には、顔検出部12は、ドライバ2の顔を検出できなかった場合、ドライバ2の顔を検出できなかったことを示す情報を、イニシャル方向取得部13および顔向き検出部14に供給する。顔向き検出部14は、ドライバ2の顔の向きの検出に失敗したことを示す検出エラーを通知する情報を、顔向き検出装置1の後段の装置に出力する。
In step S10, the face
ステップS11において、顔向き検出装置1は、処理を終了するか否かを判定する。処理を終了しないと判定された場合、処理はステップS2に戻り、ステップS11において、処理が終了すると判定されるまで、ステップS2乃至S11の処理が繰返し実行される。
In step S11, the face
ステップS11において、例えば、車両のアクセサリー(ACC)用の電源の供給が停止されたとき、顔向き検出装置1は、処理を終了すると判定し、顔向き検出処理は終了する。
In step S11, for example, when the supply of power for the accessory (ACC) of the vehicle is stopped, the face
このように、ドライバまたはドライビングポジションなどが異なっても、そのドライバおよびドライビングポジションに対応したイニシャル方向が、ほぼ正確に求められる。また、ドライバが運転席に座った状態において、ドライバの顔の位置を検出するだけで、運転を開始する前に、迅速にイニシャル方向が求められる。さらに、イニシャル方向のみを求めるのであれば、ドライバの認識を行ったり、ドライバの顔の各器官を認識したりする必要がないため、処理を軽くすることができ、また、入力画像の解像度を低く抑えることができる。また、入力画像の画質が少々悪くても、イニシャル方向を求めることが可能である。さらに、イニシャル方向を求めるための特別な対応をドライバが行うことなく、自動的に確実にイニシャル方向を求めることができる。 As described above, even if the driver or the driving position is different, the initial direction corresponding to the driver and the driving position can be obtained almost accurately. In addition, in the state where the driver is sitting on the driver's seat, the initial direction can be promptly obtained by simply detecting the position of the driver's face before starting driving. Furthermore, if only the initial direction is required, it is not necessary to recognize the driver or recognize each organ of the driver's face, so the processing can be lightened and the resolution of the input image can be reduced. Can be suppressed. Even if the image quality of the input image is a little bad, the initial direction can be obtained. Furthermore, the initial direction can be obtained automatically and reliably without the driver performing a special action for obtaining the initial direction.
なお、変換テーブルをより細かな領域に分割することにより、イニシャル方向の精度を向上させることができる。 Note that the accuracy in the initial direction can be improved by dividing the conversion table into smaller areas.
次に、図7乃至図9を参照して、本発明の第2の実施の形態について説明する。図7は、本発明の第2の実施の形態である顔向き検出装置101の機能の構成の例を示すブロック図である。顔向き検出装置101は、後述するように、イニシャル方向を基準とするドライバ2の顔の向きを、後段の装置に出力することを特徴とする。顔向き検出装置101は、カメラ11、顔検出部12、イニシャル方向取得部13、顔向き検出部14、記憶部15、および、変換部111を含むように構成される。
Next, a second embodiment of the present invention will be described with reference to FIGS. FIG. 7 is a block diagram illustrating an example of a functional configuration of the face
なお、図中、図1と対応する部分については同じ符号を付してあり、処理が同じ部分に関しては、その説明は繰り返しになるので省略する。 In the figure, portions corresponding to those in FIG. 1 are denoted by the same reference numerals, and description of portions having the same processing will be omitted because it will be repeated.
顔向き検出装置101は、図1の顔向き検出装置1と比べて、カメラ11、顔検出部12、イニシャル方向取得部13、顔向き検出部14、および、記憶部15を含む点で一致し、変換部111を含む点で異なる。
Compared with the face
変換部111は、イニシャル方向を示す情報をイニシャル方向取得部13から取得し、ドライバ2の顔の向きの検出結果を示す情報を顔向き検出部14から取得する。変換部111は、顔向き検出部14により検出された、カメラ11から見たドライバ2の顔の向きを、イニシャル方向を基準とする向きに変換する。変換部111は、変換した顔の向きを示す情報を、顔向き検出装置101の後段の装置に出力する。
The
次に、図8のフローチャートを参照して、顔向き検出装置101により実行される顔向き検出処理を説明する。
Next, the face direction detection process executed by the face
ステップS101乃至S105の処理は、図2のステップS1乃至S5の処理と同様であり、その説明は繰り返しになるので省略する。 The processing of steps S101 to S105 is the same as the processing of steps S1 to S5 in FIG.
ステップS106において、図2のステップS7の処理と同様に、カメラ11から見たドライバ2の顔の向きが検出される。
In step S106, the face orientation of the
ステップS107において、図2のステップS8の処理と同様に、ドライバ2の顔の向きが検出できたか否かが判定される。ドライバ2の顔の向きが検出できたと判定された場合、処理はステップS108に進む。
In step S107, it is determined whether the face orientation of the
ステップS108において、変換部111は、検出された顔の向きを変換する。具体的には、イニシャル方向取得部13は、イニシャル方向を示す情報を変換部111に供給する。顔向き検出部14は、ドライバ2の顔の向きの検出結果を示す情報を変換部111に供給する。変換部111は、顔向き検出部14により検出された、カメラ11から見たドライバ2の顔の向きを、イニシャル方向を基準とする向きに変換する。
In step S108, the
ここで、図9を参照して、変換部111による変換方法について説明する。なお、ここでは、説明を簡単にするために左右方向の顔の向きについてのみ考える。顔131の向きが、ドライバ2が正面を向いている場合におけるカメラ11から見たドライバの顔の向き、すなわち、イニシャル方向を示し、顔132の向きが、顔向き検出部14により検出されたドライバ2の顔の向きを示しているとした場合、イニシャル方向を基準とするドライバ2の顔の向きは、顔132の向きから顔131の向きを引いた向き(角度)、すなわち、顔133の向きとなる。例えば、イニシャル方向を左方向に30°、顔向き検出部14により検出されたドライバ2の顔の向きを右方向に30°とした場合、イニシャル方向を基準とするドライバ2の顔の向きは、右方向60°(=右方向30°−左方向30°)となる。
Here, a conversion method by the
なお、上下方向についても同様の方法により、イニシャル方向を基準とするドライバ2の顔の向きが求められる。
Note that the face direction of the
ステップS109において、変換部111は、ドライバ2の顔の向きを出力する。具体的には、変換部111は、イニシャル方向を基準とするドライバの顔の向きを示す情報を、顔向き検出装置101の後段の装置に出力する。その後、処理はステップS110に進む。
In step S109, the
ステップS104において、ドライバ2の顔が検出できなかったと判定された場合、または、ステップS107において、ドライバ2の顔の向きが検出できなかったと判定された場合、処理はステップS110に進む。
If it is determined in step S104 that the face of the
ステップS110において、変換部111は、検出エラーを出力する。具体的には、顔検出部12は、ドライバ2の顔を検出できなかった場合、ドライバ2の顔を検出できなかったことを示す情報を、イニシャル方向取得部13および顔向き検出部14に供給する。また、顔向き検出部14は、ドライバ2の顔の向きを検出できなかった場合、ドライバ2の顔の向きを検出できなかったことを示す情報を、変換部111に供給する。変換部111は、ドライバ2の顔の向きが検出されなかったことを示す情報を、顔向き検出装置101の後段の装置に出力する。
In step S110, the
ステップS111において、上述した図2のステップS11の処理と同様に、処理を終了するか否かが判定される。処理を終了しないと判定された場合、処理はステップS102に戻り、ステップS111において、処理を終了すると判定されるまで、ステップS102乃至S111の処理が繰返し実行される。 In step S111, it is determined whether or not to end the process, similar to the process in step S11 of FIG. If it is determined not to end the process, the process returns to step S102, and the processes in steps S102 to S111 are repeatedly executed until it is determined in step S111 that the process is to be ended.
ステップS111において、処理を終了すると判定された場合、顔向き検出処理は終了する。 If it is determined in step S111 that the process is to be terminated, the face orientation detection process is terminated.
このように、顔向き検出装置101の後段の装置に、イニシャル方向を基準とするドライバ2の顔の向きが出力されるようになる。
In this way, the face orientation of the
なお、顔向き検出装置101の後段の装置に、イニシャル方向も合わせて出力するようにしてもよい。
Note that the initial direction may also be output to a device subsequent to the face
次に、図10乃至図12を参照して、本発明の第3の実施の形態について説明する。図10は、本発明の第3の実施の形態である顔向き検出装置201の機能の構成の例を示すブロック図である。顔向き検出装置201は、複数台のカメラを用いてドライバ2の顔の向きを検出することを特徴とする。顔向き検出装置201は、カメラ11,211、顔検出部12、イニシャル方向取得部13、顔向き検出部14、記憶部15、および、変換部111を含むように構成される。
Next, a third embodiment of the present invention will be described with reference to FIGS. FIG. 10 is a block diagram illustrating an example of a functional configuration of the face
なお、図中、図7と対応する部分については同じ符号を付してあり、処理が同じ部分に関しては、その説明は繰り返しになるので省略する。 In the figure, parts corresponding to those in FIG.
顔向き検出装置201は、図7の顔向き検出装置101と比べて、カメラ11、顔検出部12、イニシャル方向取得部13、顔向き検出部14、記憶部15、および、変換部111を含む点で一致し、カメラ211を含む点で異なる。
Compared with the face
カメラ211は、カメラ11とは異なる位置に設置され、カメラ11とは異なる方向から、顔向き検出装置201が設けられている車両の運転席に座っているドライバ2の顔を撮影した画像(入力画像)を顔検出部12および顔向き検出部14に供給する。なお、以下、カメラ11により撮影された画像とカメラ211により撮影された画像を区別する必要がある場合、カメラ11により撮影された画像を第1の入力画像といい、カメラ211により撮影された画像を第2の入力画像という。
The
図11は、カメラ11およびカメラ211の設置位置の例を示す。カメラ11は、例えば、車両内のセンタミラーの根元付近に設置され、前方左斜め上方向からドライバ2の顔を撮影する。また、カメラ211は、運転席前方のダッシュボード(インストルメントパネル)上部右端付近に設置され、前方右斜め下方向からドライバ2の顔を撮影する。これにより、ドライバ2の顔を撮影できる範囲が広がり、ドライバの顔の向きを検出できる範囲が広がる。例えば、ドライバ2が、カメラ11に対して90°右の方向に顔を向け、カメラ11によりドライバ2の顔が撮影できない場合においても、カメラ211により、ドライバ2の顔の向きを撮影でき、ドライバ2の顔の向きを検出することができる。
FIG. 11 shows an example of installation positions of the
なお、記憶部15には、第1の入力画像に対応した変換テーブル、すなわち、第1の入力画像におけるドライバ2の顔の位置と、カメラ11から見たイニシャル方向(以下、第1のイニシャル方向とも称する)とを関連づけた変換テーブル(以下、第1の変換テーブルとも称する)、および、第2の入力画像に対応した変換テーブル、すなわち、第2の入力画像におけるドライバ2の顔の位置と、カメラ211から見たイニシャル方向(以下、第2のイニシャル方向とも称する)とを関連づけた変換テーブル(以下、第2の変換テーブルとも称する)が記憶される。イニシャル方向取得部13は、第1の入力画像におけるドライバ2の顔の位置および第1の変換テーブル、または、第2の入力画像におけるドライバ2の顔の位置および第2の変換テーブルに基づいて、イニシャル方向を検出する。
The
次に、図12のフローチャートを参照して、顔向き検出装置201により実行される顔向き検出処理を説明する。なお、この処理は、例えば、顔向き検出装置201が設けられている車両のアクセサリー(ACC)用の電源からの顔向き検出装置201への供給が開始されたとき、開始される。
Next, face direction detection processing executed by the face
ステップS201において、カメラ11および211は、運転席周辺の撮影を開始する。すなわち、カメラ11および211により運転席に座っているドライバ2の顔の撮影が開始される。
In step S201, the
ステップS202において、顔検出部12および顔向き検出部14は、カメラ11および211により撮影された入力画像(第1および第2の入力画像)を取得する。
In step S202, the
ステップS203において、顔検出部12は、上述した図2のステップS3の処理と同様に、ドライバ2の顔の位置を検出する。ただし、図2のステップS3の処理と異なり、顔検出部12は、第1および第2の2つの入力画像におけるドライバ2の顔の位置を検出する。
In step S203, the
ステップS204において、顔検出部12は、ドライバ2の顔の位置を検出できたか否かを判定する。顔検出部12は、ステップS203において、第1の入力画像または第2の入力画像のうち少なくとも一方におけるドライバ2の顔の位置を検出できた場合、ドライバ2の顔の位置を検出できたと判定し、処理はステップS205に進む。
In step S204, the
ステップS205において、上述した図2のステップS5の処理と同様に、イニシャル方向が取得される。ただし、ステップS5の処理と異なり、第1および第2の入力画像の両方において、ドライバ2の顔の位置が検出されている場合、それぞれの入力画像に対応する変換テーブルから、それぞれの入力画像におけるドライバ2の顔の位置に対応するイニシャル方向が取得される。また、第1または第2の入力画像の一方のみにおいて、ドライバ2の顔の位置が検出されている場合、ドライバ2の顔の位置が検出された入力画像に対応する変換テーブルから、その入力画像におけるドライバ2の顔の位置に対応するイニシャル方向が取得される。
In step S205, the initial direction is acquired in the same manner as in step S5 of FIG. However, unlike the processing in step S5, when the face position of the
ステップS206において、上述した図2のステップS7の処理と同様に、ドライバ2の顔の向きが検出される。ただし、ステップS7の処理と異なり、第1および第2の入力画像の両方において、ドライバ2の顔の位置が検出されている場合、それぞれの入力画像に基づいて、ドライバ2の顔の向きが検出される。また、第1または第2の入力画像の一方のみにおいて、ドライバ2の顔の位置が検出されている場合、ドライバ2の顔の位置が検出された入力画像に基づいて、ドライバ2の顔の向きが検出される。
In step S206, the face orientation of the
ステップS207において、顔向き検出部14は、ドライバ2の顔の向きが検出できたか否かを判定する。顔向き検出部14は、ステップS206において、第1または第2の入力画像のうち少なくとも一方の入力画像に基づいて、ドライバ2の顔の向きが検出できた場合、ドライバ2の顔の向きを検出できたと判定し、処理はステップS208に進む。
In step S207, the face
ステップS208において、変換部111は、検出された顔の向きを変換する。具体的には、イニシャル方向取得部13は、イニシャル方向の検出結果を示す情報を変換部111に供給する。顔向き検出部14は、ドライバ2の顔の向きの検出結果を示す情報を変換部111に供給する。変換部111は、上述した図8のステップS108の処理と同様に、顔向き検出部14により検出されたドライバ2の顔の向きを、イニシャル方向を基準とする向きに変換する。
In step S208, the
ただし、第1の入力画像に基づくドライバ2の顔の向き、および、第2の入力画像に基づくドライバ2の顔の向きの両方ともが検出されている場合、どちらか一方の入力画像に基づく顔の向きが選択されて、選択された顔の向きが、イニシャル方向を基準とする向きに変換される。例えば、カメラ11またはカメラ211から見て、より正面に近い方の顔の向きが選択される。
However, when both the face direction of the
ステップS209において、上述した図8のステップS109の処理と同様に、イニシャル方向を基準とするドライバの顔の向きを示す情報が、顔向き検出装置201の後段の装置に出力される。その後、処理はステップS211に進む。
In step S209, as in the process of step S109 of FIG. 8 described above, information indicating the driver's face orientation with respect to the initial direction is output to a device subsequent to the face
ステップS204において、ドライバ2の顔が検出できなかったと判定された場合、または、ステップS207において、ドライバ2の顔の向きが検出できなかったと判定された場合、処理はステップS210に進む。
If it is determined in step S204 that the face of the
ステップS210において、上述した図8のステップS110の処理と同様に、検出エラーが出力される。 In step S210, a detection error is output in the same manner as in step S110 of FIG.
ステップS211において、上述した図2のステップS11の処理と同様に、処理を終了するか否かが判定される。処理を終了しないと判定された場合、処理はステップS202に戻り、ステップS211において、処理を終了すると判定されるまで、ステップS202乃至S211の処理が繰返し実行される。 In step S211, it is determined whether or not to end the process, similar to the process in step S11 of FIG. If it is determined not to end the process, the process returns to step S202, and the processes in steps S202 to S211 are repeatedly executed until it is determined in step S211 that the process is to be ended.
ステップS211において、処理を終了すると判定された場合、顔向き検出処理は終了する。 If it is determined in step S211 to end the process, the face orientation detection process ends.
このように、ドライバ2の顔の向きの検出範囲を広げることができる。
Thus, the detection range of the face direction of the
なお、以上の説明では、カメラの数を2台とする例を示したが、カメラを3台以上設けるようにしてもよい。この場合、カメラの数が2台の場合と同様に、それぞれのカメラにより撮影された入力画像に対応する変換テーブルが用いられる。 In the above description, an example in which the number of cameras is two has been described, but three or more cameras may be provided. In this case, as in the case where the number of cameras is two, conversion tables corresponding to input images taken by the respective cameras are used.
また、顔向き検出装置201の後段の装置に、イニシャル方向も合わせて出力するようにしてもよいし、顔向き検出装置1と同様に、イニシャル方向、および、カメラ11またはカメラ211から見たドライバ2の顔の向きを出力するようにしてもよい。
In addition, the initial direction may be output to the subsequent device of the face
次に、図13乃至図22を参照して、本発明の第4の実施の形態について説明する。図13は、本発明の第4の実施の形態である顔向き検出装置301の機能の構成の例を示すブロック図である。顔向き検出装置301は、予めイニシャル方向が登録された変換テーブルを用いずに、学習処理によりイニシャル方向の登録または消去を行うことにより、変換テーブルを適宜更新することを特徴とする。顔向き検出装置301は、カメラ11、顔検出部12、顔向き検出部14、記憶部15、変換部111、イニシャル方向取得部311、正面向き判定部312、イニシャル方向検出部313、および、変換テーブル更新部314を含むように構成される。
Next, a fourth embodiment of the present invention will be described with reference to FIGS. FIG. 13 is a block diagram illustrating an example of a functional configuration of the face
なお、図中、図7と対応する部分については同じ符号を付してあり、処理が同じ部分に関しては、その説明は繰り返しになるので省略する。 In the figure, portions corresponding to those in FIG. 7 are denoted by the same reference numerals, and the description of portions having the same processing will be omitted because it will be repeated.
顔向き検出装置301は、図7の顔向き検出装置101と比べて、カメラ11、顔検出部12、顔向き検出部14、記憶部15、および、変換部111を含む点で一致し、イニシャル方向取得部311、正面向き判定部312、イニシャル方向検出部313、および、変換テーブル更新部314を含み、イニシャル方向取得部13を含まない点で異なる。
Compared with the face
イニシャル方向取得部311は、図7のイニシャル方向取得部13と同様に、記憶部15に記憶されている変換テーブルから、顔検出部12により検出されたドライバ2の顔の位置に対応するイニシャル方向を取得する。イニシャル方向取得部311は、取得したイニシャル方向を示す情報を変換部111に供給する。
Similar to the initial
また、イニシャル方向取得部311は、顔検出部12により検出されたドライバ2の顔の位置に対応するイニシャル方向が変換テーブルに登録されていない場合、イニシャル方向が登録されていないことを示す情報を、正面向き判定部312およびイニシャル方向検出部313に供給する。
In addition, the initial
正面向き判定部312は、ドライバ2の顔の向きの検出結果を示す情報を顔向き検出部14から取得する。また、正面向き判定部312は、顔向き検出装置301が設けられている車両の各種の動作を制御する図示せぬ車両制御部から、車両の各種の状態を示す情報を取得する。正面向き判定部312は、図22を参照して後述するように、ドライバ2の顔の向きの検出結果、および、車両の状態に基づいて、ドライバ2が正面(車両の前方の方向)を向いているか否かを判定し、判定結果を示す情報をイニシャル方向検出部313に供給する。
The front
イニシャル方向検出部313は、ドライバ2の顔の位置の検出結果を示す情報を顔検出部12から取得する。また、イニシャル方向検出部313は、ドライバ2の顔の向きの検出結果を示す情報を顔向き検出部14から取得する。イニシャル方向検出部313は、顔検出部12により検出されたドライバ2の顔の位置に対応するイニシャル方向が、記憶部15に記憶されている変換テーブルに登録されていない場合、図22を参照して後述するように、正面向き判定部312によりドライバ2が正面を向いていると判定された場合におけるドライバ2の顔の向きの統計をとることにより、イニシャル方向を検出する。イニシャル方向検出部313は、検出結果を示す情報を変換テーブル更新部314に供給する。
The initial
変換テーブル更新部314は、図16乃至図21を参照して後述するように、顔検出部12により検出された、入力画像におけるドライバ2の顔の位置、および、イニシャル方向検出部313により検出されたイニシャル方向に基づいて、変換テーブルを更新する。また、変換テーブル更新部314は、変換テーブルの更新結果を示す情報をイニシャル方向取得部311に供給する。
The conversion
次に、図14のフローチャートを参照して、顔向き検出装置301により実行される顔向き検出処理を説明する。
Next, face direction detection processing executed by the face
なお、ステップS301乃至S304の処理は、上述した図8のステップS101乃至S104の処理と同様であり、その説明は繰り返しになるので省略する。 Note that the processing of steps S301 to S304 is the same as the processing of steps S101 to S104 of FIG. 8 described above, and the description thereof will be omitted because it will be repeated.
ステップS305において、上述した図8のステップS106の処理と同様に、ドライバ2の顔の向きが検出される。
In step S305, the face orientation of the
ステップS306において、上述した図8のステップS107の処理と同様に、ドライバ2の顔の向きが検出できたか否かが判定され、ドライバ2の顔の向きが検出できたと判定された場合、処理はステップS307に進む。
In step S306, similarly to the process of step S107 of FIG. 8 described above, it is determined whether or not the face direction of the
ステップS307において、イニシャル方向取得部311は、ドライバ2の顔の位置に対するイニシャル方向が登録されているか否かを判定する。具体的には、イニシャル方向取得部311は、記憶部15に記憶されている変換テーブルを読み出す。
In step S307, the initial
図15は、変換テーブルの例を示す図である。なお、図15の変換テーブルにおいて、左方向および下方向の角度が示されている領域は、すでにイニシャル方向が登録されている領域である。例えば、右上隅の領域に対応するイニシャル方向は、左方向30°および下方向0°となる。また、斜線で示される領域は、イニシャル方向がまだ学習されておらず、イニシャル方向が未登録の領域である。 FIG. 15 is a diagram illustrating an example of a conversion table. In the conversion table of FIG. 15, the area where the leftward and downward angles are shown is an area where the initial direction has already been registered. For example, the initial direction corresponding to the upper right corner region is 30 ° leftward and 0 ° downward. Also, the area indicated by diagonal lines is an area where the initial direction has not yet been learned and the initial direction is not registered.
イニシャル方向取得部311は、顔検出部12により検出されたドライバの顔の位置に対応するイニシャル方向が変換テーブルに登録されていない場合、例えば、図15の例において、検出されたドライバ2の顔の位置が斜線で示される領域内である場合、ドライバ2の顔の位置に対するイニシャル方向が登録されていないと判定し、処理はステップS308に進む。
When the initial direction corresponding to the driver's face position detected by the
ステップS308において、顔向き検出装置301は、変換テーブル学習処理を実行する。変換テーブル学習処理の詳細は、図16を参照して後述するが、この処理により、変換テーブルの学習が行われ、必要に応じて、変換テーブルが更新される。
In step S308, the face
ステップS309において、ステップS307の処理と同様に、ドライバ2の顔の位置に対するイニシャル方向が登録されているか否かが判定される。ドライバ2の顔の位置に対するイニシャル方向が登録されていると判定された場合、すなわち、ステップS308の変換テーブル学習処理により、検出されたドライバ2の顔の位置に対するイニシャル方向が変換テーブルに新たに登録された場合、処理はステップS310に進む。
In step S309, as in the process of step S307, it is determined whether the initial direction for the face position of the
一方、S307において、顔検出部12により検出されたドライバの顔の位置に対応するイニシャル方向が変換テーブルに登録されている場合、例えば、図15の例において、検出されたドライバ2の顔の位置が斜線で示される領域以外の領域内である場合、ドライバ2の顔の位置に対するイニシャル方向が登録されていると判定され、ステップS308乃至S309の処理はスキップされ、すなわち、変換テーブル学習処理は行われずに、処理はステップS310に進む。
On the other hand, when the initial direction corresponding to the position of the driver's face detected by the
ステップS310において、イニシャル方向取得部311は、図8のステップS105の処理と同様に、顔検出部12により検出されたドライバの顔の位置に対応するイニシャル方向を、変換テーブルから取得する。
In step S310, the initial
ステップS311において、上述した図8のステップS108の処理と同様に、検出されたドライバ2の顔の向きが、イニシャル方向を基準とする向きに変換される。
In step S311, the face orientation of the detected
ステップS312において、上述した図8のステップS109の処理と同様に、イニシャル方向を基準とするドライバの顔の向きを示す情報が、顔向き検出装置301の後段の装置に出力される。その後、処理はステップS315に進む。
In step S312, information indicating the driver's face orientation relative to the initial direction is output to a device subsequent to the face
ステップS309において、ドライバ2の顔の位置に対応するイニシャル方向が登録されていないと判定された場合、すなわち、ステップS308の変換テーブル学習処理により、検出されたドライバ2の顔の位置に対するイニシャル方向が変換テーブルに登録されなかった場合、処理はステップS313に進む。
If it is determined in step S309 that the initial direction corresponding to the face position of the
ステップS313において、変換部111は、イニシャル方向未登録を出力する。具体的には、イニシャル方向取得部311は、イニシャル方向が登録されていないことを示す情報を変換部111に供給する。変換部111は、イニシャル方向が未登録のためドライバ2の顔の向きが検出されなかったことを示すイニシャル方向未登録を通知する情報を、顔向き検出装置301の後段の装置に出力する。その後、処理はステップS315に進む。
In step S313, the
ステップS304において、ドライバ2の顔が検出できなかったと判定された場合、または、ステップS306において、ドライバ2の顔の向きが検出できなかったと判定された場合、処理はステップS314に進む。
If it is determined in step S304 that the face of the
ステップS314において、上述した図8のステップS110の処理と同様に、検出エラーが出力される。その後、処理はステップS315に進む。 In step S314, a detection error is output in the same manner as in step S110 of FIG. Thereafter, the process proceeds to step S315.
ステップS315において、上述した図8のステップS111の処理と同様に、処理を終了するか否かが判定される。処理を終了しないと判定された場合、処理はステップS302に戻り、ステップS315において、処理を終了すると判定されるまで、ステップS302乃至S315の処理が繰返し実行される。 In step S315, it is determined whether or not the process is to be terminated, similar to the process in step S111 of FIG. 8 described above. If it is determined not to end the process, the process returns to step S302, and the processes in steps S302 to S315 are repeatedly executed until it is determined in step S315 that the process is to be ended.
ステップS315において、処理を終了すると判定された場合、顔向き検出処理は終了する。 If it is determined in step S315 that the process is to be terminated, the face orientation detection process is terminated.
次に、図16のフローチャートを参照して、図14のステップS308の変換テーブル学習処理の詳細を説明する。 Next, details of the conversion table learning process in step S308 of FIG. 14 will be described with reference to the flowchart of FIG.
ステップS331において、顔向き検出装置301は、イニシャル方向検出処理を実行する。イニシャル方向検出処理の詳細は、図22を参照して後述するが、この処理により、ドライバ2が正面を向いているか否かが判定され、ドライバ2が正面を向いていると判定された場合、現在のドライバ2の顔の位置に対応するイニシャル方向が検出される。また、検出結果を示す情報が、イニシャル方向検出部313から変換テーブル更新部314に供給される。
In step S331, the face
ステップS332において、変換テーブル更新部314は、イニシャル方向が検出された否かが判定される。イニシャル方向が検出されたと判定された場合、処理はステップS333に進む。
In step S332, the conversion
ステップS333において、変換テーブル更新部314は、登録済みのイニシャル方向と整合性が登録されているか否かを判定する。具体的には、変換テーブル更新部314は、変換テーブルを記憶部15から読み出す。変換テーブル更新部314は、イニシャル方向検出部313により検出されたイニシャル方向が、すでに変換テーブルに登録されているイニシャル方向と整合性が取れているか否かを調べる。
In step S333, the conversion
ここで、図17を参照して、検出されたイニシャル方向と登録済みのイニシャル方向との整合性について説明する。図17は、変換テーブルの例を示す図である。なお、図17においては、入力画像が縦2×横3の合計6つの領域に分割される場合に対応する変換テーブルの例が示されている。 Here, the consistency between the detected initial direction and the registered initial direction will be described with reference to FIG. FIG. 17 is a diagram illustrating an example of a conversion table. Note that FIG. 17 shows an example of a conversion table corresponding to a case where the input image is divided into a total of six areas of 2 × 3 in the vertical direction.
例えば、図17の変換テーブルにおいて、領域331−1および331−6に対応するイニシャル方向が、まだ学習されていないため(未学習のため)登録されておらず、領域331−3乃至331−5に対応するイニシャル方向が登録済みである場合に、領域331−2に対応するイニシャル方向が新たに検出されたときについて考える。 For example, in the conversion table of FIG. 17, the initial directions corresponding to the regions 331-1 and 331-6 have not yet been learned (because they have not been learned), and are not registered, and the regions 331-3 to 331-5 are not registered. Let us consider a case where the initial direction corresponding to the region 331-2 is newly detected when the initial direction corresponding to is already registered.
領域331−2は、隣接する領域331−1および領域331−3と同じ行(同じ高さ)にあるので、領域331−2に対応するイニシャル方向の上下方向の向き(角度)は、領域331−1および領域331−3に対応するイニシャル方向の上下方向の向きに近くなると推定される。また、領域331−2は、隣接する領域331−5と同じ列(左右方向において同じ位置)にあるので、領域331−2に対応するイニシャル方向の左右方向の向きは、領域331−5に対応するイニシャル方向の左右方向の向きに近くなると推定される。
Since the region 331-2 is in the same row (same height) as the adjacent region 331-1 and region 331-3, the vertical direction (angle) in the initial direction corresponding to the region 331-2 is the
例えば、いま、領域331−2に対応するイニシャル方向が、左方向35°および下方向20°と検出されたとすると、左右方向の向きについては、領域331−5に対応するイニシャル方向と同様であるが、上下方向の向きについては、領域331−3に対応するイニシャル方向の上下方向の向きとの差が15°となり、大きく異なっている。例えば、整合性が取れているか否かを判定する所定の閾値を±10°とした場合、検出された領域331−2に対応するイニシャル方向は、登録済みのイニシャル方向との整合性が取れていないと判定される。 For example, if the initial direction corresponding to the region 331-2 is detected as 35 ° leftward and 20 ° downward, the horizontal direction is the same as the initial direction corresponding to the region 331-5. However, regarding the vertical direction, the difference from the vertical direction in the initial direction corresponding to the region 331-3 is 15 °, which is greatly different. For example, when a predetermined threshold value for determining whether or not consistency is obtained is ± 10 °, the initial direction corresponding to the detected region 331-2 is consistent with the registered initial direction. It is determined that there is no.
このように、変換テーブル更新部314は、イニシャル方向取得部13により検出されたイニシャル方向(登録しようとする前記イニシャル方向)と、登録しようとするイニシャル方向に対応する領域(ドライバ2の顔の位置)の近傍の領域(位置)に対応するイニシャル方向との差が所定の閾値以内である場合、整合性が取れていると判定し、その差が所定の閾値を超えている場合、整合性が取れていないと判定する。
Thus, the conversion
ステップS333において、登録済みのイニシャル方向と整合性が取れていると判定された場合、処理はステップS334に進む。 If it is determined in step S333 that the registered initial direction is consistent, the process proceeds to step S334.
ステップS334において、変換テーブル更新部314は、検出されたイニシャル方向を変換テーブルに登録する。
In step S334, the conversion
ステップS335において、変換テーブル更新部314は、変換テーブルを線形補間する。ここで、図18および図19を参照して、変換テーブルの線形補間について説明する。なお、図18は、線形補間前の変換テーブルの例を示し、図19は、線形補間後の変換テーブルの例を示している。また、図18および図19においては、入力画像が縦2×横4の合計8の領域に分割される場合に対応する変換テーブルの例が示されている。
In step S335, the conversion
図18の変換テーブルにおいて、領域332−1乃至332−3および332−6乃至332−8対応するイニシャル方向が、まだ学習されていないため登録されておらず、領域332−4に対応するイニシャル方向が登録済みである場合に、領域332−5に対応するイニシャル方向が新たに検出されたときについて考える。 In the conversion table of FIG. 18, the initial directions corresponding to the areas 332-1 to 332-3 and 332-6 to 332-8 are not registered because they have not yet been learned, and the initial directions corresponding to the area 332-4 are not registered. Is considered when the initial direction corresponding to the area 332-5 is newly detected.
上述したように、ドライバ2の顔の位置はほぼ2次平面上を移動するので、イニシャル方向は、入力画像におけるドライバ2の顔の位置にほぼ比例して変化すると仮定することができる。そのように仮定した場合、領域332−4と領域332−5の間にある領域332−1乃至332−3および332−6乃至332−8について、領域332−4および332−5に対応するイニシャル方向を用いて線形補間することが可能である。
As described above, since the position of the face of the
すなわち、領域332−4と領域332−5の間において、縦方向および横方向について、位置の変化に対して、イニシャル方向がそれぞれ等間隔で変化すると仮定して、領域332−1に対応するイニシャル方向が、左方向45および下方向5°に設定され、領域332−2に対応するイニシャル方向が、左方向40°および下方向に5°に設定され、領域332−3に対応するイニシャル方向が、左方向35°および下方向5°に設定され、領域332−6に対応するイニシャル方向が、左方向40°および下方向10°に設定され、領域332−7に対応するイニシャル方向が、左方向に35°および下方向に10°に設定され、領域332−8に対応するイニシャル方向が、左方向30°および下方向5°に設定される。すなわち、変換テーブルに登録されているイニシャル方向を用いて、イニシャル方向が登録されていない領域(位置)に対応するイニシャル方向を線形補間することが可能である。
That is, in the vertical direction and the horizontal direction between the region 332-4 and the region 332-5, it is assumed that the initial direction changes at equal intervals with respect to the change in position. The direction is set to the left direction 45 and the
なお、イニシャル方向が等間隔ではない、所定の規則に従って変化する場合、例えば、二次関数、正弦関数などの所定の関数に従って変化することが分かっている場合、その規則に従って、イニシャル方向を補間するようにすることも可能である。 When the initial direction changes according to a predetermined rule that is not equally spaced, for example, when it is known that the initial direction changes according to a predetermined function such as a quadratic function or a sine function, the initial direction is interpolated according to the rule. It is also possible to do so.
また、この線形補間処理は、必ずしも行う必要はない。すなわち、線形補間処理を行わずに、実際の検出したイニシャル方向のみを変換テーブルに登録するようにしてもよい。 Further, this linear interpolation process is not necessarily performed. That is, only the actually detected initial direction may be registered in the conversion table without performing the linear interpolation process.
その後、処理はステップS337に進む。 Thereafter, the process proceeds to step S337.
ステップS333において、登録済みのイニシャル方向と整合性が取れていないと判定された場合、処理はステップS336に進む。 If it is determined in step S333 that the registered initial direction is not consistent, the process proceeds to step S336.
ステップS336において、変換テーブル更新部314は、イニシャル方向を消去する。例えば、図17の例のように、新たに検出された領域331−2に対応するイニシャル方向が、変換テーブルに登録済みのイニシャル方向と整合性が取れていない場合、変換テーブル更新部314は、図20に示されるように、検出されたイニシャル方向を、変換テーブルに登録せずに、そのまま消去する。すなわち、領域331−2に対応するイニシャル方向は未登録のままとなる。また、例えば、変換テーブル更新部314は、図21に示されるように、さらに、領域331−2に隣接する領域(領域331−1の近傍の位置)に対応するイニシャル方向を変換テーブルから消去する。
In step S336, the conversion
その後、処理はステップS337に進む。 Thereafter, the process proceeds to step S337.
ステップS332において、イニシャル方向が検出されなかったと判定された場合、処理はステップS337に進む。 If it is determined in step S332 that the initial direction has not been detected, the process proceeds to step S337.
ステップS337において、変換テーブル更新部314は、変換テーブルの更新結果をイニシャル方向取得部311に供給し、変換テーブル学習処理は終了する。
In step S337, the conversion
次に、図22のフローチャートを参照して、図16のステップS331のイニシャル方向検出処理の詳細を説明する。 Next, details of the initial direction detection processing in step S331 in FIG. 16 will be described with reference to the flowchart in FIG.
ステップS351において、正面向き判定部312は、車両が所定の速度以上で前進しているか否かを判定する。具体的には、正面向き判定部312は、顔向き検出装置301が設けられている車両の車両制御部から、車両の速度、および、車両のトランスミッション(動力伝達装置)のギアの位置を示す情報を取得し、取得した情報に基づいて、車両が所定の速度以上で前進しているか否かを判定する。車両が所定の速度以上で前進していると判定された場合、処理はステップS352に進む。
In step S351, the front
ステップS352において、正面向き判定部312は、ドライバ2の顔の位置および向きの変化が所定の範囲以内である状態が所定の時間継続したか否かを判定する。具体的には、正面向き判定部312は、現在より所定の時間前のフレームから現在のフレームまでの間、ドライバ2の顔の位置が、変換テーブルにおける1つの領域内にあり、かつ、顔の向きの変化量が所定の範囲内(例えば、上下方向および左右方向において30°以内の範囲内)である場合、ドライバ2の顔の位置および向きの変化が所定の範囲以内である状態が所定の時間継続したと判定し、処理はステップS353に進む。すなわち、これは、車両が所定の速度以上で前進し、かつ、ドライバ2の顔の位置および向きの変化が所定の範囲以内である状態が所定の時間継続しており、ドライバ2が正面を向いている可能性が高い場合である。
In step S352, the front
ステップS353において、イニシャル方向検出部313は、イニシャル方向を検出し、イニシャル方向検出処理は終了する。具体的には、正面向き判定部312は、ドライバ2が正面を向いていることを示す情報をイニシャル方向検出部313に供給する。イニシャル方向検出部313は、ドライバ2の顔の位置および向きの変化が所定の範囲以内である状態が所定の時間継続したときの、その所定の時間におけるドライバの顔の向きの統計をとることにより、イニシャル方向を求める。例えば、イニシャル方向検出部313は、その所定の時間における、ドライバ2の顔の向きの平均値、または、ドライバ2の顔の向きの分布におけるピーク値をイニシャル方向として求める。イニシャル方向検出部313は、検出結果を示す情報を変換テーブル更新部314に供給する。
In step S353, the initial
ステップS351において、車両が所定の速度以上で前進していないと判定された場合、処理はステップS354に進む。 If it is determined in step S351 that the vehicle is not moving forward at a predetermined speed or higher, the process proceeds to step S354.
ステップS354において、正面向き判定部312は、計測値をリセットする。具体的には、正面向き判定部312は、ドライバ2の顔の位置および向きの変化が所定の範囲内である状態の継続時間の計測値をリセットし、再計測を開始する。
In step S354, the front
ステップS352において、ドライバ2の顔の位置および向きの変化が所定の範囲内である状態が所定の時間継続していないと判定された場合、処理はステップS355に進む。
If it is determined in step S352 that the change in the face position and orientation of the
ステップS355において、イニシャル方向検出部313は、イニシャル方向が未検出であることを通知する。具体的には、正面向き判定部312は、ドライバ2が正面を向いていると判定できなかったことを示す情報を、イニシャル方向検出部313に供給する。イニシャル方向検出部313は、イニシャル方向が未検出であることを示す情報を変換テーブル更新部314に供給する。
In step S355, the initial
このように、車種、カメラ11の設置位置、または、カメラ11と運転席の位置関係の違いに関わらず、それらの違いに対応した最適な変換テーブルを生成することができ、車種またはカメラ11の設置位置に個別に対応した変換テーブルを事前に準備する必要がなくなる。また、車種またはカメラ11の設置位置が異なっても、顔向き検出装置301に変更を加える必要がなく、部品の共通化やコストダウンを実現することができる。また、同じ車種において、例えば、ステアリングホイールの位置(いわゆる、右ハンドルまたは左ハンドル)などの仕様が異なっても、変更を加えずに顔向き検出装置301を使用することができる。
In this manner, regardless of the vehicle type, the installation position of the
また、イニシャル方向が変換テーブルに登録されていない場合、未登録を示す情報が、後段の装置に出力されるため、後段の装置は、ドライバ2の顔の向きを用いた処理を無効にし、誤動作を防止することができる。また、イニシャル方向が学習された時点で、その処理を再開することができる。
In addition, when the initial direction is not registered in the conversion table, information indicating unregistration is output to the subsequent device, so the subsequent device invalidates the processing using the face direction of the
なお、図10の顔向き検出装置201と同様に、顔向き検出装置301に複数台のカメラを設けるようにしてもよい。図23は、顔向き検出装置301に、カメラ411を追加することにより、2台のカメラを用いてドライバ2の顔の向きを検出する顔向き検出装置401の実施の形態を示すブロック図である。
Note that a plurality of cameras may be provided in the face
顔向き検出装置401は、図13の顔向き検出装置301と比較して、カメラ11、顔検出部12、顔向き検出部14、記憶部15、変換部111、イニシャル方向取得部311、正面向き判定部312、イニシャル方向検出部313、および、変換テーブル更新部314を含む点で一致し、カメラ411を含む点で異なる。
Compared with the face
顔向き検出装置401による顔向き検出処理の詳細の説明は省略するが、上述した顔向き検出装置301と同様の処理により、カメラ11およびカメラ411の両方の入力画像に対応する変換テーブルが学習され、2つのカメラおよび変換テーブルに基づいて、ドライバ2の顔の向きが検出される。これにより、ドライバ2の顔の向きの検出範囲を広げることができる。
Although detailed description of the face direction detection processing by the face
なお、カメラを3台以上とすることももちろん可能である。 Of course, it is possible to use three or more cameras.
なお、本発明は、上述した例以外にも、例えば、各種の乗り物を運転または操作する人(例えば、自動車のドライバ、電車の運転士、航空機の操縦士、船舶の操縦士など)の顔の向きを検出する装置、工作機械の操作者の顔の向きを検出する装置などに適用することができる。 In addition to the above-described example, the present invention can be applied to, for example, the face of a person who drives or operates various vehicles (for example, a car driver, a train driver, an aircraft pilot, a ship pilot, etc.). The present invention can be applied to a device that detects the orientation, a device that detects the orientation of the face of the operator of the machine tool, and the like.
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。 The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.
図24は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータ900の構成の例を示すブロック図である。CPU(Central Processing Unit)901は、ROM(Read Only Memory)902、または記録部908に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)903には、CPU901が実行するプログラムやデータなどが適宜記憶される。これらのCPU901、ROM902、およびRAM903は、バス904により相互に接続されている。
FIG. 24 is a block diagram showing an example of the configuration of a
CPU901にはまた、バス904を介して入出力インタフェース905が接続されている。入出力インタフェース905には、キーボード、マウス、マイクロホンなどよりなる入力部906、ディスプレイ、スピーカなどよりなる出力部907が接続されている。CPU901は、入力部906から入力される指令に対応して各種の処理を実行する。そして、CPU901は、処理の結果を出力部907に出力する。
An input /
入出力インタフェース905に接続されている記録部908は、例えばハードディスクからなり、CPU901が実行するプログラムや各種のデータを記憶する。通信部909は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
The
また、通信部909を介してプログラムを取得し、記録部908に記憶してもよい。
Further, the program may be acquired via the
入出力インタフェース905に接続されているドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア911が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記録部908に転送され、記憶される。
A
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図24に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア911、または、プログラムが一時的もしくは永続的に格納されるROM902や、記録部908を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部909を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
As shown in FIG. 24, a program recording medium for storing a program that is installed in a computer and is ready to be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory, DVD (Digital Versatile Disc), a magneto-optical disk, a
なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program stored in the program recording medium is not limited to the processing performed in time series in the order described, but is not necessarily performed in time series. Or the process performed separately is also included.
さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 Furthermore, the embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.
1 顔向き検出装置
2 ドライバ
11 カメラ
12 顔検出部
13 イニシャル方向取得部
14 顔向き検出部
15 記憶部
101 顔向き検出装置
111 変換部
201 顔向き検出装置
211 カメラ
301 顔向き検出装置
311 イニシャル方向取得部
312 正面向き判定部
313 イニシャル方向検出部
314 変換テーブル更新部
401 顔向き検出装置
411 カメラ
901 CPU
902 ROM
903 RAM
908 記録部
910 ドライブ
911 リムーバブルメディア
DESCRIPTION OF
902 ROM
903 RAM
908
Claims (7)
前記入力画像における前記ドライバの顔の位置と、前記ドライバが運転中に正面を向いている場合の顔の向きであるイニシャル方向とが予め関連づけられているデータである変換データから、前記検出位置に対応する前記イニシャル方向を取得するイニシャル方向取得手段と
を含む情報処理装置。 Position detection means for detecting a detection position that is a position of the driver's face in the input image, which is an image obtained by photographing the driver sitting in the driver's seat;
From the conversion data, which is data in which the position of the driver's face in the input image and the initial direction, which is the face direction when the driver is facing the front during driving, is previously associated with the detected position An information processing apparatus comprising: initial direction acquisition means for acquiring the corresponding initial direction.
さらに含む請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, further comprising conversion means for converting a direction of the face of the driver detected based on the input image into a direction based on the initial direction.
さらに含む請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, further comprising a face orientation detection unit that detects a face orientation of the driver based on the input image.
前記イニシャル方向取得手段は、それぞれの前記入力画像に対応する前記変換データから、それぞれの前記入力画像における前記検出位置に対応する前記イニシャル方向を取得する
請求項1に記載の情報処理装置。 The position detection means detects the detection position for a plurality of input images obtained by photographing a driver sitting in the driver's seat from a plurality of directions,
The information processing apparatus according to claim 1, wherein the initial direction acquisition unit acquires the initial direction corresponding to the detection position in each input image from the conversion data corresponding to each input image.
前記入力画像における前記ドライバの顔の位置と、前記ドライバが運転中に正面を向いている場合の顔の向きであるイニシャル方向とが予め関連づけられているデータである変換データからの、前記検出位置に対応する前記イニシャル方向の取得を制御するイニシャル方向取得制御ステップと
を含む検出方法。 A position detection step for detecting a detection position that is a position of the face of the driver in the input image, which is an image obtained by photographing the driver sitting in the driver's seat;
The detected position from the conversion data, which is data in which the position of the driver's face in the input image and the initial direction, which is the face direction when the driver faces the front during driving, are associated in advance. And an initial direction acquisition control step for controlling acquisition of the initial direction corresponding to.
前記入力画像における前記ドライバの顔の位置と、前記ドライバが運転中に正面を向いている場合の顔の向きであるイニシャル方向とが予め関連づけられているデータである変換データからの、前記検出位置に対応する前記イニシャル方向の取得を制御するイニシャル方向取得制御ステップと
を含む情報処理をコンピュータに実行させるプログラム。 A position detection step for detecting a detection position that is a position of the face of the driver in the input image, which is an image obtained by photographing the driver sitting in the driver's seat;
The detected position from the conversion data, which is data in which the position of the driver's face in the input image and the initial direction, which is the face direction when the driver faces the front during driving, are associated in advance. A program that causes a computer to execute information processing including an initial direction acquisition control step that controls acquisition of the initial direction corresponding to the.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006069003A JP2007249352A (en) | 2006-03-14 | 2006-03-14 | Information processing device and method, recording medium, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006069003A JP2007249352A (en) | 2006-03-14 | 2006-03-14 | Information processing device and method, recording medium, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007249352A true JP2007249352A (en) | 2007-09-27 |
Family
ID=38593616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006069003A Pending JP2007249352A (en) | 2006-03-14 | 2006-03-14 | Information processing device and method, recording medium, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007249352A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8098892B2 (en) | 2007-10-22 | 2012-01-17 | Denso Corporation | Body position detecting apparatus |
WO2014181510A1 (en) * | 2013-05-07 | 2014-11-13 | 株式会社デンソー | Driver state monitoring device and driver state monitoring method |
WO2019177073A1 (en) * | 2018-03-15 | 2019-09-19 | いすゞ自動車株式会社 | Detection device and detection system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0468500A (en) * | 1990-07-09 | 1992-03-04 | Toyota Motor Corp | Vehicle driver monitoring device |
JP2005182452A (en) * | 2003-12-19 | 2005-07-07 | Tokai Rika Co Ltd | Device for detecting direction of face |
-
2006
- 2006-03-14 JP JP2006069003A patent/JP2007249352A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0468500A (en) * | 1990-07-09 | 1992-03-04 | Toyota Motor Corp | Vehicle driver monitoring device |
JP2005182452A (en) * | 2003-12-19 | 2005-07-07 | Tokai Rika Co Ltd | Device for detecting direction of face |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8098892B2 (en) | 2007-10-22 | 2012-01-17 | Denso Corporation | Body position detecting apparatus |
WO2014181510A1 (en) * | 2013-05-07 | 2014-11-13 | 株式会社デンソー | Driver state monitoring device and driver state monitoring method |
WO2019177073A1 (en) * | 2018-03-15 | 2019-09-19 | いすゞ自動車株式会社 | Detection device and detection system |
JP2019156256A (en) * | 2018-03-15 | 2019-09-19 | いすゞ自動車株式会社 | Detection device and detection system |
CN111801248A (en) * | 2018-03-15 | 2020-10-20 | 五十铃自动车株式会社 | Detection device and detection system |
JP7063024B2 (en) | 2018-03-15 | 2022-05-09 | いすゞ自動車株式会社 | Detection device and detection system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4831374B2 (en) | Driving support device, driving support method, and driving support program | |
JP6058256B2 (en) | In-vehicle camera attitude detection apparatus and method | |
US20090015668A1 (en) | Three-dimensional model data confirming method, and three-dimensional model data confirming apparatus | |
JP2013033206A (en) | Projection display device, information processing device, projection display system, and program | |
TW200523657A (en) | Projector apparatus, projection method, and recording medium storing projection method | |
JP2009046026A (en) | Driver's seat adjustment system | |
JP6237875B2 (en) | Self-position calculation device and self-position calculation method | |
JP4867729B2 (en) | Information processing apparatus and method, recording medium, and program | |
JP2006318272A (en) | Vehicular object detection device and method | |
JP2009253921A (en) | Imaging device, captured image recording method and program | |
JP2007249352A (en) | Information processing device and method, recording medium, and program | |
WO2019187283A1 (en) | Image processing device, image display system, and image processing method | |
JP2006279373A (en) | Inclination correction for image maintaining image angle | |
JP6407596B2 (en) | Image processing apparatus and driving support system | |
JP2007033087A (en) | Calibration device and method | |
JP2006142897A (en) | Display device for vehicle, and controlling method of display device for vehicle | |
JP2007302155A (en) | On-vehicle microphone device and its directivity control method | |
JP2015179041A (en) | Wheel shape measuring device and wheel shape measuring method | |
JP5272819B2 (en) | Information processing apparatus and method, and program | |
JP2010183294A (en) | Image processing apparatus, method of processing image, and program | |
JP7414850B2 (en) | robot system | |
JP6459487B2 (en) | Image processing apparatus, image processing method, and program | |
JP2011180962A (en) | Drive assist device, drive assist method and program | |
JP6630118B2 (en) | Imaging device and control method therefor, program, storage medium | |
JP2010233080A (en) | Driving support device, driving support method, and driving support program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110217 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110726 |