JP2007249352A - Information processing device and method, recording medium, and program - Google Patents

Information processing device and method, recording medium, and program Download PDF

Info

Publication number
JP2007249352A
JP2007249352A JP2006069003A JP2006069003A JP2007249352A JP 2007249352 A JP2007249352 A JP 2007249352A JP 2006069003 A JP2006069003 A JP 2006069003A JP 2006069003 A JP2006069003 A JP 2006069003A JP 2007249352 A JP2007249352 A JP 2007249352A
Authority
JP
Japan
Prior art keywords
face
driver
initial direction
initial
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006069003A
Other languages
Japanese (ja)
Inventor
Toru Ogawara
徹 小河原
Takuya Okamoto
卓也 岡本
Miki Matsuoka
美希 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2006069003A priority Critical patent/JP2007249352A/en
Publication of JP2007249352A publication Critical patent/JP2007249352A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To quickly and reliably detect the orientation of a driver's face facing forward during driving. <P>SOLUTION: A face detection part 12 detects the position of a driver's face in an input image that is an image captured by a camera 11 to image the driver, who sits in a driver's seat. An initial orientation detection part 13 reads out from a storage part 15 a conversion table associating in advance driver face positions in the input image and initial orientations that are driver face orientations facing forward during driving, and detects an initial orientation according to the conversion table and the driver face position detected by the face detection part 11. The mechanism is applicable to a face orientation detection system for detecting the orientation of a driver's face. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、情報処理装置および方法、記録媒体、並びに、プログラムに関し、特に、ドライバが運転中に正面を向いている場合の顔の向きを、迅速かつ確実に求めることができるようにした情報処理装置および方法、記録媒体、並びに、プログラムに関する。   The present invention relates to an information processing apparatus and method, a recording medium, and a program, and in particular, information processing that can quickly and surely determine the orientation of a face when a driver is facing the front during driving. The present invention relates to an apparatus and method, a recording medium, and a program.

従来、撮像した画像間のオプティカルフローを画像処理により求め、求めたオプティカルフローに基づいて、ドライバの顔の向きを検出することが提案されている(例えば、特許文献1参照)。   Conventionally, it has been proposed to obtain an optical flow between captured images by image processing, and detect the orientation of the driver's face based on the obtained optical flow (see, for example, Patent Document 1).

ところで、近年、開発が盛んである運転を支援する運転支援装置などにおいて、ドライバの脇見を検出する場合、例えば、ドライバが運転中に正面を向いている場合の顔の向き(以下、イニシャル方向と称する)を基準とするドライバの顔の向きを検出することにより、脇見が検出される。従って、この場合、イニシャル方向をできる限り正確に設定することが重要となる。   By the way, in a driving support device that supports driving that has been actively developed in recent years, for example, when detecting a driver's side look, the direction of the face when the driver is facing the front during driving (hereinafter referred to as the initial direction). Is detected by detecting the direction of the driver's face relative to the driver's face. Therefore, in this case, it is important to set the initial direction as accurately as possible.

しかしながら、特許文献1に記載の発明では、ドライバを撮像するカメラをドライバの正面下方に設置することが前提とされ、イニシャル方向を求めることについては言及されていない。従って、ドライバの身長、ドライビングポジション(運転姿勢)などの違いに対応して、イニシャル方向が調整することができないため、想定したイニシャル方向と実際のイニシャル方向との間に誤差が生じる場合がある。また、特許文献1の図1にあるように、カメラをドライバの正面下方に設置した場合、ステアリングホイールやドライバの手などが邪魔になり、ドライバの顔が撮影できないときがある。   However, in the invention described in Patent Document 1, it is assumed that a camera that captures an image of the driver is installed below the front of the driver, and there is no mention of obtaining an initial direction. Accordingly, since the initial direction cannot be adjusted in accordance with differences in the height of the driver, driving position (driving position), etc., an error may occur between the assumed initial direction and the actual initial direction. Also, as shown in FIG. 1 of Patent Document 1, when the camera is installed below the front of the driver, the steering wheel, the driver's hand, etc. may be in the way, and the driver's face may not be photographed.

そこで、従来、車両の走行速度および先行車との車間距離に基づいて、眼の位置データを測定するサンプル数またはサンプリング時間を設定し、設定したサンプル数またはサンプリング時間における測定値の平均値を、ドライバが正面を向いている場合の眼の位置(イニシャル位置)に設定することが提案されている(例えば、特許文献2参照)。   Therefore, conventionally, the number of samples or sampling time for measuring eye position data is set based on the traveling speed of the vehicle and the inter-vehicle distance with the preceding vehicle, and the average value of the measured values at the set number of samples or sampling time is It has been proposed to set the eye position (initial position) when the driver is facing the front (see, for example, Patent Document 2).

また、ドライバが運転姿勢を保ち、正面遠方を向いた状態で、所定のスイッチを押すことにより、イニシャル方向(基準方向)を設定することが提案されている(例えば、特許文献3参照)。   In addition, it has been proposed to set an initial direction (reference direction) by pressing a predetermined switch while the driver maintains a driving posture and faces far away (see, for example, Patent Document 3).

特開2004−334786号公報JP 2004-334786 A 特開2004−130940号公報JP 2004-130940 A 特許2822508号公報Japanese Patent No. 2822508

しかしながら、特許文献2に記載の発明では、先行車がない場合、先行車との車間距離を検出できないため、イニシャル位置を設定することができない。また、特許文献1に記載の発明では、毎回、所定のサンプル数またはサンプリング時間以上、眼の位置データを測定する必要があり、イニシャル位置を設定するまでに時間を要してしまう。   However, in the invention described in Patent Document 2, when there is no preceding vehicle, the inter-vehicle distance from the preceding vehicle cannot be detected, so the initial position cannot be set. Further, in the invention described in Patent Document 1, it is necessary to measure the eye position data every time a predetermined number of samples or more than the sampling time, and it takes time to set the initial position.

また、特許文献3に記載の発明では、イニシャル方向を設定するために、ドライバが所定の操作を行う必要があり、イニシャル方向の設定が忘れられたり、実際に運転中に正面遠方を向いている状態と異なる状態において、イニシャル方向が設定されてしまう可能性がある。   Further, in the invention described in Patent Document 3, the driver needs to perform a predetermined operation in order to set the initial direction, the initial direction setting is forgotten, or the head is facing away from the front during actual driving. There is a possibility that the initial direction is set in a state different from the state.

本発明は、このような状況に鑑みてなされたものであり、イニシャル方向を迅速かつ確実に求めることができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to quickly and reliably obtain the initial direction.

本発明の一側面の情報処理装置は、運転席に座っているドライバを撮影した画像である入力画像におけるドライバの顔の位置である検出位置を検出する位置検出手段と、入力画像におけるドライバの顔の位置と、ドライバが運転中に正面を向いている場合の顔の向きであるイニシャル方向とが予め関連づけられているデータである変換データから、検出位置に対応するイニシャル方向を取得するイニシャル方向取得手段とを備える。   An information processing apparatus according to an aspect of the present invention includes a position detection unit that detects a detection position that is a position of a driver's face in an input image that is an image of a driver sitting in a driver's seat, and a driver's face in the input image. Initial direction acquisition that acquires the initial direction corresponding to the detected position from the conversion data that is the data in which the initial position that is the orientation of the face when the driver is facing the front during driving is pre-associated Means.

本発明の一側面の情報処理装置においては、運転席に座っているドライバを撮影した画像である入力画像におけるドライバの顔の位置である検出位置が検出され、入力画像におけるドライバの顔の位置と、ドライバが運転中に正面を向いている場合の顔の向きであるイニシャル方向とが予め関連づけられているデータである変換データから、検出位置に対応するイニシャル方向が取得される。   In the information processing apparatus according to one aspect of the present invention, a detection position that is a position of the driver's face in the input image that is an image obtained by photographing the driver sitting in the driver's seat is detected, and the position of the driver's face in the input image is detected. The initial direction corresponding to the detected position is acquired from the conversion data, which is data associated in advance with the initial direction, which is the face direction when the driver is facing the front during driving.

従って、入力画像におけるドライバの顔の位置に基づいて、ドライバが運転中に正面を向いている場合の顔の向きを求めることができる。また、ドライバが運転中に正面を向いている場合の顔の向きを、迅速かつ確実に求めることができる。   Therefore, based on the position of the driver's face in the input image, the face orientation when the driver is facing the front during driving can be obtained. In addition, the face orientation when the driver is facing the front during driving can be quickly and reliably obtained.

この位置検出手段、イニシャル方向取得手段は、例えば、CPU(Central Processing Unit)により構成される。   The position detection means and the initial direction acquisition means are constituted by, for example, a CPU (Central Processing Unit).

この情報処理装置は、入力画像に基づいて検出されたドライバの顔の向きを、イニシャル方向を基準とする向きに変換する変換手段をさらに備えることができる。   The information processing apparatus may further include conversion means for converting the orientation of the driver's face detected based on the input image into an orientation based on the initial direction.

これにより、ドライバが運転中に正面を向いている場合の顔の向きを基準とするドライバの顔の向きを検出することができる。   Thereby, it is possible to detect the face direction of the driver based on the face direction when the driver is facing the front during driving.

この変換手段は、例えば、CPUにより構成される。   This conversion means is constituted by, for example, a CPU.

この情報処理装置は、入力画像に基づいて前記ドライバの顔の向きを検出する顔向き検出手段をさらに備えることができる。   The information processing apparatus may further include a face direction detecting unit that detects a face direction of the driver based on an input image.

これにより、ドライバの顔の向きとイニシャル方向の両方を検出することができる。   Thereby, both the direction of the driver's face and the initial direction can be detected.

この顔向き検出手段は、例えば、CPUにより構成される。また、この顔向き検出手段および顔検出手段は、例えば、顔の向きを検出する専用の装置により構成するようにすることもできる。   This face orientation detection means is constituted by a CPU, for example. Further, the face direction detecting means and the face detecting means can be configured by a dedicated device for detecting the face direction, for example.

この位置検出手段には、複数の方向から運転席に座っているドライバを撮影した複数の入力画像について検出位置を検出させ、イニシャル方向取得手段には、それぞれの入力画像に対応する変換データから、それぞれの入力画像における検出位置に対応するイニシャル方向を取得させることができる。   This position detection means detects detection positions for a plurality of input images obtained by photographing a driver sitting in the driver's seat from a plurality of directions, and the initial direction acquisition means uses conversion data corresponding to each input image, The initial direction corresponding to the detection position in each input image can be acquired.

これにより、イニシャル方向を検出できる範囲を広げることができる。   Thereby, the range which can detect an initial direction can be expanded.

本発明の一側面の情報処理方法、プログラム、または、記録媒体に記録されているプログラムは、運転席に座っているドライバを撮影した画像である入力画像におけるドライバの顔の位置である検出位置を検出する位置検出ステップと、入力画像におけるドライバの顔の位置と、ドライバが運転中に正面を向いている場合の顔の向きであるイニシャル方向とが予め関連づけられているデータである変換データからの、検出位置に対応するイニシャル方向の取得を制御するイニシャル方向取得制御ステップとを含む。   An information processing method, a program, or a program recorded on a recording medium according to one aspect of the present invention includes a detection position that is a position of a driver's face in an input image that is an image of a driver sitting in a driver's seat. The position detection step to detect, the position of the driver's face in the input image, and the conversion data, which is data in which the initial direction, which is the orientation of the face when the driver faces the front while driving, is associated in advance. And an initial direction acquisition control step for controlling acquisition of an initial direction corresponding to the detected position.

本発明の一側面の情報処理方法、プログラム、または、記録媒体に記録されているプログラムにおいては、運転席に座っているドライバを撮影した画像である入力画像におけるドライバの顔の位置である検出位置が検出され、入力画像におけるドライバの顔の位置と、ドライバが運転中に正面を向いている場合の顔の向きであるイニシャル方向とが予め関連づけられているデータである変換データからの、検出位置に対応するイニシャル方向の取得が制御される。   In an information processing method, program, or program recorded on a recording medium according to one aspect of the present invention, a detection position that is a position of a driver's face in an input image that is an image of a driver sitting in a driver's seat Detected position from the conversion data, which is data in which the position of the driver's face in the input image and the initial direction, which is the face direction when the driver is facing the front during driving, are associated in advance The acquisition of the initial direction corresponding to is controlled.

従って、入力画像におけるドライバの顔の位置に基づいて、ドライバが運転中に正面を向いている場合の顔の向きを求めることができる。また、ドライバが運転中に正面を向いている場合の顔の向きを、迅速かつ確実に求めることができる。   Therefore, based on the position of the driver's face in the input image, the face orientation when the driver is facing the front during driving can be obtained. In addition, the face orientation when the driver is facing the front during driving can be quickly and reliably obtained.

この位置検出ステップは、例えば、運転席に座っているドライバを撮影した画像である入力画像におけるドライバの顔の位置である検出位置をCPUにより検出する位置検出ステップにより構成され、このイニシャル方向制御ステップは、例えば、入力画像におけるドライバの顔の位置と、ドライバが運転中に正面を向いている場合の顔の向きであるイニシャル方向とが予め関連づけられているデータである変換データからの、検出位置に対応するイニシャル方向の取得をCPUにより制御するイニシャル方向取得制御ステップにより構成される。   This position detection step includes, for example, a position detection step in which the CPU detects a detection position that is the position of the driver's face in the input image that is an image of the driver sitting in the driver's seat. This initial direction control step Is, for example, a detection position from conversion data that is data in which the position of the driver's face in the input image and the initial direction, which is the orientation of the face when the driver is facing the front during driving, are associated in advance. The initial direction acquisition control step in which the acquisition of the initial direction corresponding to is controlled by the CPU.

以上のように、本発明の一側面によれば、入力画像におけるドライバの顔の位置に基づいて、ドライバが運転中に正面を向いている場合の顔の向きを求めることができる。また、本発明の一側面によれば、ドライバが運転中に正面を向いている場合の顔の向きを、迅速かつ確実に求めることができる。   As described above, according to one aspect of the present invention, the face orientation when the driver is facing the front during driving can be obtained based on the position of the driver's face in the input image. In addition, according to one aspect of the present invention, it is possible to quickly and surely determine the orientation of the face when the driver is facing the front during driving.

以下、図を参照して、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明を適用した顔向き検出装置の第1の実施の形態を示すブロック図である。顔向き検出装置1は、カメラ11、顔検出部12、イニシャル方向取得部13、顔向き検出部14、および、記憶部15を含むように構成される。   FIG. 1 is a block diagram showing a first embodiment of a face direction detecting device to which the present invention is applied. The face direction detection device 1 is configured to include a camera 11, a face detection unit 12, an initial direction acquisition unit 13, a face direction detection unit 14, and a storage unit 15.

カメラ11は、顔向き検出装置1が設けられている車両の運転席に座っているドライバ2の顔を撮影した画像(以下、入力画像と称する)を顔検出部12および顔向き検出部14に供給する。   The camera 11 captures an image (hereinafter referred to as an input image) obtained by capturing the face of the driver 2 sitting in the driver's seat of the vehicle in which the face direction detection device 1 is provided in the face detection unit 12 and the face direction detection unit 14. Supply.

なお、カメラ11は、ドライバの体格および姿勢などの違いに関わらず、運転中のドライバ2の顔をできる限り撮影することができる位置に設置されることが望ましい。例えば、カメラ11は、車両内のセンタミラー(ルームミラー)の根元付近(センタミラーが車両に取り付けられているあたり)に設置され、前方左斜め上方向からドライバ2を撮影する。   The camera 11 is desirably installed at a position where the face of the driver 2 during driving can be photographed as much as possible regardless of differences in the physique and posture of the driver. For example, the camera 11 is installed in the vicinity of the center of the center mirror (room mirror) in the vehicle (where the center mirror is attached to the vehicle), and images the driver 2 from the upper left diagonal direction.

顔検出部12は、所定の手法に基づいて、入力画像の中からドライバ2の顔の位置を検出し、検出結果を示す情報をイニシャル方向取得部13および顔向き検出部14に供給する。なお、顔検出部12が、入力画像の中からドライバ2の顔の位置を検出する手法は、特定の手法に限定されるものではなく、顔の位置をより迅速かつ正確に検出できる手法が望ましい。   The face detection unit 12 detects the position of the face of the driver 2 from the input image based on a predetermined method, and supplies information indicating the detection result to the initial direction acquisition unit 13 and the face direction detection unit 14. Note that the method by which the face detection unit 12 detects the position of the face of the driver 2 from the input image is not limited to a specific method, and a method that can detect the position of the face more quickly and accurately is desirable. .

イニシャル方向取得部13は、図2を参照して後述するように、記憶部15に記憶されている、入力画像におけるドライバの顔の位置と、ドライバが運転中に正面を向いている場合の顔の向きであるイニシャル方向とが予め関連づけられている変換テーブルから、顔検出部12により検出された、入力画像におけるドライバ2の顔の位置に対応するイニシャル方向を取得する。イニシャル方向取得部13は、取得したイニシャル方向を示す情報を、顔向き検出装置1の後段の装置に供給する。なお、変換テーブルについては、図4乃至図6を参照して後述する。また、以下では、イニシャル方向は、カメラ11から見た顔の向き、すなわち、入力画像における顔の向きにより表されるものとする。   As will be described later with reference to FIG. 2, the initial direction acquisition unit 13 stores the position of the driver's face in the input image and the face when the driver is facing the front during driving, as stored in the storage unit 15. The initial direction corresponding to the position of the face of the driver 2 in the input image detected by the face detection unit 12 is acquired from a conversion table that is associated with the initial direction that is the direction of The initial direction acquisition unit 13 supplies information indicating the acquired initial direction to the subsequent device of the face direction detection device 1. The conversion table will be described later with reference to FIGS. In the following, the initial direction is represented by the orientation of the face viewed from the camera 11, that is, the orientation of the face in the input image.

顔向き検出部14は、所定の手法を用いて、カメラ11から見た、すなわち、入力画像におけるドライバ2の顔の向きを検出する。顔向き検出部14は、検出結果を示す情報を、顔向き検出装置1の後段の装置に供給する。なお、顔向き検出部14が、ドライバ2の顔の向きを検出する手法は、特定の手法に限定されるものではなく、顔の向きをより迅速かつ正確に検出できる手法が望ましい。例えば、顔向きを検出する手法の詳細については、特許2982204号公報などに、その詳細が開示されている。   The face orientation detection unit 14 detects the orientation of the face of the driver 2 in the input image as viewed from the camera 11 using a predetermined method. The face orientation detection unit 14 supplies information indicating the detection result to a device subsequent to the face orientation detection device 1. Note that the method in which the face direction detection unit 14 detects the face direction of the driver 2 is not limited to a specific method, and a method that can more quickly and accurately detect the face direction is desirable. For example, details of the method for detecting the face orientation are disclosed in Japanese Patent No. 2982204.

顔向き検出装置1の後段の装置は、例えば、イニシャル方向取得部13からの情報、および、顔向き検出部14からの検出結果に基づいて、イニシャル方向を基準とするドライバ2の顔の向き、すなわち、ドライバ2のイニシャル方向を基準とする顔の向きを検出し、検出結果に基づいて、所定の処理(例えば、ドライバ2の脇見の検出、車両の制御など)を行う。   The subsequent device of the face direction detection device 1 is, for example, based on the information from the initial direction acquisition unit 13 and the detection result from the face direction detection unit 14, the face direction of the driver 2 with respect to the initial direction, That is, the orientation of the face based on the initial direction of the driver 2 is detected, and predetermined processing (for example, detection of the driver's side aside, control of the vehicle, etc.) is performed based on the detection result.

次に、図2のフローチャートを参照して、顔向き検出装置1により実行される顔向き検出処理を説明する。なお、この処理は、例えば、顔向き検出装置1が設けられている車両のアクセサリー(ACC)用の電源からの顔向き検出装置1への供給が開始されたとき、開始される。   Next, the face direction detection process executed by the face direction detection apparatus 1 will be described with reference to the flowchart of FIG. This process is started, for example, when supply to the face direction detecting device 1 from a power source for an accessory (ACC) of a vehicle provided with the face direction detecting device 1 is started.

ステップS1において、カメラ11は、運転席周辺の撮影を開始する。すなわち、カメラ11により運転席に座っているドライバ2の顔の撮影が開始される。   In step S1, the camera 11 starts photographing around the driver's seat. That is, the camera 11 starts photographing the face of the driver 2 sitting in the driver's seat.

ステップS2において、顔検出部12および顔向き検出部14は、カメラ11により撮影された入力画像を取得する。   In step S <b> 2, the face detection unit 12 and the face direction detection unit 14 obtain an input image captured by the camera 11.

ステップS3において、顔検出部12は、ドライバ2の顔の位置を検出する。具体的には、まず、顔検出部12は、所定の手法を用いて、入力画像の中からドライバ2の顔が写っている顔領域を検出する。図3は、入力画像の例を示しており、ドライバ2の顔が写っている顔領域31が検出される。次に、顔検出部12は、検出した顔領域の中心点をドライバ2の顔の位置として検出する。図3の例においては、顔領域31の中心点32が、ドライバの顔の位置として検出される。   In step S <b> 3, the face detection unit 12 detects the face position of the driver 2. Specifically, first, the face detection unit 12 detects a face region in which the face of the driver 2 is captured from the input image using a predetermined method. FIG. 3 shows an example of an input image, and a face area 31 in which the face of the driver 2 is shown is detected. Next, the face detection unit 12 detects the center point of the detected face area as the face position of the driver 2. In the example of FIG. 3, the center point 32 of the face area 31 is detected as the position of the driver's face.

ステップS4において、顔検出部12は、ステップS3の処理において、ドライバ2の顔が検出できたか否かを判定する。ドライバ2の顔が検出できたと判定された場合、処理はステップS5に進む。   In step S4, the face detection unit 12 determines whether or not the face of the driver 2 has been detected in the process of step S3. If it is determined that the face of the driver 2 has been detected, the process proceeds to step S5.

ステップS5において、イニシャル方向取得部13は、イニシャル方向を取得する。具体的には、顔検出部12は、ドライバ2の顔が検出できたと判定した場合、検出結果を示す情報を、イニシャル方向取得部13に供給する。イニシャル方向取得部13は、記憶部15に記憶されている変換テーブルを読み出す。ここで、図4乃至図6を参照して、変換テーブルについて説明する。   In step S5, the initial direction acquisition unit 13 acquires the initial direction. Specifically, when it is determined that the face of the driver 2 can be detected, the face detection unit 12 supplies information indicating the detection result to the initial direction acquisition unit 13. The initial direction acquisition unit 13 reads the conversion table stored in the storage unit 15. Here, the conversion table will be described with reference to FIGS.

図4は、ドライバ2およびカメラ11を上から見た図であり、ドライバ2とカメラ11との位置関係を示している。なお、図中、矢印41は、車両の前方の方向を示し、位置42および43は、ドライバ2の頭部の位置を示している。また、図4の例において、カメラ11は、車両内のセンタミラー(ルームミラー)の根元、すなわち、前方左斜め上方向からドライバ2を撮影する位置に設置されているものとする。   FIG. 4 is a view of the driver 2 and the camera 11 as viewed from above, and shows the positional relationship between the driver 2 and the camera 11. In the figure, an arrow 41 indicates the front direction of the vehicle, and positions 42 and 43 indicate the position of the head of the driver 2. In the example of FIG. 4, it is assumed that the camera 11 is installed at the base of the center mirror (room mirror) in the vehicle, that is, at a position where the driver 2 is photographed from the front upper left oblique direction.

一般的に、運転中にドライバが正面を向いている場合の顔の位置は、ドライバ、または、ドライビングポジションの違い(例えば、座席の前後の位置、背もたれの角度などによる運転姿勢の違い)により、車両の前後および上下方向に変化する。一方、一般的に運転席は左右方向に移動しないため、ドライバまたはドライビングポジションが違っても、運転中にドライバが正面を向いている場合の顔の位置は、左右方向にはほとんど変化しない。すなわち、運転中にドライバが正面を向いている場合の顔の位置は、ドライバまたはドライビングポジションの違いにより、車両の前後および上下方向の2次元の平面上を変化すると考えられる。   In general, the position of the face when the driver is facing the front during driving depends on the driver or the difference in driving position (for example, the position of the front and back of the seat, the difference in driving posture due to the angle of the backrest, etc.) It changes in the front and rear and up and down directions of the vehicle. On the other hand, since the driver's seat generally does not move in the left-right direction, even if the driver or driving position is different, the position of the face when the driver faces the front during driving hardly changes in the left-right direction. That is, it is considered that the position of the face when the driver is facing the front during driving changes on a two-dimensional plane in the front-rear and vertical directions of the vehicle due to the difference in the driver or driving position.

また、一般的に、ドライバまたはドライビングポジションが違っても、運転中にドライバが正面を向いている場合の車両に対する顔の向きは、ほぼ同様であり、図4の例においては、ほぼ矢印41の方向となる。従って、ドライバまたはドライビングポジションが違っても、ドライバの顔の位置が同じであれば、運転中にドライバが正面を向いている場合のカメラ11から見たドライバの顔の向き、すなわち、イニシャル方向はほぼ同じになり、ドライバの顔の位置が異なれば、イニシャル方向はほぼ異なると言える。すなわち、カメラ11に対するドライバの顔の位置と、イニシャル方向とはほぼ1対1に対応すると言える。   In general, even if the driver or the driving position is different, the face direction with respect to the vehicle when the driver is facing the front during driving is substantially the same. In the example of FIG. Direction. Therefore, even if the driver or driving position is different, if the driver's face position is the same, the driver's face orientation viewed from the camera 11 when the driver is facing the front during driving, that is, the initial direction is It can be said that the initial direction is almost different if the driver's face position is almost the same. That is, it can be said that the position of the driver's face relative to the camera 11 and the initial direction substantially correspond to each other.

例えば、ドライバ2が矢印41の方向を向いている場合、ドライバ2の頭部が位置42にあるとき、カメラ11から見たドライバ2の左右方向(水平方向)の顔の向きを示す角度をθ1、ドライバ2の頭部が位置43にあるとき、カメラ11から見たドライバ2の左右方向(水平方向)の顔の向きを示す角度をθ2とすると、θ1<θ2となる。すなわち、運転中にドライバ2が正面を向いている場合、ドライバ2の顔の位置が前方にあるほど、例えば、ドライバ2のドライビングポジションが前方にあるほど、左方向の傾き(角度)が大きくなり、ドライバ2の顔の位置が後方にあるほど、例えば、ドライバ2のドライビングポジションが後方にあるほど、左方向の傾き(角度)が小さくなる。   For example, when the driver 2 is facing the direction of the arrow 41, when the head of the driver 2 is at the position 42, an angle indicating the face direction of the driver 2 in the left-right direction (horizontal direction) viewed from the camera 11 is θ1. When the head of the driver 2 is at the position 43, θ1 <θ2 when the angle indicating the face direction of the driver 2 in the left-right direction (horizontal direction) viewed from the camera 11 is θ2. In other words, when the driver 2 is facing the front during driving, the tilt (angle) in the left direction increases as the face position of the driver 2 is forward, for example, the driving position of the driver 2 is forward. As the driver's 2 face position is rearward, for example, the driver's 2 driving position is rearward, the leftward inclination (angle) becomes smaller.

また、図示はしないが、同様に、運転中にドライバ2が正面を向いている場合、カメラ11から見たドライバ2の顔の向きは、ドライバ2の顔の位置が下にあるほど、例えば、ドライバ2の座高が低いほど、下方向の傾き(角度)が大きくなり、ドライバ2の顔の位置が上にあるほど、例えば、ドライバ2の座高が高いほど、下方向の傾き(角度)が小さくなる。   Although not shown, similarly, when the driver 2 is facing the front during driving, the face direction of the driver 2 viewed from the camera 11 is such that the lower the face position of the driver 2 is, for example, The lower the seat height of the driver 2 is, the greater the downward inclination (angle) is. The higher the position of the face of the driver 2 is, for example, the lower the driver 2 is, the smaller the downward inclination (angle) is. Become.

上述したように、運転中のカメラ11に対するドライバの顔の位置は、車両の前後および上下方向の2次元の平面上を移動し、かつ、カメラ11に対するドライバの顔の位置と、イニシャル方向とはほぼ1対1に対応するので、入力画像におけるドライバの顔の位置と、イニシャル方向とはほぼ1対1に対応する。従って、入力画像におけるドライバの顔の位置が分かれば、イニシャル方向をほぼ正確に推定することができる。   As described above, the position of the driver's face relative to the camera 11 during driving moves on a two-dimensional plane in the front-rear and vertical directions of the vehicle, and the position of the driver's face relative to the camera 11 and the initial direction are Since there is a one-to-one correspondence, the driver's face position in the input image and the initial direction correspond to a one-to-one correspondence. Therefore, if the position of the driver's face in the input image is known, the initial direction can be estimated almost accurately.

図5は、運転中にドライバが正面を向いている場合の顔の向きと、入力画像におけるドライバの顔の位置との関係を模式的に表した図である。なお、図5においては、入力画像が縦3×横4の合計12の領域に分割されている。例えば、ドライバの顔の位置が左下隅の領域内である場合、入力画像におけるドライバの顔の向き(カメラ11から見たドライバの顔の向き、すなわち、イニシャル方向)は、左右方向については、ドライバの顔の位置が左上隅の領域内である場合とほぼ同じ方向となり、上下方向については、ドライバの顔の位置が右下隅の領域内である場合とほぼ同じ方向となる。同様に、ドライバの顔の位置が右上隅の領域内である場合、入力画像におけるドライバの顔の向きは、左右方向については、ドライバの顔の位置が右下隅の領域内である場合とほぼ同じ方向となり、上下方向については、ドライバの顔の位置が入力画像の左上隅の領域内である場合とほぼ同じ方向となる。   FIG. 5 is a diagram schematically showing the relationship between the face orientation when the driver is facing the front during driving and the position of the driver's face in the input image. In FIG. 5, the input image is divided into a total of 12 areas of 3 × 4 in the vertical direction. For example, when the position of the driver's face is in the lower left corner area, the driver's face direction in the input image (the driver's face direction as viewed from the camera 11, that is, the initial direction) The face position is substantially the same as that in the upper left corner area, and the vertical direction is substantially the same as in the case where the driver face position is in the lower right corner area. Similarly, when the position of the driver's face is in the upper right corner area, the driver's face orientation in the input image is almost the same as that in the lower right corner area in the left-right direction. The vertical direction is substantially the same as the case where the face position of the driver is in the upper left corner area of the input image.

図6は、変換テーブルの例を示す図である。変換テーブルは、ドライバまたはドライビングポジションの違いに関わらず、入力画像におけるドライバの顔の位置とイニシャル方向とがほぼ1対1に対応するという性質に基づいて、入力画像におけるドライバの顔の位置とイニシャル方向とが関連づけられたデータである。図6においては、図5の場合と同様に、入力画像が縦3×横4の合計12の領域に分割され、各領域に対してイニシャル方向が1つずつ対応づけられている。例えば、図6の変換テーブルにおいては、入力画像の左上隅の領域に対応するイニシャル方向は、左方向45°、下方向0°であり、入力画像の右下隅の領域に対応するイニシャル方向は、左方向30°、下方向10°である。   FIG. 6 is a diagram illustrating an example of a conversion table. The conversion table is based on the property that the face position and the initial direction of the driver in the input image have a one-to-one correspondence regardless of the difference in the driver or driving position. This data is associated with a direction. In FIG. 6, as in the case of FIG. 5, the input image is divided into a total of 12 regions of 3 × 4 in length, and one initial direction is associated with each region. For example, in the conversion table of FIG. 6, the initial direction corresponding to the upper left corner region of the input image is 45 ° leftward and 0 ° downward, and the initial direction corresponding to the lower right corner region of the input image is The leftward direction is 30 ° and the downward direction is 10 °.

なお、各車種、および、想定されるカメラ11の設置位置ごとに、事前に計測などを行うことにより、各車種および設置位置に応じた変換テーブルが個別に作成され、顔向き検出装置1においては、カメラ11が設置される車種および設置位置に対応した変換テーブルが用いられる。   In addition, by performing measurement or the like in advance for each vehicle type and each assumed installation position of the camera 11, a conversion table corresponding to each vehicle type and installation position is individually created. A conversion table corresponding to the vehicle type and installation position where the camera 11 is installed is used.

図2に戻り、ステップS5において、イニシャル方向取得部13は、変換テーブルから、顔検出部12により検出されたドライバの顔の位置に対応するイニシャル方向を取得する。   Returning to FIG. 2, in step S5, the initial direction acquisition unit 13 acquires an initial direction corresponding to the face position of the driver detected by the face detection unit 12 from the conversion table.

ステップS6において、イニシャル方向取得部13は、イニシャル方向を出力する。具体的には、イニシャル方向取得部13は、イニシャル方向を示す情報を、顔向き検出装置1の後段の装置に出力する。   In step S6, the initial direction acquisition unit 13 outputs the initial direction. Specifically, the initial direction acquisition unit 13 outputs information indicating the initial direction to a device subsequent to the face orientation detection device 1.

ステップS7において、顔向き検出部14は、ドライバ2の顔の向きを検出する。具体的には、顔検出部12は、ドライバ2の顔が検出できたと判定した場合、検出結果を示す情報を顔向き検出部14に供給する。顔向き検出部14は、所定の手法を用いて、入力画像、および、顔検出部12により検出されたドライバ2の顔の位置に基づいて、カメラ11から見たドライバの顔の向きを検出する。   In step S <b> 7, the face orientation detection unit 14 detects the face orientation of the driver 2. Specifically, when it is determined that the face of the driver 2 can be detected, the face detection unit 12 supplies information indicating the detection result to the face direction detection unit 14. The face orientation detection unit 14 detects the orientation of the driver's face viewed from the camera 11 based on the input image and the face position of the driver 2 detected by the face detection unit 12 using a predetermined method. .

ステップS8において、顔向き検出部14は、ステップS7の処理において、ドライバ2の顔の向きが検出できたか否かを判定する。ドライバ2の顔の向きが検出できたと判定された場合、処理はステップS9に進む。   In step S8, the face direction detection unit 14 determines whether or not the face direction of the driver 2 has been detected in the process of step S7. If it is determined that the face orientation of the driver 2 has been detected, the process proceeds to step S9.

ステップS9において、顔向き検出部14は、ドライバ2の顔の向きを出力する。具体的には、顔向き検出部14は、検出したドライバ2の顔の向きの検出結果を示す情報を、顔向き検出装置1の後段の装置に出力する。その後、処理はステップS11に進む。   In step S <b> 9, the face orientation detection unit 14 outputs the face orientation of the driver 2. Specifically, the face direction detection unit 14 outputs information indicating the detection result of the detected face direction of the driver 2 to a device subsequent to the face direction detection device 1. Thereafter, the process proceeds to step S11.

ステップS8において、ドライバ2の顔の向きが検出できなかったと判定された場合、処理はステップS10に進む。   If it is determined in step S8 that the face direction of the driver 2 cannot be detected, the process proceeds to step S10.

また、ステップS4において、顔検出部12は、ドライバ2の顔が検出できなかったと判定した場合、処理はステップS10に進む。   If the face detection unit 12 determines in step S4 that the face of the driver 2 could not be detected, the process proceeds to step S10.

ステップS10において、顔向き検出部14は、検出エラーを出力する。具体的には、顔検出部12は、ドライバ2の顔を検出できなかった場合、ドライバ2の顔を検出できなかったことを示す情報を、イニシャル方向取得部13および顔向き検出部14に供給する。顔向き検出部14は、ドライバ2の顔の向きの検出に失敗したことを示す検出エラーを通知する情報を、顔向き検出装置1の後段の装置に出力する。   In step S10, the face orientation detection unit 14 outputs a detection error. Specifically, when the face of the driver 2 cannot be detected, the face detection unit 12 supplies information indicating that the face of the driver 2 cannot be detected to the initial direction acquisition unit 13 and the face direction detection unit 14. To do. The face direction detection unit 14 outputs information notifying a detection error indicating that the detection of the face direction of the driver 2 has failed to a device subsequent to the face direction detection device 1.

ステップS11において、顔向き検出装置1は、処理を終了するか否かを判定する。処理を終了しないと判定された場合、処理はステップS2に戻り、ステップS11において、処理が終了すると判定されるまで、ステップS2乃至S11の処理が繰返し実行される。   In step S11, the face direction detection device 1 determines whether or not to end the process. If it is determined not to end the process, the process returns to step S2, and the processes in steps S2 to S11 are repeatedly executed until it is determined in step S11 that the process ends.

ステップS11において、例えば、車両のアクセサリー(ACC)用の電源の供給が停止されたとき、顔向き検出装置1は、処理を終了すると判定し、顔向き検出処理は終了する。   In step S11, for example, when the supply of power for the accessory (ACC) of the vehicle is stopped, the face orientation detection device 1 determines that the process is finished, and the face orientation detection process is finished.

このように、ドライバまたはドライビングポジションなどが異なっても、そのドライバおよびドライビングポジションに対応したイニシャル方向が、ほぼ正確に求められる。また、ドライバが運転席に座った状態において、ドライバの顔の位置を検出するだけで、運転を開始する前に、迅速にイニシャル方向が求められる。さらに、イニシャル方向のみを求めるのであれば、ドライバの認識を行ったり、ドライバの顔の各器官を認識したりする必要がないため、処理を軽くすることができ、また、入力画像の解像度を低く抑えることができる。また、入力画像の画質が少々悪くても、イニシャル方向を求めることが可能である。さらに、イニシャル方向を求めるための特別な対応をドライバが行うことなく、自動的に確実にイニシャル方向を求めることができる。   As described above, even if the driver or the driving position is different, the initial direction corresponding to the driver and the driving position can be obtained almost accurately. In addition, in the state where the driver is sitting on the driver's seat, the initial direction can be promptly obtained by simply detecting the position of the driver's face before starting driving. Furthermore, if only the initial direction is required, it is not necessary to recognize the driver or recognize each organ of the driver's face, so the processing can be lightened and the resolution of the input image can be reduced. Can be suppressed. Even if the image quality of the input image is a little bad, the initial direction can be obtained. Furthermore, the initial direction can be obtained automatically and reliably without the driver performing a special action for obtaining the initial direction.

なお、変換テーブルをより細かな領域に分割することにより、イニシャル方向の精度を向上させることができる。   Note that the accuracy in the initial direction can be improved by dividing the conversion table into smaller areas.

次に、図7乃至図9を参照して、本発明の第2の実施の形態について説明する。図7は、本発明の第2の実施の形態である顔向き検出装置101の機能の構成の例を示すブロック図である。顔向き検出装置101は、後述するように、イニシャル方向を基準とするドライバ2の顔の向きを、後段の装置に出力することを特徴とする。顔向き検出装置101は、カメラ11、顔検出部12、イニシャル方向取得部13、顔向き検出部14、記憶部15、および、変換部111を含むように構成される。   Next, a second embodiment of the present invention will be described with reference to FIGS. FIG. 7 is a block diagram illustrating an example of a functional configuration of the face direction detection apparatus 101 according to the second embodiment of the present invention. As will be described later, the face orientation detection device 101 outputs the face orientation of the driver 2 with respect to the initial direction to a subsequent device. The face direction detection device 101 is configured to include a camera 11, a face detection unit 12, an initial direction acquisition unit 13, a face direction detection unit 14, a storage unit 15, and a conversion unit 111.

なお、図中、図1と対応する部分については同じ符号を付してあり、処理が同じ部分に関しては、その説明は繰り返しになるので省略する。   In the figure, portions corresponding to those in FIG. 1 are denoted by the same reference numerals, and description of portions having the same processing will be omitted because it will be repeated.

顔向き検出装置101は、図1の顔向き検出装置1と比べて、カメラ11、顔検出部12、イニシャル方向取得部13、顔向き検出部14、および、記憶部15を含む点で一致し、変換部111を含む点で異なる。   Compared with the face direction detection apparatus 1 of FIG. 1, the face direction detection apparatus 101 matches in that it includes a camera 11, a face detection unit 12, an initial direction acquisition unit 13, a face direction detection unit 14, and a storage unit 15. The difference is that the converter 111 is included.

変換部111は、イニシャル方向を示す情報をイニシャル方向取得部13から取得し、ドライバ2の顔の向きの検出結果を示す情報を顔向き検出部14から取得する。変換部111は、顔向き検出部14により検出された、カメラ11から見たドライバ2の顔の向きを、イニシャル方向を基準とする向きに変換する。変換部111は、変換した顔の向きを示す情報を、顔向き検出装置101の後段の装置に出力する。   The conversion unit 111 acquires information indicating the initial direction from the initial direction acquisition unit 13 and acquires information indicating the detection result of the face direction of the driver 2 from the face direction detection unit 14. The conversion unit 111 converts the face direction of the driver 2 as viewed from the camera 11 detected by the face direction detection unit 14 into a direction based on the initial direction. The conversion unit 111 outputs information indicating the converted face orientation to a device subsequent to the face orientation detection device 101.

次に、図8のフローチャートを参照して、顔向き検出装置101により実行される顔向き検出処理を説明する。   Next, the face direction detection process executed by the face direction detection apparatus 101 will be described with reference to the flowchart of FIG.

ステップS101乃至S105の処理は、図2のステップS1乃至S5の処理と同様であり、その説明は繰り返しになるので省略する。   The processing of steps S101 to S105 is the same as the processing of steps S1 to S5 in FIG.

ステップS106において、図2のステップS7の処理と同様に、カメラ11から見たドライバ2の顔の向きが検出される。   In step S106, the face orientation of the driver 2 viewed from the camera 11 is detected in the same manner as in step S7 of FIG.

ステップS107において、図2のステップS8の処理と同様に、ドライバ2の顔の向きが検出できたか否かが判定される。ドライバ2の顔の向きが検出できたと判定された場合、処理はステップS108に進む。   In step S107, it is determined whether the face orientation of the driver 2 has been detected, as in the process of step S8 of FIG. If it is determined that the face direction of the driver 2 has been detected, the process proceeds to step S108.

ステップS108において、変換部111は、検出された顔の向きを変換する。具体的には、イニシャル方向取得部13は、イニシャル方向を示す情報を変換部111に供給する。顔向き検出部14は、ドライバ2の顔の向きの検出結果を示す情報を変換部111に供給する。変換部111は、顔向き検出部14により検出された、カメラ11から見たドライバ2の顔の向きを、イニシャル方向を基準とする向きに変換する。   In step S108, the conversion unit 111 converts the orientation of the detected face. Specifically, the initial direction acquisition unit 13 supplies information indicating the initial direction to the conversion unit 111. The face direction detection unit 14 supplies information indicating the detection result of the face direction of the driver 2 to the conversion unit 111. The conversion unit 111 converts the face direction of the driver 2 as viewed from the camera 11 detected by the face direction detection unit 14 into a direction based on the initial direction.

ここで、図9を参照して、変換部111による変換方法について説明する。なお、ここでは、説明を簡単にするために左右方向の顔の向きについてのみ考える。顔131の向きが、ドライバ2が正面を向いている場合におけるカメラ11から見たドライバの顔の向き、すなわち、イニシャル方向を示し、顔132の向きが、顔向き検出部14により検出されたドライバ2の顔の向きを示しているとした場合、イニシャル方向を基準とするドライバ2の顔の向きは、顔132の向きから顔131の向きを引いた向き(角度)、すなわち、顔133の向きとなる。例えば、イニシャル方向を左方向に30°、顔向き検出部14により検出されたドライバ2の顔の向きを右方向に30°とした場合、イニシャル方向を基準とするドライバ2の顔の向きは、右方向60°(=右方向30°−左方向30°)となる。   Here, a conversion method by the conversion unit 111 will be described with reference to FIG. Here, only the face direction in the left-right direction is considered for the sake of simplicity. The direction of the face 131 indicates the direction of the face of the driver as viewed from the camera 11 when the driver 2 is facing the front, that is, the initial direction, and the direction of the face 132 is detected by the face direction detection unit 14 2 indicates the orientation of the face of the driver 2 with respect to the initial direction, that is, the orientation (angle) obtained by subtracting the orientation of the face 131 from the orientation of the face 132, that is, the orientation of the face 133. It becomes. For example, when the initial direction is 30 ° in the left direction and the face direction of the driver 2 detected by the face direction detection unit 14 is 30 ° in the right direction, the face direction of the driver 2 with respect to the initial direction is It is 60 ° to the right (= 30 ° to the right−30 ° to the left).

なお、上下方向についても同様の方法により、イニシャル方向を基準とするドライバ2の顔の向きが求められる。   Note that the face direction of the driver 2 with respect to the initial direction is determined in the same way in the vertical direction.

ステップS109において、変換部111は、ドライバ2の顔の向きを出力する。具体的には、変換部111は、イニシャル方向を基準とするドライバの顔の向きを示す情報を、顔向き検出装置101の後段の装置に出力する。その後、処理はステップS110に進む。   In step S109, the conversion unit 111 outputs the face orientation of the driver 2. Specifically, the conversion unit 111 outputs information indicating the face direction of the driver with respect to the initial direction to a device subsequent to the face direction detection device 101. Thereafter, the process proceeds to step S110.

ステップS104において、ドライバ2の顔が検出できなかったと判定された場合、または、ステップS107において、ドライバ2の顔の向きが検出できなかったと判定された場合、処理はステップS110に進む。   If it is determined in step S104 that the face of the driver 2 cannot be detected, or if it is determined in step S107 that the face direction of the driver 2 cannot be detected, the process proceeds to step S110.

ステップS110において、変換部111は、検出エラーを出力する。具体的には、顔検出部12は、ドライバ2の顔を検出できなかった場合、ドライバ2の顔を検出できなかったことを示す情報を、イニシャル方向取得部13および顔向き検出部14に供給する。また、顔向き検出部14は、ドライバ2の顔の向きを検出できなかった場合、ドライバ2の顔の向きを検出できなかったことを示す情報を、変換部111に供給する。変換部111は、ドライバ2の顔の向きが検出されなかったことを示す情報を、顔向き検出装置101の後段の装置に出力する。   In step S110, the conversion unit 111 outputs a detection error. Specifically, when the face of the driver 2 cannot be detected, the face detection unit 12 supplies information indicating that the face of the driver 2 cannot be detected to the initial direction acquisition unit 13 and the face direction detection unit 14. To do. Further, when the face direction of the driver 2 cannot be detected, the face direction detection unit 14 supplies information indicating that the face direction of the driver 2 cannot be detected to the conversion unit 111. The conversion unit 111 outputs information indicating that the face orientation of the driver 2 has not been detected to a device subsequent to the face orientation detection device 101.

ステップS111において、上述した図2のステップS11の処理と同様に、処理を終了するか否かが判定される。処理を終了しないと判定された場合、処理はステップS102に戻り、ステップS111において、処理を終了すると判定されるまで、ステップS102乃至S111の処理が繰返し実行される。   In step S111, it is determined whether or not to end the process, similar to the process in step S11 of FIG. If it is determined not to end the process, the process returns to step S102, and the processes in steps S102 to S111 are repeatedly executed until it is determined in step S111 that the process is to be ended.

ステップS111において、処理を終了すると判定された場合、顔向き検出処理は終了する。   If it is determined in step S111 that the process is to be terminated, the face orientation detection process is terminated.

このように、顔向き検出装置101の後段の装置に、イニシャル方向を基準とするドライバ2の顔の向きが出力されるようになる。   In this way, the face orientation of the driver 2 with respect to the initial direction is output to the subsequent device of the face orientation detection device 101.

なお、顔向き検出装置101の後段の装置に、イニシャル方向も合わせて出力するようにしてもよい。   Note that the initial direction may also be output to a device subsequent to the face orientation detection device 101.

次に、図10乃至図12を参照して、本発明の第3の実施の形態について説明する。図10は、本発明の第3の実施の形態である顔向き検出装置201の機能の構成の例を示すブロック図である。顔向き検出装置201は、複数台のカメラを用いてドライバ2の顔の向きを検出することを特徴とする。顔向き検出装置201は、カメラ11,211、顔検出部12、イニシャル方向取得部13、顔向き検出部14、記憶部15、および、変換部111を含むように構成される。   Next, a third embodiment of the present invention will be described with reference to FIGS. FIG. 10 is a block diagram illustrating an example of a functional configuration of the face direction detection apparatus 201 according to the third embodiment of the present invention. The face orientation detection device 201 is characterized by detecting the face orientation of the driver 2 using a plurality of cameras. The face direction detection device 201 is configured to include cameras 11, 211, a face detection unit 12, an initial direction acquisition unit 13, a face direction detection unit 14, a storage unit 15, and a conversion unit 111.

なお、図中、図7と対応する部分については同じ符号を付してあり、処理が同じ部分に関しては、その説明は繰り返しになるので省略する。   In the figure, parts corresponding to those in FIG.

顔向き検出装置201は、図7の顔向き検出装置101と比べて、カメラ11、顔検出部12、イニシャル方向取得部13、顔向き検出部14、記憶部15、および、変換部111を含む点で一致し、カメラ211を含む点で異なる。   Compared with the face direction detection device 101 of FIG. 7, the face direction detection device 201 includes a camera 11, a face detection unit 12, an initial direction acquisition unit 13, a face direction detection unit 14, a storage unit 15, and a conversion unit 111. It differs in the point which includes the camera 211 in point.

カメラ211は、カメラ11とは異なる位置に設置され、カメラ11とは異なる方向から、顔向き検出装置201が設けられている車両の運転席に座っているドライバ2の顔を撮影した画像(入力画像)を顔検出部12および顔向き検出部14に供給する。なお、以下、カメラ11により撮影された画像とカメラ211により撮影された画像を区別する必要がある場合、カメラ11により撮影された画像を第1の入力画像といい、カメラ211により撮影された画像を第2の入力画像という。   The camera 211 is installed at a position different from the camera 11 and is an image (input) of the face of the driver 2 sitting in the driver's seat of the vehicle in which the face orientation detection device 201 is provided from a direction different from the camera 11. Image) is supplied to the face detection unit 12 and the face direction detection unit 14. Hereinafter, when it is necessary to distinguish between an image captured by the camera 11 and an image captured by the camera 211, the image captured by the camera 11 is referred to as a first input image, and the image captured by the camera 211. Is referred to as a second input image.

図11は、カメラ11およびカメラ211の設置位置の例を示す。カメラ11は、例えば、車両内のセンタミラーの根元付近に設置され、前方左斜め上方向からドライバ2の顔を撮影する。また、カメラ211は、運転席前方のダッシュボード(インストルメントパネル)上部右端付近に設置され、前方右斜め下方向からドライバ2の顔を撮影する。これにより、ドライバ2の顔を撮影できる範囲が広がり、ドライバの顔の向きを検出できる範囲が広がる。例えば、ドライバ2が、カメラ11に対して90°右の方向に顔を向け、カメラ11によりドライバ2の顔が撮影できない場合においても、カメラ211により、ドライバ2の顔の向きを撮影でき、ドライバ2の顔の向きを検出することができる。   FIG. 11 shows an example of installation positions of the camera 11 and the camera 211. The camera 11 is installed, for example, in the vicinity of the base of the center mirror in the vehicle, and images the face of the driver 2 from the upper left diagonal direction. The camera 211 is installed near the upper right end of the dashboard (instrument panel) in front of the driver's seat, and photographs the face of the driver 2 from the diagonally downward front right direction. Thereby, the range in which the face of the driver 2 can be photographed is expanded, and the range in which the direction of the driver's face can be detected is expanded. For example, even when the driver 2 turns his face 90 ° to the camera 11 and the camera 11 cannot capture the face of the driver 2, the camera 211 can capture the direction of the face of the driver 2. The orientation of the second face can be detected.

なお、記憶部15には、第1の入力画像に対応した変換テーブル、すなわち、第1の入力画像におけるドライバ2の顔の位置と、カメラ11から見たイニシャル方向(以下、第1のイニシャル方向とも称する)とを関連づけた変換テーブル(以下、第1の変換テーブルとも称する)、および、第2の入力画像に対応した変換テーブル、すなわち、第2の入力画像におけるドライバ2の顔の位置と、カメラ211から見たイニシャル方向(以下、第2のイニシャル方向とも称する)とを関連づけた変換テーブル(以下、第2の変換テーブルとも称する)が記憶される。イニシャル方向取得部13は、第1の入力画像におけるドライバ2の顔の位置および第1の変換テーブル、または、第2の入力画像におけるドライバ2の顔の位置および第2の変換テーブルに基づいて、イニシャル方向を検出する。   The storage unit 15 stores a conversion table corresponding to the first input image, that is, the position of the face of the driver 2 in the first input image and the initial direction viewed from the camera 11 (hereinafter referred to as the first initial direction). A conversion table (hereinafter also referred to as a first conversion table) and a conversion table corresponding to the second input image, that is, the position of the face of the driver 2 in the second input image, A conversion table (hereinafter also referred to as a second conversion table) in association with an initial direction viewed from the camera 211 (hereinafter also referred to as a second initial direction) is stored. The initial direction acquisition unit 13 is based on the position of the face of the driver 2 in the first input image and the first conversion table, or the position of the face of the driver 2 in the second input image and the second conversion table, Detect the initial direction.

次に、図12のフローチャートを参照して、顔向き検出装置201により実行される顔向き検出処理を説明する。なお、この処理は、例えば、顔向き検出装置201が設けられている車両のアクセサリー(ACC)用の電源からの顔向き検出装置201への供給が開始されたとき、開始される。   Next, face direction detection processing executed by the face direction detection apparatus 201 will be described with reference to the flowchart of FIG. This process is started, for example, when supply to the face direction detecting device 201 from a power source for an accessory (ACC) of a vehicle provided with the face direction detecting device 201 is started.

ステップS201において、カメラ11および211は、運転席周辺の撮影を開始する。すなわち、カメラ11および211により運転席に座っているドライバ2の顔の撮影が開始される。   In step S201, the cameras 11 and 211 start photographing around the driver's seat. That is, photographing of the face of the driver 2 sitting in the driver's seat is started by the cameras 11 and 211.

ステップS202において、顔検出部12および顔向き検出部14は、カメラ11および211により撮影された入力画像(第1および第2の入力画像)を取得する。   In step S202, the face detection unit 12 and the face direction detection unit 14 acquire input images (first and second input images) captured by the cameras 11 and 211.

ステップS203において、顔検出部12は、上述した図2のステップS3の処理と同様に、ドライバ2の顔の位置を検出する。ただし、図2のステップS3の処理と異なり、顔検出部12は、第1および第2の2つの入力画像におけるドライバ2の顔の位置を検出する。   In step S203, the face detection unit 12 detects the face position of the driver 2 in the same manner as the processing in step S3 in FIG. However, unlike the processing in step S3 in FIG. 2, the face detection unit 12 detects the position of the face of the driver 2 in the first and second input images.

ステップS204において、顔検出部12は、ドライバ2の顔の位置を検出できたか否かを判定する。顔検出部12は、ステップS203において、第1の入力画像または第2の入力画像のうち少なくとも一方におけるドライバ2の顔の位置を検出できた場合、ドライバ2の顔の位置を検出できたと判定し、処理はステップS205に進む。   In step S204, the face detection unit 12 determines whether or not the face position of the driver 2 has been detected. In step S203, the face detection unit 12 determines that the face position of the driver 2 has been detected when the face position of the driver 2 in at least one of the first input image and the second input image can be detected. The process proceeds to step S205.

ステップS205において、上述した図2のステップS5の処理と同様に、イニシャル方向が取得される。ただし、ステップS5の処理と異なり、第1および第2の入力画像の両方において、ドライバ2の顔の位置が検出されている場合、それぞれの入力画像に対応する変換テーブルから、それぞれの入力画像におけるドライバ2の顔の位置に対応するイニシャル方向が取得される。また、第1または第2の入力画像の一方のみにおいて、ドライバ2の顔の位置が検出されている場合、ドライバ2の顔の位置が検出された入力画像に対応する変換テーブルから、その入力画像におけるドライバ2の顔の位置に対応するイニシャル方向が取得される。   In step S205, the initial direction is acquired in the same manner as in step S5 of FIG. However, unlike the processing in step S5, when the face position of the driver 2 is detected in both the first and second input images, the conversion table corresponding to each input image is used to determine the position of each input image. The initial direction corresponding to the face position of the driver 2 is acquired. Further, when the face position of the driver 2 is detected in only one of the first or second input images, the input image is obtained from the conversion table corresponding to the input image in which the face position of the driver 2 is detected. The initial direction corresponding to the face position of the driver 2 is acquired.

ステップS206において、上述した図2のステップS7の処理と同様に、ドライバ2の顔の向きが検出される。ただし、ステップS7の処理と異なり、第1および第2の入力画像の両方において、ドライバ2の顔の位置が検出されている場合、それぞれの入力画像に基づいて、ドライバ2の顔の向きが検出される。また、第1または第2の入力画像の一方のみにおいて、ドライバ2の顔の位置が検出されている場合、ドライバ2の顔の位置が検出された入力画像に基づいて、ドライバ2の顔の向きが検出される。   In step S206, the face orientation of the driver 2 is detected in the same manner as in step S7 of FIG. However, unlike the processing in step S7, when the face position of the driver 2 is detected in both the first and second input images, the face direction of the driver 2 is detected based on each input image. Is done. Further, when the face position of the driver 2 is detected in only one of the first or second input images, the face direction of the driver 2 is determined based on the input image from which the face position of the driver 2 is detected. Is detected.

ステップS207において、顔向き検出部14は、ドライバ2の顔の向きが検出できたか否かを判定する。顔向き検出部14は、ステップS206において、第1または第2の入力画像のうち少なくとも一方の入力画像に基づいて、ドライバ2の顔の向きが検出できた場合、ドライバ2の顔の向きを検出できたと判定し、処理はステップS208に進む。   In step S207, the face orientation detection unit 14 determines whether the face orientation of the driver 2 has been detected. In step S206, the face direction detection unit 14 detects the face direction of the driver 2 when the face direction of the driver 2 can be detected based on at least one of the first or second input images. The process proceeds to step S208.

ステップS208において、変換部111は、検出された顔の向きを変換する。具体的には、イニシャル方向取得部13は、イニシャル方向の検出結果を示す情報を変換部111に供給する。顔向き検出部14は、ドライバ2の顔の向きの検出結果を示す情報を変換部111に供給する。変換部111は、上述した図8のステップS108の処理と同様に、顔向き検出部14により検出されたドライバ2の顔の向きを、イニシャル方向を基準とする向きに変換する。   In step S208, the conversion unit 111 converts the orientation of the detected face. Specifically, the initial direction acquisition unit 13 supplies information indicating the detection result of the initial direction to the conversion unit 111. The face direction detection unit 14 supplies information indicating the detection result of the face direction of the driver 2 to the conversion unit 111. The conversion unit 111 converts the face direction of the driver 2 detected by the face direction detection unit 14 into a direction based on the initial direction, similarly to the process of step S108 in FIG. 8 described above.

ただし、第1の入力画像に基づくドライバ2の顔の向き、および、第2の入力画像に基づくドライバ2の顔の向きの両方ともが検出されている場合、どちらか一方の入力画像に基づく顔の向きが選択されて、選択された顔の向きが、イニシャル方向を基準とする向きに変換される。例えば、カメラ11またはカメラ211から見て、より正面に近い方の顔の向きが選択される。   However, when both the face direction of the driver 2 based on the first input image and the face direction of the driver 2 based on the second input image are detected, the face based on one of the input images Is selected, and the orientation of the selected face is converted into an orientation based on the initial direction. For example, the face direction closer to the front as viewed from the camera 11 or the camera 211 is selected.

ステップS209において、上述した図8のステップS109の処理と同様に、イニシャル方向を基準とするドライバの顔の向きを示す情報が、顔向き検出装置201の後段の装置に出力される。その後、処理はステップS211に進む。   In step S209, as in the process of step S109 of FIG. 8 described above, information indicating the driver's face orientation with respect to the initial direction is output to a device subsequent to the face orientation detection device 201. Thereafter, the process proceeds to step S211.

ステップS204において、ドライバ2の顔が検出できなかったと判定された場合、または、ステップS207において、ドライバ2の顔の向きが検出できなかったと判定された場合、処理はステップS210に進む。   If it is determined in step S204 that the face of the driver 2 cannot be detected, or if it is determined in step S207 that the face direction of the driver 2 cannot be detected, the process proceeds to step S210.

ステップS210において、上述した図8のステップS110の処理と同様に、検出エラーが出力される。   In step S210, a detection error is output in the same manner as in step S110 of FIG.

ステップS211において、上述した図2のステップS11の処理と同様に、処理を終了するか否かが判定される。処理を終了しないと判定された場合、処理はステップS202に戻り、ステップS211において、処理を終了すると判定されるまで、ステップS202乃至S211の処理が繰返し実行される。   In step S211, it is determined whether or not to end the process, similar to the process in step S11 of FIG. If it is determined not to end the process, the process returns to step S202, and the processes in steps S202 to S211 are repeatedly executed until it is determined in step S211 that the process is to be ended.

ステップS211において、処理を終了すると判定された場合、顔向き検出処理は終了する。   If it is determined in step S211 to end the process, the face orientation detection process ends.

このように、ドライバ2の顔の向きの検出範囲を広げることができる。   Thus, the detection range of the face direction of the driver 2 can be expanded.

なお、以上の説明では、カメラの数を2台とする例を示したが、カメラを3台以上設けるようにしてもよい。この場合、カメラの数が2台の場合と同様に、それぞれのカメラにより撮影された入力画像に対応する変換テーブルが用いられる。   In the above description, an example in which the number of cameras is two has been described, but three or more cameras may be provided. In this case, as in the case where the number of cameras is two, conversion tables corresponding to input images taken by the respective cameras are used.

また、顔向き検出装置201の後段の装置に、イニシャル方向も合わせて出力するようにしてもよいし、顔向き検出装置1と同様に、イニシャル方向、および、カメラ11またはカメラ211から見たドライバ2の顔の向きを出力するようにしてもよい。   In addition, the initial direction may be output to the subsequent device of the face direction detection device 201, or the driver as viewed from the initial direction and the camera 11 or the camera 211 as in the face direction detection device 1. The orientation of the second face may be output.

次に、図13乃至図22を参照して、本発明の第4の実施の形態について説明する。図13は、本発明の第4の実施の形態である顔向き検出装置301の機能の構成の例を示すブロック図である。顔向き検出装置301は、予めイニシャル方向が登録された変換テーブルを用いずに、学習処理によりイニシャル方向の登録または消去を行うことにより、変換テーブルを適宜更新することを特徴とする。顔向き検出装置301は、カメラ11、顔検出部12、顔向き検出部14、記憶部15、変換部111、イニシャル方向取得部311、正面向き判定部312、イニシャル方向検出部313、および、変換テーブル更新部314を含むように構成される。   Next, a fourth embodiment of the present invention will be described with reference to FIGS. FIG. 13 is a block diagram illustrating an example of a functional configuration of the face direction detection device 301 according to the fourth embodiment of the present invention. The face orientation detection device 301 is characterized by appropriately updating the conversion table by registering or deleting the initial direction by learning processing without using the conversion table in which the initial direction is registered in advance. The face direction detection device 301 includes a camera 11, a face detection unit 12, a face direction detection unit 14, a storage unit 15, a conversion unit 111, an initial direction acquisition unit 311, a front direction determination unit 312, an initial direction detection unit 313, and a conversion. A table update unit 314 is included.

なお、図中、図7と対応する部分については同じ符号を付してあり、処理が同じ部分に関しては、その説明は繰り返しになるので省略する。   In the figure, portions corresponding to those in FIG. 7 are denoted by the same reference numerals, and the description of portions having the same processing will be omitted because it will be repeated.

顔向き検出装置301は、図7の顔向き検出装置101と比べて、カメラ11、顔検出部12、顔向き検出部14、記憶部15、および、変換部111を含む点で一致し、イニシャル方向取得部311、正面向き判定部312、イニシャル方向検出部313、および、変換テーブル更新部314を含み、イニシャル方向取得部13を含まない点で異なる。   Compared with the face direction detection device 101 of FIG. 7, the face direction detection device 301 is identical in that it includes the camera 11, the face detection unit 12, the face direction detection unit 14, the storage unit 15, and the conversion unit 111. The difference is that it includes a direction acquisition unit 311, a front direction determination unit 312, an initial direction detection unit 313, and a conversion table update unit 314, but does not include the initial direction acquisition unit 13.

イニシャル方向取得部311は、図7のイニシャル方向取得部13と同様に、記憶部15に記憶されている変換テーブルから、顔検出部12により検出されたドライバ2の顔の位置に対応するイニシャル方向を取得する。イニシャル方向取得部311は、取得したイニシャル方向を示す情報を変換部111に供給する。   Similar to the initial direction acquisition unit 13 shown in FIG. 7, the initial direction acquisition unit 311 corresponds to the initial direction corresponding to the face position of the driver 2 detected by the face detection unit 12 from the conversion table stored in the storage unit 15. To get. The initial direction acquisition unit 311 supplies information indicating the acquired initial direction to the conversion unit 111.

また、イニシャル方向取得部311は、顔検出部12により検出されたドライバ2の顔の位置に対応するイニシャル方向が変換テーブルに登録されていない場合、イニシャル方向が登録されていないことを示す情報を、正面向き判定部312およびイニシャル方向検出部313に供給する。   In addition, the initial direction acquisition unit 311 displays information indicating that the initial direction is not registered when the initial direction corresponding to the face position of the driver 2 detected by the face detection unit 12 is not registered in the conversion table. And supplied to the front direction determination unit 312 and the initial direction detection unit 313.

正面向き判定部312は、ドライバ2の顔の向きの検出結果を示す情報を顔向き検出部14から取得する。また、正面向き判定部312は、顔向き検出装置301が設けられている車両の各種の動作を制御する図示せぬ車両制御部から、車両の各種の状態を示す情報を取得する。正面向き判定部312は、図22を参照して後述するように、ドライバ2の顔の向きの検出結果、および、車両の状態に基づいて、ドライバ2が正面(車両の前方の方向)を向いているか否かを判定し、判定結果を示す情報をイニシャル方向検出部313に供給する。   The front direction determination unit 312 acquires information indicating the detection result of the face direction of the driver 2 from the face direction detection unit 14. Further, the front direction determination unit 312 acquires information indicating various states of the vehicle from a vehicle control unit (not shown) that controls various operations of the vehicle in which the face direction detection device 301 is provided. As described later with reference to FIG. 22, the front direction determination unit 312 is based on the detection result of the face direction of the driver 2 and the state of the vehicle, and the driver 2 faces the front (the front direction of the vehicle). Information indicating the determination result is supplied to the initial direction detection unit 313.

イニシャル方向検出部313は、ドライバ2の顔の位置の検出結果を示す情報を顔検出部12から取得する。また、イニシャル方向検出部313は、ドライバ2の顔の向きの検出結果を示す情報を顔向き検出部14から取得する。イニシャル方向検出部313は、顔検出部12により検出されたドライバ2の顔の位置に対応するイニシャル方向が、記憶部15に記憶されている変換テーブルに登録されていない場合、図22を参照して後述するように、正面向き判定部312によりドライバ2が正面を向いていると判定された場合におけるドライバ2の顔の向きの統計をとることにより、イニシャル方向を検出する。イニシャル方向検出部313は、検出結果を示す情報を変換テーブル更新部314に供給する。   The initial direction detection unit 313 acquires information indicating the detection result of the face position of the driver 2 from the face detection unit 12. Further, the initial direction detection unit 313 acquires information indicating the detection result of the face direction of the driver 2 from the face direction detection unit 14. When the initial direction corresponding to the face position of the driver 2 detected by the face detection unit 12 is not registered in the conversion table stored in the storage unit 15, the initial direction detection unit 313 refers to FIG. As will be described later, the initial direction is detected by taking statistics of the orientation of the face of the driver 2 when the driver 2 determines that the driver 2 is facing the front. The initial direction detection unit 313 supplies information indicating the detection result to the conversion table update unit 314.

変換テーブル更新部314は、図16乃至図21を参照して後述するように、顔検出部12により検出された、入力画像におけるドライバ2の顔の位置、および、イニシャル方向検出部313により検出されたイニシャル方向に基づいて、変換テーブルを更新する。また、変換テーブル更新部314は、変換テーブルの更新結果を示す情報をイニシャル方向取得部311に供給する。   The conversion table update unit 314 is detected by the face position of the driver 2 in the input image detected by the face detection unit 12 and the initial direction detection unit 313 as described later with reference to FIGS. 16 to 21. The conversion table is updated based on the initial direction. Further, the conversion table update unit 314 supplies information indicating the update result of the conversion table to the initial direction acquisition unit 311.

次に、図14のフローチャートを参照して、顔向き検出装置301により実行される顔向き検出処理を説明する。   Next, face direction detection processing executed by the face direction detection device 301 will be described with reference to the flowchart of FIG.

なお、ステップS301乃至S304の処理は、上述した図8のステップS101乃至S104の処理と同様であり、その説明は繰り返しになるので省略する。   Note that the processing of steps S301 to S304 is the same as the processing of steps S101 to S104 of FIG. 8 described above, and the description thereof will be omitted because it will be repeated.

ステップS305において、上述した図8のステップS106の処理と同様に、ドライバ2の顔の向きが検出される。   In step S305, the face orientation of the driver 2 is detected in the same manner as in step S106 in FIG.

ステップS306において、上述した図8のステップS107の処理と同様に、ドライバ2の顔の向きが検出できたか否かが判定され、ドライバ2の顔の向きが検出できたと判定された場合、処理はステップS307に進む。   In step S306, similarly to the process of step S107 of FIG. 8 described above, it is determined whether or not the face direction of the driver 2 can be detected. If it is determined that the face direction of the driver 2 can be detected, the process is as follows. The process proceeds to step S307.

ステップS307において、イニシャル方向取得部311は、ドライバ2の顔の位置に対するイニシャル方向が登録されているか否かを判定する。具体的には、イニシャル方向取得部311は、記憶部15に記憶されている変換テーブルを読み出す。   In step S307, the initial direction acquisition unit 311 determines whether or not the initial direction with respect to the face position of the driver 2 is registered. Specifically, the initial direction acquisition unit 311 reads the conversion table stored in the storage unit 15.

図15は、変換テーブルの例を示す図である。なお、図15の変換テーブルにおいて、左方向および下方向の角度が示されている領域は、すでにイニシャル方向が登録されている領域である。例えば、右上隅の領域に対応するイニシャル方向は、左方向30°および下方向0°となる。また、斜線で示される領域は、イニシャル方向がまだ学習されておらず、イニシャル方向が未登録の領域である。   FIG. 15 is a diagram illustrating an example of a conversion table. In the conversion table of FIG. 15, the area where the leftward and downward angles are shown is an area where the initial direction has already been registered. For example, the initial direction corresponding to the upper right corner region is 30 ° leftward and 0 ° downward. Also, the area indicated by diagonal lines is an area where the initial direction has not yet been learned and the initial direction is not registered.

イニシャル方向取得部311は、顔検出部12により検出されたドライバの顔の位置に対応するイニシャル方向が変換テーブルに登録されていない場合、例えば、図15の例において、検出されたドライバ2の顔の位置が斜線で示される領域内である場合、ドライバ2の顔の位置に対するイニシャル方向が登録されていないと判定し、処理はステップS308に進む。   When the initial direction corresponding to the driver's face position detected by the face detection unit 12 is not registered in the conversion table, the initial direction acquisition unit 311, for example, in the example of FIG. If the position is within the hatched area, it is determined that the initial direction for the face position of the driver 2 is not registered, and the process proceeds to step S308.

ステップS308において、顔向き検出装置301は、変換テーブル学習処理を実行する。変換テーブル学習処理の詳細は、図16を参照して後述するが、この処理により、変換テーブルの学習が行われ、必要に応じて、変換テーブルが更新される。   In step S308, the face direction detection device 301 executes a conversion table learning process. The details of the conversion table learning process will be described later with reference to FIG. 16, but the conversion table is learned by this process, and the conversion table is updated as necessary.

ステップS309において、ステップS307の処理と同様に、ドライバ2の顔の位置に対するイニシャル方向が登録されているか否かが判定される。ドライバ2の顔の位置に対するイニシャル方向が登録されていると判定された場合、すなわち、ステップS308の変換テーブル学習処理により、検出されたドライバ2の顔の位置に対するイニシャル方向が変換テーブルに新たに登録された場合、処理はステップS310に進む。   In step S309, as in the process of step S307, it is determined whether the initial direction for the face position of the driver 2 is registered. If it is determined that the initial direction for the face position of the driver 2 is registered, that is, the initial direction for the detected face position of the driver 2 is newly registered in the conversion table by the conversion table learning process in step S308. If so, the process proceeds to step S310.

一方、S307において、顔検出部12により検出されたドライバの顔の位置に対応するイニシャル方向が変換テーブルに登録されている場合、例えば、図15の例において、検出されたドライバ2の顔の位置が斜線で示される領域以外の領域内である場合、ドライバ2の顔の位置に対するイニシャル方向が登録されていると判定され、ステップS308乃至S309の処理はスキップされ、すなわち、変換テーブル学習処理は行われずに、処理はステップS310に進む。   On the other hand, when the initial direction corresponding to the position of the driver's face detected by the face detection unit 12 is registered in the conversion table in S307, for example, the detected position of the face of the driver 2 in the example of FIG. Is in an area other than the area indicated by hatching, it is determined that the initial direction for the face position of the driver 2 is registered, and the processing of steps S308 to S309 is skipped, that is, the conversion table learning processing is performed. Instead, the process proceeds to step S310.

ステップS310において、イニシャル方向取得部311は、図8のステップS105の処理と同様に、顔検出部12により検出されたドライバの顔の位置に対応するイニシャル方向を、変換テーブルから取得する。   In step S310, the initial direction acquisition unit 311 acquires the initial direction corresponding to the position of the driver's face detected by the face detection unit 12 from the conversion table, as in the process of step S105 of FIG.

ステップS311において、上述した図8のステップS108の処理と同様に、検出されたドライバ2の顔の向きが、イニシャル方向を基準とする向きに変換される。   In step S311, the face orientation of the detected driver 2 is converted to a reference orientation with respect to the initial direction, as in the processing of step S108 in FIG. 8 described above.

ステップS312において、上述した図8のステップS109の処理と同様に、イニシャル方向を基準とするドライバの顔の向きを示す情報が、顔向き検出装置301の後段の装置に出力される。その後、処理はステップS315に進む。   In step S312, information indicating the driver's face orientation relative to the initial direction is output to a device subsequent to the face orientation detection device 301, as in the processing of step S109 of FIG. Thereafter, the process proceeds to step S315.

ステップS309において、ドライバ2の顔の位置に対応するイニシャル方向が登録されていないと判定された場合、すなわち、ステップS308の変換テーブル学習処理により、検出されたドライバ2の顔の位置に対するイニシャル方向が変換テーブルに登録されなかった場合、処理はステップS313に進む。   If it is determined in step S309 that the initial direction corresponding to the face position of the driver 2 is not registered, that is, the initial direction with respect to the detected face position of the driver 2 is determined by the conversion table learning process in step S308. If not registered in the conversion table, the process proceeds to step S313.

ステップS313において、変換部111は、イニシャル方向未登録を出力する。具体的には、イニシャル方向取得部311は、イニシャル方向が登録されていないことを示す情報を変換部111に供給する。変換部111は、イニシャル方向が未登録のためドライバ2の顔の向きが検出されなかったことを示すイニシャル方向未登録を通知する情報を、顔向き検出装置301の後段の装置に出力する。その後、処理はステップS315に進む。   In step S313, the conversion unit 111 outputs initial direction unregistered. Specifically, the initial direction acquisition unit 311 supplies the conversion unit 111 with information indicating that the initial direction is not registered. The conversion unit 111 outputs information notifying the initial direction unregistration indicating that the face direction of the driver 2 has not been detected because the initial direction is not registered, to a device subsequent to the face direction detection device 301. Thereafter, the process proceeds to step S315.

ステップS304において、ドライバ2の顔が検出できなかったと判定された場合、または、ステップS306において、ドライバ2の顔の向きが検出できなかったと判定された場合、処理はステップS314に進む。   If it is determined in step S304 that the face of the driver 2 cannot be detected, or if it is determined in step S306 that the face direction of the driver 2 cannot be detected, the process proceeds to step S314.

ステップS314において、上述した図8のステップS110の処理と同様に、検出エラーが出力される。その後、処理はステップS315に進む。   In step S314, a detection error is output in the same manner as in step S110 of FIG. Thereafter, the process proceeds to step S315.

ステップS315において、上述した図8のステップS111の処理と同様に、処理を終了するか否かが判定される。処理を終了しないと判定された場合、処理はステップS302に戻り、ステップS315において、処理を終了すると判定されるまで、ステップS302乃至S315の処理が繰返し実行される。   In step S315, it is determined whether or not the process is to be terminated, similar to the process in step S111 of FIG. 8 described above. If it is determined not to end the process, the process returns to step S302, and the processes in steps S302 to S315 are repeatedly executed until it is determined in step S315 that the process is to be ended.

ステップS315において、処理を終了すると判定された場合、顔向き検出処理は終了する。   If it is determined in step S315 that the process is to be terminated, the face orientation detection process is terminated.

次に、図16のフローチャートを参照して、図14のステップS308の変換テーブル学習処理の詳細を説明する。   Next, details of the conversion table learning process in step S308 of FIG. 14 will be described with reference to the flowchart of FIG.

ステップS331において、顔向き検出装置301は、イニシャル方向検出処理を実行する。イニシャル方向検出処理の詳細は、図22を参照して後述するが、この処理により、ドライバ2が正面を向いているか否かが判定され、ドライバ2が正面を向いていると判定された場合、現在のドライバ2の顔の位置に対応するイニシャル方向が検出される。また、検出結果を示す情報が、イニシャル方向検出部313から変換テーブル更新部314に供給される。   In step S331, the face orientation detection device 301 executes an initial direction detection process. Details of the initial direction detection process will be described later with reference to FIG. 22, but it is determined by this process whether or not the driver 2 is facing the front, and when it is determined that the driver 2 is facing the front, An initial direction corresponding to the current face position of the driver 2 is detected. Further, information indicating the detection result is supplied from the initial direction detection unit 313 to the conversion table update unit 314.

ステップS332において、変換テーブル更新部314は、イニシャル方向が検出された否かが判定される。イニシャル方向が検出されたと判定された場合、処理はステップS333に進む。   In step S332, the conversion table update unit 314 determines whether or not the initial direction has been detected. If it is determined that the initial direction has been detected, the process proceeds to step S333.

ステップS333において、変換テーブル更新部314は、登録済みのイニシャル方向と整合性が登録されているか否かを判定する。具体的には、変換テーブル更新部314は、変換テーブルを記憶部15から読み出す。変換テーブル更新部314は、イニシャル方向検出部313により検出されたイニシャル方向が、すでに変換テーブルに登録されているイニシャル方向と整合性が取れているか否かを調べる。   In step S333, the conversion table update unit 314 determines whether or not the registered initial direction and consistency are registered. Specifically, the conversion table update unit 314 reads the conversion table from the storage unit 15. The conversion table update unit 314 checks whether or not the initial direction detected by the initial direction detection unit 313 is consistent with the initial direction already registered in the conversion table.

ここで、図17を参照して、検出されたイニシャル方向と登録済みのイニシャル方向との整合性について説明する。図17は、変換テーブルの例を示す図である。なお、図17においては、入力画像が縦2×横3の合計6つの領域に分割される場合に対応する変換テーブルの例が示されている。   Here, the consistency between the detected initial direction and the registered initial direction will be described with reference to FIG. FIG. 17 is a diagram illustrating an example of a conversion table. Note that FIG. 17 shows an example of a conversion table corresponding to a case where the input image is divided into a total of six areas of 2 × 3 in the vertical direction.

例えば、図17の変換テーブルにおいて、領域331−1および331−6に対応するイニシャル方向が、まだ学習されていないため(未学習のため)登録されておらず、領域331−3乃至331−5に対応するイニシャル方向が登録済みである場合に、領域331−2に対応するイニシャル方向が新たに検出されたときについて考える。   For example, in the conversion table of FIG. 17, the initial directions corresponding to the regions 331-1 and 331-6 have not yet been learned (because they have not been learned), and are not registered, and the regions 331-3 to 331-5 are not registered. Let us consider a case where the initial direction corresponding to the region 331-2 is newly detected when the initial direction corresponding to is already registered.

領域331−2は、隣接する領域331−1および領域331−3と同じ行(同じ高さ)にあるので、領域331−2に対応するイニシャル方向の上下方向の向き(角度)は、領域331−1および領域331−3に対応するイニシャル方向の上下方向の向きに近くなると推定される。また、領域331−2は、隣接する領域331−5と同じ列(左右方向において同じ位置)にあるので、領域331−2に対応するイニシャル方向の左右方向の向きは、領域331−5に対応するイニシャル方向の左右方向の向きに近くなると推定される。   Since the region 331-2 is in the same row (same height) as the adjacent region 331-1 and region 331-3, the vertical direction (angle) in the initial direction corresponding to the region 331-2 is the region 331. -1 and the vertical direction of the initial direction corresponding to the region 331-3 are estimated to be close. Further, since the region 331-2 is in the same column (the same position in the left-right direction) as the adjacent region 331-5, the horizontal direction in the initial direction corresponding to the region 331-2 corresponds to the region 331-5. It is estimated that the initial direction is close to the horizontal direction.

例えば、いま、領域331−2に対応するイニシャル方向が、左方向35°および下方向20°と検出されたとすると、左右方向の向きについては、領域331−5に対応するイニシャル方向と同様であるが、上下方向の向きについては、領域331−3に対応するイニシャル方向の上下方向の向きとの差が15°となり、大きく異なっている。例えば、整合性が取れているか否かを判定する所定の閾値を±10°とした場合、検出された領域331−2に対応するイニシャル方向は、登録済みのイニシャル方向との整合性が取れていないと判定される。   For example, if the initial direction corresponding to the region 331-2 is detected as 35 ° leftward and 20 ° downward, the horizontal direction is the same as the initial direction corresponding to the region 331-5. However, regarding the vertical direction, the difference from the vertical direction in the initial direction corresponding to the region 331-3 is 15 °, which is greatly different. For example, when a predetermined threshold value for determining whether or not consistency is obtained is ± 10 °, the initial direction corresponding to the detected region 331-2 is consistent with the registered initial direction. It is determined that there is no.

このように、変換テーブル更新部314は、イニシャル方向取得部13により検出されたイニシャル方向(登録しようとする前記イニシャル方向)と、登録しようとするイニシャル方向に対応する領域(ドライバ2の顔の位置)の近傍の領域(位置)に対応するイニシャル方向との差が所定の閾値以内である場合、整合性が取れていると判定し、その差が所定の閾値を超えている場合、整合性が取れていないと判定する。   Thus, the conversion table update unit 314 has the initial direction detected by the initial direction acquisition unit 13 (the initial direction to be registered) and the area corresponding to the initial direction to be registered (the face position of the driver 2). ) If the difference from the initial direction corresponding to the region (position) in the vicinity of) is within a predetermined threshold, it is determined that consistency is achieved, and if the difference exceeds the predetermined threshold, the consistency is It is determined that it has not been removed.

ステップS333において、登録済みのイニシャル方向と整合性が取れていると判定された場合、処理はステップS334に進む。   If it is determined in step S333 that the registered initial direction is consistent, the process proceeds to step S334.

ステップS334において、変換テーブル更新部314は、検出されたイニシャル方向を変換テーブルに登録する。   In step S334, the conversion table update unit 314 registers the detected initial direction in the conversion table.

ステップS335において、変換テーブル更新部314は、変換テーブルを線形補間する。ここで、図18および図19を参照して、変換テーブルの線形補間について説明する。なお、図18は、線形補間前の変換テーブルの例を示し、図19は、線形補間後の変換テーブルの例を示している。また、図18および図19においては、入力画像が縦2×横4の合計8の領域に分割される場合に対応する変換テーブルの例が示されている。   In step S335, the conversion table update unit 314 performs linear interpolation on the conversion table. Here, the linear interpolation of the conversion table will be described with reference to FIGS. 18 shows an example of a conversion table before linear interpolation, and FIG. 19 shows an example of a conversion table after linear interpolation. 18 and 19 show examples of conversion tables corresponding to a case where the input image is divided into a total of 8 areas of 2 × 4 in the vertical direction.

図18の変換テーブルにおいて、領域332−1乃至332−3および332−6乃至332−8対応するイニシャル方向が、まだ学習されていないため登録されておらず、領域332−4に対応するイニシャル方向が登録済みである場合に、領域332−5に対応するイニシャル方向が新たに検出されたときについて考える。   In the conversion table of FIG. 18, the initial directions corresponding to the areas 332-1 to 332-3 and 332-6 to 332-8 are not registered because they have not yet been learned, and the initial directions corresponding to the area 332-4 are not registered. Is considered when the initial direction corresponding to the area 332-5 is newly detected.

上述したように、ドライバ2の顔の位置はほぼ2次平面上を移動するので、イニシャル方向は、入力画像におけるドライバ2の顔の位置にほぼ比例して変化すると仮定することができる。そのように仮定した場合、領域332−4と領域332−5の間にある領域332−1乃至332−3および332−6乃至332−8について、領域332−4および332−5に対応するイニシャル方向を用いて線形補間することが可能である。   As described above, since the position of the face of the driver 2 moves substantially on the secondary plane, it can be assumed that the initial direction changes almost in proportion to the position of the face of the driver 2 in the input image. Assuming that, for the regions 332-1 to 332-3 and 332-6 to 332-8 between the region 332-4 and the region 332-5, initials corresponding to the regions 332-4 and 332-5 Linear interpolation using the direction is possible.

すなわち、領域332−4と領域332−5の間において、縦方向および横方向について、位置の変化に対して、イニシャル方向がそれぞれ等間隔で変化すると仮定して、領域332−1に対応するイニシャル方向が、左方向45および下方向5°に設定され、領域332−2に対応するイニシャル方向が、左方向40°および下方向に5°に設定され、領域332−3に対応するイニシャル方向が、左方向35°および下方向5°に設定され、領域332−6に対応するイニシャル方向が、左方向40°および下方向10°に設定され、領域332−7に対応するイニシャル方向が、左方向に35°および下方向に10°に設定され、領域332−8に対応するイニシャル方向が、左方向30°および下方向5°に設定される。すなわち、変換テーブルに登録されているイニシャル方向を用いて、イニシャル方向が登録されていない領域(位置)に対応するイニシャル方向を線形補間することが可能である。   That is, in the vertical direction and the horizontal direction between the region 332-4 and the region 332-5, it is assumed that the initial direction changes at equal intervals with respect to the change in position. The direction is set to the left direction 45 and the downward direction 5 °, the initial direction corresponding to the region 332-2 is set to the left direction 40 ° and the downward direction 5 °, and the initial direction corresponding to the region 332-3 is set. The initial direction corresponding to the region 332-6 is set to the left direction 40 ° and the downward direction 10 °, and the initial direction corresponding to the region 332-7 is set to the left. The direction is set to 35 ° and the downward direction is set to 10 °, and the initial direction corresponding to the region 332-8 is set to the left direction 30 ° and the downward direction 5 °. That is, it is possible to linearly interpolate the initial direction corresponding to the region (position) where the initial direction is not registered, using the initial direction registered in the conversion table.

なお、イニシャル方向が等間隔ではない、所定の規則に従って変化する場合、例えば、二次関数、正弦関数などの所定の関数に従って変化することが分かっている場合、その規則に従って、イニシャル方向を補間するようにすることも可能である。   When the initial direction changes according to a predetermined rule that is not equally spaced, for example, when it is known that the initial direction changes according to a predetermined function such as a quadratic function or a sine function, the initial direction is interpolated according to the rule. It is also possible to do so.

また、この線形補間処理は、必ずしも行う必要はない。すなわち、線形補間処理を行わずに、実際の検出したイニシャル方向のみを変換テーブルに登録するようにしてもよい。   Further, this linear interpolation process is not necessarily performed. That is, only the actually detected initial direction may be registered in the conversion table without performing the linear interpolation process.

その後、処理はステップS337に進む。   Thereafter, the process proceeds to step S337.

ステップS333において、登録済みのイニシャル方向と整合性が取れていないと判定された場合、処理はステップS336に進む。   If it is determined in step S333 that the registered initial direction is not consistent, the process proceeds to step S336.

ステップS336において、変換テーブル更新部314は、イニシャル方向を消去する。例えば、図17の例のように、新たに検出された領域331−2に対応するイニシャル方向が、変換テーブルに登録済みのイニシャル方向と整合性が取れていない場合、変換テーブル更新部314は、図20に示されるように、検出されたイニシャル方向を、変換テーブルに登録せずに、そのまま消去する。すなわち、領域331−2に対応するイニシャル方向は未登録のままとなる。また、例えば、変換テーブル更新部314は、図21に示されるように、さらに、領域331−2に隣接する領域(領域331−1の近傍の位置)に対応するイニシャル方向を変換テーブルから消去する。   In step S336, the conversion table update unit 314 deletes the initial direction. For example, as in the example of FIG. 17, when the initial direction corresponding to the newly detected region 331-2 is not consistent with the initial direction registered in the conversion table, the conversion table update unit 314 As shown in FIG. 20, the detected initial direction is deleted as it is without being registered in the conversion table. That is, the initial direction corresponding to the region 331-2 remains unregistered. In addition, for example, as illustrated in FIG. 21, the conversion table update unit 314 further deletes the initial direction corresponding to the region adjacent to the region 331-2 (position near the region 331-1) from the conversion table. .

その後、処理はステップS337に進む。   Thereafter, the process proceeds to step S337.

ステップS332において、イニシャル方向が検出されなかったと判定された場合、処理はステップS337に進む。   If it is determined in step S332 that the initial direction has not been detected, the process proceeds to step S337.

ステップS337において、変換テーブル更新部314は、変換テーブルの更新結果をイニシャル方向取得部311に供給し、変換テーブル学習処理は終了する。   In step S337, the conversion table update unit 314 supplies the update result of the conversion table to the initial direction acquisition unit 311 and the conversion table learning process ends.

次に、図22のフローチャートを参照して、図16のステップS331のイニシャル方向検出処理の詳細を説明する。   Next, details of the initial direction detection processing in step S331 in FIG. 16 will be described with reference to the flowchart in FIG.

ステップS351において、正面向き判定部312は、車両が所定の速度以上で前進しているか否かを判定する。具体的には、正面向き判定部312は、顔向き検出装置301が設けられている車両の車両制御部から、車両の速度、および、車両のトランスミッション(動力伝達装置)のギアの位置を示す情報を取得し、取得した情報に基づいて、車両が所定の速度以上で前進しているか否かを判定する。車両が所定の速度以上で前進していると判定された場合、処理はステップS352に進む。   In step S351, the front direction determination unit 312 determines whether the vehicle is moving forward at a predetermined speed or higher. Specifically, the front direction determination unit 312 receives information indicating the vehicle speed and the gear position of the transmission (power transmission device) of the vehicle from the vehicle control unit of the vehicle in which the face direction detection device 301 is provided. And whether or not the vehicle is moving forward at a predetermined speed or higher is determined based on the acquired information. If it is determined that the vehicle is moving forward at a predetermined speed or more, the process proceeds to step S352.

ステップS352において、正面向き判定部312は、ドライバ2の顔の位置および向きの変化が所定の範囲以内である状態が所定の時間継続したか否かを判定する。具体的には、正面向き判定部312は、現在より所定の時間前のフレームから現在のフレームまでの間、ドライバ2の顔の位置が、変換テーブルにおける1つの領域内にあり、かつ、顔の向きの変化量が所定の範囲内(例えば、上下方向および左右方向において30°以内の範囲内)である場合、ドライバ2の顔の位置および向きの変化が所定の範囲以内である状態が所定の時間継続したと判定し、処理はステップS353に進む。すなわち、これは、車両が所定の速度以上で前進し、かつ、ドライバ2の顔の位置および向きの変化が所定の範囲以内である状態が所定の時間継続しており、ドライバ2が正面を向いている可能性が高い場合である。   In step S352, the front direction determination unit 312 determines whether or not the state where the change in the position and orientation of the face of the driver 2 is within a predetermined range has continued for a predetermined time. Specifically, the front orientation determination unit 312 determines that the face position of the driver 2 is within one area in the conversion table from the frame a predetermined time before the current frame to the current frame, When the amount of change in the orientation is within a predetermined range (for example, within a range of 30 ° in the vertical direction and the horizontal direction), the state in which the change in the position and orientation of the driver 2 is within the predetermined range is predetermined. It is determined that the time has continued, and the process proceeds to step S353. That is, this is because the state where the vehicle moves forward at a predetermined speed or more and the change of the face position and orientation of the driver 2 is within a predetermined range continues for a predetermined time, and the driver 2 faces the front. This is the case.

ステップS353において、イニシャル方向検出部313は、イニシャル方向を検出し、イニシャル方向検出処理は終了する。具体的には、正面向き判定部312は、ドライバ2が正面を向いていることを示す情報をイニシャル方向検出部313に供給する。イニシャル方向検出部313は、ドライバ2の顔の位置および向きの変化が所定の範囲以内である状態が所定の時間継続したときの、その所定の時間におけるドライバの顔の向きの統計をとることにより、イニシャル方向を求める。例えば、イニシャル方向検出部313は、その所定の時間における、ドライバ2の顔の向きの平均値、または、ドライバ2の顔の向きの分布におけるピーク値をイニシャル方向として求める。イニシャル方向検出部313は、検出結果を示す情報を変換テーブル更新部314に供給する。   In step S353, the initial direction detection unit 313 detects the initial direction, and the initial direction detection process ends. Specifically, the front direction determination unit 312 supplies information indicating that the driver 2 is facing the front to the initial direction detection unit 313. The initial direction detection unit 313 takes statistics of the driver's face orientation at a predetermined time when a change in the position and orientation of the driver 2 is within a predetermined range continues for a predetermined time. Find the initial direction. For example, the initial direction detection unit 313 obtains the average value of the face direction of the driver 2 or the peak value in the distribution of the face direction of the driver 2 as the initial direction at the predetermined time. The initial direction detection unit 313 supplies information indicating the detection result to the conversion table update unit 314.

ステップS351において、車両が所定の速度以上で前進していないと判定された場合、処理はステップS354に進む。   If it is determined in step S351 that the vehicle is not moving forward at a predetermined speed or higher, the process proceeds to step S354.

ステップS354において、正面向き判定部312は、計測値をリセットする。具体的には、正面向き判定部312は、ドライバ2の顔の位置および向きの変化が所定の範囲内である状態の継続時間の計測値をリセットし、再計測を開始する。   In step S354, the front direction determination unit 312 resets the measurement value. Specifically, the front direction determination unit 312 resets the measurement value of the duration time when the change in the position and orientation of the face of the driver 2 is within a predetermined range, and starts re-measurement.

ステップS352において、ドライバ2の顔の位置および向きの変化が所定の範囲内である状態が所定の時間継続していないと判定された場合、処理はステップS355に進む。   If it is determined in step S352 that the change in the face position and orientation of the driver 2 is within a predetermined range does not continue for a predetermined time, the process proceeds to step S355.

ステップS355において、イニシャル方向検出部313は、イニシャル方向が未検出であることを通知する。具体的には、正面向き判定部312は、ドライバ2が正面を向いていると判定できなかったことを示す情報を、イニシャル方向検出部313に供給する。イニシャル方向検出部313は、イニシャル方向が未検出であることを示す情報を変換テーブル更新部314に供給する。   In step S355, the initial direction detection unit 313 notifies that the initial direction has not been detected. Specifically, the front direction determination unit 312 supplies information indicating that the driver 2 cannot be determined to be facing the front to the initial direction detection unit 313. The initial direction detection unit 313 supplies information indicating that the initial direction has not been detected to the conversion table update unit 314.

このように、車種、カメラ11の設置位置、または、カメラ11と運転席の位置関係の違いに関わらず、それらの違いに対応した最適な変換テーブルを生成することができ、車種またはカメラ11の設置位置に個別に対応した変換テーブルを事前に準備する必要がなくなる。また、車種またはカメラ11の設置位置が異なっても、顔向き検出装置301に変更を加える必要がなく、部品の共通化やコストダウンを実現することができる。また、同じ車種において、例えば、ステアリングホイールの位置(いわゆる、右ハンドルまたは左ハンドル)などの仕様が異なっても、変更を加えずに顔向き検出装置301を使用することができる。   In this manner, regardless of the vehicle type, the installation position of the camera 11, or the positional relationship between the camera 11 and the driver's seat, an optimal conversion table corresponding to the difference can be generated. There is no need to prepare a conversion table corresponding to each installation position in advance. Further, even if the vehicle type or the installation position of the camera 11 is different, it is not necessary to change the face orientation detection device 301, and it is possible to realize common parts and cost reduction. Further, in the same vehicle type, for example, even if the specifications of the position of the steering wheel (so-called right handle or left handle) are different, the face direction detecting device 301 can be used without any change.

また、イニシャル方向が変換テーブルに登録されていない場合、未登録を示す情報が、後段の装置に出力されるため、後段の装置は、ドライバ2の顔の向きを用いた処理を無効にし、誤動作を防止することができる。また、イニシャル方向が学習された時点で、その処理を再開することができる。   In addition, when the initial direction is not registered in the conversion table, information indicating unregistration is output to the subsequent device, so the subsequent device invalidates the processing using the face direction of the driver 2 and malfunctions. Can be prevented. Further, when the initial direction is learned, the process can be resumed.

なお、図10の顔向き検出装置201と同様に、顔向き検出装置301に複数台のカメラを設けるようにしてもよい。図23は、顔向き検出装置301に、カメラ411を追加することにより、2台のカメラを用いてドライバ2の顔の向きを検出する顔向き検出装置401の実施の形態を示すブロック図である。   Note that a plurality of cameras may be provided in the face orientation detection device 301 as in the face orientation detection device 201 of FIG. FIG. 23 is a block diagram showing an embodiment of a face direction detection device 401 that detects the face direction of the driver 2 using two cameras by adding a camera 411 to the face direction detection device 301. .

顔向き検出装置401は、図13の顔向き検出装置301と比較して、カメラ11、顔検出部12、顔向き検出部14、記憶部15、変換部111、イニシャル方向取得部311、正面向き判定部312、イニシャル方向検出部313、および、変換テーブル更新部314を含む点で一致し、カメラ411を含む点で異なる。   Compared with the face direction detection device 301 in FIG. 13, the face direction detection device 401 is a camera 11, a face detection unit 12, a face direction detection unit 14, a storage unit 15, a conversion unit 111, an initial direction acquisition unit 311, and a front direction. They are identical in that they include a determination unit 312, an initial direction detection unit 313, and a conversion table update unit 314, and differ in that they include a camera 411.

顔向き検出装置401による顔向き検出処理の詳細の説明は省略するが、上述した顔向き検出装置301と同様の処理により、カメラ11およびカメラ411の両方の入力画像に対応する変換テーブルが学習され、2つのカメラおよび変換テーブルに基づいて、ドライバ2の顔の向きが検出される。これにより、ドライバ2の顔の向きの検出範囲を広げることができる。   Although detailed description of the face direction detection processing by the face direction detection device 401 is omitted, conversion tables corresponding to the input images of both the camera 11 and the camera 411 are learned by the same processing as the face direction detection device 301 described above. Based on the two cameras and the conversion table, the orientation of the face of the driver 2 is detected. Thereby, the detection range of the face direction of the driver 2 can be expanded.

なお、カメラを3台以上とすることももちろん可能である。   Of course, it is possible to use three or more cameras.

なお、本発明は、上述した例以外にも、例えば、各種の乗り物を運転または操作する人(例えば、自動車のドライバ、電車の運転士、航空機の操縦士、船舶の操縦士など)の顔の向きを検出する装置、工作機械の操作者の顔の向きを検出する装置などに適用することができる。   In addition to the above-described example, the present invention can be applied to, for example, the face of a person who drives or operates various vehicles (for example, a car driver, a train driver, an aircraft pilot, a ship pilot, etc.). The present invention can be applied to a device that detects the orientation, a device that detects the orientation of the face of the operator of the machine tool, and the like.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

図24は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータ900の構成の例を示すブロック図である。CPU(Central Processing Unit)901は、ROM(Read Only Memory)902、または記録部908に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)903には、CPU901が実行するプログラムやデータなどが適宜記憶される。これらのCPU901、ROM902、およびRAM903は、バス904により相互に接続されている。   FIG. 24 is a block diagram showing an example of the configuration of a personal computer 900 that executes the above-described series of processing by a program. A CPU (Central Processing Unit) 901 executes various processes according to a program stored in a ROM (Read Only Memory) 902 or a recording unit 908. A RAM (Random Access Memory) 903 appropriately stores programs executed by the CPU 901, data, and the like. The CPU 901, ROM 902, and RAM 903 are connected to each other by a bus 904.

CPU901にはまた、バス904を介して入出力インタフェース905が接続されている。入出力インタフェース905には、キーボード、マウス、マイクロホンなどよりなる入力部906、ディスプレイ、スピーカなどよりなる出力部907が接続されている。CPU901は、入力部906から入力される指令に対応して各種の処理を実行する。そして、CPU901は、処理の結果を出力部907に出力する。   An input / output interface 905 is also connected to the CPU 901 via the bus 904. The input / output interface 905 is connected to an input unit 906 made up of a keyboard, mouse, microphone, etc., and an output unit 907 made up of a display, a speaker, etc. The CPU 901 executes various processes in response to a command input from the input unit 906. Then, the CPU 901 outputs the processing result to the output unit 907.

入出力インタフェース905に接続されている記録部908は、例えばハードディスクからなり、CPU901が実行するプログラムや各種のデータを記憶する。通信部909は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。   The recording unit 908 connected to the input / output interface 905 includes, for example, a hard disk, and stores programs executed by the CPU 901 and various data. A communication unit 909 communicates with an external device via a network such as the Internet or a local area network.

また、通信部909を介してプログラムを取得し、記録部908に記憶してもよい。   Further, the program may be acquired via the communication unit 909 and stored in the recording unit 908.

入出力インタフェース905に接続されているドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア911が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記録部908に転送され、記憶される。   A drive 910 connected to the input / output interface 905 drives a removable medium 911 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives the program or data recorded therein. Get etc. The acquired program and data are transferred to and stored in the recording unit 908 as necessary.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図24に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア911、または、プログラムが一時的もしくは永続的に格納されるROM902や、記録部908を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部909を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 24, a program recording medium for storing a program that is installed in a computer and is ready to be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory, DVD (Digital Versatile Disc), a magneto-optical disk, a removable medium 911 which is a package medium composed of a semiconductor memory, a ROM 902 in which a program is temporarily or permanently stored, and a recording unit 908 It is comprised by the hard disk etc. which comprise. The program is stored in the program recording medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 909 that is an interface such as a router or a modem as necessary. Done.

なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program stored in the program recording medium is not limited to the processing performed in time series in the order described, but is not necessarily performed in time series. Or the process performed separately is also included.

さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   Furthermore, the embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.

本発明を適用した顔向き検出装置の第1の実施の形態を示すブロック図である。It is a block diagram which shows 1st Embodiment of the face direction detection apparatus to which this invention is applied. 図1の顔向き検出装置により実行される顔向き検出処理を説明するためのフローチャートである。It is a flowchart for demonstrating the face direction detection process performed by the face direction detection apparatus of FIG. 入力画像におけるドライバの顔の位置を説明するための図である。It is a figure for demonstrating the position of the face of a driver in an input image. カメラから見たドライバの顔の向きを説明するための図である。It is a figure for demonstrating direction of the face of the driver seen from the camera. ドライバ正面を向いている場合における顔の向きと入力画像におけるドライバの顔の位置との関係を模式的に示す図である。It is a figure which shows typically the relationship between the direction of the face in the case of facing the driver front, and the position of the face of the driver in an input image. 変換テーブルの例を示す図である。It is a figure which shows the example of a conversion table. 本発明を適用した顔向き検出装置の第2の実施の形態を示すブロック図である。It is a block diagram which shows 2nd Embodiment of the face direction detection apparatus to which this invention is applied. 図7の顔向き検出装置により実行される顔向き検出処理を説明するためのフローチャートである。It is a flowchart for demonstrating the face direction detection process performed by the face direction detection apparatus of FIG. 検出されたドライバの顔の向きをイニシャル方向を基準とする向きに変換する方法を説明するための図である。It is a figure for demonstrating the method to convert the direction of the face of the detected driver into the direction on the basis of an initial direction. 本発明を適用した顔向き検出装置の第3の実施の形態を示すブロック図である。It is a block diagram which shows 3rd Embodiment of the face direction detection apparatus to which this invention is applied. 図10のカメラの設置位置の例を示す図である。It is a figure which shows the example of the installation position of the camera of FIG. 図10の顔向き検出装置により実行される顔向き検出処理を説明するためのフローチャートである。It is a flowchart for demonstrating the face direction detection process performed by the face direction detection apparatus of FIG. 本発明を適用した顔向き検出装置の第4の実施の形態を示すブロック図である。It is a block diagram which shows 4th Embodiment of the face direction detection apparatus to which this invention is applied. 図13の顔向き検出装置により実行される顔向き検出処理を説明するためのフローチャートである。It is a flowchart for demonstrating the face direction detection process performed by the face direction detection apparatus of FIG. 変換テーブルの例を示す図である。It is a figure which shows the example of a conversion table. 図14のステップS308の変換テーブル学習処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the conversion table learning process of FIG.14 S308. 検出されたイニシャル方向と登録済みのイニシャル方向との整合性について説明するための図である。It is a figure for demonstrating the consistency with the detected initial direction and the registered initial direction. 変換テーブルの線形補間について説明するための図である。It is a figure for demonstrating the linear interpolation of a conversion table. 変換テーブルの線形補間について説明するための図である。It is a figure for demonstrating the linear interpolation of a conversion table. 変換テーブルからイニシャル方向を消去する方法を説明するための図である。It is a figure for demonstrating the method to erase | eliminate an initial direction from a conversion table. 変換テーブルからイニシャル方向を消去する他の方法を説明するための図である。It is a figure for demonstrating the other method of deleting an initial direction from a conversion table. 図16のステップS331のイニシャル方向検出処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the initial direction detection process of FIG.16 S331. 本発明を適用した顔向き検出装置の第5の実施の形態を示すブロック図である。It is a block diagram which shows 5th Embodiment of the face direction detection apparatus to which this invention is applied. パーソナルコンピュータの構成の例を示すブロック図である。And FIG. 11 is a block diagram illustrating an example of a configuration of a personal computer.

符号の説明Explanation of symbols

1 顔向き検出装置
2 ドライバ
11 カメラ
12 顔検出部
13 イニシャル方向取得部
14 顔向き検出部
15 記憶部
101 顔向き検出装置
111 変換部
201 顔向き検出装置
211 カメラ
301 顔向き検出装置
311 イニシャル方向取得部
312 正面向き判定部
313 イニシャル方向検出部
314 変換テーブル更新部
401 顔向き検出装置
411 カメラ
901 CPU
902 ROM
903 RAM
908 記録部
910 ドライブ
911 リムーバブルメディア
DESCRIPTION OF SYMBOLS 1 Face direction detection apparatus 2 Driver 11 Camera 12 Face detection part 13 Initial direction acquisition part 14 Face direction detection part 15 Memory | storage part 101 Face direction detection apparatus 111 Conversion part 201 Face direction detection apparatus 211 Camera 301 Face direction detection apparatus 311 Initial direction acquisition Unit 312 front direction determination unit 313 initial direction detection unit 314 conversion table update unit 401 face direction detection device 411 camera 901 CPU
902 ROM
903 RAM
908 Recording unit 910 Drive 911 Removable media

Claims (7)

運転席に座っているドライバを撮影した画像である入力画像におけるドライバの顔の位置である検出位置を検出する位置検出手段と、
前記入力画像における前記ドライバの顔の位置と、前記ドライバが運転中に正面を向いている場合の顔の向きであるイニシャル方向とが予め関連づけられているデータである変換データから、前記検出位置に対応する前記イニシャル方向を取得するイニシャル方向取得手段と
を含む情報処理装置。
Position detection means for detecting a detection position that is a position of the driver's face in the input image, which is an image obtained by photographing the driver sitting in the driver's seat;
From the conversion data, which is data in which the position of the driver's face in the input image and the initial direction, which is the face direction when the driver is facing the front during driving, is previously associated with the detected position An information processing apparatus comprising: initial direction acquisition means for acquiring the corresponding initial direction.
前記入力画像に基づいて検出された前記ドライバの顔の向きを、前記イニシャル方向を基準とする向きに変換する変換手段を
さらに含む請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, further comprising conversion means for converting a direction of the face of the driver detected based on the input image into a direction based on the initial direction.
前記入力画像に基づいて前記ドライバの顔の向きを検出する顔向き検出手段を
さらに含む請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, further comprising a face orientation detection unit that detects a face orientation of the driver based on the input image.
前記位置検出手段は、複数の方向から前記運転席に座っているドライバを撮影した複数の入力画像について前記検出位置を検出し、
前記イニシャル方向取得手段は、それぞれの前記入力画像に対応する前記変換データから、それぞれの前記入力画像における前記検出位置に対応する前記イニシャル方向を取得する
請求項1に記載の情報処理装置。
The position detection means detects the detection position for a plurality of input images obtained by photographing a driver sitting in the driver's seat from a plurality of directions,
The information processing apparatus according to claim 1, wherein the initial direction acquisition unit acquires the initial direction corresponding to the detection position in each input image from the conversion data corresponding to each input image.
運転席に座っているドライバを撮影した画像である入力画像におけるドライバの顔の位置である検出位置を検出する位置検出ステップと、
前記入力画像における前記ドライバの顔の位置と、前記ドライバが運転中に正面を向いている場合の顔の向きであるイニシャル方向とが予め関連づけられているデータである変換データからの、前記検出位置に対応する前記イニシャル方向の取得を制御するイニシャル方向取得制御ステップと
を含む検出方法。
A position detection step for detecting a detection position that is a position of the face of the driver in the input image, which is an image obtained by photographing the driver sitting in the driver's seat;
The detected position from the conversion data, which is data in which the position of the driver's face in the input image and the initial direction, which is the face direction when the driver faces the front during driving, are associated in advance. And an initial direction acquisition control step for controlling acquisition of the initial direction corresponding to.
運転席に座っているドライバを撮影した画像である入力画像におけるドライバの顔の位置である検出位置を検出する位置検出ステップと、
前記入力画像における前記ドライバの顔の位置と、前記ドライバが運転中に正面を向いている場合の顔の向きであるイニシャル方向とが予め関連づけられているデータである変換データからの、前記検出位置に対応する前記イニシャル方向の取得を制御するイニシャル方向取得制御ステップと
を含む情報処理をコンピュータに実行させるプログラム。
A position detection step for detecting a detection position that is a position of the face of the driver in the input image, which is an image obtained by photographing the driver sitting in the driver's seat;
The detected position from the conversion data, which is data in which the position of the driver's face in the input image and the initial direction, which is the face direction when the driver faces the front during driving, are associated in advance. A program that causes a computer to execute information processing including an initial direction acquisition control step that controls acquisition of the initial direction corresponding to the.
請求項6に記載のプログラムを記録した記録媒体。   A recording medium on which the program according to claim 6 is recorded.
JP2006069003A 2006-03-14 2006-03-14 Information processing device and method, recording medium, and program Pending JP2007249352A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006069003A JP2007249352A (en) 2006-03-14 2006-03-14 Information processing device and method, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006069003A JP2007249352A (en) 2006-03-14 2006-03-14 Information processing device and method, recording medium, and program

Publications (1)

Publication Number Publication Date
JP2007249352A true JP2007249352A (en) 2007-09-27

Family

ID=38593616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006069003A Pending JP2007249352A (en) 2006-03-14 2006-03-14 Information processing device and method, recording medium, and program

Country Status (1)

Country Link
JP (1) JP2007249352A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8098892B2 (en) 2007-10-22 2012-01-17 Denso Corporation Body position detecting apparatus
WO2014181510A1 (en) * 2013-05-07 2014-11-13 株式会社デンソー Driver state monitoring device and driver state monitoring method
WO2019177073A1 (en) * 2018-03-15 2019-09-19 いすゞ自動車株式会社 Detection device and detection system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0468500A (en) * 1990-07-09 1992-03-04 Toyota Motor Corp Vehicle driver monitoring device
JP2005182452A (en) * 2003-12-19 2005-07-07 Tokai Rika Co Ltd Device for detecting direction of face

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0468500A (en) * 1990-07-09 1992-03-04 Toyota Motor Corp Vehicle driver monitoring device
JP2005182452A (en) * 2003-12-19 2005-07-07 Tokai Rika Co Ltd Device for detecting direction of face

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8098892B2 (en) 2007-10-22 2012-01-17 Denso Corporation Body position detecting apparatus
WO2014181510A1 (en) * 2013-05-07 2014-11-13 株式会社デンソー Driver state monitoring device and driver state monitoring method
WO2019177073A1 (en) * 2018-03-15 2019-09-19 いすゞ自動車株式会社 Detection device and detection system
JP2019156256A (en) * 2018-03-15 2019-09-19 いすゞ自動車株式会社 Detection device and detection system
CN111801248A (en) * 2018-03-15 2020-10-20 五十铃自动车株式会社 Detection device and detection system
JP7063024B2 (en) 2018-03-15 2022-05-09 いすゞ自動車株式会社 Detection device and detection system

Similar Documents

Publication Publication Date Title
JP4831374B2 (en) Driving support device, driving support method, and driving support program
JP6058256B2 (en) In-vehicle camera attitude detection apparatus and method
US20090015668A1 (en) Three-dimensional model data confirming method, and three-dimensional model data confirming apparatus
JP2013033206A (en) Projection display device, information processing device, projection display system, and program
TW200523657A (en) Projector apparatus, projection method, and recording medium storing projection method
JP2009046026A (en) Driver&#39;s seat adjustment system
JP6237875B2 (en) Self-position calculation device and self-position calculation method
JP4867729B2 (en) Information processing apparatus and method, recording medium, and program
JP2006318272A (en) Vehicular object detection device and method
JP2009253921A (en) Imaging device, captured image recording method and program
JP2007249352A (en) Information processing device and method, recording medium, and program
WO2019187283A1 (en) Image processing device, image display system, and image processing method
JP2006279373A (en) Inclination correction for image maintaining image angle
JP6407596B2 (en) Image processing apparatus and driving support system
JP2007033087A (en) Calibration device and method
JP2006142897A (en) Display device for vehicle, and controlling method of display device for vehicle
JP2007302155A (en) On-vehicle microphone device and its directivity control method
JP2015179041A (en) Wheel shape measuring device and wheel shape measuring method
JP5272819B2 (en) Information processing apparatus and method, and program
JP2010183294A (en) Image processing apparatus, method of processing image, and program
JP7414850B2 (en) robot system
JP6459487B2 (en) Image processing apparatus, image processing method, and program
JP2011180962A (en) Drive assist device, drive assist method and program
JP6630118B2 (en) Imaging device and control method therefor, program, storage medium
JP2010233080A (en) Driving support device, driving support method, and driving support program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110726