JP2006253787A - Image input device and passenger monitoring device for vehicle provided with the same - Google Patents

Image input device and passenger monitoring device for vehicle provided with the same Download PDF

Info

Publication number
JP2006253787A
JP2006253787A JP2005063842A JP2005063842A JP2006253787A JP 2006253787 A JP2006253787 A JP 2006253787A JP 2005063842 A JP2005063842 A JP 2005063842A JP 2005063842 A JP2005063842 A JP 2005063842A JP 2006253787 A JP2006253787 A JP 2006253787A
Authority
JP
Japan
Prior art keywords
image
occupant
photographing
input device
image input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005063842A
Other languages
Japanese (ja)
Other versions
JP4840638B2 (en
Inventor
Yoshiyasu Adachi
省泰 安達
Takeshi Hayashi
健 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2005063842A priority Critical patent/JP4840638B2/en
Publication of JP2006253787A publication Critical patent/JP2006253787A/en
Application granted granted Critical
Publication of JP4840638B2 publication Critical patent/JP4840638B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image input device for acquiring the image information of an object as a recognition target by stabilizing it under prescribed conditions. <P>SOLUTION: The image input device 10 acquires the image information of the object existing near a prescribed position. The device is provided with a photographing means 2 for photographing the object, a displacement detection means 3 for detecting the displacement of the existing position of the object, and a control means 4 for controlling either of or both of a photographing direction and photographing magnification on the basis of the detection result of the displacement means 3. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、所定位置近傍に存在することが想定される対象物の画像情報を取得する画像入力装置に関する。また、所定位置として車両の座席に着座した乗員の顔を対象物として認識する車両の乗員監視装置に関する。   The present invention relates to an image input apparatus that acquires image information of an object that is assumed to exist in the vicinity of a predetermined position. The present invention also relates to a vehicle occupant monitoring device that recognizes a face of an occupant seated on a vehicle seat as a predetermined position as an object.

所定位置近傍に存在することが想定される対象物の画像情報を取得する画像入力装置の一例として、撮影モード切替機能を有したカメラがある。例えば、個人用のカメラで人物を被写体とし、スナップ写真などを撮影する際、対象物となる人物は、概ねカメラの前方2〜5m程度の位置に存在すると想定できる。また、現金自動支払機などに備えられた警備用、本人認証用のカメラの場合も、現金自動支払機を操作する人物、特に顔部分の存在位置が想定できる。同様に、車両において、運転者や助手席の着座者の顔の向き、視線の動きなどをモニタし、運転状況の変化を検知する乗員監視装置においても、乗員や、乗員の顔の位置が想定できる。   As an example of an image input device that acquires image information of an object that is assumed to exist in the vicinity of a predetermined position, there is a camera having a shooting mode switching function. For example, when taking a person with a personal camera as a subject and taking a snapshot or the like, it can be assumed that the person who is the target is approximately 2 to 5 m in front of the camera. Also, in the case of a security camera or a personal authentication camera provided in an automatic teller machine or the like, it is possible to assume a person who operates the automatic teller machine, particularly the position of a face portion. Similarly, occupant and occupant face positions are also assumed in occupant monitoring devices that detect changes in driving conditions by monitoring the driver's or passenger's face orientation, gaze movement, etc. it can.

このように、様々な場面において、所定位置近傍に存在することが想定される対象物の画像情報が取得され、その画像情報が活用されている。上記個人用のカメラにおいても、人物の顔部分を認識することによって色補正、赤目防止などが可能であり、人物の顔を認識する技術は非常に有益なものである。   As described above, in various scenes, image information of an object assumed to exist in the vicinity of a predetermined position is acquired, and the image information is utilized. Even in the above-described personal camera, it is possible to perform color correction, prevention of red eyes, etc. by recognizing a person's face part, and the technique for recognizing a person's face is very useful.

従って、人物の顔を認識する技術は、今日まで、種々提案されてきている。例えば、下記に示す特許文献1には、主としてヒューマノイド(Humanoid)型ロボットや、エンタテイメントロボット等において人物の顔を認識する技術が提案されている。これは、これらのロボットから見る人物の顔が傾いたり、向きが違っていたりするような場合であっても、高効率に顔を検出することを目的としたものである。この技術では、初めに、平均的な顔画像を示す所定サイズのテンプレート画像と、入力画像との相関を求める。そして、この平均的なテンプレート画像と入力画像との相関が低かった場合には、画面の垂直軸に対して所定の角度回転させたテンプレート画像を使用して相関を求める。このように、一つのテンプレート画像を回転させて相関を求める(マッチングする)ことにより、対象が正面顔でない場合でも、正面顔のテンプレートを用いてマッチングを可能とする。その結果、マッチング処理の速度が向上する、というものである。   Therefore, various techniques for recognizing a person's face have been proposed to date. For example, Patent Literature 1 shown below proposes a technique for recognizing a human face mainly in a humanoid robot, an entertainment robot, or the like. The purpose of this is to detect the face with high efficiency even when the face of the person seen from these robots is tilted or in a different direction. In this technique, first, a correlation between a template image having a predetermined size indicating an average face image and an input image is obtained. When the correlation between the average template image and the input image is low, the correlation is obtained using the template image rotated by a predetermined angle with respect to the vertical axis of the screen. Thus, by rotating one template image to obtain a correlation (matching), even if the target is not a front face, matching can be performed using a front face template. As a result, the speed of the matching process is improved.

特開2004−133637号公報(第9−11段落)Japanese Patent Laying-Open No. 2004-133737 (paragraph 9-11)

上記技術により、ある程度、テンプレートマッチングの速度向上が可能であるが、認識対象が回転以外の変化をした場合には、この速度向上効果が発揮されない。例えば、認識対象が、撮影手段(例えばカメラ)に対して前後方向に動いた場合、テンプレート画像の大きさと、認識対象の大きさとにズレが生じる。テンプレートマッチングの性格上、大きさにズレが生じた場合には、高い相関値を出すことはできない。これに対処する方法として、複数の大きさに対応したテンプレート画像を準備することができるが、処理時間を増大させる。処理時間を増大させないために、並行して複数の大きさに対応したテンプレート画像とのマッチングを行うと、装置の規模(電子回路の規模や、演算装置の数等)が増大する。   With the above technique, the template matching speed can be improved to some extent, but when the recognition target changes other than rotation, this speed improvement effect is not exhibited. For example, when the recognition target moves in the front-rear direction with respect to the photographing means (for example, a camera), there is a difference between the size of the template image and the size of the recognition target. Due to the nature of template matching, a high correlation value cannot be obtained if there is a deviation in size. As a method for dealing with this, template images corresponding to a plurality of sizes can be prepared, but the processing time is increased. If matching with a template image corresponding to a plurality of sizes is performed in parallel in order not to increase the processing time, the scale of the apparatus (the scale of the electronic circuit, the number of arithmetic units, etc.) increases.

本願発明はこのような課題に鑑みてなされたもので、認識対象となる対象物の画像情報を所定の条件の下に安定させて取得するための画像入力装置を提供することを目的とする。   This invention is made | formed in view of such a subject, and it aims at providing the image input device for acquiring stably the image information of the target object used as recognition object on a predetermined condition.

上記目的を達成するための本発明に係る画像入力装置の特徴構成は、
所定位置近傍に存在する対象物の画像情報を取得するものであって、
前記対象物を撮影する撮影手段と、前記対象物の存在位置の変位を検出する変位検出手段と、
この変位検出手段の検出結果に基づいて、撮影方向及び撮影倍率の何れか一方又は双方を制御する制御手段と、を備える点にある。
In order to achieve the above object, the characteristic configuration of the image input apparatus according to the present invention is as follows:
Obtaining image information of an object existing near a predetermined position,
An imaging means for imaging the object; a displacement detection means for detecting a displacement of an existing position of the object;
Control means for controlling either one or both of the photographing direction and the photographing magnification based on the detection result of the displacement detecting means.

この特徴構成によれば、制御手段が、対象物の存在位置の変位を検出した結果に基づいて、撮影方向や撮影倍率を制御する。即ち、撮影方向の制御としては、撮影手段による撮影方向の変更(パン、チルト、スイング)や、撮影された画像のシフトなどを行うことができる。また、撮影倍率の制御としては、撮影手段のレンズなど、光学系を変更することによる光学ズームや、撮影された画像を用いてのデジタルズームなどを行うことができる。その結果、認識対象となる対象物の画像情報を一定の条件の下に安定させることができ、この画像情報を利用した画像処理、例えば画像認識などを円滑に行うことができる。   According to this characteristic configuration, the control unit controls the shooting direction and the shooting magnification based on the result of detecting the displacement of the position where the object exists. That is, as the control of the photographing direction, the photographing direction can be changed (pan, tilt, swing) by the photographing means, and the photographed image can be shifted. Further, as control of the photographing magnification, an optical zoom by changing an optical system such as a lens of a photographing unit, a digital zoom using a photographed image, or the like can be performed. As a result, the image information of the object to be recognized can be stabilized under certain conditions, and image processing using the image information, for example, image recognition can be performed smoothly.

また、前記変位検出手段が、前記対象物と前記撮影手段との距離を検出する距離検出手段であり、前記制御手段が、この距離検出手段の検出結果に基づいて、前記撮影倍率を制御するものであると好ましい。   The displacement detecting means is a distance detecting means for detecting a distance between the object and the photographing means, and the control means controls the photographing magnification based on a detection result of the distance detecting means. Is preferable.

上述したように、対象物が所定位置近傍に存在することが想定される場合、この対象物の挙動を監視することができる。上記構成によれば、この監視を距離検出手段によって行う。そして、距離検出手段の検出結果に基づいて、撮影倍率を制御するので、対象物の画像情報を一定の条件の下に安定させることができる。   As described above, when it is assumed that the object exists in the vicinity of the predetermined position, the behavior of the object can be monitored. According to the above configuration, this monitoring is performed by the distance detection means. And since imaging magnification is controlled based on the detection result of a distance detection means, the image information of a target object can be stabilized on fixed conditions.

ここで、前記制御手段が、前記撮影倍率を、前記画像情報において前記対象物が所定の大きさとなるように定めると好適である。   Here, it is preferable that the control means determines the photographing magnification so that the object has a predetermined size in the image information.

このようにすれば、距離検出手段の検出結果に基づいて、制御手段が撮影倍率を制御するので、対象物の画像情報を一定の条件、即ち同程度の大きさの範囲内に安定させることができる。
上述した背景技術において、この検出結果に基づいてテンプレート画像を変更することもできるが、このためには複数の大きさに対応するテンプレート画像を記憶しておく必要がある。あるいは、検出結果に基づいて、テンプレート画像の大きさを変更する画像処理が必要となる。これらは、画像処理手段(装置、回路等)の大規模化や処理時間の増大の原因となる。
しかし、上記構成のように、撮影倍率を制御すれば、画像処理手段が扱う画像情報を安定化させることができる。また、画像処理と撮影倍率の制御とをいわゆるパイプライン処理することも可能である。
In this way, since the control unit controls the photographing magnification based on the detection result of the distance detection unit, the image information of the object can be stabilized within a certain condition, that is, within a range of the same size. it can.
In the background art described above, the template image can be changed based on the detection result, but for this purpose, it is necessary to store template images corresponding to a plurality of sizes. Alternatively, image processing for changing the size of the template image based on the detection result is required. These cause an increase in the scale of image processing means (devices, circuits, etc.) and an increase in processing time.
However, if the imaging magnification is controlled as in the above configuration, the image information handled by the image processing means can be stabilized. It is also possible to perform so-called pipeline processing for image processing and control of photographing magnification.

さらに、上記のような画像入力装置を、車両の座席に着座した乗員の顔を前記対象物として認識する車両の乗員監視装置に備えると好適である。   Furthermore, it is preferable that the image input device as described above is provided in a vehicle occupant monitoring device that recognizes the face of the vehicle occupant seated on the vehicle seat as the object.

車両を運転する乗員は、運転に際して所定の運転席に着座する。従って、対象物としての乗員は所定位置近傍に存在することが想定される。そして、この乗員の存在位置の変位、即ち挙動は運転中において、大きく変動することはない。従って、上述したような変位検出手段を用いることで、検出可能な変位の範疇に収まる。従って、例えば乗員の表情、顔の向き等、運転状況を監視するために、一定の箇所の画像情報を安定的に得ることが可能となる。その結果、画像処理手段の規模を抑え、高速な処理が可能で、精度のよい車両の乗員監視装置を得ることができる。   An occupant driving a vehicle is seated in a predetermined driver's seat when driving. Therefore, it is assumed that the occupant as an object exists in the vicinity of the predetermined position. The displacement of the occupant's position, that is, the behavior does not vary greatly during operation. Therefore, by using the displacement detection means as described above, it falls within the category of detectable displacement. Therefore, for example, in order to monitor the driving situation such as the occupant's facial expression, face orientation, etc., it is possible to stably obtain image information of a certain location. As a result, it is possible to obtain an accurate vehicle occupant monitoring apparatus capable of suppressing the scale of the image processing means and performing high-speed processing.

以下、本発明の実施形態について車両の乗員監視装置を例に図面に基づいて説明する。図1は、本発明の実施形態に係る車両に着座する乗員と、この乗員を撮影するカメラとの位置関係を説明する斜視図である。図1に示すように、乗員は車両内の運転席に着座し、運転姿勢を採っている。カメラ2は、本例ではルームミラー7に設置され、乗員の顔を含む頭部1をほぼ正面より撮影可能である。尚、乗員の頭部1をほぼ正面より撮影できれば、カメラ2の設置場所はここには限られない。運転席に備えられたサンバイザー部分や、その上部の天井部でもよい。各種メータ類が備えられるメータパネル部や、オーディオ類が備えられるダッシュボード部でもよい。   Embodiments of the present invention will be described below with reference to the drawings, taking a vehicle occupant monitoring device as an example. FIG. 1 is a perspective view illustrating the positional relationship between an occupant seated in a vehicle according to an embodiment of the present invention and a camera that photographs the occupant. As shown in FIG. 1, the occupant is seated in a driver seat in the vehicle and takes a driving posture. The camera 2 is installed in the room mirror 7 in this example, and can photograph the head 1 including the face of the occupant from almost the front. Note that the installation location of the camera 2 is not limited to this as long as the head 1 of the occupant can be photographed from almost the front. The sun visor part provided in the driver's seat or the ceiling part above it may be used. A meter panel unit provided with various meters or a dashboard unit provided with audios may be used.

乗員は、通常の運転姿勢において、運転席に着座し、前方を向いて車両を操作する。周囲の目視確認などで、多少姿勢を変更することがあっても、その頭部1は所定位置近傍に存在すると考えてよい。即ち、概ね運転席のヘッドレスト6付近に存在すると考えてよい。   In the normal driving posture, the occupant sits on the driver's seat and faces the front to operate the vehicle. Even if the posture is slightly changed by visual confirmation of the surroundings, the head 1 may be considered to be present in the vicinity of the predetermined position. In other words, it may be considered that the headrest 6 is approximately in the vicinity of the headrest 6 of the driver's seat.

図2は、図1のカメラ2から乗員を撮影した画像の一例を示す図である。図中、太枠Wに囲まれた範囲が撮影画像Pを示している。図2に示したように、比較的広範囲が映った撮影画像Pを用いて、乗員の顔を認識しようとすると、まず、この撮影画像Pの中から「頭部(1)」を抽出する必要がある。このとき、撮影画像Pに含まれるヘッドレスト6や窓8の形状を誤って「頭部」と判定するおそれもある。従って、撮影画像Pのように、広角の画像を用いると、処理時間の増大や、誤検出といった問題が懸念される。   FIG. 2 is a diagram illustrating an example of an image obtained by photographing an occupant from the camera 2 of FIG. In the figure, the range surrounded by the thick frame W indicates the captured image P. As shown in FIG. 2, when an occupant's face is to be recognized using a captured image P showing a relatively wide area, first, “head (1)” needs to be extracted from the captured image P. There is. At this time, the shape of the headrest 6 and the window 8 included in the captured image P may be erroneously determined as the “head”. Therefore, when a wide-angle image such as the photographed image P is used, there are concerns about problems such as an increase in processing time and erroneous detection.

そこで、このような問題を回避するため、撮影枠のほぼいっぱいに乗員の顔を捉えるようにする。人間の頭部の大きさは、個人差があるが著しく異なるものではない。従って、所定範囲の大きさを有して所定位置近傍に存在すると想定される被写体(対象物)である乗員の頭部1を安定して撮影枠のほぼいっぱいに捉えるようにする。   Therefore, in order to avoid such a problem, the occupant's face is captured almost entirely in the shooting frame. The size of the human head is not significantly different, although there are individual differences. Therefore, the occupant's head 1 that is a subject (object) that has a size within a predetermined range and is present in the vicinity of the predetermined position is stably captured almost completely in the imaging frame.

図3は、撮影枠のほぼいっぱいに対象物(乗員の顔)を撮影した画像の例を示す図である。図3に示した標準撮影画像P0には、ほぼ撮影枠の中心に乗員の頭部1が撮影されている。本実施形態のように取得した画像情報をデジタル的に画像処理するようなシステムの場合には、一般的にカメラ2としてデジタルカメラが用いられる。そして、一般にデジタルカメラは、撮影画像の縦横比が3対4の横長である。従って、乗員の姿勢が左右に多少変位しても、変位した乗員の頭部1A及び1Bは、標準撮影画像P0の範囲に収まる。   FIG. 3 is a diagram illustrating an example of an image obtained by photographing the object (occupant's face) almost entirely in the photographing frame. In the standard captured image P0 shown in FIG. 3, the occupant's head 1 is imaged approximately at the center of the imaging frame. In the case of a system that digitally processes acquired image information as in the present embodiment, a digital camera is generally used as the camera 2. In general, a digital camera is a landscape image whose aspect ratio is 3 to 4. Therefore, even if the occupant's posture is slightly displaced left and right, the displaced occupant's heads 1A and 1B are within the range of the standard captured image P0.

しかし、乗員の姿勢の変位は、上記のみではない。上下方向への変位や、前後方向への変位もある。そこで、本発明では、対象物となる乗員の頭部1の存在位置の変位を検出する変位検出手段を備え、この変位検出手段の検出結果に基づいて、撮影方向及び撮影倍率の何れか一方又は双方を制御している。   However, the displacement of the occupant's posture is not limited to the above. There are also displacements in the vertical direction and displacements in the front-rear direction. Therefore, in the present invention, displacement detection means for detecting the displacement of the position of the occupant's head 1 as the object is provided, and based on the detection result of the displacement detection means, either one of the shooting direction and the shooting magnification or Both sides are controlled.

図4は、このような画像入力装置を用いた車両の乗員監視装置のシステム構成を示す概略ブロック図である。図に示すように、画像入力部(画像入力装置)10は、カメラ2(撮影手段)と、変位検出手段としての距離センサ3(距離検出手段)と、制御部4(制御手段)とを備えている。距離センサ3は、赤外線等を利用した光学式距離センサや、超音波を利用したソナー式距離センサなど、よく知られたものを適宜用いることができる。本実施形態では、説明を容易にするために、変位検出手段として、光学式の距離センサ3を用いる場合を例として説明する。距離センサ3を用いると、被写体としての乗員の頭部1の前後方向の変位を検出することができる。尚、検知対象域を広角にして配置したり変位検出手段を複数用いたりすれば、前後方向以外に、上下方向や左右方向の変位も検出できる。   FIG. 4 is a schematic block diagram showing a system configuration of a vehicle occupant monitoring device using such an image input device. As shown in the figure, the image input unit (image input device) 10 includes a camera 2 (imaging unit), a distance sensor 3 (distance detection unit) as a displacement detection unit, and a control unit 4 (control unit). ing. As the distance sensor 3, a well-known device such as an optical distance sensor using infrared rays or a sonar distance sensor using ultrasonic waves can be used as appropriate. In the present embodiment, for ease of explanation, a case where an optical distance sensor 3 is used as a displacement detection unit will be described as an example. When the distance sensor 3 is used, it is possible to detect the displacement in the front-rear direction of the occupant's head 1 as a subject. If the detection target area is arranged at a wide angle or a plurality of displacement detection means are used, it is possible to detect the displacement in the vertical direction and the horizontal direction in addition to the front-rear direction.

カメラ2は、距離センサ3などの変位検出手段の検出結果に基づいて、制御部4で制御され、対象物としての乗員の頭部1を一定の大きさに保って撮影する。カメラ2には、図に示すように撮影画像制御手段50として、ズーム機構51や回転機構52を備えている。ズーム機構51は、カメラ2が有する光学系を変更することにより、焦点距離を変更し、被写体(乗員の頭部1)を撮影する倍率を変更するものである。   The camera 2 is controlled by the control unit 4 based on the detection result of the displacement detection means such as the distance sensor 3, and photographs the occupant's head 1 as an object while maintaining a constant size. The camera 2 includes a zoom mechanism 51 and a rotation mechanism 52 as the captured image control means 50 as shown in the figure. The zoom mechanism 51 changes the focal length by changing the optical system of the camera 2 and changes the magnification for photographing the subject (occupant's head 1).

回転機構52は、カメラ2が有する光学系(あるいはカメラ2全体)の方向をパン、チルト、スイングといった各方向に回転させるものである。ここで、パン、チルト、スイングは一般に用いられている用語と同様の意味で用いている。パン(pan)はカメラ2を水平に保ったまま垂直軸を中心に左右に回転するものである。チルト(tilt)はレンズの中心を軸として回転するものである。スイング(swing)は水平軸を中心に上下方向に回転するものである。   The rotation mechanism 52 rotates the direction of the optical system (or the entire camera 2) of the camera 2 in each direction such as pan, tilt, and swing. Here, pan, tilt, and swing are used in the same meaning as commonly used terms. The pan rotates the camera 2 left and right around the vertical axis while keeping the camera 2 horizontal. Tilt rotates around the center of the lens. Swing is a vertical rotation about a horizontal axis.

このように、変位検出手段によって検出された対象物の変位に応じて、制御部4がカメラ2の撮影方向(パン、チルト、スイング)及び撮影倍率(ズーム)の何れか一つ以上を変更する。つまり、回転機構52及びズーム機構51の何れか一つ以上を働かせて撮影画像P(画像情報)における乗員の頭部1が所定の大きさとなるようにする。   In this way, the control unit 4 changes one or more of the shooting direction (pan, tilt, swing) and the shooting magnification (zoom) of the camera 2 according to the displacement of the object detected by the displacement detection means. . That is, any one or more of the rotation mechanism 52 and the zoom mechanism 51 are operated so that the occupant's head 1 in the captured image P (image information) has a predetermined size.

この制御について、距離センサ3による検出結果に基づいて、撮影倍率を変更する場合を例にして以下に説明する。図5は、乗員の頭部1と距離センサ3との関係を示す説明図である。距離センサ3は、図5に示す検出範囲Sにおいて、対象物との距離を精度良く検出できるように調整されている。対象物は、所定位置近傍に存在するので、このようにある程度の検出範囲を絞って検出精度を高く設定することも可能である。   This control will be described below by taking as an example a case where the photographing magnification is changed based on the detection result by the distance sensor 3. FIG. 5 is an explanatory diagram showing the relationship between the occupant's head 1 and the distance sensor 3. The distance sensor 3 is adjusted so that the distance to the object can be detected with high accuracy in the detection range S shown in FIG. Since the object exists in the vicinity of the predetermined position, it is possible to narrow the detection range to some extent and set the detection accuracy high.

図5に示すように、検出範囲Sの中で、乗員の頭部1が標準位置にある場合、その距離は標準距離L0として検出されている。乗員の頭部1が前後方向に変位した場合、例えば、前方位置対象物1Cとなった場合には、その距離は接近距離L1として検出される。後方位置対象物1Dとなった場合には、その距離は離間距離L2として検出される。   As shown in FIG. 5, when the occupant's head 1 is in the standard position in the detection range S, the distance is detected as the standard distance L0. When the occupant's head 1 is displaced in the front-rear direction, for example, when it becomes the front position object 1C, the distance is detected as the approaching distance L1. In the case of the rear position object 1D, the distance is detected as the separation distance L2.

このように対象物との距離が検出されると、制御部4はこの距離に基づいて撮影倍率を制御する。つまり対象物が所定の大きさとなるように撮影倍率を定める。図6は、図5の各位置における撮影倍率の制御を説明する図である。撮影倍率は、乗員の頭部1が標準距離L0に存在する場合を基準として定められ、
撮影倍率=検出距離/標準距離L0 ・・・〔式1〕
で示される。
When the distance to the object is detected in this way, the control unit 4 controls the shooting magnification based on this distance. That is, the photographing magnification is determined so that the object has a predetermined size. FIG. 6 is a diagram for explaining the control of the photographing magnification at each position in FIG. The shooting magnification is determined based on the case where the head 1 of the passenger is present at the standard distance L0.
Shooting magnification = detection distance / standard distance L0 (Equation 1)
Indicated by

図6上段に示すように、乗員の頭部1が標準の位置よりも前方に存在する場合は、
撮影倍率=接近距離L1/標準距離L0 ・・・〔式2〕
で、定められ、
接近距離L1<標準距離L0 ・・・〔式3〕
であるので、撮影倍率は1よりも小さくなる。即ち、乗員の頭部1が前方に出て、撮影画像P中に大きく写ることになるので、縮小ズームされる。逆に、乗員の頭部1が標準の位置よりも後方に存在する場合は、図6下段に示すように、撮影倍率は1よりも大きくなる。これは式2において、接近距離L1に代えて、離間距離L2が代入されることから明らかである。
As shown in the upper part of FIG. 6, when the occupant's head 1 is ahead of the standard position,
Shooting magnification = approach distance L1 / standard distance L0 (Equation 2)
And
Approaching distance L1 <standard distance L0 (Equation 3)
Therefore, the photographing magnification is smaller than 1. That is, since the head 1 of the occupant comes out forward and appears large in the captured image P, the zoom is reduced. On the contrary, when the head 1 of the occupant is present behind the standard position, the photographing magnification is larger than 1 as shown in the lower part of FIG. This is clear from the fact that the separation distance L2 is substituted in the expression 2 instead of the approach distance L1.

このように、簡易な線形計算によって、安定した画像情報を得ることができる。上記計算例では、説明を容易にするために、カメラ2と距離センサ3とがほぼ同位置にあると仮定して説明している。カメラ2と距離センサ3とが同位置に設置されていない場合であっても、式1〜3よりは複雑ではあるものの、線形計算によって簡易に計算できる。   Thus, stable image information can be obtained by simple linear calculation. In the above calculation example, the description is made on the assumption that the camera 2 and the distance sensor 3 are substantially at the same position for easy explanation. Even when the camera 2 and the distance sensor 3 are not installed at the same position, although it is more complicated than the equations 1 to 3, it can be easily calculated by linear calculation.

例えば、図7に示すように、カメラ2と距離センサ3とが所定の設置距離L3離れて配置されている場合について説明する。この場合、標準の位置にある対象物(乗員の頭部1)と、カメラ2との距離f0は、標準距離L0と設置距離L3とを加算した値となる。また、前方位置対象物1Cとカメラ2との距離f1は、接近距離L1と設置距離L3とを加算した値となる。
図6(a)と同様に乗員の頭部1が標準の位置よりも前方に存在する場合は、
撮影倍率=(L1+L3)/(L0+L3) ・・・〔式4〕
で、定められ、式3より、撮影倍率は1よりも小さくなる。即ち、縮小ズームされることとなる。このように、この場合も簡易な線形計算によって、安定した画像情報を得ることができる。
For example, as shown in FIG. 7, a case where the camera 2 and the distance sensor 3 are arranged at a predetermined installation distance L3 will be described. In this case, the distance f0 between the object in the standard position (occupant's head 1) and the camera 2 is a value obtained by adding the standard distance L0 and the installation distance L3. Further, the distance f1 between the front position object 1C and the camera 2 is a value obtained by adding the approach distance L1 and the installation distance L3.
When the occupant's head 1 is in front of the standard position as in FIG.
Shooting magnification = (L1 + L3) / (L0 + L3) (Formula 4)
Therefore, from the formula 3, the photographing magnification is smaller than 1. That is, the zoom is reduced. Thus, stable image information can be obtained by simple linear calculation in this case as well.

さらに、カメラ2と距離センサ3とが対象物との前後方向だけでなく、横方向や上下方向にずれた位置に配置された場合も同様である。カメラ2と距離センサ3との配置関係は設計値又はこれらの設置時の実測値により既知である。従って、良く知られた三角測量等の線形計算によって、同様に算出すればよい。   Further, the same applies to the case where the camera 2 and the distance sensor 3 are arranged not only in the front-rear direction with respect to the object but also in a position shifted in the horizontal direction or the vertical direction. The arrangement relationship between the camera 2 and the distance sensor 3 is known from design values or measured values at the time of installation. Therefore, the calculation may be similarly performed by well-known linear calculation such as triangulation.

このように安定して得られた画像情報(撮影画像P0、P1、P2)は、図4に示すように、画像入力部10より画像処理部20へ送られ、ここで認識処理が行われる。認識結果は、判断部30で判断され、乗員の顔の向きや、表情などに応じて種々の判断(推定)がなされる。例えば、乗員の顔の向きにより脇見運転を推定したり、瞳や瞼の動きなどにより居眠りを推定したりすることも可能である。そして、この判断に応じて、乗員に報知・警告を発したり、車両の走行速度を制御したりするなど、種々の後処理を施すことも可能となる。   Image information (photographed images P0, P1, and P2) obtained stably as described above is sent from the image input unit 10 to the image processing unit 20 as shown in FIG. 4, where recognition processing is performed. The recognition result is determined by the determination unit 30, and various determinations (estimation) are made according to the direction of the occupant's face, facial expression, and the like. For example, it is possible to estimate aside driving based on the direction of the occupant's face, or to estimate doze based on the movement of the pupil or eyelid. In accordance with this determination, various post-processing such as issuing a notification / warning to the occupant or controlling the traveling speed of the vehicle can be performed.

尚、図4に示した車両の乗員監視装置40における各部は、機能としての分担を示すものであり、必ずしも物理的に独立したものを示すものではない。例えば、制御部4と画像処理部20と判断部30とは、一つのプロセッサや一つの半導体ICや一群の電子回路など、共通したハードウェアであってもよい。そして、このハードウェア上で実行されるプログラムなどのソフトウェアによって各機能を分担するものであれば充分である。   Note that each part in the vehicle occupant monitoring device 40 shown in FIG. 4 indicates the sharing as a function, and does not necessarily indicate a physically independent one. For example, the control unit 4, the image processing unit 20, and the determination unit 30 may be common hardware such as one processor, one semiconductor IC, or a group of electronic circuits. It is sufficient that each function is shared by software such as a program executed on the hardware.

カメラ2におけるズーム機構51、回転機構52についても同様である。ズーム機構51は、光学的なズームに限らず、電子ズーム(デジタルズーム)を用いる方法によってもよい。回転機構52についても、より広角画像を撮影して、その中より所定領域を切り出しているような場合には、その切り出し位置を変えてもよい。このようにデジタル信号処理による手法を用いる場合には、図8に示すように、カメラ2には撮影画像制御手段50を備えなくてもよい。つまり、別途、撮影画像補正部5を設け、これを撮影画像制御手段としてもよい。また、この撮影画像補正部5を画像処理部20の中に設けてもよい。さらに上記と同様に制御部4や判断部30と同一のハードウェアを兼用してもよい。これら各部は、上述したように必ずしも物理的に独立したものである必要はなく、各機能を分担するものであれば充分である。   The same applies to the zoom mechanism 51 and the rotation mechanism 52 in the camera 2. The zoom mechanism 51 is not limited to optical zoom, and may be a method using electronic zoom (digital zoom). The rotation mechanism 52 may also change the cut-out position when a wide-angle image is taken and a predetermined area is cut out from the image. When using the digital signal processing method as described above, the camera 2 does not need to include the captured image control means 50 as shown in FIG. In other words, the captured image correction unit 5 may be provided separately and used as the captured image control means. The captured image correction unit 5 may be provided in the image processing unit 20. Further, the same hardware as that of the control unit 4 and the determination unit 30 may be used in the same manner as described above. These parts do not necessarily have to be physically independent as described above, and may be sufficient if they share each function.

以上、説明したように本発明によって、認識対象となる対象物の画像情報を所定の条件の下に安定させて取得するための画像入力装置を提供することができる。また、この画像入力装置を利用して、所定位置として車両の座席に着座した乗員の顔を対象物として認識する車両の乗員監視装置を得ることができる。
さらに、本発明の画像入力装置は、現金自動支払機、自動預払機、年齢制限付き自動販売機(たばこ、酒等)等など、種々の自動化機器において、人物の顔を認識する場合の入力装置に利用できる。
As described above, according to the present invention, it is possible to provide an image input device for stably acquiring image information of an object to be recognized under a predetermined condition. Further, by using this image input device, a vehicle occupant monitoring device for recognizing the occupant's face sitting on the vehicle seat as a predetermined position as an object can be obtained.
Furthermore, the image input device of the present invention is an input device for recognizing a person's face in various automated devices such as a cash dispenser, automatic teller machine, age-limited vending machine (cigarette, liquor, etc.), etc. Available to:

本発明の実施形態に係る車両に着座する乗員と、この乗員を撮影するカメラとの位置関係を説明する斜視図The perspective view explaining the positional relationship of the passenger | crew seated in the vehicle which concerns on embodiment of this invention, and the camera which image | photographs this passenger | crew 図1のカメラから乗員を撮影した画像の一例を示す図The figure which shows an example of the image which image | photographed the passenger | crew from the camera of FIG. 図1のカメラから撮影枠のほぼいっぱいに対象物(乗員の顔)を撮影した画像の例を示す図The figure which shows the example of the image which image | photographed the target object (occupant's face) from the camera of FIG. 本発明の実施形態に係る画像入力装置及びこれを用いた車両の乗員監視装置のシステム構成例を示す概略ブロック図1 is a schematic block diagram showing an example of the system configuration of an image input apparatus according to an embodiment of the present invention and a vehicle occupant monitoring apparatus using the same. 本発明に係る対象物(乗員の頭部)と距離センサとの関係を示す説明図Explanatory drawing which shows the relationship between the target object (occupant's head) and distance sensor which concern on this invention 図5の各位置における撮影倍率の制御を説明する図FIG. 5 is a diagram for explaining control of photographing magnification at each position in FIG. カメラと距離センサとが離れて配置されている場合の撮影倍率の制御を説明する図The figure explaining control of photographing magnification when a camera and a distance sensor are arranged apart 本発明の実施形態に係る画像入力装置及びこれを用いた車両の乗員監視装置の他のシステム構成例を示す概略ブロック図1 is a schematic block diagram showing another system configuration example of an image input apparatus according to an embodiment of the present invention and a vehicle occupant monitoring apparatus using the same.

符号の説明Explanation of symbols

1 頭部(対象物)
2 カメラ(撮影手段)
3 距離センサ(変位検出手段)
4 制御部(制御手段)
10 画像入力装置
50 撮影画像制御手段
1 head (object)
2 Camera (photographing means)
3 Distance sensor (displacement detection means)
4 Control unit (control means)
10 Image input device 50 Photographed image control means

Claims (4)

所定位置近傍に存在する対象物の画像情報を取得する画像入力装置であって、
前記対象物を撮影する撮影手段と、
前記対象物の存在位置の変位を検出する変位検出手段と、
この変位検出手段の検出結果に基づいて、撮影方向及び撮影倍率の何れか一方又は双方を制御する制御手段と、を備える画像入力装置。
An image input device for acquiring image information of an object existing near a predetermined position,
Photographing means for photographing the object;
Displacement detecting means for detecting displacement of the position of the object;
An image input device comprising: control means for controlling either or both of the photographing direction and the photographing magnification based on the detection result of the displacement detecting means.
前記変位検出手段は、前記対象物と前記撮影手段との距離を検出する距離検出手段であり、前記制御手段は、この距離検出手段の検出結果に基づいて、前記撮影倍率を制御する請求項1に記載の画像入力装置。   The displacement detection unit is a distance detection unit that detects a distance between the object and the imaging unit, and the control unit controls the imaging magnification based on a detection result of the distance detection unit. The image input device described in 1. 前記制御手段は、前記撮影倍率を、前記画像情報において前記対象物が所定の大きさとなるように定める請求項1又は2に記載の画像入力装置。   The image input device according to claim 1, wherein the control unit determines the photographing magnification so that the object has a predetermined size in the image information. 請求項1から3の何れか一項に記載の画像入力装置を備え、車両の座席に着座した乗員の顔を前記対象物として認識する車両の乗員監視装置。   A vehicle occupant monitoring device comprising the image input device according to any one of claims 1 to 3 and recognizing a face of an occupant seated on a vehicle seat as the object.
JP2005063842A 2005-03-08 2005-03-08 Vehicle occupant monitoring device Expired - Fee Related JP4840638B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005063842A JP4840638B2 (en) 2005-03-08 2005-03-08 Vehicle occupant monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005063842A JP4840638B2 (en) 2005-03-08 2005-03-08 Vehicle occupant monitoring device

Publications (2)

Publication Number Publication Date
JP2006253787A true JP2006253787A (en) 2006-09-21
JP4840638B2 JP4840638B2 (en) 2011-12-21

Family

ID=37093840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005063842A Expired - Fee Related JP4840638B2 (en) 2005-03-08 2005-03-08 Vehicle occupant monitoring device

Country Status (1)

Country Link
JP (1) JP4840638B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008118482A (en) * 2006-11-06 2008-05-22 Horiba Ltd Camera unit for driving recorder
CN101510356B (en) * 2009-02-24 2011-07-20 上海高德威智能交通系统有限公司 Video detection system and data processing device thereof, video detection method
JP2014063329A (en) * 2012-09-21 2014-04-10 Nippon Telegr & Teleph Corp <Ntt> Video processor, video processing method and video processing program
JP2014161103A (en) * 2014-05-01 2014-09-04 Olympus Imaging Corp Imaging apparatus and control method therefor
CN111113394A (en) * 2019-12-19 2020-05-08 珠海格力电器股份有限公司 Manipulator positioning method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06178302A (en) * 1992-12-02 1994-06-24 Mitsubishi Electric Corp Driver photographing device
JPH07294795A (en) * 1994-04-27 1995-11-10 Victor Co Of Japan Ltd Zooming device
JPH0981756A (en) * 1995-09-14 1997-03-28 Mitsubishi Electric Corp Face image processor
JP2000224457A (en) * 1999-02-02 2000-08-11 Canon Inc Monitoring system, control method therefor and storage medium storing program therefor
JP2002027306A (en) * 2000-07-12 2002-01-25 Minolta Co Ltd Communication device having image transmission function
JP2003274257A (en) * 2002-03-13 2003-09-26 Matsushita Electric Ind Co Ltd Automatic dynamic-image filming system, automatic dynamic-image filming method, and automatic dynamic- image camera
JP2004287845A (en) * 2003-03-20 2004-10-14 Aisin Seiki Co Ltd Line-of-sight detector for vehicle driver

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06178302A (en) * 1992-12-02 1994-06-24 Mitsubishi Electric Corp Driver photographing device
JPH07294795A (en) * 1994-04-27 1995-11-10 Victor Co Of Japan Ltd Zooming device
JPH0981756A (en) * 1995-09-14 1997-03-28 Mitsubishi Electric Corp Face image processor
JP2000224457A (en) * 1999-02-02 2000-08-11 Canon Inc Monitoring system, control method therefor and storage medium storing program therefor
JP2002027306A (en) * 2000-07-12 2002-01-25 Minolta Co Ltd Communication device having image transmission function
JP2003274257A (en) * 2002-03-13 2003-09-26 Matsushita Electric Ind Co Ltd Automatic dynamic-image filming system, automatic dynamic-image filming method, and automatic dynamic- image camera
JP2004287845A (en) * 2003-03-20 2004-10-14 Aisin Seiki Co Ltd Line-of-sight detector for vehicle driver

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008118482A (en) * 2006-11-06 2008-05-22 Horiba Ltd Camera unit for driving recorder
JP4574608B2 (en) * 2006-11-06 2010-11-04 株式会社堀場製作所 Camera unit for driving recorder
CN101510356B (en) * 2009-02-24 2011-07-20 上海高德威智能交通系统有限公司 Video detection system and data processing device thereof, video detection method
JP2014063329A (en) * 2012-09-21 2014-04-10 Nippon Telegr & Teleph Corp <Ntt> Video processor, video processing method and video processing program
JP2014161103A (en) * 2014-05-01 2014-09-04 Olympus Imaging Corp Imaging apparatus and control method therefor
CN111113394A (en) * 2019-12-19 2020-05-08 珠海格力电器股份有限公司 Manipulator positioning method

Also Published As

Publication number Publication date
JP4840638B2 (en) 2011-12-21

Similar Documents

Publication Publication Date Title
JP6364627B2 (en) Gaze direction detection device and gaze direction detection method
JP5093611B2 (en) Vehicle periphery confirmation device
JP5099451B2 (en) Vehicle periphery confirmation device
US10227002B2 (en) Vehicle display system and method of controlling vehicle display system
JP2009113621A (en) Occupant picture photographing device, and driving assisting device
JP6573193B2 (en) Determination device, determination method, and determination program
JP2008001136A (en) Vehicle occupant seat detection system, operating device control system, and vehicle
US11455810B2 (en) Driver attention state estimation
JP2010033106A (en) Driver support device, driver support method, and driver support processing program
JP4840638B2 (en) Vehicle occupant monitoring device
CN110194173B (en) Occupant monitoring device
JP2020157938A (en) On-vehicle monitoring control device
JP2009265722A (en) Face direction sensing device
WO2018167995A1 (en) Driver state estimation device and driver state estimation method
JP2012022646A (en) Visual line direction detector, visual line direction detection method and safe driving evaluation system
JP2007253821A (en) Occupant imaging device
JP2006213146A (en) Face direction determination device of driver
US11919522B2 (en) Apparatus and method for determining state
JP2009287936A (en) Apparatus for detecting position of driver&#39;s eyeball
JP2007172509A (en) Face detection collation device
WO2019030855A1 (en) Drive incapability state determination device and drive incapability state determination method
JP2022012829A (en) Driver monitoring device and driver monitoring method
JP2009048261A (en) Camera system
JP2020144573A (en) Driver monitoring device
JP7258262B2 (en) Adjustment device, adjustment system, display device, occupant monitoring device, and adjustment method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101029

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110801

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110908

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110921

R151 Written notification of patent or utility model registration

Ref document number: 4840638

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141014

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees