JPS6166905A - Position of vehicle driver recognizing device - Google Patents

Position of vehicle driver recognizing device

Info

Publication number
JPS6166905A
JPS6166905A JP19040084A JP19040084A JPS6166905A JP S6166905 A JPS6166905 A JP S6166905A JP 19040084 A JP19040084 A JP 19040084A JP 19040084 A JP19040084 A JP 19040084A JP S6166905 A JPS6166905 A JP S6166905A
Authority
JP
Japan
Prior art keywords
image
driver
nose
image data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP19040084A
Other languages
Japanese (ja)
Inventor
Haruhiko Ogiso
治比古 小木曽
Yasuaki Katou
康聡 加藤
Akio Yasuda
彰男 安田
Hiroshi Ishikawa
浩 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
NipponDenso Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NipponDenso Co Ltd filed Critical NipponDenso Co Ltd
Priority to JP19040084A priority Critical patent/JPS6166905A/en
Publication of JPS6166905A publication Critical patent/JPS6166905A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To recognize the position of a vehicle driver precisely by comparing image data which is obtained by detecting an image with infrared light with standard data on a specific position which is stored previously. CONSTITUTION:This device is equipped with a light emitting part 5, image detection part 6, and image processing part 8; and the processing part 8 consists of an image input part 10 which stores an image signal as image data, irradiated signal output part 12, CPU14 which performs position recognition processing for recognizing the position of a driver's nose, etc., by detecting the nose tip, etc., of the driver from the image data, ROM16, RAM18, bus line 20 as a signal path, and electric power circuit 22. Then, when the image data (face) is read in the input part 10 in a step 101, a step 102 is entered and a picture element (nose tip) having higher than brightness is retrieved in the image data and stored. The position in the image where the degree of correlation between the standard pattern of the nose and data is maximum on the basis of the position of the picture element is found in a step 103 and regarded as the position where the nose is present, thereby determining the position of the nose.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は車両運転者の乗車状態を画像として捉え、該車
両運転者の車室内における4i1置を認識でる車両運転
者の位置認識装置に関し、特に車両運転者の所定部位の
(+7置を正確に認識でるよう構成された車両運転の(
Q問J1々置に関づるものである。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a vehicle driver position recognition device that captures the vehicle driver's riding condition as an image and recognizes the vehicle driver's position in the passenger compartment. In particular, the (+7 position) of the vehicle driver is configured to accurately recognize the (
Q: This is related to question J.

[tlY、来の技術] 近41電イ機器の急速な発達に伴い車両の操作↑−1、
層住竹、事故回避性等の白土を目的とした新しい装置の
研究が進められており、イの1つとして車両運転者の乗
車位置、例えば運転者の目の位置やDt+のイ?装置を
認識し、バックミラー、ヘッドレスト、空調空気の吹出
口、あるいはステアリング等の位置や角度を自動調整づ
るとか、運転者の目の位置X)頭の位置の周期的変化か
ら居眠り運転を検知して運転者に警報を与えるといった
ことが考えられている。そしてこのような制御を実行す
るのに必要な、車両運転者の乗車位置を認識するだめの
乗車位置認識装置としては、車両運転者の乗車状態を1
liWf&し、画像として検出づるカメラ等からなる画
像検出部と、その検出された画像をいわゆる画像処理に
よって分析し、画像上の運転者の目の位置亡頭の位置等
、予め定められた所定の位置を検出して、ぞの部分の中
室内における位置を算出する、マイクロ]ンピコータ等
から<<る画像髪1埋部とにより構成し、運転者の位置
を九■することが考えられている。
[tlY, future technology] With the rapid development of modern electric equipment, vehicle operation↑-1,
Research is progressing on new devices aimed at improving safety, such as layered bamboo and accident avoidance. It recognizes devices and automatically adjusts the position and angle of rearview mirrors, headrests, air-conditioned air outlets, steering wheels, etc., and detects drowsy driving based on periodic changes in the position of the driver's eyes and head. Consideration is being given to providing a warning to the driver. The riding position recognition device that recognizes the riding position of the vehicle driver, which is necessary to execute such control, is capable of recognizing the riding position of the vehicle driver.
liWf&, an image detection unit consisting of a camera, etc. that detects the image, and the detected image is analyzed by so-called image processing, and the driver's eye position, head position, etc. on the image are determined in advance. It is being considered that the driver's position can be determined by detecting the position of the driver and calculating the position of the driver in the middle chamber by using a micro-ampicoter or the like. .

[発明が解決しようとする問題点] 上述のバックミラー、ヘッドレスト、空調空気の吹出口
、あるいはステアリング等の位置や角度を自動調整4る
とか、運転者の目の位賀ヤ)rJflの(+’/置の周
期的変化から居眠り運転を検知して運転者に警報を与え
るといったことを実fi tJるためには、精度よく運
転者の所定部(D 、例えば目の(O置や鼻の位置等を
認識することが必要である。
[Problems to be solved by the invention] Automatic adjustment of the positions and angles of the above-mentioned rearview mirror, headrest, air outlet, steering wheel, etc. In order to detect drowsy driving based on periodic changes in the driver's position and give a warning to the driver, it is necessary to accurately detect certain parts of the driver (such as the eyes (O position, It is necessary to recognize the location etc.

本発明の目的は、精度よく運転者の所定部位を認識する
車両運転者のイひ置認識!!i胃を提供づることにある
The object of the present invention is to accurately recognize the position of a vehicle driver by recognizing a predetermined part of the driver! ! The purpose is to provide the stomach.

[問題点を解決でるための手段] 本発明の構成は、第1図に示す如く、 車両運転者■を照射づる発光手段■と、該発光手段■の
照射による1記運転者1からの反制光を受tノ、少なく
とも上記運転者の顔面部各画像データとして検知する画
像検出手段■と、該検知された画像データに「夕ける上
記運転者■の所定部位の特異点4CI置を検出する特異
点位置検出1段IVと、 」−配画像データにおける該検出された所定部位の特異
虚位1dの近傍のf−夕と、あらかじめ記憶されている
−に配所定部位の標準パターンのデータと、を該標準パ
ターンのデータの位置を上記画像データ上で変えながら
、比較して求めた相関が最大の(1′/首をもって所定
部位の位置とする位置認識手段Vと、 を鳥えたことを特徴どするF11両運転者の位置認識手
段を要旨とする。
[Means for Solving the Problems] As shown in FIG. an image detecting means (2) for detecting at least each image data of the driver's face when light control is received; 1st stage IV of singular point position detection to be carried out, ``--a position in the vicinity of the singular imaginary position 1d of the detected predetermined portion in the arranged image data, and pre-stored data of a standard pattern of the predetermined portion. While changing the position of the data of the standard pattern on the image data, the position recognition means V which has the maximum correlation obtained by comparing (1'/neck) is determined. The gist of this paper is a means for recognizing the position of F11 vehicle drivers, which is characterized by:

[実施例] 以下本発明の第1の実施例を図面と共に説明する。[Example] A first embodiment of the present invention will be described below with reference to the drawings.

第2図は本実施例の乗車位置認識装置が塔載された車両
のインストルメントパネル部分及びその周辺を表わJ斜
視図であって、1は運転者、2は運転席、3はインスト
ルメントパネルを表わしている。Yl、てインメトルメ
ン1〜パネル3の運転席=  5 − 2に対する左斜め前方、即ち、助手席側前方には、運転
者1の上体を左方向から照射する発光部5と、運転者1
の上体を左方向から2次元画像として促える画像検出部
6が設けられている。
FIG. 2 is a J perspective view showing the instrument panel and its surroundings of a vehicle on which the passenger position recognition device of this embodiment is mounted, in which 1 is a driver, 2 is a driver's seat, and 3 is an instrument panel. It represents a panel. A light emitting unit 5 that illuminates the upper body of the driver 1 from the left side and a light emitting unit 5 that illuminates the upper body of the driver 1 from the left side are located diagonally forward to the left of the driver's seat = 5-2 of the instrument panel 1 to panel 3, that is, in front of the passenger seat side.
An image detection unit 6 is provided that can generate a two-dimensional image of the upper body of the user from the left direction.

ここで発光部5は前述の発光手段■に相当し、照射時に
運転者1に眩しさを感じさせることのないよう赤外光を
発光でる赤外ストロボが用いられ、第3図に示す如く、
赤外発光体5aと、赤外発光体5aにて発光された赤外
光を広く運転者に照)Iする為のレンズ5bと、赤外光
を透過し、可視光を通さない赤外フィルタ5Cと、これ
ら赤外発光体5a、レンズ5b及び赤外フィルタ5Cを
格納し、インストルメントパネル3の所定の位置に取り
付けるためのケース5dとから構成されている。
Here, the light emitting unit 5 corresponds to the above-mentioned light emitting means (2), and an infrared strobe that emits infrared light is used so as not to dazzle the driver 1 when irradiating the light, as shown in FIG.
An infrared light emitter 5a, a lens 5b for broadly illuminating the driver with the infrared light emitted by the infrared light emitter 5a, and an infrared filter that transmits infrared light but blocks visible light. 5C, and a case 5d for storing the infrared emitter 5a, lens 5b, and infrared filter 5C and attaching them to a predetermined position on the instrument panel 3.

また画像検出部6は前述の画像検出手段■に相当し、第
4図に示す如く、赤外光を透過する赤外フィルタ6aと
、運転li1の上体画像を後述の固体藏像素了6eのa
m面に結@づるための焦点距頗が例えば12.5111
11のレンズ6bと、光用を調整するための液晶絞り素
子6Cと、液晶絞り素子−〇  − 6Cの絞りを自動調整4るために用いられ、液晶絞り索
F6cを透過する光Rを検出するフォトトランジスタ6
(1と、−1−記赤外フイルタロa、レンズ6h及σ液
晶絞り素子6Cを透過して結像されたIM薗而面にの映
像をスイッチング走査で電気信号として取り出す、フォ
トダイオードアレイとスイッチング回路とからなるMO
S形の固体撮像素子6eと、上記各部を格納し、インス
トルメントパネル3に取り付(〕るためのケース6tと
から構成される固体hメラが用いられている。
The image detecting section 6 corresponds to the above-mentioned image detecting means (2), and as shown in FIG. a
For example, the focal length for focusing on the m-plane is 12.5111
11 lens 6b, a liquid crystal aperture element 6C for adjusting the light, and a liquid crystal aperture element -〇- Used to automatically adjust the aperture of the 6C, and detect the light R passing through the liquid crystal aperture line F6c. Phototransistor 6
(1 and -1- A photodiode array and a switching system that take out the image formed on the IM plane after passing through the infrared filter a, the lens 6h, and the σ liquid crystal aperture element 6C as an electrical signal by switching scanning. MO consisting of circuit
A solid-state camera is used, which is composed of an S-shaped solid-state image sensor 6e and a case 6t for storing the above-mentioned parts and attaching them to the instrument panel 3.

次に本実施例の乗中位置認識装首の全体構成を第5図に
示すブロック図に基づぎ説明する。
Next, the overall configuration of the head position recognition device for riding while riding according to this embodiment will be explained based on the block diagram shown in FIG. 5.

図に示づ如く、本認識装置は−に2発光部5及び画像検
出部6の他に、画像検出部6にて捉えられた運転者1の
画像を処即し、運転者の位置(本実施例においでは鼻の
位置)を認識する画像処理部8をlaえている。そして
この画像処理部8は、上記画像検出部6を制御すると共
に、画像検出部6にて得られた画像信号をデジタル信号
に変換し、イの変換されたデジタル4:5号を画像デー
タとして一口記憶でるこのとのできる画像入力部10と
、」二記発光部5を発光させるための照(ト)信号を出
力する照射信号出力部12と、画像入力部10に−て△
/D変換され記憶された画像データから運転者1の顔面
部における所定部位の特異点位荀(本実施例では鼻大の
位置)を検出し、この特異点位貿から運転者1の鼻の位
iを認識するといった一連の位置認識処理を実行するセ
ントラルブロ廿ツシングユニット(CPU)1 ’lど
、CPLJ1’lにて位置認識処理を実行するためのI
、II Illプログラムやデータが予め記憶されたリ
ードAンリメ■す(ROM)16と、演算処理実1jの
ために用いられるデータ等が一時的に読みfEi ’a
されるラングlえアクセスメモリ(RAM)18と、」
−記各部を結び画像信号や一す罪信号の通路とされるパ
スライン20と、上記各部にTi源を供給する電源回路
22とから構成されている。また上記画像入力部10は
、画像検出部6に垂直同期信号及び水甲同明括8を発生
4る同期信号発生回路10aと、画像検出部6により得
られた画像信号を、例えば1フレー11当たりに横25
6.12’IOの画素の明度表わづデジタル4M号から
なる画像f−夕に変換する△/D変換回路101)と、
その変換された両像データを過去2フレ一ム分だけ記憶
することのできる画像データ記憶回路10cとから構成
されている。
As shown in the figure, this recognition device processes an image of the driver 1 captured by the image detection section 6 in addition to the second light emitting section 5 and the image detection section 6, and processes the driver's position (main position). In the embodiment, an image processing section 8 for recognizing the position of the nose is provided. The image processing section 8 controls the image detection section 6, converts the image signal obtained by the image detection section 6 into a digital signal, and uses the converted digital 4:5 as image data. An image input section 10 that can be used for one-click memory; an irradiation signal output section 12 that outputs an illumination signal for causing the light emitting section 5 to emit light;
The singular point position of a predetermined part of the face of the driver 1 (in this example, the position of the nose) is detected from the image data converted and stored, and from this singular point position, the position of the nose of the driver 1 is detected. There is a central processing unit (CPU) 1 that executes a series of position recognition processes such as recognizing the position i, and an I that executes position recognition processes in the CPLJ1
, II Ill A read memory (ROM) 16 in which programs and data are stored in advance, and a read memory (ROM) 16 in which data used for arithmetic processing 1j are temporarily read.
a rung access memory (RAM) 18 to be
- It is composed of a pass line 20 that connects each of the above sections and serves as a path for image signals and other signals, and a power supply circuit 22 that supplies a Ti source to each of the above sections. The image input section 10 also includes a synchronization signal generation circuit 10a that generates a vertical synchronization signal and a vertical synchronization signal 8 to the image detection section 6, and an image signal obtained by the image detection section 6, for example, for one frame 11. Hit horizontal 25
6. A Δ/D conversion circuit 101) that converts the brightness of the pixel of 12'IO into an image f-even consisting of digital 4M numbers,
It is comprised of an image data storage circuit 10c capable of storing the converted two-image data for the past two frames.

次に上記画像処理部8にて実行される位置認識処理の動
作について、第6図に示すフローチャートに沿って訂し
く説明する。尚この処理は一定周期の信号やスイッチか
らの信号等によって運転者1の位*a識の要求が入力さ
れた場合に実行されるものであり、上述した如く本実施
例においては運転者1の位置として鼻の位置が認識され
ることとなる。
Next, the operation of the position recognition process executed by the image processing section 8 will be explained in detail with reference to the flowchart shown in FIG. Note that this process is executed when a request for driver 1's position *a is inputted by a signal of a certain period or a signal from a switch, etc., and as described above, in this embodiment, the The position of the nose will be recognized as the position.

図に示す如く処理が開始されるとまずステップ101が
実行され、画像検出部6において、発光部5を発光した
際に画像が検出されるよう、発光部5に照射信号を出力
すると共に、その検出される画像を画像入力部10にお
いてデジタル信号からなる画像データGとして記憶する
、画像データ読み込み!l!1即を実行する。
As shown in the figure, when the process is started, step 101 is first executed, and the image detection section 6 outputs an irradiation signal to the light emitting section 5 so that an image is detected when the light emitting section 5 emits light. Image data reading in which the detected image is stored in the image input unit 10 as image data G consisting of digital signals! l! 1 Execute immediately.

−〇  − ここで画像入力部10は、同期伯8発t[回路IQa1
△/D変換回路10;)及び画像データ記憶回路10C
を備えており、同期信8発牛回路10aより出力される
垂直同期信号及び水平同期信号に従い画像検出部6を1
111wシ、画像検出部6から出力される画像信号を順
次取り込み△/D変換回路101)を介してデジタル信
号に変換された画像信号を、画像データGとして配憶回
路10Cに記憶することができるので、本画像データ読
み込み処理としては、画像入力部104!:動作させ、
同期信号発生回路10aから出力されるν【直同明借上
と同期して発光部5を発光するだ()で容易に実行する
ことができる。つまり第7図に示す如く、J:ず垂直同
期信号の立ち上がり簡明toより所定時間Δ丁経過後発
光部5に照射18号Sを出力J−ることによって垂直帰
線簡明Δt1ど一致して発光部5を発光させ、その発光
によって11られる画像を画像データGとして読み込む
といった処理が実行されるのである。
−〇 − Here, the image input unit 10 outputs the synchronized 8 shots t[circuit IQa1
Δ/D conversion circuit 10;) and image data storage circuit 10C
The image detecting section 6 is operated in accordance with the vertical synchronizing signal and the horizontal synchronizing signal outputted from the eight synchronizing signal generating circuit 10a.
111w, the image signals output from the image detection unit 6 are sequentially taken in and converted into digital signals via the Δ/D conversion circuit 101), and the image signals can be stored as image data G in the storage circuit 10C. Therefore, as the main image data reading process, the image input unit 104! : operate,
This can be easily carried out by causing the light emitting unit 5 to emit light in synchronization with ν output from the synchronization signal generating circuit 10a. In other words, as shown in FIG. 7, after a predetermined time Δt has elapsed since the rising edge of the vertical synchronizing signal J-, the irradiation unit 5 is outputted with irradiation No. 18 S, thereby emitting light in coincidence with the vertical retrace Δt1. A process is executed in which the unit 5 emits light and the image 11 produced by the light emission is read as image data G.

尚、上記画像入力部10にてA/D変換され記憶される
画!%ゲータGは、前述したように画像検出部6にて得
られた画像を横256、縦240に分割Jる画素の明度
を表わすものであり、第8図に示1如く各画素1むにそ
の明1!IG (x 、 v )が記憶されている。
Note that the image is A/D converted and stored in the image input section 10! As mentioned above, the %gator G represents the brightness of the pixels that are divided into 256 horizontally and 240 vertically the image obtained by the image detection unit 6, and each pixel is divided into 1 mm as shown in FIG. That light 1! IG (x, v) is stored.

このようにステップ101にて発光部5、画像検出部6
及び画像入力部10が制動され、画像入力部10におい
て画像データGが読み込まれると続くステップ102が
実行され、画像データGにおける予め設定された所定の
エリア、つまり第9図に示づ30の領域を鼻の存在域と
し、この領域内の最0ノ「側に存在する一定レベル以上
の明度を右する画素を検索し、その位置を記憶するとい
った輝点検索処理が行なわれる。この処理は次ステツプ
103にて運転者1の寿の位置を検出する際に、鼻を1
!!!1範囲を限定するための処理であって、求められ
た画素の位置が鼻を捜すための基点とされる。尚、木評
点検索処理どしては、第9図の鼻存在1jJ 30にお
けるH−ト端の画素を出発点として、上下方向に順次検
索してゆき、最初の一定しペル以上の明度を有づる画素
の位置を配憶Jることによって実行できる。
In this way, in step 101, the light emitting section 5, the image detecting section 6
When the image input unit 10 is braked and the image data G is read in the image input unit 10, the subsequent step 102 is executed, and the area 30 shown in FIG. is defined as the area where the nose exists, and a bright spot search process is performed in which a pixel with a brightness of a certain level or higher that exists on the 0th side of this area is searched and its position is memorized.This process is as follows. When detecting the position of the driver 1 in step 103, the driver 1's nose is
! ! ! This is a process for limiting one range, and the determined pixel position is used as the base point for searching for the nose. In addition, in the tree score search process, etc., the pixel at the H-to end in nose existence 1jJ30 in FIG. This can be done by memorizing the position of the pixel.

このように輝点検索が実行され、鼻存在域の最も左側に
存在する一定レベル以上の明度を右づる画素の位置が求
められると、−に連したように続くステップ103にて
、この(f/1iltを基点として鼻を捜し、鼻の位置
を決定する処理がなされるのであるが、この処理は、輝
点検索によって求められた画素の近傍で、予め設定され
ているWIio図に示す如き鼻の標準パターンと画像デ
ータとの相関の度合いを調べ、相関の最大w1となる画
像のlit ”aを以て寿が存在する位置であるとみな
し、鼻の位置を決定づるものである。
When the bright point search is executed in this way and the position of the pixel that exists on the leftmost side of the nose region and has a brightness of a certain level or more to the right is found, in step 103, which follows from -, this (f /1ilt is used as a base point to search for the nose and determine the position of the nose. The degree of correlation between the standard pattern and the image data is examined, and the image with the maximum correlation w1 is regarded as the position where Kotobuki exists, and the position of the nose is determined.

つまり、上記ステップ102にて求められた画素の位置
G (x 、 y )を中心に、第11図に示1如く上
下、左右に夫々5画素分、計121個の画素を、夫々第
10図に示した寿のl1tl!パターンにおIフる中心
位j1m  (0,O)として画像データと標準パター
ンとの相関値をit !? シ、その値がm し大きく
なった画素位置を鼻の位置G (hx、 hy)として
認識するのである。ここで、第10図の鼻の4!準パタ
ーンにおける中心位@+a  (0,O)は鼻に相当ゴ
る部分として予め設定されており、また相関値としては
次式 %式%) より求めることができる。そして上記i及びjの賄とし
ては、寿の標準パターンが中心m  (0,O)に対し
て上に16、下に7、ノtに1、右に6の拡がりを持つ
データとして構成されていることがら、iに(−1)か
ら<−+−6)、jに(−16>から(+7)の間の整
数値を用いればよい。
In other words, centering on the pixel position G (x, y) determined in step 102 above, as shown in FIG. Kotobuki's l1tl shown in! The correlation value between the image data and the standard pattern is set as the center position j1m (0, O) on the pattern. ? The pixel position whose value increases by m is recognized as the nose position G (hx, hy). Here, number 4 on the nose in Figure 10! The center position @+a (0, O) in the quasi-pattern is set in advance as a part corresponding to the nose, and the correlation value can be obtained from the following formula. As for the above i and j, Kotobuki's standard pattern is configured as data with a spread of 16 above, 7 below, 1 at t, and 6 to the right with respect to the center m (0, O). Therefore, it is sufficient to use an integer value between (-1) and <-+-6) for i and between (-16> and (+7)) for j.

また相関値が、鼻の標準パターンにおける中心位vIJ
II(0,0)ニ対シテ、第11図に示を如ぎ画像デー
タ十の画素G (X 、 V )を中心とする上下、左
右に夫々5個、計121個の画素を当てはめ、3制御さ
れることから、上式にお番プるX1Yの埴としては、人
々、Xが×±5、Yがy±5の間の整数値どなり、結局
X及びYの組み合わせで最大121秤類の相関111I
が搾出され、その最大値となる画像データ」〕の画素G
(X、Y)が鼻の位置−13= G (hx、 hy)として検出されるのである。
Also, the correlation value is the central position vIJ in the standard pattern of the nose.
II (0,0), as shown in Fig. 11, apply a total of 121 pixels, 5 each to the top, bottom, left and right of the image data 10 pixel G (X, V) as the center, 3 Since it is controlled, the numbers of X1Y that can be used in the above formula are as follows: X is an integer value between ×±5 and Y is an integer value between y±5, and in the end, the combination of X and Y has a maximum of 121 scales. Correlation 111I
pixel G
(X, Y) is detected as the nose position - 13 = G (hx, hy).

以上説明した如く、本実施例の車両運転者の位置認識装
置においては、所定部位をJする際に、その所定部位の
標準パターンを用いて実行するよう構成されているので
、所定部位の(1′/illを誤って認識することなく
、より正確に乗車位置を認識づることができるようにな
る。
As explained above, the vehicle driver position recognition device of the present embodiment is configured to use the standard pattern of the predetermined region when performing J on the predetermined region. It becomes possible to more accurately recognize the riding position without erroneously recognizing '/ill.

次に本発明の第2の実施例を図面と共に説明づる。Next, a second embodiment of the present invention will be described with reference to the drawings.

本実施例では、第1の実施例により認識された車両運転
者1の鼻の位置を基にして、車両運転者1の鼻を除く所
定部位の特異点(本実施例では目の中心)の位置及び所
定部位(本実施例では目)の位置を認識する。
In this embodiment, based on the position of the nose of the vehicle driver 1 recognized in the first embodiment, a singular point (in this embodiment, the center of the eye) of a predetermined part of the vehicle driver 1 other than the nose is detected. The position and the position of a predetermined part (in this example, the eyes) are recognized.

本実施例にて実行される位置認識装置の動作について、
第12図に示すフローチャートに治って詳しく説明する
。尚、本実施例のステップ201、ステップ202及び
ステップ203は第1の実施例におけるステップ101
、ステップ102及びステップ103と同様であるので
説明を省略Jる。
Regarding the operation of the position recognition device executed in this example,
This will be explained in detail with reference to the flowchart shown in FIG. Note that steps 201, 202, and 203 in this embodiment are the same as step 101 in the first embodiment.
, step 102 and step 103, so the explanation will be omitted.

=  14  − ステップ201、ステップ202及びステップ203を
順次実行することによって鼻の位置G(hx、 hy)
が求められると、続くステップ204に移行して、今1
復はこの鼻の位置G (hx、 hy>に基づき目の(
◇置を求めることどなる。ここで目の10置を求めるに
当っては、まず鼻の位置Q(hx。
= 14 − Nose position G(hx, hy) by sequentially executing steps 201, 202, and 203
is required, the process moves to the following step 204 and
Based on this nose position G (hx, hy>), the eyes (
◇They yelled when they asked for a place. To find the 10 positions of the eyes, first find the position of the nose Q (hx).

by)より右に12画素、上に13両県移行した画素の
位ff1G (hX+ 12 、 hl/ −13) 
’Fr求メ、コ(r)位置の近傍で予め設定されている
第13図に示す如ぎ目の標準パターンと画像データとの
相関の度合を調べ、目のイ☆tiG (mx、 l1y
)を決定でる。尚この決定方法としては、第1の実施例
におけるスフツブ103の鼻の位置決定と同様に行なえ
ばよいので、説明は省略する。
by) 12 pixels to the right and 13 pixels above ff1G (hX+ 12, hl/ -13)
The degree of correlation between the image data and the standard pattern of the eyes shown in Fig. 13, which is set in advance near the position of
) can be determined. Note that this determination method may be carried out in the same manner as the position determination of the nose of the stub 103 in the first embodiment, so the explanation thereof will be omitted.

続くステップ205においては、上記ステップ204に
て求められた画素データG上の目の位置(3(a+x、
 my)を基に、運転者1の左右方向の移動はないもの
として中室内における運転者1の目の3次元(Onを節
用づる処理が実(jされる。つまり第14図に示す運転
者1の左右(Z)方向への移動はないものと仮定し、実
験により求めた当該小山における運転者の目(左目)の
標準的<i位iff I)を基準とする座標系を考えて
運転者10口(hI”l )の3次元位置Mを座標(X
、Y、O)として求めることにより目の位置が認識され
るのであるがこの処理としては、上記画像検出部5が固
定されていることから、画像データ上の標準点Pの位W
IG(px、 py)を予め記憶しておき、この基準位
11G(px、 py)に対する目の位置G (IIX
、 mV)のずれを算出することによって、容易に実行
することができる。
In the following step 205, the eye position (3(a+x,
my), and assuming that the driver 1 does not move in the left-right direction, a process is carried out that uses the three-dimensional (On) of the driver's eyes in the middle room.In other words, the driver 1 shown in FIG. Assuming that there is no movement in the left/right (Z) direction of 1, drive while considering a coordinate system based on the standard <i position iff I) of the driver's eye (left eye) on the hill, which was determined by experiment. The coordinates (X
, Y, O), but since the image detection unit 5 is fixed, the position W of the standard point P on the image data is
IG (px, py) is memorized in advance, and the eye position G (IIX
, mV).

以上説明した如く、本実施例の!11両運転者の位置認
識装置においては、所定部位を認識する際には、その所
定部位の標準パターンを用いて実行するよう構成されて
いるので、西定部位の位置を誤って認識することがなく
、より正確に乗車位置を認識することができるようにな
る。
As explained above, in this embodiment! The position recognition device for the 11-vehicle driver is configured to recognize a predetermined part using a standard pattern of the predetermined part, so there is no chance of erroneously recognizing the position of the west predetermined part. This makes it possible to more accurately recognize the riding position.

さらに、本実施例においては、運転者の口の位置を画像
データから直接求めるのではなく、まず画像データ上で
最も検出しやすい部分である顔面−16一 部J、り突出した鼻大の位置を所定部位の特異点どして
及び鼻を所定部位として鼻の位置を検出し、続いて、目
の中心を所定部位の特異点どして及び目を所定部位とし
て、先に求めた鼻の位置を基に、目の位置を検出するよ
うにしているため、容易に乗巾位i(左目の位If)を
認識することができる。
Furthermore, in this embodiment, instead of directly determining the position of the driver's mouth from the image data, we first determine the position of the face-16 part J, which is the most easily detected part on the image data, and the position of the protruding nose. The position of the nose is detected by setting the center of the eye as a singular point of a predetermined part and the nose as a predetermined part, and then detecting the position of the nose obtained earlier by setting the center of the eye as a singular point of a predetermined part and setting the eye as a predetermined part. Since the eye position is detected based on the position, the riding width position i (left eye position If) can be easily recognized.

また本実施例においては車両運転者の乗車位置として運
転者1の目の位置く正確には左目の位置)を認識するよ
うにしているが、例えば運転者1の鼻の(O置を車両運
転者の位置としてその3次元位階を認識するようにして
もよく、車両運転者の位置を認識した後の処理、つまり
バックミラーを自動調整するとか、ステアリング角度を
自動調整するとかいった各処理に応じて最も適切な乗車
位置を認識するにうに構成すればよい。因みに本実施例
のにうに運転者10目の位置を認識した際にはバックミ
ラーの角度を自動調整したり、居眠り運転を検知づ−る
揚台等に用いることができる。
Further, in this embodiment, the position of the eyes of the driver 1 (more precisely, the position of the left eye) is recognized as the riding position of the vehicle driver. The three-dimensional position may be recognized as the position of the driver, and the process after recognizing the position of the vehicle driver, such as automatically adjusting the rearview mirror or automatically adjusting the steering angle, may be performed. The configuration may be configured to recognize the most appropriate riding position according to the driver's position.Incidentally, in this embodiment, when the driver's 10th position is recognized, the angle of the rearview mirror is automatically adjusted or drowsy driving is detected. It can be used for lifting platforms, etc.

更に第1の実施例及び第2の実施例において、前述の発
光手段■には発光部5が、画像検出手段■には画像検出
部6が、特異点位置検出手段■及び位置認識手段Vには
画像処理1ff18が夫々相当するのであるが、画像検
出手段■とじては一1記実施例のようにMOS形の固体
IM像素子からなる画像検出部6の他にも、例えばCC
DM、いわゆる固体カメラに用いられる線像素子からな
るものであればより、Ii像管を用いることも可能であ
る。
Furthermore, in the first embodiment and the second embodiment, the above-mentioned light emitting means (2) includes a light emitting section 5, the image detecting means (2) includes an image detecting section 6, and the singular point position detecting means (2) and the position recognizing means V each include a light emitting section 5. The image processing unit 1ff18 corresponds to the image processing unit 1ff18, respectively.In addition to the image detection unit 6 consisting of a MOS type solid-state IM image element as in the 11th embodiment, the image detection unit 6 also includes, for example, a CC
It is also possible to use an Ii image tube as long as it is made of a line image element used in DM, a so-called solid-state camera.

また第1の実施例及び第2の実施例においては画像検出
部6を1個とし、一方向から運転者を11えた画像デー
タを用いて運転者の乗車位置を認識するようにしており
、運転者の左右方向への移flJは考慮していないので
あるが、画像検出部を異なる位置に2個設け、いわゆる
三角測量の原I!llを用いて運転者の乗車位置を認識
するよう構成すれば、運転者の左右方向への移動も検知
することができ、運転者の3次元位置をより正確に認識
することができるようになる。
In addition, in the first embodiment and the second embodiment, the number of image detection units 6 is one, and image data of the driver viewed from one direction is used to recognize the riding position of the driver. Although the movement of the person in the left and right direction is not taken into account, two image detection units are installed at different positions, which is the origin of so-called triangulation. If the vehicle is configured to recognize the driver's riding position using ll, it will be possible to detect the driver's movement in the left and right directions, making it possible to more accurately recognize the driver's three-dimensional position. .

尚、第1の実施例及び第2の実施例では、発光手段■と
して赤外線ストロボを用いているが白熱球のような連続
光を用いてもよい。
In the first and second embodiments, an infrared strobe is used as the light emitting means (2), but continuous light such as an incandescent bulb may also be used.

さらに、第1の実1^例及び第2の実施例では輝点検索
処理において左上端を出発点として上下方向に順次検索
してゆくが、鼻存在域中の全画素に検索類(Oをつ(」
てその順位に従って検索するようにしてもJ、い。
Furthermore, in the first example and the second example, in the bright point search process, the search is performed sequentially in the vertical direction starting from the upper left corner, but the search class (O) is applied to all pixels in the nose region. Two (''
Even if I try to search according to that ranking, it is still not possible.

又、第1の実施例及び第2の実施例において、鼻存在域
を長方形としているが、例えば、円形又tま三角形のよ
うにしてもよい。この場合、前記の画素に検索順位をつ
ける方法を併用するとより効率的な検索ができる。
Further, in the first and second embodiments, the nose region is rectangular, but it may be circular or triangular, for example. In this case, a more efficient search can be achieved by combining the above-described method of ranking pixels in a search order.

又、画像検出手段■により得られた画像データを直接処
理して(Q置を認識するのひはなく、エッチ検出処理A
I)横方向微分処理を施した画像データについ−(位置
を認1mると、その画像データの特徴h(tlつきりす
るのでより精度の高い位置認識ができる。
In addition, the image data obtained by the image detection means
I) Regarding image data subjected to lateral differential processing, when the position is recognized (1m), the feature h(tl) of the image data is determined, so more accurate position recognition is possible.

[発明の効果] 以」−訂)1.シた如く、本発明の車両運転者の位置認
識装買においては、画像検出手段によって得られる画像
データの所定部位の特異点近傍のデータと、あらかじめ
記憶されている所定部位の標専)−夕と、を比較して車
両運転者のイ装置を認識するよう構成されている。従っ
て、精度よく運転者の所定部位を認識づることができ、
バックミラー、ヘッドレスト、空調空気の吹出口、ある
い(よステアリング等の位置や角度を自動調整づるとか
、運転者の目の位置や頭の位置の周1す1的変化から居
眠り運転を検知して運転者に警報をl)えるといったこ
とに有用である。
[Effect of the invention] 1. As described above, in the vehicle driver position recognition device of the present invention, data in the vicinity of a singular point of a predetermined part of image data obtained by the image detection means and a pre-stored standard (standard) of a predetermined part are used. The system is configured to recognize the vehicle driver's device by comparing the and. Therefore, it is possible to accurately recognize a predetermined part of the driver.
It automatically adjusts the position and angle of rearview mirrors, headrests, air-conditioned air outlets, steering wheels, etc., and detects drowsy driving from changes in the position of the driver's eyes and head. This is useful for issuing a warning to the driver.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の構成を表わづ一ブロック図、第2図な
いし第14図は本発明の実施例を示し、第2図は本発明
の実施例が適用される車両のインストルメントパネル及
びその周辺を表わす斜視図、第3図は発光部5の説明図
、第4図は画像検出部6の説明図、第5図は乗車位li
l!識装置の全体構成図、第6図は第1実施例の画像処
理部8の動作を表わすフローチャート、第7図は画像デ
ータGの読み込み処理を説明するタイムチト−1〜、第
8図は画像入力部10に記憶された照射画像データGを
表わづ説明図、第9図は画像データGの画像図、第10
図は鼻の標準パターンを表わすデータ図、第11図は鼻
の位置検出処理の説明図、第12図は第2実施例の画像
処理部8の動作を表わすフローチャ−ト、第13図は目
の標準パターンを表わすデータ図、第14図は目の3次
元位置を説明づる説明図であって、(イ)は運転者1の
平面図、(ロ)は運転者1の側面図である。 ■・・・発光手段 ■・・・画像検出手段 IV・・・特異点位置検出手段 ■・・・位置Wg*手段 5・・・発光部 6・・・画像検出部 8・・・画像処理部 10・・・画像入力部 14・・・CPU
Fig. 1 is a block diagram showing the configuration of the present invention, Figs. 2 to 14 show embodiments of the invention, and Fig. 2 shows an instrument panel of a vehicle to which the embodiment of the invention is applied. 3 is an explanatory diagram of the light emitting section 5, FIG. 4 is an explanatory diagram of the image detecting section 6, and FIG. 5 is a perspective view showing the riding position li.
l! 6 is a flowchart showing the operation of the image processing unit 8 of the first embodiment, FIG. 7 is a time chart 1 to 1 explaining the reading process of image data G, and FIG. 8 is an image input FIG. 9 is an explanatory diagram showing the irradiation image data G stored in the unit 10. FIG. 9 is an image diagram of the image data G.
11 is an explanatory diagram of the nose position detection process, FIG. 12 is a flowchart showing the operation of the image processing unit 8 of the second embodiment, and FIG. 13 is a data diagram showing the standard pattern of the nose. FIG. 14 is an explanatory diagram illustrating the three-dimensional position of the eyes, in which (a) is a plan view of the driver 1, and (b) is a side view of the driver 1. ■...Light emitting means ■...Image detection means IV...Singular point position detection means ■...Position Wg* means 5...Light emitting unit 6...Image detection unit 8...Image processing unit 10... Image input section 14... CPU

Claims (1)

【特許請求の範囲】 1 車両運転者を照射する発光手段と、 該発光手段の照射による上記運転者からの反射光を受け
、少なくとも上記運転者の顔面部を画像データとして検
知する画像検出手段と、 該検知された画像データにおける上記運転者の所定部位
の特異点位置を検出する特異点位置検出手段と、 上記画像データにおける該検出された所定部位の特異点
位置の近傍のデータと、あらかじめ記憶されている上記
所定部位の標準パターンのデータと、を該標準パターン
のデータの位置を上記画像データ上で変えながら比較し
て求めた相関が最大の位置をもって所定部位の位置とす
る位置認識手段と、 を備えたことを特徴とする車両運転者の位置認識装置。 2 所定部位が運転者の鼻であり、かつ所定部位の特異
点が、運転者の鼻尖である特許請求の範囲第1項記載の
車両運転者の位置認識装置。 3 発光手段が赤外光を発光すると共に、画像検出手段
が赤外光を受光するよう構成された特許請求の範囲第1
項又は第2項記載の車両運転者の位置認識装置。 4 画像検出手段が、車両運転者の乗車状態を側面画像
として検出するよう当該車両の助手席側に配設された特
許請求の範囲第1項ないし第3項いずれか記載の車両運
転者の位置認識装置。 5 画像検出手段が2次元固体撮像素子からなる特許請
求の範囲第1項ないし第4項いずれか記載の車両運転者
の位置認識装置。
[Scope of Claims] 1. A light emitting means for illuminating a vehicle driver; and an image detecting means for receiving reflected light from the driver caused by the illumination of the light emitting means and detecting at least the face of the driver as image data. , a singular point position detecting means for detecting a singular point position of the predetermined part of the driver in the detected image data; data in the vicinity of the singular point position of the detected predetermined part in the image data; position recognition means for determining the position of the predetermined region at a position with the maximum correlation obtained by comparing the data of the standard pattern of the predetermined region with the data of the standard pattern while changing the position of the data of the standard pattern on the image data; A vehicle driver position recognition device comprising: . 2. The vehicle driver position recognition device according to claim 1, wherein the predetermined portion is the driver's nose, and the singular point of the predetermined portion is the tip of the driver's nose. 3. Claim 1, wherein the light emitting means emits infrared light and the image detection means receives infrared light.
2. The vehicle driver position recognition device according to item 1 or 2. 4. The position of the vehicle driver according to any one of claims 1 to 3, wherein the image detection means is arranged on the passenger seat side of the vehicle so as to detect the riding state of the vehicle driver as a side image. recognition device. 5. A vehicle driver position recognition device according to any one of claims 1 to 4, wherein the image detection means comprises a two-dimensional solid-state image sensor.
JP19040084A 1984-09-10 1984-09-10 Position of vehicle driver recognizing device Pending JPS6166905A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19040084A JPS6166905A (en) 1984-09-10 1984-09-10 Position of vehicle driver recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19040084A JPS6166905A (en) 1984-09-10 1984-09-10 Position of vehicle driver recognizing device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP4957885A Division JPS6166906A (en) 1985-03-12 1985-03-12 Recognizing device for vehicle driver position

Publications (1)

Publication Number Publication Date
JPS6166905A true JPS6166905A (en) 1986-04-05

Family

ID=16257517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19040084A Pending JPS6166905A (en) 1984-09-10 1984-09-10 Position of vehicle driver recognizing device

Country Status (1)

Country Link
JP (1) JPS6166905A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6662093B2 (en) 2001-05-30 2003-12-09 Eaton Corporation Image processing system for detecting when an airbag should be deployed
US6856694B2 (en) 2001-07-10 2005-02-15 Eaton Corporation Decision enhancement system for a vehicle safety restraint application
US6925403B2 (en) 2003-09-15 2005-08-02 Eaton Corporation Method and system for calibrating a sensor
US6944527B2 (en) 2003-11-07 2005-09-13 Eaton Corporation Decision enhancement system for a vehicle safety restraint application
US7116800B2 (en) 2001-05-30 2006-10-03 Eaton Corporation Image segmentation system and method
US7181083B2 (en) 2003-06-09 2007-02-20 Eaton Corporation System and method for configuring an imaging tool
US7197180B2 (en) 2001-05-30 2007-03-27 Eaton Corporation System or method for selecting classifier attribute types

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6662093B2 (en) 2001-05-30 2003-12-09 Eaton Corporation Image processing system for detecting when an airbag should be deployed
US7116800B2 (en) 2001-05-30 2006-10-03 Eaton Corporation Image segmentation system and method
US7197180B2 (en) 2001-05-30 2007-03-27 Eaton Corporation System or method for selecting classifier attribute types
US6856694B2 (en) 2001-07-10 2005-02-15 Eaton Corporation Decision enhancement system for a vehicle safety restraint application
US7181083B2 (en) 2003-06-09 2007-02-20 Eaton Corporation System and method for configuring an imaging tool
US6925403B2 (en) 2003-09-15 2005-08-02 Eaton Corporation Method and system for calibrating a sensor
US6944527B2 (en) 2003-11-07 2005-09-13 Eaton Corporation Decision enhancement system for a vehicle safety restraint application

Similar Documents

Publication Publication Date Title
JP5045212B2 (en) Face image capturing device
US5621457A (en) Sighting direction detecting device for vehicle
JP5753509B2 (en) Device information acquisition device
JPS62247410A (en) Energization controller for electric apparatus
JPH06230132A (en) Obstacle detector for vehicle
JP2010067083A (en) Head mount display
TW201601955A (en) Vehicle safety system and operating method thereof
JPS6166905A (en) Position of vehicle driver recognizing device
JPH05297141A (en) On-vehicle object detecting device
JPS6166906A (en) Recognizing device for vehicle driver position
JP2011042179A (en) Projector control device
US20220182518A1 (en) Control device and photographing system
JP4701961B2 (en) Pedestrian detection device
US20190156133A1 (en) Vehicle driving support apparatus and vehicle driving support program
JPS6199803A (en) Recognizing device for vehicle driver&#39;s position
JPS6184509A (en) Identifying device for vehicle driver
JP6381585B2 (en) Own vehicle position estimation device
JP4151571B2 (en) In-vehicle obstacle detection device
JPS6168503A (en) Vehicle operator position recognition equipment
JP2988235B2 (en) Gaze direction detection device for vehicles
JPS6177706A (en) Device for recognizing riding position of vehicle driver
JPS6141903A (en) Recognizing device for position of eye of vehicle driver
JPS6168502A (en) Vehicle operator position recognition equipment
JPS6177705A (en) Device for recognizing position of vehicle driver&#39;s eyes
JPS6177704A (en) Device for recognizing vehicle driver&#39;s position