JPS6166906A - Recognizing device for vehicle driver position - Google Patents

Recognizing device for vehicle driver position

Info

Publication number
JPS6166906A
JPS6166906A JP4957885A JP4957885A JPS6166906A JP S6166906 A JPS6166906 A JP S6166906A JP 4957885 A JP4957885 A JP 4957885A JP 4957885 A JP4957885 A JP 4957885A JP S6166906 A JPS6166906 A JP S6166906A
Authority
JP
Japan
Prior art keywords
image
driver
light emitting
light
nose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4957885A
Other languages
Japanese (ja)
Inventor
Haruhiko Ogiso
治比古 小木曽
Yasuaki Katou
康聡 加藤
Akio Yasuda
彰男 安田
Hiroshi Ishikawa
浩 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
NipponDenso Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NipponDenso Co Ltd filed Critical NipponDenso Co Ltd
Priority to JP4957885A priority Critical patent/JPS6166906A/en
Publication of JPS6166906A publication Critical patent/JPS6166906A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE:To recognize the position of a vehicle driver by providing a light emitting means and an image pickup means which recognize a specific position of a driver precisely. CONSTITUTION:The recognizing device consists of a light emitting part 5, image detection part 6, and image processing part 8, and reflected light of irradiation light which illuminates the upper body of the driver leftward from the light emitting part 5 beside the navigator's seat of a vehicle is captures as a two-dimensional image by the image detection part 6 beside the navigator's seat. The image signal obtained by the image detection part 6 is converted by an image input part 10 into a digital signal, which is stored as image data. Then, the image data stored in the image input part 10 is supplied to a CPU14 to detect the singular point position of a specific part of the face part of the driver and, for example, the position of the nose of the driver is recognized from the singular point position. Thus, position recognition is performed precisely.

Description

【発明の詳細な説明】 (発明の概要) 本発明は車両運転者の少なくとも曲面部を被12、識部
位として光学−電気的に認識する装′?1“であって、
認識精度を良好に保つために、発光手段と撮像手段との
配置を二[夫したものである。
DETAILED DESCRIPTION OF THE INVENTION (Summary of the Invention) The present invention provides a system for optically and electrically recognizing at least a curved surface of a vehicle driver as a recognition part. 1",
In order to maintain good recognition accuracy, the light emitting means and the imaging means are arranged in two ways.

(産業−1−の利用分野) 本発明は重両運転者の乗車状態を画像とし′ことらえ、
車両運転者の車室内にオハノろ位置をF aiXする車
両運転者の位置認識装置に関ずろ。
(Field of Application of Industry-1-) The present invention captures the riding condition of a heavy vehicle driver as an image,
This invention relates to a device for recognizing the position of a vehicle driver that locates the vehicle driver's location within the cabin of the vehicle.

(従来の技術) 電子機器の急速な発達に住い車両の操作fl、居住性等
の向上を目的とした新しい装置の研究が進められており
、その1つとして車両運転者の乗車位置、例えば運転者
の口の位置や頭の位置を認識し、バックミラー、ヘッド
レスト、空調空気の吹出]1、あるいはステアリング等
の位置や角度を自動調整するとか、運転者の口のイ1装
置や頭のイ装置の周期的変化から居眠り運転を検知して
運転者に警+Uを与えるといったことが考えられCいる
。そしてこの、L)な制御を実行するのに必要な、車両
運転者の乗車位置を認識するための乗車位置認識装置と
しては、車両運転者の束中状態を撮像し、画像点して検
出するカメラ等からなる画像検出部と、その検出された
画像をいわゆる画像処理によって分析し、画像−トの運
転者の目の装置♀)頭の位置等、予め定められた所定の
位置を検出して、その部分の車室内における位置を算出
する、マイク「1コンピユータ等からなる画像処理部と
により構成し、運転者の位置を認識することが尤えられ
ている。
(Prior Art) With the rapid development of electronic devices, research is underway on new devices aimed at improving vehicle operation, comfort, etc. It recognizes the position of the driver's mouth and head and automatically adjusts the position and angle of the rearview mirror, headrest, air conditioner, etc., or the steering wheel, etc. One possibility is to detect drowsy driving based on periodic changes in the device and issue a warning to the driver. The riding position recognition device for recognizing the riding position of the vehicle driver, which is necessary to execute this L) control, takes an image of the vehicle driver's busy state and detects it as an image point. An image detection unit consisting of a camera, etc., analyzes the detected image by so-called image processing, and detects a predetermined position such as the position of the driver's head in the image. It is believed that the driver's position can be recognized by using a microphone and an image processing unit consisting of a computer, etc., to calculate the position of that part in the vehicle interior.

(発明が解決しようとする問題点) 上述の認、識装置は精度よく運転打の所定部位、例えば
目の位置や鼻の位置等を認識することが要求されている
(Problems to be Solved by the Invention) The above-mentioned recognition device is required to accurately recognize a predetermined part of the driver's stroke, such as the position of the eyes or the position of the nose.

本発明の目的は、精度よく運転゛にの所定部位を認識す
ることができる発光手段と撮像手段との配置構成をもつ
車両運転者の(iγ7j認識装置を提供することにある
SUMMARY OF THE INVENTION An object of the present invention is to provide a vehicle driver (iγ7j) recognition device having an arrangement of a light emitting device and an imaging device that can accurately recognize a predetermined part of the driver.

(問題へをM?決するだめの手段) そこで本発明は、車両運転者の少なくとも顔向部が通常
荀1iずろ領域を被認識部(+’tとして光学電気的に
認識する装置であ−、て、1−記被認、識部位に光線を
11.Q射する発光手段は、運転席]111方側方方便
1−記被認識部荀、1、り車両前後方向に対し所定第1
角度をもつように配置され、この発光1段の光の照射に
よる上記認識部位からの反Il尤を受けて電気信号に変
換する撮像手段は、運転席前方側方部で1−記i=識部
位より車両前後方向に対し前記第1角度より小さい所定
第2角度をもつように配置されていることを特徴とする
(Means to solve the problem) Therefore, the present invention is a device that optically and electrically recognizes an area where at least the face of a vehicle driver is normally located as a recognized area (+'t). 1. The light emitting means for emitting a light beam to the recognition area is located at a predetermined first position with respect to the front and rear direction of the vehicle.
The imaging means, which is arranged at an angle and receives the inverse Il error from the recognition area due to the irradiation of this one stage of light and converts it into an electrical signal, is located at the front side of the driver's seat at a position where 1-i=identification is located. It is characterized in that it is arranged so as to have a predetermined second angle smaller than the first angle with respect to the longitudinal direction of the vehicle.

(作用効果) L記構成において、右ハンドル車両では車掌左側前方部
(左ハンドル車両では車室右側前方部)に配置された撮
像手段が発光手段との協動により車両il!転者の左側
顔面部の像を電気信号に変換する。この場合、発光手段
は車両運転者の俤の左側(右側)照射し右側(左側)の
頬をほとんど照射しないため、撮像手段は鼻の形状を明
確に認識することができる。また、発光手段と撮像手段
の各光軸は助手席乗員によって遮ぎられることがなく、
また得られる画像は車両運転者の前後方向の成分を含む
ものとすることができる。
(Function and Effect) In the configuration L, the imaging means disposed at the front left side of the conductor in a right-hand drive vehicle (in the front right side of the cabin in a left-hand drive vehicle) cooperates with the light emitting means to illuminate the vehicle il! The image of the left side of the driver's face is converted into an electrical signal. In this case, the light emitting means illuminates the left side (right side) of the vehicle driver's nose and hardly illuminates the right (left) cheek, so the imaging means can clearly recognize the shape of the nose. In addition, the optical axes of the light emitting means and the imaging means are not obstructed by the passenger in the passenger seat.
Further, the obtained image may include a component in the front and rear directions of the vehicle driver.

(実施例) 以下本発明の第1の実施例を図面と共に説明する。(Example) A first embodiment of the present invention will be described below with reference to the drawings.

第1図は本実施例の乗車位置認識装置が搭載された車両
のインストルメントパネル部分及びその周辺を表わす斜
視図であって、lは運転者、2は運転席、3はインスト
ルメントパネルを表わしている。そしてインストルメン
トパネル3の運転席2に対する左斜め前方、即ち、助手
席側前方には、運転者lの」一体を左方向から照射する
発光部5と、運転者1の上体を左方向から2次元画像と
してとらえる画像検出部6が設けられている。
FIG. 1 is a perspective view showing the instrument panel part and its surroundings of a vehicle in which the occupant position recognition device of this embodiment is installed, where l represents the driver, 2 represents the driver's seat, and 3 represents the instrument panel. ing. The instrument panel 3 is diagonally forward to the left of the driver's seat 2, that is, in front of the passenger's seat.There is a light emitting unit 5 that illuminates the driver's body from the left, and a light emitting unit 5 that illuminates the driver's body from the left. An image detection unit 6 that captures a two-dimensional image is provided.

ここで発光部5は前述の発光手段に相当し、照1・1時
に運転者1に眩しさを感じさせることのないよう赤外光
を発光する赤外スi・ロボが用いられ、第2図に示す如
く、赤外発光体5aと、赤外発光体5aにて発光された
赤外光を広く運転者にjj!:(1・1する為のレンズ
5bと、赤外光を透過し、可視光を通さない赤外フィル
タ5Cと、これら赤外発光体5a、レンズ5b及び赤外
フィルタ5Cを格納し、インストルメントパネル3の所
定の位置に取り付けるためのケース5dとから構成され
ている。
Here, the light emitting unit 5 corresponds to the above-mentioned light emitting means, and an infrared i-robo that emits infrared light is used so as not to dazzle the driver 1 at the time of daylight hours 1.1. As shown in the figure, the infrared light emitter 5a and the infrared light emitted by the infrared light emitter 5a are widely transmitted to the driver. :(A lens 5b for 1.1, an infrared filter 5C that transmits infrared light but does not transmit visible light, and stores the infrared emitter 5a, lens 5b, and infrared filter 5C, and and a case 5d for attaching to the panel 3 at a predetermined position.

また画像検出部6は前述の撮像手段に相当し、第3図に
示す如く、赤外光を透過する赤外フィルタ6aと、運転
−1flの上体画像を後述の固体撮像素子6eの撮像面
に結像するための焦点距離が例えば12.5mmのレン
ズ6bと、光■を調整するだめの液晶絞り素子6Cと、
液晶絞り素子6Cの絞りを自動調整するために用いられ
、液晶絞り素子6cを透過する光量を検出するフォトト
ランジスタ6dと、−上記赤外フィルタ6a、レンズ6
b及び液晶絞り素子6Cを透過して結像された撮像面上
の映像をスイッチング走査で電気信号として取り出す、
フォトダイオードアレイとスイソチング回路とからなる
MOS形の固体撮像素子6eと、12各部を格納し、イ
ンストルメントパネル3に取り付けるためのが一ス6f
とから構成される固体カメラが用いられている。
Further, the image detection unit 6 corresponds to the above-mentioned imaging means, and as shown in FIG. A lens 6b having a focal length of, for example, 12.5 mm to form an image, and a liquid crystal aperture element 6C for adjusting the light.
a phototransistor 6d that is used to automatically adjust the aperture of the liquid crystal aperture element 6C and detects the amount of light transmitted through the liquid crystal aperture element 6c; - the infrared filter 6a; and the lens 6;
b and the image formed on the imaging surface through the liquid crystal aperture element 6C is taken out as an electrical signal by switching scanning.
A MOS-type solid-state image sensor 6e consisting of a photodiode array and a switching circuit, and a single storage space 6f for storing each of the 12 parts and attaching it to the instrument panel 3.
A solid-state camera consisting of

次に本実施例の乗車位置認識装置の全体構成を第4図に
示すブロック図に基づき説明する。
Next, the overall configuration of the vehicle position recognition device of this embodiment will be explained based on the block diagram shown in FIG. 4.

図に示す如く、本認識装置は上記発光部5及び画像検出
部6の他に、画像検出部6にてとらえられた運転者1の
画像を処理し、運転者の位置(本実施例においては鼻の
位置)を認識する画像処理部8を備えている。そしてこ
の画像処理部8は、上記画像検出部6を制御すると共に
、画像検出部6にて得られた画像信号をデジタル信号に
変換し、その変換されたデジタル信号を画像データとし
て−B−記憶することのできる画像入力部10と、上記
発光部5を発光させるための照射信号を出力する照射信
号出力部12と、画像入力部10にてA/D変換され記
憶された画像データから運転者1の顔面部における所定
部位の特異点位置(本実施例では鼻尖の位置)を検出し
、この特異点位置から運転に1の鼻の位置を認識すると
いった一連の位置認識処理を実行すセントラルプロセ、
シングユニソト (CPU)14と、CP tJ 14
にて位置認識処理を実行するための制御プログラムやデ
ータが予め記1さされたリードオンリメモリ (ROM
)16と、演算処理実行のために用いられるデータ等が
一時的に読み書きされるランダムアクセスメモリ (R
AM)18と、上記各部を結び画像信号や制御記号の通
路とされるハスライン2oと、」1記各部に電源を供給
する電源回路22とから構成されている。また上記画像
入力部10は、画像検出部6に垂直同期信号及び水平同
期信号を発生する同期信号発生回路10aと、画像検出
部6により得られた画像信号を、例えば】フレーム当た
りに横256.縦240の画素の明度表わすデジタル信
号からなる画像データに変換するA/D変換回路10b
と、その変換された画像データを過去2フレ一ム分だけ
記taすることのできる画像データ記憶回路10Cとか
ら構成されている。
As shown in the figure, in addition to the light emitting section 5 and the image detecting section 6, this recognition device processes the image of the driver 1 captured by the image detecting section 6, and processes the driver's position (in this embodiment, The camera is equipped with an image processing unit 8 that recognizes the position of the nose. The image processing section 8 controls the image detection section 6, converts the image signal obtained by the image detection section 6 into a digital signal, and stores the converted digital signal as image data. an irradiation signal output section 12 that outputs an irradiation signal for causing the light emitting section 5 to emit light; and an irradiation signal output section 12 that outputs an irradiation signal for causing the light emitting section 5 to emit light. A central process detects the position of a singular point in a predetermined part of the person's face (in this example, the position of the tip of the nose), and executes a series of position recognition processes such as recognizing the position of the nose of the person when driving from this singular point position. ,
Thingunisoto (CPU) 14 and CP tJ 14
A read-only memory (ROM) in which control programs and data for executing position recognition processing are written in advance.
) 16 and random access memory (R
AM) 18, a lotus line 2o that connects the above sections and serves as a path for image signals and control symbols, and a power supply circuit 22 that supplies power to each section. The image input section 10 also includes a synchronization signal generation circuit 10a that generates a vertical synchronization signal and a horizontal synchronization signal to the image detection section 6, and an image signal obtained by the image detection section 6, for example, at 256. A/D conversion circuit 10b that converts into image data consisting of digital signals representing the brightness of 240 vertical pixels
and an image data storage circuit 10C capable of storing the converted image data for the past two frames.

次に上記画像処理部8にて実行される位置認識処理の動
作について、第5図に示すフローチャートに沿って詳し
く説明する。尚この処理は一定周回の信号やスイッチか
らの信号等によって運転者1の位置認識の要求が入力さ
れた場合に実行されるものであり、」−達した如く本実
施例においては運転者1の位置として鼻の位置が認識さ
れることとなる。
Next, the operation of the position recognition process executed by the image processing section 8 will be explained in detail with reference to the flowchart shown in FIG. This process is executed when a request to recognize the position of the driver 1 is input by a signal of a certain number of laps or a signal from a switch. The position of the nose will be recognized as the position.

図に示す如く処理が開始されるとまずステップ101が
実行され、画像検出部6において、発光部5を発光した
際に画像が検出されるよう、発光部5に照射信号を出力
すると共に、その検出される画像を画像入力部10にお
いてデジタル信号からなる画像データGとして記憶する
、画像データ読み込み処理を実行する。
As shown in the figure, when the process is started, step 101 is first executed, and the image detection section 6 outputs an irradiation signal to the light emitting section 5 so that an image is detected when the light emitting section 5 emits light. An image data reading process is executed in which the detected image is stored in the image input section 10 as image data G consisting of a digital signal.

ここで画像入力部10は、同期信号発生回路10a、A
/D変換回路10b及び画像データ記憶回路10cを備
えており、同期信号発生回路10aより出力される垂直
同期信号及び水平同期信号に従い画像検出部6を制御し
、画像検出図6から出力される画像信号を順次取り込み
A/D変換回路10bを介してデジタル信号に変換され
た画像信号を、画像データGとして記ti回路10cに
記jQすることができるので、本画像データ読め込み処
理としては、画像入力部1oを動作さセ、同期信号発生
回路10aから出力される垂直同期(a号と同期して発
光部5を発光するだけで容易に実行することができる。
Here, the image input section 10 includes synchronization signal generation circuits 10a and A.
It is equipped with a /D conversion circuit 10b and an image data storage circuit 10c, and controls the image detection unit 6 according to the vertical synchronization signal and horizontal synchronization signal output from the synchronization signal generation circuit 10a, and detects the image output from the image detection circuit 10a. Since the image signals that are sequentially taken in and converted into digital signals via the A/D conversion circuit 10b can be recorded in the recording circuit 10c as image data G, the image data reading process is performed as follows: This can be easily performed by simply operating the input section 1o and causing the light emitting section 5 to emit light in synchronization with vertical synchronization (a) output from the synchronization signal generating circuit 10a.

つまり第6図に示す如く、まず垂直同期信号の立ち」二
かり時期t。より所定時間へT経過後発光部5に照射信
号Sを出力することによって垂直帰線時期ΔL1と一致
して発光部5を発光させ、その発光によって得られる画
像を画像データGとして読み込むといった処理が実行さ
れるのである。
In other words, as shown in FIG. 6, the vertical synchronizing signal first rises at the rising time t. After a predetermined time T has elapsed, an irradiation signal S is output to the light emitting unit 5 to cause the light emitting unit 5 to emit light in coincidence with the vertical blanking time ΔL1, and an image obtained by the light emission is read as image data G. It will be executed.

尚、上記画像入力部10にてA/D変換され記憶される
画像データGは、前述したように画像検出部6にて得ら
れた画像を横256.縦240に分割する画素の明度を
表わすものであり、第7図に示す如く各画素毎に明度G
 (x、y)が記憶されている。
The image data G that is A/D-converted and stored in the image input section 10 is the image obtained by the image detection section 6, as described above, which is horizontally 256. It represents the brightness of pixels divided into 240 vertically, and as shown in Figure 7, the brightness G is determined for each pixel.
(x, y) is stored.

このようにステップ101にて発光部5、画像(l  
O) 検出部6及び画像入力部IOが制動され、画像入力部I
Oにおいて画像データGが読み込まれると続くステップ
102が実行され、画像データGにおける予め設定され
た所定のエリア、つまり第8図に示ず30の領域を鼻の
存在域とし、この領域内の最も左側に存在する一定しベ
ル以−1−の明度を有する画素を検索し、その(☆置を
記↑aするといった輝点検索処理が行なわれる。この処
理は次ステツプ103にて運転者1の鼻の位置を検出す
る際に、鼻を捜す範囲を限定するための処理であって、
求められた両要の位置が鼻を捜すための基点とされる。
In this way, in step 101, the light emitting unit 5, the image (l
O) The detection unit 6 and the image input unit IO are braked, and the image input unit I
When the image data G is read in O, the following step 102 is executed, and a predetermined area in the image data G, that is, a region 30 not shown in FIG. A bright spot search process is performed in which a pixel on the left side having a constant brightness of -1- or more is searched and its (☆ position is written ↑a). This process is performed in the next step 103 when the driver Processing for limiting the range to search for the nose when detecting the position of the nose,
The determined positions of both key points are used as the base points for searching for the nose.

尚、本輝点検索処理としては、第8図の鼻存在域30に
おける左上端の画素を出発点として、上下方向に順次検
索してゆき、最初の一定しヘル以上の明度を有する画素
の位置を記1aすることによって実行できる。
In this bright spot search process, starting from the upper left pixel in the nose existing area 30 in FIG. It can be executed by writing 1a.

このように輝点検索が実行され、鼻存在域の最も左側に
存在する一定しヘル以上の明度を有する画素の位置が求
められると、上述したように続くステップ103にて、
この位置を基点として鼻を捜し、この処理を決定する処
理がなされるのであるが、この処理は、輝点検索によっ
て求められた画素の近傍で、予め設定されている第9図
に示す如き鼻の標準パターンと画像データとの相関の度
合を調べ、相関の最大値となる画像の位置を以で禅が存
在する位置であるとみなし、鼻の位置を決定ずろもので
ある。
When the bright spot search is executed in this way and the position of the pixel that exists on the leftmost side of the nose region and has a constant brightness equal to or higher than Hell is determined, in the subsequent step 103 as described above,
Processing is performed to search for the nose using this position as a base point and determine this process. The degree of correlation between the standard pattern and the image data is examined, and the position in the image where the correlation is maximum is regarded as the position where Zen exists, and the position of the nose is determined.

つまり、L−記ステップ+02にて求められた画素の位
置G (x、  y)を中心に、第11図に示す如く」
−下、左右に夫々5画素分、Mll 21個の画素ヲ、
夫々第9図に示した鼻の標Y1−パターンc:おりる中
心位im(0,0>として画像データと標Cp−パター
ンとの相関値を計算し、その値し最も大きくなった画素
位置を鼻の位置G (hx、hy)として認識するので
ある。ここで、第10図の鼻の標準パターンにおける中
心位置m (0,0)は鼻に相当する部分として予め設
定されており、また相関値としては次式 %式%() より求めることができる。そして」−2i及びjの値と
しては、鼻の標準パターンが中心m (0,O)に対し
て上に16、下に7、左に1、右に6の拡がりを持つデ
ータとして構成されでいることから、iに(−1)から
(+6)、jに(−16)から(+7)の間の整流値を
用いれば、Lい。
In other words, as shown in FIG. 11, centering on the pixel position G (x, y) found in step +02 of
- 5 pixels each on the bottom, left and right, Mll 21 pixels,
Nasal mark Y1-pattern c shown in FIG. 9: Calculate the correlation value between the image data and the mark Cp-pattern as the center position im (0, 0>), and calculate the pixel position where the value becomes the largest. is recognized as the nose position G (hx, hy). Here, the center position m (0, 0) in the standard nose pattern shown in Fig. 10 is preset as the part corresponding to the nose, and The correlation value can be obtained from the following formula % formula % ().Then, the values of ``-2i and j are 16 above and 7 below the standard pattern of the nose with respect to the center m (0, O). , is configured as data with a spread of 1 on the left and 6 on the right, so if we use a rectified value between (-1) and (+6) for i and between (-16) and (+7) for j, we get ,L.

また相関値が、はな標準パターンにおける中心位置m 
(0,0)に対して、第11図に示す如き画像データ上
の画素G (x、  y>を中心とする上下、左右に夫
々5個、計121個の画素を当てはめ、計算されること
から、上式におりるX、Yの値としては、夫々、Xが×
±5、Yがy±5の間の整数値となり、結局X及びYの
組み合わせで最大12]種類の相関値が算出され、その
最大値となる画像データ上の画素G (X、  Y)が
鼻の位置G (hX、hy)として検出されるのである
Also, the correlation value is the center position m in the standard pattern
It is calculated by applying to (0, 0) a total of 121 pixels, 5 each on the top, bottom, left and right, centering on the pixel G (x, y>) on the image data as shown in Figure 11. Therefore, the values of X and Y in the above formula are
±5, Y becomes an integer value between y±5, and in the end, a maximum of 12] types of correlation values are calculated by the combination of X and Y, and the pixel G (X, Y) on the image data that has the maximum value is It is detected as the nose position G (hX, hy).

以上説明した如く、本実施例の車両運転者の位置認識’
W置においては、所定部位を認識する際に、その所定部
位の標準パターンを用いて実行するよう構成されている
ので、所定部位の位置を誤って認識することなく、より
正確に乗車位置を認識することができるようになる。
As explained above, the position recognition of the vehicle driver in this embodiment is
In the W position, when recognizing a predetermined part, it is configured to use the standard pattern of the predetermined part, so the riding position can be recognized more accurately without erroneously recognizing the position of the predetermined part. You will be able to do this.

次に本発明の第2の実施例を図面と共に説明する。Next, a second embodiment of the present invention will be described with reference to the drawings.

本実施例では、第1の実施例に6i?)認識された車両
運転者1の鼻の位置を基にして、車両運転者1の鼻を除
く所定部位の特異点(本実施例では目の中心)の位置及
び所定部位(本実施例では目)の位置を認識する。
In this embodiment, 6i? ) Based on the recognized position of the nose of the vehicle driver 1, the position of the singular point (the center of the eye in this embodiment) of a predetermined region of the vehicle driver 1 other than the nose and the specific region (the center of the eye in this embodiment) are determined. ) position.

本実施例にて実行される位置認識処理の動作について、
第11図に示すフローチャートに沿って詳しく説明する
。尚、本実施例のステップ201、ステップ202及び
ステップ203は第1の実施例におけるステップ101
.ステップ!02及びステ・ノブIO3と同様であるの
で説明を省略する。
Regarding the operation of the position recognition process executed in this embodiment,
This will be explained in detail along the flowchart shown in FIG. Note that steps 201, 202, and 203 in this embodiment are the same as step 101 in the first embodiment.
.. Step! 02 and Ste Nobu IO3, so the explanation will be omitted.

ステップ201.ステップ202及びステップ203を
順次実行することによって鼻の位l c(hx、hY)
が求められると、続くステップ204に移行して、今度
はこの鼻の位IG (h x 。
Step 201. By sequentially executing steps 202 and 203, the nose position l c (hx, hY)
Once obtained, the process moves to the next step 204, where this nose position IG (h x ) is obtained.

hy)に基づき目の位置を求めることとなる。ここで目
の位置を求めるに当たっては、まず発の位置G (h 
x、  rIy)より右に12画素、上に13画画素行
した画素の位置G (IIX + 12.  hy−1
3)を求め、この位置の近傍で予め設定されている第1
2図に示す如き目の標準パターンと画像データとの相関
の度合を調べ、目の位置G(mx。
The position of the eyes is determined based on hy). To find the position of the eyes here, first, the starting position G (h
The pixel position G (IIX + 12.hy-1) is 12 pixels to the right and 13 pixels rows above from x, rIy)
3), and find the first preset position near this position.
The degree of correlation between the eye standard pattern shown in Figure 2 and the image data was examined, and the eye position G (mx) was determined.

my)を決定する。尚この決定方法としては、第1の実
施例におけるステップIOの鼻位置決定と同様に行えば
よいので、説明は省略する。
my). Note that this determination method may be performed in the same manner as the nose position determination in step IO in the first embodiment, so a description thereof will be omitted.

続くステップ205においては、−ト記ステソフ。In the following step 205, the process is performed.

204にて求められた画素データG−)−の目の位;6
G (mx、my)を基に、運転者の左右方向の移動は
ないものとして車室内におけ運転者1の目の3次元(i
7置を1γ出する処理が実行されろ。つまり第13図に
示す運転−Klの左右(Z)方向へ移動はないものと仮
定し、実験により求めた当該車両における運転者の目(
左目)の標?ili的な位iηPをJ、いIIXとする
座標系を考えて運転者1の目(左目)の3次元位置Mを
座標(X、Y、0)として求めZ)ことにより目の位置
が認識されるのであるがこの処理としては、上記画像検
出部5が固定されていることから、画像データ上の標/
1(点Pの位置G(px、r’y)をrめ記憶しておき
、ごのp、((11! (をン;+”+’4; (p 
x、  p y)に対する目のイ装置(mx、my)の
ずれを算出することによって、容易に実行することがで
きる。
The position of the pixel data G-)- obtained in 204; 6
Based on G (mx, my), the three-dimensional (i
Execute the process to output 1γ from the 7th position. In other words, assuming that there is no movement in the left/right (Z) direction of the driving shown in FIG. 13, the driver's eyes (
left eye) mark? Considering a coordinate system in which the ili position iηP is J and IIX, the three-dimensional position M of the eye (left eye) of the driver 1 is determined as the coordinate (X, Y, 0) and the position of the eye is recognized. However, since the image detection unit 5 is fixed, this process requires
1 (Memorize the position G (px, r'y) of point P, and then calculate p, ((11!
This can be easily carried out by calculating the deviation of the eye device (mx, my) with respect to x, p y).

以−I−説明した如く、本実施例の車両運転者の位置認
識装置においては、所定部位を認識する際には、その所
定部位の標準パターンを用いて実行するよう構成されて
いるので、所定部位の位置を誤って認、識することがな
く、より正確に乗車位置を認識することができるように
なる。
As explained above, the vehicle driver position recognition device of this embodiment is configured to recognize a predetermined region using a standard pattern of the predetermined region. It becomes possible to more accurately recognize the riding position without erroneously recognizing or recognizing the position of the body part.

さらに、本実施例においては、運転者の目の(Q置を画
像データから直接求めるのではなく、まず画像データー
にで最も検出しやすい部分である顔面分より突出した鼻
尖の位置を所定部位の特異点として及び鼻を所定部イ☆
出して鼻の位置を検出し、続いて、目の中心を所定部位
の特異点として及び目を所定部荀として、先に求めた鼻
の位置を基に、目の位置を検出するようにしているため
、容易に乗車位置(左目の位置)を認識することができ
る。
Furthermore, in this embodiment, instead of directly determining the Q position of the driver's eyes from the image data, we first calculate the position of the tip of the nose that protrudes from the facial area, which is the part that is easiest to detect, in the image data at a predetermined location. As a singularity and the nose as a designated part ☆
Then, using the center of the eye as a singular point of a predetermined part and the eye as a predetermined part, the position of the eye is detected based on the previously determined nose position. Therefore, the riding position (left eye position) can be easily recognized.

iした本実施例においては車両運転者の乗車位置として
運転者10目の位置(正確には左目の位置)を認識する
ようにしているが、例えば運転者1の鼻の位置を車両運
転者の位置としてその3次元位置を認識するようにして
もよく、車両i1転者の位置を認識した後の処理、つま
りパックミラーを自動調整するとか、ステアリング角度
を自動調整するとかいった各処理に応して最も適切な乗
車位置を認識するように構成すればよい。困みに本実施
例のように運転者1の目の位置を認識した際にはハック
ミラーの角度を自動調整したり、居眠り運転を検知する
場合等に用いることができる。
In this embodiment, the position of the driver's 10th eye (more precisely, the position of the left eye) is recognized as the riding position of the vehicle driver. The three-dimensional position may be recognized as the position, and the process after recognizing the position of the driver in the vehicle, such as automatically adjusting the pack mirror or automatically adjusting the steering angle, may be performed. The vehicle may be configured to recognize the most appropriate riding position. However, when the position of the eyes of the driver 1 is recognized as in this embodiment, it can be used to automatically adjust the angle of the hack mirror or to detect drowsy driving.

更に第1の実施例及び第2の実施例において、前述の発
光手段には発光部5が、撮像手段には画像検出部6が、
夫々相当するのであるが、撮像手段としては上記実施例
のようにMOS形の固体撮像素子からなる画像検出部6
の他にも、例えばCCD等、いわゆる固体カメラに用い
られる撮像素Tからなるものであればよく、撮像管を用
いることも可能である。
Furthermore, in the first embodiment and the second embodiment, the above-mentioned light emitting means includes a light emitting section 5, and the imaging means includes an image detecting section 6.
As for the imaging means, as in the above embodiment, the image detecting section 6 is composed of a MOS type solid-state imaging device.
In addition, it may be made of an image sensor T used in a so-called solid-state camera, such as a CCD, and it is also possible to use an image pickup tube.

また第1の実施例及び第2の実施例に49いては画像検
出部6を1個とし、一方向から運転者をとらえた画像デ
ータを用いて運転者の乗申位;6をヨ73識するように
しており、運転者の左右ツノ向−1の移動は考慮してい
ないのであるが、画像検出部を胃なる位置に2個設け、
いわゆる二角測量のl真理を用いて運転者の乗車位置を
認識するように構成すれば、運転者の左右方向への移動
も検知することができ、運転者の3次元位置をより正確
に認識することができるようになる。
In addition, in the first embodiment and the second embodiment, the number of image detection units 6 is one, and image data of the driver captured from one direction is used to determine the position of the driver; Although the driver's movement in the left and right horn directions is not taken into account, two image detection units are installed at the stomach position.
If the configuration is configured to recognize the driver's riding position using the so-called l-truth of bigonal measurement, it is possible to detect the driver's movement in the left and right directions, and the three-dimensional position of the driver can be recognized more accurately. You will be able to do this.

尚、第1の実施例及び第2の実施例では、発光手段■と
して赤外線ストロボを用いているが白熱Lトのような連
続光を用いてもよい。
In the first and second embodiments, an infrared strobe is used as the light emitting means (2), but continuous light such as an incandescent light may also be used.

さらに、第1の実施例及び第2の実施例では輝点検索処
理において左上端を出発点として士下方向に順次検索し
てゆくが、鼻存在域中の全画素に検索順位をつけてその
順位に従って検索するようにしてもよい。
Furthermore, in the first and second embodiments, in the bright spot search processing, the search is performed sequentially in the downward direction starting from the upper left corner, but all pixels in the nose existing area are ranked in search order. The search may be performed according to the ranking.

又、第1の実施例及び第2の実施例において、鼻存在域
を長方形としているが、例えば、円形又は三角形のよう
にしてもよい。この場合、前記の画素に検索順位をつi
ノる方法を併用するとより効c的な検索ができる。
Further, in the first and second embodiments, the nose region is rectangular, but it may be circular or triangular, for example. In this case, if the search rank is assigned to the above pixel, i
Searching can be done more effectively by using this method in combination.

又、撮像手段により得られた画像データを直接処理して
位置を認、識するのではなく、エッヂ検出処理や横方向
微分処理を施した画像データについて位置を認識すると
、その画像データの特徴がはっきりするのでより精度の
高い位置認識ができる。
Furthermore, instead of directly processing the image data obtained by the imaging means to recognize the position, recognizing the position of the image data that has been subjected to edge detection processing or lateral differentiation processing can reveal the characteristics of the image data. This makes it clearer, allowing for more accurate position recognition.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図ないし第13[mは本発明の実施例を示し、第1
図は本発明の実施例が適用さ駒、る車両のインストルメ
ントパネル及びその周辺を表わす斜視図、第2図は発光
部5の説明図、第3図は画像検出部6の説明図、第4図
は乗車位置認識装置の全体構成図、第5図は第1実施例
の画像処理部8の動作を表わすフローチャート、第6M
は画像データGの読み込み処理を説明するタイプ、チー
ト−ト、第7図は画像入力部10に記憶された照射画像
データGを表わす説明図、第8図は画像データGの画像
図、第9図は邸の標牛パターンを表わすデータ図、第1
0図は弄の(−7置検出処理の説明図、第11図は第2
実施例の画像処理部の動イ1を表わず〕l’l −チャ
ート、第12図は口の標(1cパターンを表わ゛4デー
タ図、第13図は「1の3次元位置を説明−4る説明図
であゲC1(イ)は運転者1の゛V而面、(1])は運
転者1の側面図である。 5・・・発光部、6・・・画像検出部、8・・・画像処
理部、10・・・画像入力部、14・・・c P LJ
。 代理人ブ1理十  岡 部   隆 第13図
Figures 1 to 13 [m show embodiments of the present invention;
The figures are perspective views showing the instrument panel and its surroundings of a vehicle to which an embodiment of the present invention is applied, FIG. 2 is an explanatory view of the light emitting unit 5, FIG. FIG. 4 is an overall configuration diagram of the riding position recognition device, FIG. 5 is a flowchart showing the operation of the image processing unit 8 of the first embodiment, and FIG.
7 is an explanatory diagram showing the irradiation image data G stored in the image input unit 10, FIG. 8 is an image diagram of the image data G, and FIG. The figure is a data diagram representing the signpost pattern of the residence, No. 1.
Figure 0 is an explanatory diagram of the (-7 position detection process), Figure 11 is the second
Fig. 12 shows the mouth mark (1c pattern); Fig. 13 shows the three-dimensional position of 1; In the explanatory diagram of Explanation-4, C1 (a) is a side view of the driver 1, and (1) is a side view of the driver 1. 5... Light emitting unit, 6... Image detection Section, 8... Image processing section, 10... Image input section, 14... c P LJ
. Agent B1 Riju Takashi Okabe Figure 13

Claims (1)

【特許請求の範囲】 車両運転者の少なくとも顔面部が通常位置する領域を被
認識部位として光学−電気的に認識する装置であって、 運転席前側方部で上記被認識部位より車両前後方向に対
し所定第1角度をもつ位置に配置され、上記被認識部位
に光を照射する発光手段と、運転席前方側方部で上記被
認識部位より車両前後方向に対し前記第1角度より小さ
い所定第2角度をもつ位置に配置され、前記発光手段の
光の照射による上記被認識部位からの反射光を受けて電
気信号に変換する撮像手段と、 を備えた車両運転者位置認識装置。
[Scope of Claims] A device for optically-electrically recognizing an area where at least the face of a vehicle driver is normally located as a recognition area, the device comprising A light-emitting means is arranged at a position having a predetermined first angle and irradiates light to the recognized region; A vehicle driver position recognition device comprising: an imaging means arranged at two angle positions and configured to receive reflected light from the recognition target area caused by irradiation of light from the light emitting means and convert it into an electrical signal.
JP4957885A 1985-03-12 1985-03-12 Recognizing device for vehicle driver position Pending JPS6166906A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4957885A JPS6166906A (en) 1985-03-12 1985-03-12 Recognizing device for vehicle driver position

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4957885A JPS6166906A (en) 1985-03-12 1985-03-12 Recognizing device for vehicle driver position

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP19040084A Division JPS6166905A (en) 1984-09-10 1984-09-10 Position of vehicle driver recognizing device

Publications (1)

Publication Number Publication Date
JPS6166906A true JPS6166906A (en) 1986-04-05

Family

ID=12835096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4957885A Pending JPS6166906A (en) 1985-03-12 1985-03-12 Recognizing device for vehicle driver position

Country Status (1)

Country Link
JP (1) JPS6166906A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0498366U (en) * 1991-02-01 1992-08-25
JPH06872U (en) * 1992-06-03 1994-01-11 矢崎総業株式会社 Pipe assembly
US6662093B2 (en) 2001-05-30 2003-12-09 Eaton Corporation Image processing system for detecting when an airbag should be deployed
US6856694B2 (en) 2001-07-10 2005-02-15 Eaton Corporation Decision enhancement system for a vehicle safety restraint application
US6925403B2 (en) 2003-09-15 2005-08-02 Eaton Corporation Method and system for calibrating a sensor
US6944527B2 (en) 2003-11-07 2005-09-13 Eaton Corporation Decision enhancement system for a vehicle safety restraint application
US7116800B2 (en) 2001-05-30 2006-10-03 Eaton Corporation Image segmentation system and method
US7181083B2 (en) 2003-06-09 2007-02-20 Eaton Corporation System and method for configuring an imaging tool
US7197180B2 (en) 2001-05-30 2007-03-27 Eaton Corporation System or method for selecting classifier attribute types
US8621672B2 (en) 2011-05-06 2014-01-07 John CHUBACK Head and neck protection apparatus

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0498366U (en) * 1991-02-01 1992-08-25
JPH06872U (en) * 1992-06-03 1994-01-11 矢崎総業株式会社 Pipe assembly
US6662093B2 (en) 2001-05-30 2003-12-09 Eaton Corporation Image processing system for detecting when an airbag should be deployed
US7116800B2 (en) 2001-05-30 2006-10-03 Eaton Corporation Image segmentation system and method
US7197180B2 (en) 2001-05-30 2007-03-27 Eaton Corporation System or method for selecting classifier attribute types
US6856694B2 (en) 2001-07-10 2005-02-15 Eaton Corporation Decision enhancement system for a vehicle safety restraint application
US7181083B2 (en) 2003-06-09 2007-02-20 Eaton Corporation System and method for configuring an imaging tool
US6925403B2 (en) 2003-09-15 2005-08-02 Eaton Corporation Method and system for calibrating a sensor
US6944527B2 (en) 2003-11-07 2005-09-13 Eaton Corporation Decision enhancement system for a vehicle safety restraint application
US8621672B2 (en) 2011-05-06 2014-01-07 John CHUBACK Head and neck protection apparatus

Similar Documents

Publication Publication Date Title
US5621457A (en) Sighting direction detecting device for vehicle
US20070289800A1 (en) Vehicle seat detecting system
US11394952B2 (en) Imaging device and vehicular display device
JPS6166906A (en) Recognizing device for vehicle driver position
US11597278B2 (en) Projection control device, head-up display device, projection control method, and non-transitory storage medium
JP2011042179A (en) Projector control device
JPH05297141A (en) On-vehicle object detecting device
JPS6166905A (en) Position of vehicle driver recognizing device
JPS6199803A (en) Recognizing device for vehicle driver's position
JP2007089094A (en) Pedestrian detection device
JP2020137053A (en) Control device and imaging system
JPS6184509A (en) Identifying device for vehicle driver
JP2988235B2 (en) Gaze direction detection device for vehicles
JPS6141903A (en) Recognizing device for position of eye of vehicle driver
US10983343B2 (en) Display system, moving vehicle, method for controlling the display system, and non-transitory storage medium
JPS6177705A (en) Device for recognizing position of vehicle driver's eyes
JP3201037B2 (en) Driver photography device
JPS6145911A (en) Position recognizing device for eye of vehicle driver
JPS6168503A (en) Vehicle operator position recognition equipment
JPH07167618A (en) Device for recognizing driver's position
JPS6177706A (en) Device for recognizing riding position of vehicle driver
JPS63311105A (en) Apparatus for recognizing crew's position of vehicle
JPS63311106A (en) Apparatus for recognition crew's position of vehicle
JPS6177703A (en) Device for recognizing positions of vehicle driver's eyes
JPS6159203A (en) Position recognizing apparatus of vehicle driver