JPS6199803A - Recognizing device for vehicle driver's position - Google Patents

Recognizing device for vehicle driver's position

Info

Publication number
JPS6199803A
JPS6199803A JP22160084A JP22160084A JPS6199803A JP S6199803 A JPS6199803 A JP S6199803A JP 22160084 A JP22160084 A JP 22160084A JP 22160084 A JP22160084 A JP 22160084A JP S6199803 A JPS6199803 A JP S6199803A
Authority
JP
Japan
Prior art keywords
driver
predetermined part
image
image data
nose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP22160084A
Other languages
Japanese (ja)
Inventor
Haruhiko Ogiso
治比古 小木曽
Yasutoshi Katou
康聡 加藤
Akio Yasuda
彰男 安田
Hiroshi Ishikawa
浩 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
NipponDenso Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NipponDenso Co Ltd filed Critical NipponDenso Co Ltd
Priority to JP22160084A priority Critical patent/JPS6199803A/en
Publication of JPS6199803A publication Critical patent/JPS6199803A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE:To detect a doze at the wheel by detecting the specific part candidate position of a driver's face part on the basis of the standard pattern of the driver's face part from image data, and detecting a specific part on the basis of the standard pattern of the whole specific part. CONSTITUTION:A driver's position detecting device is equipped with a specific part candidate position detecting means M4 which detects the specific part candidate position of the driver's face part, a specific part detecting means M5 which detects a specific part on the basis of the standard pattern of the whole specific part from image data on the periphery of the specific part candidate position, and a position recognizing means M6 which recognizes the three- dimensional position of a driver on the basis of the specific part detected by the specific part detecting means. Then, the specific part candidate part of the driver's face part is detected from the image data on the basis of the pattern of part of the specific part of the driver's face part and the specific part is detected from the image data on the basis of the standard pattern of the whole specific part to recognize the three-dimensional position of the vehicle driver speedily with high precision, thereby detecting a doze at the wheel.

Description

【発明の詳細な説明】 [産業上の利用分野1 本発明は車両運転者の乗車状態を画像として捉え、該車
両運転者の車室内における位置を認識する車両運転者の
位置認識装置に関し、特に車両運転者の所定部位を迅速
かつ正確に認識するよう構成−きれた車両運転者の位置
認識装置に関するものて゛ある。
[Detailed Description of the Invention] [Industrial Application Field 1] The present invention relates to a vehicle driver position recognition device that captures the riding condition of a vehicle driver as an image and recognizes the vehicle driver's position in the vehicle interior. The present invention relates to a vehicle driver position recognition device configured to quickly and accurately recognize a predetermined part of a vehicle driver.

1従来の技術] 31i狂電子機器の急速な発達に伴い車両の操作性、居
住性、事故回避性等の向上を目的とした新しい装置の研
究が進められており、その1つとして車両運転者の乗車
位置、例えば運転者の目の位置や頭の(f/ Mを認識
し、バックミラー、ヘッドレスト、空調空気の吹出口、
あるいはステアリング等の位dや角度を自動調整すると
か、運転者の目の位置や頭の位置の周期的変化から居眠
り運転を検知して運転者に警報を与えるといったことが
考えられている。そしてこのような制御を実行するのに
必要な、車両運転者の乗車位置を認識するための乗車位
置認識装置としては、車両運転者の乗車状態を搬像し、
画像として検出するカメラ等からなる両峰検出部と、そ
の検出された画像をいわゆる画像処理にJ、って分析し
、画像−トの運転者の目の位置や頭の位置等、予め定め
られた所定の位置を検出して、その部分の車室内におけ
る位置を算出1゛る、マイクロコンピュータ等から<’
(る画像処理部とにより構成し、運転者の位置を認識す
ることが考えられている。
1. Prior Art] With the rapid development of 31i electronic equipment, research is underway on new devices aimed at improving the operability, comfort, accident avoidance, etc. of vehicles. The driver's riding position, such as the position of the driver's eyes and head (f/m), is recognized, and the rearview mirror, headrest, air outlet
Alternatively, it is being considered to automatically adjust the position and angle of the steering wheel, etc., or to detect drowsy driving based on periodic changes in the position of the driver's eyes or head and issue a warning to the driver. The riding position recognition device for recognizing the riding position of the vehicle driver, which is necessary to execute such control, is a device that images the riding state of the vehicle driver,
A double-peak detection unit consisting of a camera, etc. that detects the image, and the detected image is analyzed using so-called image processing, and the position of the driver's eyes and head in the image is determined in advance. <'
It is being considered that the driver's position could be recognized using an image processing unit such as

E発明が解決しようとする問題点1 上述のバックミラー、ヘッドレスト、空調空気の吹出口
、あるいはステアリング等の位置や角度を自動調整する
とか、運転者の目の位置や頭の位置の周期的変化から居
眠り運転を検知して運転者に警報を与えるといったこと
を実行するためには、精度よく運転者の所定部位、例え
ば目の位置や鼻の位置等を認識することが必要である。
Problem 1 to be solved by the invention E: Automatic adjustment of the positions and angles of the above-mentioned rearview mirrors, headrests, air-conditioned air outlets, steering wheels, etc., and periodic changes in the position of the driver's eyes and head. In order to detect drowsy driving and issue a warning to the driver, it is necessary to accurately recognize predetermined parts of the driver, such as the positions of the eyes and nose.

しかしながら精度よく運転者の所定部位を認識するため
には処理時間がかかり過ぎる。
However, it takes too much processing time to accurately recognize a predetermined part of the driver.

本発明の目的は、迅速かつ精度よ(運転者の所定部位を
認識する車両運転者位置認識装置を提供”することにあ
る。
An object of the present invention is to provide a vehicle driver position recognition device that recognizes a predetermined part of the driver quickly and accurately.

[問題点を解決するための手段] 本発明の構成は、第1図に示す如く、 車両運転者M1を照射する発光手段M2と、該発光手段
M2の照射による一F記運転者M1からの反射光を受各
り、画像データとして運転者を検知りる画像検出手段M
3と、 該画像データから一1二記運転者顔面部の所定部位の一
部分の標準パターンに基づき−V記運転者顔面部の所定
部位候補f17置を検出する所定部位候補位置検出手段
M4と、 −1−記所定部fスl候補位置近傍の画像データから上
記所定部位全体の標準パターンに基づき所定部位を検出
16所定部位検出手段M5と、 1−記所定部位検出手段により検出された所定部位に幇
づいて上記運転者の三次元位置を認識する位置認識装置
M6と、 を備えたことを特徴とする車両運転者位置認識装置。
[Means for Solving the Problems] As shown in FIG. 1, the configuration of the present invention includes a light emitting means M2 that irradiates the vehicle driver M1, and light emitted from the driver M1 by the light emitting means M2. Image detection means M that receives reflected light and detects the driver as image data
3, a predetermined part candidate position detection means M4 for detecting the position of the predetermined part candidate f17 of the driver's facial region based on the standard pattern of a part of the predetermined region of the driver's facial region from the image data; -1- Detecting a predetermined part based on the standard pattern of the entire predetermined part from image data near the candidate position of the predetermined part fsl 16 Predetermined part detection means M5; 1- Predetermined part detected by the predetermined part detection means A vehicle driver position recognition device comprising: a position recognition device M6 that recognizes the three-dimensional position of the driver based on the location of the driver.

[作用] 本発明では、画像検出手段M3において明瞭な画像を1
りるために自然光以外の光源として発光手段を有し、発
光手段M2は車両運転者を照射して明るくする。その際
、赤外光を照射すると発光手段によって運転者が眩しさ
を感することがなく好ましい。
[Function] In the present invention, the image detection means M3 detects one clear image.
The vehicle driver has a light emitting means as a light source other than natural light to illuminate the vehicle driver, and the light emitting means M2 illuminates the vehicle driver. In this case, it is preferable to irradiate infrared light because the driver will not feel dazzled by the light emitting means.

画像検出手段M3は、発光手段の照射による運転者から
の反射光を受け、位@認識において必要な情報を運転者
の画像データとして検知する。この場合、画像検出手段
M3を運転者の側面画像を検出するよう助手席側に配設
置ると鼻及び顎等の顔面部の特徴的部分が認識しやすく
好ましい。又、画像検出手段に2次元固体踊像素子を用
いると、スペースがいらず、耐衝撃性にすぐれ好ましい
The image detection means M3 receives reflected light from the driver due to irradiation from the light emitting means, and detects information necessary for position recognition as image data of the driver. In this case, it is preferable to arrange the image detection means M3 on the passenger seat side so as to detect a side image of the driver so that characteristic parts of the face such as the nose and chin can be easily recognized. Further, it is preferable to use a two-dimensional solid-state image element as the image detecting means because it requires less space and has excellent impact resistance.

所定部位候補位置検出手段M4は、画像検出手段M3に
より検出された画像データから運転者顔面部の所定部位
の特徴を表わすごく小さな一部分の標準パターンに基づ
き、一致する度合を調べ、所定部位の候補位置を検出す
るものである。
The predetermined part candidate position detection means M4 checks the degree of matching based on a standard pattern of a very small part representing the characteristics of a predetermined part of the driver's face from the image data detected by the image detection means M3, and detects the predetermined part candidates. It detects the position.

上記所定部位候補位置検出手段M4は、例えば、所定部
位の一部分としての最小のパターンとして画像データ内
の所定方向の2点間の差分を考えることも出来、差分を
求めて所定値以十の差分がある場合の位置を検索するこ
とにより、所定部位の候補位置を検出するよう構成でき
る。ここで所定方向を水平方向とすると顔面部の縁部で
ある輪郭を知るのに都合が良く、鼻尖等の候補位置を検
出するのに都合が良いが、垂直方向あるいは斜め一定方
向でも良く、その方向に対する顔面部の形状が所定部分
を良く特徴づ番プるように所定方向を決めれば良い。
The predetermined part candidate position detecting means M4 can consider, for example, the difference between two points in a predetermined direction in the image data as the minimum pattern as a part of the predetermined part, and calculates the difference and calculates a difference that is ten or more than a predetermined value. The candidate position of a predetermined part can be detected by searching for a position where there is a position. Here, if the predetermined direction is horizontal, it is convenient for knowing the outline of the edge of the face and for detecting candidate positions such as the tip of the nose. The predetermined direction may be determined so that the shape of the facial part with respect to the direction has a good characteristic of the predetermined portion.

所定部位検出手段M5は、所定部位候補位置検出手段M
4で検出された所定部位候補位置の近傍の画像データか
ら、上記所定部位全体の標準パターンに基づき、一致す
る度合を調べ、所定部位を検出するものである。所定部
位検出手段M5は所定部位全体の標準パターンに基づい
ている為、精1’f[J、く車両運転者の位置を認識す
るJ:う作用している。
The predetermined part detection means M5 is a predetermined part candidate position detection means M.
Based on the standard pattern of the entire predetermined region, the degree of matching is checked from the image data in the vicinity of the predetermined region candidate position detected in step 4, and the predetermined region is detected. Since the predetermined part detection means M5 is based on the standard pattern of the entire predetermined part, it is working precisely to recognize the position of the vehicle driver.

又、所定部位候補位置検出手段M4は、車両運転者の位
置を迅速に認識するよう作用している。
Further, the predetermined part candidate position detecting means M4 functions to quickly recognize the position of the vehicle driver.

というのは、所定部位のごく小さい一部分の標準パター
ンに基づき候補位置を検出し、その候補位づき検索する
為に、所定部位全体をただちに検索する場合に比較して
検索に用いる画像データ内の画素が非常に少な(迅速に
検索を行うことができる。又、所定部位候補位置検出手
段を、まず所定部位の一部分の標準パターンに基づき所
定部位候補位置を検出し、続いてその候補位置近傍で前
段階の標準パターンより大きな所定部位の一部分の標準
パターンに基づいて所定部位候補位置を検出するように
2段階のパターン検索を行なうようにしても自く、より
迅速に検索を行むうことがCきる。
This is because candidate positions are detected based on a standard pattern of a very small part of a predetermined part, and the pixels in the image data used for the search are compared to when the entire predetermined part is immediately searched. In addition, the predetermined part candidate position detecting means first detects the predetermined part candidate position based on a standard pattern of a part of the predetermined part, and then detects the predetermined part candidate position in the vicinity of the candidate position. Even if a two-step pattern search is performed to detect the predetermined part candidate position based on a standard pattern of a part of the predetermined part that is larger than the standard pattern of the step, the search can be performed more quickly. .

尚、所定部位の全体若しくは一部分の樟等パターンに基
づいて所定部位若しくはその候補位置を検出する処理は
いわゆる空間フィルタ等を用いて行われる処理である。
Note that the process of detecting the predetermined part or its candidate position based on the camphor pattern of the whole or part of the predetermined part is a process performed using a so-called spatial filter or the like.

空間フィルタとは画像データを特定の条件にて濾過し新
たな画像データを得るフィルタであり、例えば特定のパ
ターンに対する一致度を求め、一致度が高い場合に、イ
の部分の画像データを抽出したり、あるいは隣接する2
−8一 点間の差分を求め所定値以上の画像データを抽出したり
することも出来る。
A spatial filter is a filter that obtains new image data by filtering image data under specific conditions.For example, it calculates the degree of matching with a specific pattern, and if the degree of matching is high, extracts the image data of the part A. or two adjacent
-8 It is also possible to find the difference between one point and extract image data that is greater than a predetermined value.

[実施例] 以下本発明の第1の実施例を図面と共に説明する。[Example] A first embodiment of the present invention will be described below with reference to the drawings.

第2図は本実施例の乗車位置認識装置が搭載された車両
のインストルメントパネル部分及びその周辺を表わす斜
視図であって、1は運転者、2は運転席、3はインスト
ルメントパネルを表わしている。そしてインストルメン
トパネル3の運転席2に対する左斜め前方、即ち、助手
席側前方には、運転者1の上体を左方向から照射する発
光部5と、運転者1の上体を左方向から2次元画像とし
て促える画像検出部6が設けられている。
FIG. 2 is a perspective view showing the instrument panel part and its surroundings of a vehicle in which the occupant position recognition device of this embodiment is installed, in which 1 represents the driver, 2 represents the driver's seat, and 3 represents the instrument panel. ing. A light emitting unit 5 that illuminates the upper body of the driver 1 from the left side is located diagonally forward to the left of the driver's seat 2 of the instrument panel 3, that is, in front of the passenger seat side. An image detection unit 6 that can generate a two-dimensional image is provided.

ここで発光部5は前述の発光手段■に相当し、照射時に
運転者1に眩しさを感じさせることのないよう赤外光を
発光する赤外ストロボが用いられ、第3図に示す如く、
赤外発光体5aと、赤外発光体5aにて発光された赤外
光を広く運転者に照射する為の1ノンズ5bと、赤外光
を透過し、可視光を通さない赤外フィルタ5Cと、これ
ら赤外発光体5a、レンズ5b及び赤外フィルタ5Cを
格納し、インストルメントパネル3の所定の1a圓に取
り付けるためのケース5dとから構成されている。
Here, the light emitting unit 5 corresponds to the above-mentioned light emitting means (2), and an infrared strobe that emits infrared light is used so as not to dazzle the driver 1 during irradiation, as shown in FIG.
An infrared light emitter 5a, a non-zero 5b for irradiating a wide range of infrared light emitted by the infrared light emitter 5a to the driver, and an infrared filter 5C that transmits infrared light but blocks visible light. and a case 5d for storing the infrared emitter 5a, lens 5b, and infrared filter 5C and attaching it to a predetermined circle 1a of the instrument panel 3.

また画像検出部6は前述の画像検出手段■に相当し、第
4図に示す如く、赤外光を透過する赤外フィルタ6aと
、運転者1の上体画像を後述の固体m像素子6eの胤像
面に結像するための焦貞距離が例えば12.5111の
レンズ6iと、光量を調整するための液晶絞り素子6C
と、上記赤外フィルタ6a、レンズ6b及び液晶絞り素
子6Cを透過して結像された織縁面上の映像をスイッチ
ング走査で電気信号として取り出す、フォトダイA−ド
アレイとスイッチング回路とからなるMOS形の固体撮
像素子6eと、上記各部を格納し、インストルメントパ
ネル3に取り付けるためのケース6tとから構成される
ノンインターレース方式の固体カメラが用いられている
Further, the image detection section 6 corresponds to the above-mentioned image detection means (2), and as shown in FIG. A lens 6i with a focal length of, for example, 12.5111 to form an image on the image plane of the lens, and a liquid crystal aperture element 6C to adjust the amount of light.
and a MOS comprising a photo diode A-door array and a switching circuit, which extracts the image on the weave edge surface formed by passing through the infrared filter 6a, lens 6b, and liquid crystal aperture element 6C as an electrical signal by switching scanning. A non-interlaced solid-state camera is used, which is comprised of a solid-state image sensor 6e in the form of a solid-state image sensor 6e, and a case 6t for storing the above-mentioned parts and attaching them to the instrument panel 3.

次に本実施例の乗車位置認識装置の全体構成を第5図に
示すブロック図に基づき説明する。
Next, the overall configuration of the riding position recognition device of this embodiment will be explained based on the block diagram shown in FIG. 5.

図に示づ如く、本認識装置は上記発光部5及び画像検出
部6の他に、画像検出部6にて捉えられた運転者1の画
像を処理()、運転者の位置(本実施例においては鼻の
位置)を認識する画像処理部8を備えている。そしてこ
の画像処理M8は、上記画像検出部6を制御すると共に
、画像検出部6にてjqられた画像信号をデジタル信号
に変換し、その変換されたデジタル信号を画像データと
して一目記憶するこのとのできる画像入力部10と、上
記発光部5を発光させるための照射信号を出力づる照射
信号出力部12ど、画像入力部10にてA/n変換され
記憶された画像データから運転者1の顔向部にお番プる
所定部分の縁部を検出し画像処理を行ない、該縁部画像
データf)日3運転者1の鼻のイ1装置を認識するとい
った一連の位置認識処理を実行するセントラルブロセッ
シングユニット(CPU)14と、CPUI/lにて位
置認識処理を実行するだめの制御プログラムやデータが
予め記憶されたリードAンリメ七り(ROM>16と、
演算処理実行のために用いられるデータ等が一時的に読
み書きされるランダムアクセスメモリ(RAM)18と
1.上記各部を結び画像信号や制御信号の通路とされる
パスライン20と、上記各部に電源を供給する電源回路
22とから構成されている。また上記画像入力部10は
、画像検出部6に垂直同期信号及び水平同期信号を発生
する同期信号発生回路10aと、画像検出部6により得
られた画像信号を、例えば1フレーム当たりに横256
、縦240の画素の明度衣わづiジタル信1Jからなる
画像データに変換するA/l’)変換回路10bと、そ
の変換された画像データを過去2フレ一ム分だけ記憶す
ることのできる画像データ記憶回路10cとから構成さ
れている。
As shown in the figure, in addition to the light emitting unit 5 and the image detecting unit 6, this recognition device processes () the image of the driver 1 captured by the image detecting unit 6, and processes the driver's position (in this example An image processing unit 8 is provided to recognize the position of the nose. The image processing M8 controls the image detection section 6, converts the image signal jqed by the image detection section 6 into a digital signal, and stores the converted digital signal at a glance as image data. An image input section 10 that can output light, and an irradiation signal output section 12 that outputs an irradiation signal for causing the light emitting section 5 to emit light, etc. Detects the edge of a predetermined part facing the face, performs image processing, and executes a series of position recognition processes such as recognizing the edge image data f) 1 device on driver 1's nose a central processing unit (CPU) 14 to perform position recognition processing, and a read memory (ROM>16) in which control programs and data for executing position recognition processing on the CPUI/l are stored in advance;
Random access memory (RAM) 18 and 1. Random access memory (RAM) 18 temporarily read and write data used for execution of arithmetic processing. It is composed of a path line 20 that connects each of the above sections and serves as a path for image signals and control signals, and a power supply circuit 22 that supplies power to each of the above sections. The image input section 10 also includes a synchronization signal generation circuit 10a that generates a vertical synchronization signal and a horizontal synchronization signal for the image detection section 6, and an image signal obtained by the image detection section 6, for example, at 256 pixels horizontally per frame.
, A/l') conversion circuit 10b that converts the image data into image data consisting of 1J digital signals of 240 vertical pixels, and is capable of storing the converted image data for the past two frames. It is composed of an image data storage circuit 10c.

次に上記画像処理部8にて実行される位置認識処理の動
作について、第6図に示す70−ヂヤートに沿って詳し
く説明する。尚この処理は一定周期の信号やスイッチか
らの信号等によって運転者1の位置認識の要求が入力さ
れた場合に実行されるものであり、上述した如く本実施
例においては運転者1の位置として鼻の位置が認識され
ることとイにる。
Next, the operation of the position recognition process executed by the image processing section 8 will be explained in detail along the line 70 shown in FIG. Note that this process is executed when a request for recognizing the position of the driver 1 is inputted by a signal of a certain period or a signal from a switch, etc., and as described above, in this embodiment, the position of the driver 1 is determined as the position of the driver 1. It helps that the position of the nose is recognized.

図に示す如く処理が開始されるとまずステップ101が
実行され、画像検出部6において、発光部5を発光した
際に画像が検出されるよう、発光部5に照射信号を出力
すると共に、その検出される画像を画像入力部10にお
いてデジタル信号からなる画像データGとして記憶する
、画像データ読み込み処理を実行する。
As shown in the figure, when the process is started, step 101 is first executed, and the image detection section 6 outputs an irradiation signal to the light emitting section 5 so that an image is detected when the light emitting section 5 emits light. An image data reading process is executed in which the detected image is stored in the image input section 10 as image data G consisting of a digital signal.

ここで画像入力部10は、同期信号発生回路10a、A
/D変挽変格回路10b画像データ記憶回路10cを備
えており、同期信号発生回路10aJ:り出力される垂
直同期信号及び水平同期信号に従い画像検出部6を制御
し、画像検出部6から出力される画像信号を順次取り込
みA/D変挽変格回路10bしてデジタル信号に変換さ
れた画像信号を、画像データGとして記憶回路10cに
記憶することができるので、本画像データ読み込み処理
としては、画像入力部10を動作させ、同期信号発生回
路10aから出力される垂直同期信号と同期して発光部
5を発光するだけで容易に実行することができる。つま
り第7図に示す如(、まず垂直同期信号の立ち上がり時
期toより所定時間Δ丁経過後発光部5に照射信号Sを
出力することによって垂直帰線時期Δt1と一致して発
光部5を発光させ、その発光によって得られる画像を画
像データGとして読み込むといった処理が実行されるの
である。
Here, the image input section 10 includes synchronization signal generation circuits 10a and A.
/D transformation circuit 10b is equipped with an image data storage circuit 10c, and controls the image detection section 6 according to the vertical synchronization signal and horizontal synchronization signal output from the synchronization signal generation circuit 10aJ. The image signals that are sequentially taken in and converted into digital signals by the A/D transformation circuit 10b can be stored in the storage circuit 10c as image data G. This can be easily carried out by simply operating the input section 10 and causing the light emitting section 5 to emit light in synchronization with the vertical synchronization signal output from the synchronization signal generation circuit 10a. In other words, as shown in FIG. 7, first, after a predetermined time Δt has elapsed from the rise time to of the vertical synchronization signal, the irradiation signal S is output to the light emitting unit 5, thereby causing the light emitting unit 5 to emit light in coincidence with the vertical retrace time Δt1. The image obtained by the light emission is read as image data G.

尚、上記画像入力部10にてAl1)変換され記憶され
る画像データGは、前述したように画像検出部6にて得
られた画像を横256.1!240に分割する画素の明
度を表わすものであり、第8図に示す如く各画素毎にそ
の明度G (X 、 V )が記憶されている。
The image data G converted and stored in the image input unit 10 represents the brightness of the pixels that divide the image obtained by the image detection unit 6 into 256.1!240 pixels horizontally, as described above. As shown in FIG. 8, the brightness G (X, V) of each pixel is stored.

このようにステップ101にて発光部5、画像検出部6
及び画像入力部10が制動される。画像入力部10にお
いて画像データGが読み込まれると続くステップ102
が実行され、画像データGにおける予め設定された所定
のエリア、つまり第9図(イ)に示す領域30を鼻の存
在域とし、この領域30内で所定部位の一部分の標準パ
ターンに71づき、所定部位候補位置としての縁部を検
出する縁部検出処理が行なわれる。尚、所定部位の一部
分の標準パターンどして、画像データの水平方向の2点
間の差分を考えることが出来、差分を求め、イの差分が
所定値以上の位置を検索するものである。尚検索した差
分は2値化して第9図(D)に示す2値画像31を得る
よう画像処理が施してあり、縁部の判別が容易になるよ
うなされている。
In this way, in step 101, the light emitting section 5, the image detecting section 6
And the image input unit 10 is braked. Step 102 that follows when the image data G is read in the image input unit 10
is executed, a predetermined area set in advance in the image data G, that is, the area 30 shown in FIG. Edge detection processing is performed to detect an edge as a predetermined region candidate position. Incidentally, the difference between two points in the horizontal direction of image data can be considered as a standard pattern of a part of a predetermined part, and the difference is calculated and a position where the difference in A is greater than a predetermined value is searched. The searched difference is binarized and image processed to obtain a binary image 31 shown in FIG. 9(D), so that edges can be easily distinguished.

つまり、本縁部検出処理としては、まず第9図(イ)の
鼻存在1430における左上端の画素を出発点として、
左から右の水平方向に右端に達するまで、隣り合う画素
の明度の差を求める。ただし本実施例においては差分計
算に使用する画素は、鼻存在域30において第10図の
斜線部分の画素に示す如く縦方向は3画素おきで、横方
向は1画素おきとしている。つまり1/8の個数の画素
しか使用しないJ:うになされ、これによって差分を求
める4算量を大幅に低減させ計算に要する時間を早めて
おり、又それにもかかわらず後に縁部を検出するに充分
な画素を保つことができる。今、所定部位の一部分の標
準パターンとしての差分を求めるのに使用する画素の明
度をGK(i、、i)とし、第10図に示す如(差分計
算に使用する画素において左上端を(0,0)とし、i
は横方向で右へ増大、jは縦方向で下へ増大という様に
座標をとると、明度の差分GK1(i、j)は以下の式
で求まる。ただしGK (i 、 、i )は16段階
の値をとるものとしOから15までの整数値で表わされ
る。
In other words, the main edge detection process starts from the upper left pixel of the nose presence 1430 in FIG. 9(a),
Find the difference in brightness between adjacent pixels in the horizontal direction from left to right until the right end is reached. However, in this embodiment, the pixels used for the difference calculation are every three pixels in the vertical direction and every other pixel in the horizontal direction, as shown by the shaded pixels in FIG. 10 in the nose existing region 30. In other words, only 1/8th the number of pixels is used, which greatly reduces the amount of calculation needed to calculate the difference and speeds up the calculation time. Sufficient pixels can be maintained. Now, let the brightness of the pixel used to calculate the difference as a standard pattern of a part of a predetermined part be GK(i,,i), and the upper left corner of the pixel used for difference calculation is (0) as shown in Figure 10. ,0) and i
If the coordinates are taken such that G increases to the right in the horizontal direction and j increases to the bottom in the vertical direction, the brightness difference GK1 (i, j) can be found by the following formula. However, GK (i, , i) takes values in 16 stages and is expressed as an integer value from 0 to 15.

GKI(i、j> =16x rGK (i+1. j  ) +GK (
i  。
GKI(i, j> =16x rGK (i+1. j ) +GK (
i.

j ) −GK (i−1,j ) −GK (i −
2、j)]−1−16 上式は実験的に求めた縁部を検出しやすい差分を求める
計算式であり、水平方向左端から右端ま1、での差分を
求めるのに使用するすべての画素において上記計算を行
なう。つづいて該求めた差分の中で極大のものを選び、
その値が一定値以−[、本実施例では48以上だったと
きはそこが縁部であると検索する。続いて、2進化処理
を行ないエツジ画像としての2値画像31を得る。ただ
し第11図に示す如く極大値を取る画素が複数あるとき
は最も右にある画素を縁部であるとすればよく、この場
合は 1−16の部分が極大の差分となる。尚2値化処
即の手段は、縁部とみなすことのできた画素には2値画
像上の1区画の明度GK2(i。
j ) -GK (i-1,j) -GK (i -
2, j)]-1-16 The above formula is a calculation formula for calculating the difference that makes it easy to detect the experimentally determined edge. The above calculation is performed for each pixel. Next, choose the largest one among the calculated differences,
If the value is greater than a certain value (48 or greater in this embodiment), the search is made to determine that the edge is at that point. Subsequently, a binarization process is performed to obtain a binary image 31 as an edge image. However, as shown in FIG. 11, when there are a plurality of pixels that take the maximum value, the rightmost pixel may be taken as the edge, and in this case, the portion 1-16 becomes the maximum difference. The immediate means of the binarization process is to set the brightness GK2(i) of one section on the binary image to pixels that can be considered as edges.

、j)を1とし、縁部とみなされない画素にはGK2(
+、、i)をOとするものである。尚、上記2値画像は
原画像データの画素が8個集まったもの(差分を求めた
ときに使った1単位)を1区画と考えておりその1区画
全部の画素に一定の明るさを持つ明度1か、もしくは一
定の明るさを持たない明KtOを与えたものであり、第
9図(ロ)に示1如く画像が得られる。
, j) is set to 1, and GK2(
+, , i) is O. In addition, in the above binary image, a collection of 8 pixels of the original image data (one unit used when calculating the difference) is considered as one section, and all pixels in that section have a constant brightness. This gives a brightness of 1 or a brightness KtO that does not have a constant brightness, and an image as shown in FIG. 9 (b) is obtained.

そして上記ステップ102にて縁部が検出されると次ス
テツプ103が実行される。
When the edge is detected in step 102, the next step 103 is executed.

ステップ103ではステップ102にて検出された縁部
において鼻である可能性のある部分を選択する処理を行
なうステップで、鼻候補を検出するものである。本実施
例においてはステップ102で得られた第9図(ロ)の
如く2値画像において、左に凸の形状を有する部分を検
索し、その凸部頂点の画素を鼻尖候補点として検出する
。上記左に凸の形状は2値画像において第12図(イ)
又は(ロ)に示す如く画像をとると考えられ、この場合
、以下の論理式が用いられる。
In step 103, a process is performed to select a portion of the edge detected in step 102 that may be a nose, and a nose candidate is detected. In this embodiment, in the binary image obtained in step 102 as shown in FIG. 9(b), a portion having a convex shape to the left is searched, and the pixel at the apex of the convex portion is detected as a nasal tip candidate point. The convex shape to the left above is shown in Figure 12 (a) in the binary image.
Alternatively, it is considered that an image is taken as shown in (b), and in this case, the following logical formula is used.

GK2 (i 、 j )へ(GK2 (i 、 、i
 −1)VGK2 (i +1.j−1)) へ(GK2 (i +1.、i −2)VGK2 (i
 +2.j−2>) 続くステップ104ではステップ103において寿候補
が検出できたかどうかの判断を行なう。
to GK2 (i, j) (GK2 (i, , i
-1) VGK2 (i +1.j-1)) to (GK2 (i +1., i -2)VGK2 (i
+2. j-2>) In the following step 104, it is determined whether or not the longevity candidate was detected in step 103.

ステップ103において、該画像処理されてできた21
i画像上で左に凸となっている部分がない場合等、鼻候
補が検出できない場合があり、続くステップ107にお
いて検出不能警告を実行するよう処理が分岐する。
In step 103, 21
In some cases, such as when there is no convex portion to the left on the i-image, the nose candidate cannot be detected, and the process branches to execute a detection failure warning in the subsequent step 107.

続くステップ105は、ステップ104で鼻候補が検出
できたと判断した場合に実行されるもの=  18  
− で、ステップ103で検出された鼻候補地点を調べて鼻
位置を決定するよう実行される。本実施例においてはス
テップ103で検出された全ての鼻尖候補地点が、ステ
ップ101で得られた画像データ十で該当する地点近傍
で、該画像データと予め設定されている第13図に示す
如き所定部位全体のlli準パターンとしての鼻の標準
パターンどの相1」の度合いを調べ、相関の最大値とな
る画像の位置を以て鼻が存在する位置であるとみなし、
鼻の位置を決定するものである。
The following step 105 is executed when it is determined in step 104 that the nose candidate has been detected = 18
- In step 103, the nose candidate point detected in step 103 is examined to determine the nose position. In this embodiment, all the nasal tip candidate points detected in step 103 are located in the vicinity of the corresponding points in the image data obtained in step 101, and are located in the vicinity of the corresponding points in the image data obtained in step 101, and in the vicinity of the corresponding points as shown in FIG. Examine the standard pattern of the nose as an lli quasi-pattern for the entire region. Examine the degree of phase 1, and consider the position of the image where the correlation is maximum as the position where the nose exists.
This determines the position of the nose.

つまり、−に記ステップ103にて求められた一つの鼻
尖候補地点の画素の位置G(X、V)を中心に、第14
図に示す如く上下、左右に夫々5画素分、計121個の
画素を、夫々第13図に示した鼻の標準パターンにお【
ノる中心位置ya  (0,0>として画像データと標
準パターンとの相関値を計算し、その値が最も大きくな
った画素位置を鼻の位置G (hx、 hy)として認
識するのである。ここで、第13図の鼻の標準パターン
におIプる中心位置yp  (0,O)は鼻に相当する
部分として予め設−19一 定されており、また相関値としては次式1式%) より求めることができる。そしてト装置及び、iの値と
しては、鼻の標準パターンが中心va  (0,0)に
対して上に16、下に7、左に1、右に6の拡がりを持
つデータとして構成されていることから、1に(−1)
から(+6>1.iに(−16)から(+7)の間の整
数値を用いればよい。
In other words, the 14th
As shown in the figure, a total of 121 pixels, 5 pixels each on the top and bottom, left and right sides, are applied to the standard pattern of the nose shown in Figure 13.
The correlation value between the image data and the standard pattern is calculated as the nose center position ya (0, 0>), and the pixel position where the value is the largest is recognized as the nose position G (hx, hy). The center position yp (0, O) in the standard nose pattern in Figure 13 is set in advance as a part corresponding to the nose, and the correlation value is given by the following formula (1)%) You can ask for more. The standard pattern of the nose is configured as data with a spread of 16 above, 7 below, 1 on the left, and 6 on the right with respect to the center va (0, 0). Since there is, it becomes 1 (-1)
(+6>1. An integer value between (-16) and (+7) may be used for i.

また相関値が、鼻の標準パターンにおける中心位Im 
 (0,0)に対して、第14図に示す如き画像データ
上の画素G(X、V)を中心とする上下、左右に夫々5
個、計121個の画素を当てはめ、計算されることから
、上式における×、Yの値としては、夫々、Xがx±5
、YがV±5の間の整数値となり、結局×及びYの組み
合わせで最大121種類の相関値が算出される。尚、ス
テップ103にて求められた鼻尖候補地点は複数あるこ
ともあり、この場合全ての鼻尖候補地点の画素において
上述した相関値を算出する必要があり、その全ての相関
値の中で最大値となる画像データl:ノ1ifii*G
 (X 、 Y ) カ鼻(1)位置G (hx、 h
y) トして認識されるのである。
Also, the correlation value is the center position Im in the standard pattern of the nose.
(0, 0), there are 5
Since the calculation is performed by applying a total of 121 pixels, the values of x and Y in the above equation are as follows:
, Y becomes an integer value between V±5, and in the end, a maximum of 121 types of correlation values are calculated by combinations of x and Y. Note that there may be multiple nasal tip candidate points found in step 103, and in this case, it is necessary to calculate the above-mentioned correlation values for the pixels of all nasal tip candidate points, and the maximum value among all the correlation values is The image data l:ノ1ifii*G
(X, Y) Nose (1) position G (hx, h
y) It is recognized as

続くステップ106ではステップ105において鼻の位
置が認識できたかどうかの判断を行なう。
In the following step 106, it is determined whether the position of the nose was recognized in step 105.

ステップ105において、鼻の標準パターンと画像デー
タとの相関の度合が小さ過ぎ鼻と認識する部分がなかっ
た場合等、鼻の位置G (hx、 hy)認識不能の場
合、続くステップ107において検出不能警告を実行す
るよう処理が分岐する。
In step 105, if the nose position G (hx, hy) cannot be recognized, such as when the degree of correlation between the standard pattern of the nose and the image data is too small and there is no part that can be recognized as a nose, it is determined that the nose position G (hx, hy) cannot be recognized in the following step 107. Processing branches to execute the warning.

ステップ107は検出不能警告を行なうものでディスプ
レイ表示もしくは音声表示等にて運転者にその旨を知ら
せる。運転者は警告を受けると、姿勢を正すなどして再
び車両運転者の位置認識処理を実行する処置をとるとよ
い。
In step 107, a detection failure warning is issued, and the driver is notified of this through a display or audio display. When the driver receives the warning, it is advisable to take measures such as correcting his or her posture and executing the vehicle driver position recognition process again.

続くステップ108においては、]:記ステップ106
にて求められた画素データG上の鼻の位置a < hx
、 by)を基に、運転者1の左右方向の移動はないも
のとして車室内における運転者1の鼻の三次元位4が求
められることとなる。つまり第15図に示す運転者1の
左右(Z)方向への移動は−21= ないものと仮定し、実験的に求めた車両運転者の鼻の標
準位1fPを基準とする運転者1の鼻の三次元位HMを
座標(X、Y、O)として求めることによって鼻の位置
が認識されるのであるが、この処理としては、上記画像
検出部6が固定されていることから、画像データ上の標
準点Pの位1fG(px、py)を予め記憶しておき、
この基準位NG(px、 py)に対する鼻の位置G 
(hx、 hV) (7) t itを算出することに
よって、容易に実行することができ、本実施例の車両運
転者の鼻の位置を認識する作業が完了する。
In the following step 108, ]: Step 106
The position of the nose on the pixel data G determined by a < hx
. In other words, assuming that there is no movement of the driver 1 in the left-right (Z) direction shown in FIG. The position of the nose is recognized by determining the three-dimensional position HM of the nose as coordinates (X, Y, O), but since the image detection unit 6 is fixed, this process requires image data Store in advance the digit 1fG (px, py) of the standard point P above,
Nose position G with respect to this reference position NG (px, py)
(hx, hV) (7) By calculating t it, the task of recognizing the position of the vehicle driver's nose in this embodiment, which can be easily executed, is completed.

尚、ステップ101が画像検出手段M3としての処理に
相当し、ステップ102からステップ103までが所定
部位候補位置検出手段M4としての処理に相当し、ステ
ップ105が所定部位検出手段M5としての処理に相当
し、ステップ108が位121H識手段M6としての処
理に相当する。
Note that step 101 corresponds to processing as the image detection means M3, steps 102 to 103 correspond to processing as the predetermined region candidate position detection means M4, and step 105 corresponds to processing as the predetermined region detection means M5. However, step 108 corresponds to processing as the position 121H recognition means M6.

以上説明した如く、本実施例の車両運転者の位置認識装
置においては、縁部の所定部位を認識する際に、所定部
位の一部分としての最小パターンとして画像データ内の
所定方向の2点間の差分を考え、差分を求めることによ
り縁部を明確に検出Jることが可能になり、又、2偵画
像を1qることににす、一層線部を明確に認識できるよ
うになる。
As explained above, in the vehicle driver position recognition device of the present embodiment, when recognizing a predetermined portion of the edge, the minimum pattern as a part of the predetermined portion is used as the minimum pattern between two points in a predetermined direction in image data. By considering the difference and finding the difference, it becomes possible to clearly detect the edges, and if the second image is 1q, it becomes possible to recognize the line parts even more clearly.

又、上記差分始期とともに縁部において凸部である鼻尖
部IQを検索するように2段階の処理を行なうことにJ
:り所定部(O検出手段を働かせる位置を限定し、又、
所定部位全体の標準パターンを用いて認識するよう構成
されているので、所定部位の位置を誤って認識すること
がなくなり、従って、迅速にかつ精度J:り乗車位置を
認識することができるようになる。
In addition, we decided to perform a two-step process to search for the nose tip IQ, which is a convex part at the edge, along with the above-mentioned difference start time.
: A predetermined part (limiting the position where the O detection means is activated, and
Since it is configured to recognize the entire predetermined part using a standard pattern, the position of the predetermined part is not erroneously recognized, and therefore the riding position can be recognized quickly and accurately. Become.

次に本発明の第2の実施例を図面と共に説明する。Next, a second embodiment of the present invention will be described with reference to the drawings.

本実施例では、第1の実施例により認識された車両運転
者1の鼻の位置を基にして、車両運転者1の目の三次元
位置をgeする。
In this embodiment, the three-dimensional position of the vehicle driver's 1 eyes is determined based on the position of the vehicle driver's 1 nose recognized in the first embodiment.

本実施例にて実行される位置認識処理の動作について、
第16図に示すフローチャートに沿って詳しく説明する
。尚、本実施例のステップ201、ステップ202、ス
テップ203、ステップ204、ステップ205、ステ
ップ206及びステップ207は第1の実施例における
ステップ101、ステップ102、ステップ103、ス
テップ104、ステップ105、ステップ106及びス
テップ107と同様であるので説明を省略する。
Regarding the operation of the position recognition process executed in this embodiment,
This will be explained in detail along the flowchart shown in FIG. Note that steps 201, 202, 203, 204, 205, 206, and 207 in this embodiment are the same as steps 101, 102, 103, 104, 105, and 106 in the first embodiment. and step 107, so the explanation will be omitted.

ステップ201、ステップ202、ステップ203、ス
テップ204、ステップ205、ステップ206及びス
テップ207を順次実行することによって鼻の位置G 
(hx、 hy)が求められると、続くステップ208
に移行して、今度はこの鼻の位置G (hx、 hy)
に基づき目の位置を求めることとなる。ここで目の位置
を求めるに当っては、まず鼻の位置G (hx、 hy
)より右に12画素、上に13画画素行した画素の位置
G (hx+ 12 、 tty−13)を求め、この
位置の近傍で予め設定されている第17図に示す如き目
の標準パターンと画像データとの相関の度合を調べ、目
の位置Q(n+x。
By sequentially executing steps 201, 202, 203, 204, 205, 206 and 207, the position of the nose
Once (hx, hy) is determined, the following step 208
, and now this nose position G (hx, hy)
Based on this, the position of the eyes is determined. To find the position of the eyes, first calculate the position of the nose G (hx, hy
), find the pixel position G (hx+12, tty-13) 12 pixels to the right and 13 pixels above, and use the standard eye pattern as shown in Fig. 17, which is set in advance near this position. The degree of correlation with the image data is examined, and the eye position Q(n+x) is determined.

my)を決定する。尚この決定方法としては、上記ステ
ップ205の鼻の位置決定と同様に行なえばよいので、
説明は省略する。
my). Note that this determination method can be performed in the same manner as the nose position determination in step 205 above.
Explanation will be omitted.

続くステップ209においては、−上記ステップ208
にて求められた画素データG上の目の位置G (ax、
 n+y)を基に、運転者1の左右方向の移動はないも
のとして車室内にお番プる運転者1の目の三次元位置が
求められることとなる。尚、動作については第1の実施
例のステップ108において鼻の位置を目の位置と考え
れば同様であるので説明を省略する。
In the following step 209 - the above step 208
The eye position G (ax,
n+y), the three-dimensional position of the eyes of the driver 1 in the vehicle interior is determined, assuming that the driver 1 does not move in the left-right direction. Note that the operation is the same as in step 108 of the first embodiment if the position of the nose is considered as the position of the eyes, so the explanation will be omitted.

以上説明した如く、本実施例においては、第1実施例と
同一の効果を有するとともに、更に運転者の目の位置を
画像データから直接水めるのではなく、まず画像データ
上で検出しやすい部分である顔面部J:り突出した鼻の
位置を認識し、続いて鼻と目との間の相関関係から、目
の位置を認識するようにしているため、容易に乗車位M
(左目の位置)を認識することができる。又、その目の
位置をm fJ Tlる際にはS+単パターンを用いて
実行するよう構成されているので、目の三次元位置を誤
って認m′!Jる事が少なく、より正確に乗車位置を認
識する事ができる。
As explained above, this embodiment has the same effect as the first embodiment, and is also easier to detect on the image data instead of directly determining the position of the driver's eyes from the image data. The position of the prominent nose is recognized, and the position of the eyes is then recognized from the correlation between the nose and the eyes, making it easy to adjust the riding position.
(the position of the left eye) can be recognized. In addition, when calculating the position of the eye, it is configured to use the S+ single pattern, so the three-dimensional position of the eye may be mistakenly recognized m'! It is possible to recognize the riding position more accurately.

目の位置を算出する他の手段として、まず鼻の位置を本
実施例と同様に縁部検出処理を実行して認識し、次いで
その鼻の位置より顎の位置を予測しその近傍で顎の標準
パターンを用いて実行し顎の位置を算出し、その2箇所
の位置と目の位置との特定の関係(予め複数の車両運転
者の画像を撮り作成した平均的データ)から該車両運転
者の目の位置を算出するよう構成してもよい。この方法
は、車両運転者1が眼鏡等をかけている等、目を検出し
得ないような場合でも目の位置を正しく認識できるよう
になる。
Another method for calculating the eye position is to first recognize the position of the nose by performing edge detection processing in the same way as in this embodiment, and then predict the position of the chin from the position of the nose and detect the position of the chin in the vicinity. The position of the chin is calculated using a standard pattern, and the specific relationship between the two positions and the position of the eyes (average data created by taking images of multiple vehicle drivers in advance) is used to calculate the position of the vehicle driver. The position of the eyes may be calculated. This method makes it possible to correctly recognize the position of the eyes even when the eyes cannot be detected, such as when the vehicle driver 1 is wearing glasses or the like.

又、本実施例においては車両運転者の乗車位置として運
転者1の目の位置(正確には左目の位置)を認識するよ
うにしているが、鼻、顎等の他の部分の位置を車両運転
者の位置としてその三次元位置を認識するようにしても
よく、車両運転者の位置を認識した後の処理、つまりバ
ックミラーを自動調整するとか、ステアリング角度を自
動調整するとかいった各処理に応じて最も適切な乗車位
置を認識するJ:うに構成すればよい。因みに本実施例
のように運転者1の目の位置を認識した際にはバックミ
ラーの角度を自vJ調整したり、居眠り運転を検知する
場合等に用いることができる。
Furthermore, in this embodiment, the position of the eyes of the driver 1 (more precisely, the position of the left eye) is recognized as the riding position of the vehicle driver, but the position of other parts such as the nose and chin is recognized by the vehicle. The three-dimensional position may be recognized as the driver's position, and the processing after recognizing the vehicle driver's position, such as automatically adjusting the rearview mirror and automatically adjusting the steering angle, etc. J: The most appropriate riding position may be recognized according to the situation. Incidentally, when the position of the eyes of the driver 1 is recognized as in this embodiment, it can be used to adjust the angle of the rearview mirror or to detect drowsy driving.

又、第1の実施例及び第2の実施例において、鼻存在域
の縁部検出処理における所定部位の一部分としての最小
パターンとして差分を求めるのに使用する画素を、縦方
向は3画素おきで横方向は1画素おきとなっているとこ
ろを、幀横餞2画素おぎにして、使用する画素と画素と
の間隔を変えてもにい。この場合、横方向の間隔を大き
くしているのだが横の差分を求める際にその計算する画
素間隔が粗くなる為、第1実施例及び第2実施例より横
方向にきめの大まかなエツジ画像しか得られないが、縦
方向の間隔が小さくなっているので縦方向に対しては、
きめが細かくなったエツジ画像が19られる。又、第1
実施例及び第2実施例においては、縁部検出処理におけ
る所定部位の一部分としての最小のパターンとして差分
を求めるのに使用する画素として、原画像の8画素に1
画素の割で使用していたところを、原画像の8画素ごと
の和を計算し、それぞれの8画素の和の間で差分を求め
てもよい。仮に8画素のうちの1画本がたまたま外光の
影響等により大きな明度を持った場合、第1実施例及び
第2実施例では誤った差分を得る可能性があるがこの場
合8画素の和を取るため誤差が平均化され、より正確な
差分を取ることができ、より正確な縁部を検出する。又
、8画素の内の横方向の2画素の和をもってそれらごと
の差分を求めてもよく、計算始期を容易にしながらも正
確な縁部を検出する。
In addition, in the first and second embodiments, the pixels used to calculate the difference as the minimum pattern as a part of a predetermined region in the edge detection process of the nose region are set every three pixels in the vertical direction. Instead of every other pixel in the horizontal direction, you can change it to two pixels horizontally and change the spacing between the pixels used. In this case, although the horizontal interval is increased, the pixel interval calculated when calculating the horizontal difference becomes rougher, so the edge image has a rougher grain in the horizontal direction than in the first and second embodiments. However, since the vertical spacing is small, in the vertical direction,
A finer-grained edge image is created. Also, the first
In the embodiment and the second embodiment, 1 out of 8 pixels of the original image is used as the pixel used to calculate the difference as the minimum pattern as a part of a predetermined region in the edge detection process.
Instead of using pixel division, the sum of every 8 pixels of the original image may be calculated, and the difference may be found between the sums of each 8 pixels. If one of the eight pixels happens to have a large brightness due to the influence of external light, there is a possibility that an incorrect difference will be obtained in the first and second embodiments, but in this case, the sum of the eight pixels Errors are averaged to obtain a more accurate difference, which results in more accurate edge detection. Alternatively, the difference may be obtained by summing two pixels in the horizontal direction among the eight pixels, thereby making it easy to start calculation and detecting accurate edges.

更に第1の実施例及び第2の実施例において、鼻候補検
出処理における鼻候補検出用論理式はGK2 (i 、
 j )へ(GK2 (i 、 、i −1)GK2 
(+ +1. j −1> )へ(GK2 (i +1
 、 j −2)VGK2 (i +2.、i  2)
)を用いているが、鼻の形状が第18図(イ)。
Furthermore, in the first embodiment and the second embodiment, the logical formula for nose candidate detection in the nose candidate detection process is GK2 (i,
j ) to (GK2 (i , , i −1) GK2
(+ +1. j −1> ) to (GK2 (i +1
, j −2) VGK2 (i +2., i 2)
), but the shape of the nose is as shown in Figure 18 (a).

(ロ)、(ハ)、(ニ)、(ホ)、(へ)のうちどれか
の2値画像をとるとすると以下の論理式を用いでもよく
、 GK2 (i 、 j )へ(GK2 (i +1. 
j −1)VGK2 (”i +2. j  1 ) 
)鼻と考えうる他の形状を想定した他の論理式を用いて
もよい。又、該検出された2値画像と鼻め211C1化
した縁部の標準パターンとを比較することにJ:り鼻候
補部分を検出してもよい。その比較手段は十記鼻の位置
認識処理で実行したと同様に相関の度合を調べ、相関の
最大値であり、一定値以上の値をとる画像の位置を以て
行なわれる。
If you want to take any binary image of (b), (c), (d), (e), or (f), you can use the following logical formula to convert GK2 (i, j) to (GK2 ( i +1.
j −1) VGK2 (“i +2. j 1 )
) Other logical formulas assuming other shapes that can be considered as noses may be used. Alternatively, a nose candidate portion may be detected by comparing the detected binary image with a standard pattern of the edge of the nose 211C1. The comparison means checks the degree of correlation in the same way as in the position recognition process of the ten noses, and is performed at the position of the image where the correlation is the maximum value and has a value greater than a certain value.

又、第1の実施例及び第2の実施例においては、所定部
位候補位置検出手段M4が画像検出手段M3より検出さ
れた画像データの所定部位の一部分として最小のパター
ンとしての゛差分を求めて縁部を検出し、更にその縁部
を形状を表わす論理式を用いることにより検索し、鼻尖
部位の候補位置を検出するよう2段階のパターン検索で
構成されているが、差分始期を行わず運転者の鼻尖部分
の標準パターンに基づき画像データ内からパターン該当
位置を検索することにより、一段階にて所定部位候補位
置としての奔尖部の位置を検出するよう構成してもよい
Further, in the first embodiment and the second embodiment, the predetermined part candidate position detection means M4 calculates the difference as a minimum pattern as a part of the predetermined part of the image data detected by the image detection means M3. The pattern search consists of a two-step pattern search in which the edge is detected, and then the edge is searched using a logical formula representing the shape to detect the candidate position of the nasal tip. The position of the tip of the nose as a candidate position of the predetermined part may be detected in one step by searching the image data for a position corresponding to the pattern based on a standard pattern of the nose tip of a person.

又、所定部位候補位置検出手段において縁部を検出した
際に、続いて鼻尖部位を求めるのではなく、一段階のパ
ターン検索で終了し直接所定検出手段を実行するように
して鼻の位置を検出するようにしてもよい。
Furthermore, when the edge is detected by the predetermined part candidate position detecting means, the position of the nose is detected by completing the pattern search in one step and directly executing the predetermined detecting means, instead of subsequently finding the tip of the nose. You may also do so.

又、第1の実施例及び第2の実施例において、前述の発
光手段M2には発光部5が、画像検出手段M3には画像
検出部6が、所定部位候補位置検出手段M4J所定部位
検出手段M5及び位IIg識手段M6には画像処理部8
が夫々相当するのであるが、・画像検出手段M3として
は上記実施例のようにMOS形の固体撮像素子からなる
画像検出部6の他にも、例えばCOD等、いわゆる固体
カメラに用いられる撮像素子からなるものであればよく
、インターレース方式のものを使用しても良い。
Further, in the first embodiment and the second embodiment, the light emitting unit M2 described above includes the light emitting unit 5, the image detecting unit M3 includes the image detecting unit 6, and the predetermined part candidate position detecting unit M4J the predetermined part detecting unit. M5 and IIg recognition means M6 include an image processing section 8.
In addition to the image detecting unit 6 made of a MOS type solid-state image sensor as in the above embodiment, the image detecting means M3 may be an image sensor used in a so-called solid-state camera such as a COD, for example. An interlaced type may also be used.

又、第1の実施例及び第2の実施例においては画一検出
部6を1個とし、一方向から運転者を捉えた画像データ
を用いて運転者の乗車位置を認識づるJ−うにしており
、運転者の左右方向への移動は青線していないのである
が、画像検出部を異なる11′?置に2側設番プ、いわ
ゆる三角測量の原理を用いて運転者の乗車位置を認識す
るよう構成すれば、運転者の左右方向への移動も検知す
ることができ、運転者の三次元位置をより正確に認識す
ることができるJ:うになる。
In addition, in the first embodiment and the second embodiment, there is one uniformity detection unit 6, and the J-uniformity detection unit 6 recognizes the riding position of the driver using image data captured from one direction. The driver's movement in the left and right direction is not indicated by the blue line, but the image detection unit is different from 11'? If the configuration is configured to recognize the driver's riding position using the so-called triangulation principle, it is possible to detect the driver's movement in the left and right directions, and the driver's three-dimensional position can be detected. J: Be able to recognize more accurately.

尚、第1の実施例及び第2の実施例では、発光手段M2
として赤外線ストロボを用いているが白熱球のような連
続光を用いてもよい。
In addition, in the first embodiment and the second embodiment, the light emitting means M2
Although an infrared strobe is used as a flashlight, a continuous light such as an incandescent bulb may also be used.

[発明の効果] 以上詳述した如く、本発明の車両運転者の位置認識装置
においては、画像検出手段によって得られる画像データ
から運転者顔面部の所定部位の一部分の標準パターンに
基づき運転者顔面部の所定部位候補位置を検出し、該所
定部位候補位置近傍の画像データから所定部位全体の標
t(モパターンに棋づぎ所定部位を検出することにより
車両運転者構成されている。従って、バックミラー、ヘ
ッドレスト、空調空気の吹出口、あるいはステアリング
等の位置や角度を自動調整するとか、運転者の目の位置
や頭の位置の周期的変化から居眠り運転を検知して運転
者に警報を与えるといったことに有用である。
[Effects of the Invention] As detailed above, the vehicle driver position recognition device of the present invention detects the driver's face based on a standard pattern of a predetermined part of the driver's face from image data obtained by the image detection means. The vehicle driver is constructed by detecting the candidate position of the predetermined part of the body, and detecting the predetermined part by using the image data in the vicinity of the candidate position of the predetermined part. It automatically adjusts the position and angle of mirrors, headrests, air-conditioned air outlets, steering wheels, etc., or detects drowsiness while driving based on periodic changes in the position of the driver's eyes and head and issues a warning to the driver. It is useful for such things.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の構成を表わすブロック図、第2図ない
し第18図は本発明の実施例を示し、第2図は本発明の
実施例が適用される車両のインストルメントパネル及び
その周辺を表わす斜視図、第3図は発光部5の説明図、
第4図は画像検出部6の説明図、第5図は乗車位置認識
装置の全体構成図、第6図は第1実施例の画像処理部8
の動作を表わすフローチャート、第7図は画像データG
の読み込み処理を説明するタイムチャート、第0図は画
像入力部10に記憶された照射画像データGを表わす説
明図、第9図(イ)は画像データGの画像図、第9図(
ロ)は鼻存在域の縁部検出始即を実行したエツジ画像図
、第10図は差分計算に使用する画素の説明図、第11
図は求めた差分の極大値の選び方を説明する説明図、第
12図(イ)、(ロ)は鼻候補を検出する為の説明図、
第13図は鼻の標準パターンを表わすデータ図、第14
図は鼻の位置検出処理の説明図、第15図は鼻の三次元
位置を説明する説明図であって、(イ)は運転者1の平
面図、(ロ)、は運転者1の側面図、第16図は第2実
施例の画像処理部8の動作を表わすフローチャート、第
17図−は目の標準パターンを表わすデータ図、第18
図(イ)、(ロ)、(ハ)、(ニ)、(ホ)、(へ)は
他の形状の鼻候補を検出する為の説明図である。 M2・・・発光手段 M3・・・画像検出手段 M4・・・縁部検出手段 M5・・・位置認識手段 5・・・発光部 6・・・画像検出部 8・・・画像処理部 10・・・画像入力部 14・・・CPU
FIG. 1 is a block diagram showing the configuration of the present invention, FIGS. 2 to 18 show embodiments of the present invention, and FIG. 2 shows an instrument panel of a vehicle and its surroundings to which the embodiment of the present invention is applied. FIG. 3 is an explanatory diagram of the light emitting unit 5,
FIG. 4 is an explanatory diagram of the image detection section 6, FIG. 5 is an overall configuration diagram of the riding position recognition device, and FIG. 6 is an illustration of the image processing section 8 of the first embodiment.
7 is a flowchart showing the operation of image data G.
FIG. 0 is an explanatory diagram showing the irradiation image data G stored in the image input unit 10, FIG. 9(A) is an image diagram of the image data G, FIG.
b) is an edge image diagram after performing edge detection of the nose existing region; Figure 10 is an explanatory diagram of pixels used for difference calculation;
The figure is an explanatory diagram explaining how to select the maximum value of the obtained difference, and Figures 12 (a) and (b) are explanatory diagrams for detecting nose candidates.
Figure 13 is a data diagram representing the standard pattern of the nose, Figure 14
15 is an explanatory diagram of the nose position detection process, and FIG. 15 is an explanatory diagram of the three-dimensional position of the nose. 16 is a flowchart showing the operation of the image processing unit 8 of the second embodiment, FIG. 17- is a data diagram showing the standard eye pattern, and FIG.
Figures (A), (B), (C), (D), (E), and (F) are explanatory diagrams for detecting nose candidates of other shapes. M2... Light emitting means M3... Image detecting means M4... Edge detecting means M5... Position recognition means 5... Light emitting section 6... Image detecting section 8... Image processing section 10. ...Image input section 14...CPU

Claims (1)

【特許請求の範囲】 1 車両運転者を照射する発光手段と、 該発光手段の照射による上記運転者からの反射光を受け
、運転者を画像データとして検出する画像検出手段と、 該画像データから上記運転者顔面部の所定部位の一部分
の標準パターンに基づき上記運転者顔面部の所定部位候
補位置を検出する所定部位候補位置検出手段と、 上記所定部位候補位置近傍の画像データから上記所定部
位全体の標準パターンに基づき所定部位を検出する所定
部位検出手段と、 上記所定部位検出手段により検出された所定部位に基づ
いて上記運転者の三次元位置を認識する位置認識手段と
、 を備えたことを特徴とする車両運転者位置認識装置。 2 所定部位候補位置検出手段が、所定部位の一部分の
標準パターンとして画像データ内の2点間の差分を求め
て差分が所定値以上の位置を検索することにより、所定
部位候補位置としての縁部を検出する特許請求の範囲第
1項記載の車両運転者位置認識装置。 3 所定部位候補位置検出手段が、所定部位の一部分の
標準パターンとして運転者の鼻尖部分の標準パターンに
基づき画像データ内からパターン該当位置を検索するこ
とにより、所定部位候補位置としての鼻尖部の位置を検
出し、所定部位検出手段が、所定部位全体の標準パター
ンとして鼻の標準パターンに基づき所定部位候補位置近
傍の画像データからパターン該当位置を検索することに
より、所定部位としての鼻の位置を検出する特許請求の
範囲第1項記載の車両運転者位置認識装置。
[Scope of Claims] 1. A light emitting means for illuminating a vehicle driver; an image detecting means for receiving reflected light from the driver caused by the illumination of the light emitting means and detecting the driver as image data; and an image detecting means for detecting the driver as image data. a predetermined part candidate position detection means for detecting a predetermined part candidate position of the driver's face based on a standard pattern of a part of the predetermined part of the driver's face; and the entire predetermined part from image data in the vicinity of the predetermined part candidate position. a predetermined part detection means for detecting a predetermined part based on a standard pattern of the driver; and a position recognition means for recognizing the three-dimensional position of the driver based on the predetermined part detected by the predetermined part detection means. Characteristic vehicle driver position recognition device. 2. The predetermined part candidate position detection means determines the difference between two points in the image data as a standard pattern of a part of the predetermined part and searches for a position where the difference is greater than or equal to a predetermined value, thereby detecting the edge as the predetermined part candidate position. A vehicle driver position recognition device according to claim 1, which detects the position of a vehicle driver. 3. The predetermined part candidate position detecting means searches for a pattern corresponding position from image data based on a standard pattern of the driver's nose tip as a standard pattern of a part of the predetermined part, thereby determining the position of the nose tip as a predetermined part candidate position. , and the predetermined part detection means detects the position of the nose as the predetermined part by searching for a position corresponding to the pattern from image data in the vicinity of the predetermined part candidate position based on the standard pattern of the nose as a standard pattern of the entire predetermined part. A vehicle driver position recognition device according to claim 1.
JP22160084A 1984-10-22 1984-10-22 Recognizing device for vehicle driver's position Pending JPS6199803A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22160084A JPS6199803A (en) 1984-10-22 1984-10-22 Recognizing device for vehicle driver's position

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22160084A JPS6199803A (en) 1984-10-22 1984-10-22 Recognizing device for vehicle driver's position

Publications (1)

Publication Number Publication Date
JPS6199803A true JPS6199803A (en) 1986-05-17

Family

ID=16769297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22160084A Pending JPS6199803A (en) 1984-10-22 1984-10-22 Recognizing device for vehicle driver's position

Country Status (1)

Country Link
JP (1) JPS6199803A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5614312A (en) * 1993-05-07 1997-03-25 E. I. Du Pont De Nemours And Company Wet-laid sheet material and composites thereof
JPH10960A (en) * 1996-06-12 1998-01-06 Yazaki Corp Driver monitoring device
JP2002543503A (en) * 1999-04-23 2002-12-17 シーメンス アクチエンゲゼルシヤフト Method and apparatus for determining the position of an object in a scene
JP2007234060A (en) * 2007-05-31 2007-09-13 Advanced Telecommunication Research Institute International Doze prevention device
JP2009146437A (en) * 2009-02-27 2009-07-02 Advanced Telecommunication Research Institute International Doze prevention apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5725875A (en) * 1980-07-21 1982-02-10 Kumao Houjiyou Cleaner for surface of board of pinball machine
JPS59194274A (en) * 1983-04-18 1984-11-05 Nippon Telegr & Teleph Corp <Ntt> Person deciding device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5725875A (en) * 1980-07-21 1982-02-10 Kumao Houjiyou Cleaner for surface of board of pinball machine
JPS59194274A (en) * 1983-04-18 1984-11-05 Nippon Telegr & Teleph Corp <Ntt> Person deciding device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5614312A (en) * 1993-05-07 1997-03-25 E. I. Du Pont De Nemours And Company Wet-laid sheet material and composites thereof
JPH10960A (en) * 1996-06-12 1998-01-06 Yazaki Corp Driver monitoring device
US6049747A (en) * 1996-06-12 2000-04-11 Yazaki Corporation Driver monitoring device
JP2002543503A (en) * 1999-04-23 2002-12-17 シーメンス アクチエンゲゼルシヤフト Method and apparatus for determining the position of an object in a scene
JP2007234060A (en) * 2007-05-31 2007-09-13 Advanced Telecommunication Research Institute International Doze prevention device
JP2009146437A (en) * 2009-02-27 2009-07-02 Advanced Telecommunication Research Institute International Doze prevention apparatus

Similar Documents

Publication Publication Date Title
US20180160079A1 (en) Pupil detection device
US20220188555A1 (en) Driver monitoring apparatus, vehicle and control method
JP6651911B2 (en) Face image processing device
CN108701345B (en) Passenger detection device, passenger detection system, and passenger detection method
EP3966740A1 (en) Systems, devices and methods for measuring the mass of objects in a vehicle
US20190204914A1 (en) Line of sight measurement device
JP2011042179A (en) Projector control device
JPS6199803A (en) Recognizing device for vehicle driver&#39;s position
JPS6166906A (en) Recognizing device for vehicle driver position
KR20170135573A (en) Apparatus for detecting of driver gaze direction
JP4701961B2 (en) Pedestrian detection device
JPS6166905A (en) Position of vehicle driver recognizing device
JP4451195B2 (en) Gaze detection device
JP2988235B2 (en) Gaze direction detection device for vehicles
JP2019114118A (en) Warning device, vehicle, warning method, and program
JPS6168503A (en) Vehicle operator position recognition equipment
JPS6184509A (en) Identifying device for vehicle driver
JP2019197008A (en) Imaging device
JP5024161B2 (en) Face position estimation device
JP6946993B2 (en) Image processing device and image processing method
JP6834928B2 (en) Image processing device and image processing method
JP7020359B2 (en) Warning device
WO2023008023A1 (en) Line-of-sight detection device, line-of-sight detection method, and line-of-sight detection program
JPH07167618A (en) Device for recognizing driver&#39;s position
JPH0426041B2 (en)